WO2007125658A1 - ナビゲーション装置 - Google Patents

ナビゲーション装置 Download PDF

Info

Publication number
WO2007125658A1
WO2007125658A1 PCT/JP2007/050094 JP2007050094W WO2007125658A1 WO 2007125658 A1 WO2007125658 A1 WO 2007125658A1 JP 2007050094 W JP2007050094 W JP 2007050094W WO 2007125658 A1 WO2007125658 A1 WO 2007125658A1
Authority
WO
WIPO (PCT)
Prior art keywords
map data
guide
map
acquired
storage unit
Prior art date
Application number
PCT/JP2007/050094
Other languages
English (en)
French (fr)
Inventor
Kazutoshi Hayashi
Original Assignee
Mitsubishi Electric Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corporation filed Critical Mitsubishi Electric Corporation
Priority to DE112007000809T priority Critical patent/DE112007000809T5/de
Priority to JP2008513088A priority patent/JPWO2007125658A1/ja
Priority to US12/087,268 priority patent/US8918283B2/en
Priority to CN200780006594.5A priority patent/CN101389926B/zh
Publication of WO2007125658A1 publication Critical patent/WO2007125658A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/367Details, e.g. road map scale, orientation, zooming, illumination, level of detail, scrolling of road map or positioning of current position marker
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/3673Labelling using text of road map data items, e.g. road names, POI names
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids

Definitions

  • the present invention relates to a navigation device that guides a user at a guide point set near an intersection or branch point, for example, by displaying a scene of the guide point as a guide map, and is particularly excellent in visibility.
  • the present invention relates to a technique for displaying a guide map.
  • a navigation apparatus that displays a map on a display and performs route guidance.
  • This navigation device searches for the optimum route to the current location destination by the user setting the destination, and stores this as a travel route.
  • the current position is sequentially detected, and the current location and the travel route are displayed on the map including the detected current position for guidance.
  • it displays a guidance map with 3D image power that is easy to match with the front scene that the driver actually sees, and also provides voice guidance.
  • the guidance using the map and the guide map allows the user to easily select the traveling direction when traveling along the travel route.
  • Patent Document 1 discloses an image display method for displaying an image such as a map with a time and season feeling.
  • This image display method uses a calendar timer to monitor the current date and time, and the multiplication constant generator generates a color according to the current time, season, etc.
  • R, G, B data multiplication constants CR, CG, CB is generated, and the multipliers for R, G, and B multiply the map color information (R GB data) output from the color palette by the multiplication constants CR, CG, and CB, respectively, to obtain the map image color information.
  • the image is displayed based on the color information obtained by the operation.
  • this image display method it is possible to change the display color of the map screen in conjunction with a preset time zone and season to express the day and night atmosphere and improve the visibility.
  • Patent Document 1 Japanese Patent Laid-Open No. 9 311623 [0005]
  • a color palette with a color tone suitable for the situation is prepared in advance, and when displaying, an optimum color palette is selected at that time and an image is selected.
  • n is the number of situations to be set forcibly
  • m is the maximum number of colors that can be defined in the color palette
  • the number of colors that can be expressed in one situation is, for example, m Zn
  • the number of colors is limited.
  • the maximum number of colors m that can be defined in the color palette is limited to 256 colors, so a realistic image cannot be displayed.
  • the image itself cannot be changed depending on the situation because a color palette with a different color tone is applied to the image data excluding color information.
  • the present invention has been made to solve the above-described problems, and provides a navigation device capable of displaying a plan according to the situation without being limited by the number of colors. Objective.
  • a navigation device stores a map data storage unit that stores map data including a guide map storage position pointer in data representing a guide point, and a single guide point.
  • a guide map data storage unit that stores a plurality of plan data for drawing different scenes as a guide map, a position detection unit that detects a current position, a situation acquisition unit that acquires a current situation, When the current position detected by the position detector reaches the guide point indicated by the acquired map data, the guidance indicated by the guide map storage position pointer included in the data representing the guide point The map data corresponding to the situation acquired by the situation acquisition unit is acquired from the location of the figure data storage unit, and the map data storage unit is combined with the acquired map data to display the display data.
  • a processing unit for generating and a display output unit for displaying a map and a guide map based on the display data generated by the processing unit are provided.
  • a plurality of guide map data for drawing different scenes as guide maps is stored for one guide point, and the current position is stored in the guide point indicated by the map data.
  • it arrives it obtains the guide map data corresponding to the situation at that time, combines it with the map data, and displays it.
  • the color palette since the color palette is not used, the number of colors that can be displayed can be increased, and different images can be prepared depending on the situation.
  • FIG. 1 is a block diagram showing a functional configuration of a navigation device according to Embodiment 1 of the present invention.
  • FIG. 2 is a diagram showing a data structure of map data and guide map data used in the navigation device according to Embodiment 1 of the present invention.
  • FIG. 3 is a flowchart showing a schematic operation of the navigation device according to the first embodiment of the present invention.
  • FIG. 4 is a diagram showing a data structure of map data and guide map data used in the navigation device according to Embodiment 2 and Embodiment 4 of the present invention.
  • FIG. 5 is a flowchart showing details of a display target image acquisition process performed by the navigation device according to Embodiment 2 and Embodiment 4 of the present invention.
  • FIG. 6 is a diagram showing a data structure of map data and guide map data used in the navigation device according to Embodiment 3 of the present invention.
  • FIG. 7 is a flowchart showing details of a display target image acquisition process performed by a navigation device according to Embodiment 3 of the present invention.
  • FIG. 8 is a flowchart showing details of a display target image acquisition process performed by the navigation device according to the fourth embodiment of the present invention.
  • FIG. 9 is a diagram showing a data structure of map data and guide map data used in the navigation device in accordance with Embodiment 5 of the present invention.
  • FIG. 10 is a flowchart showing details of a display target image acquisition process performed by the navigation device according to the fifth embodiment of the present invention.
  • FIG. 1 is a block diagram showing a functional configuration of a navigation apparatus according to Embodiment 1 of the present invention.
  • the navigation device includes a map information storage unit 11, a storage unit 12, a position detection unit 13, a situation acquisition unit 14, a display output unit 15, an input unit 16, and a processing unit 17.
  • the map information storage unit 11 includes, for example, a CD-ROM, a DVD-ROM, a hard disk, a storage medium, and a disk drive that reads data recorded on the storage medium.
  • the map information storage unit 11 can also be configured as a communication device that receives data by external force communication.
  • the map information storage unit 11 includes a map data storage unit 11a and a guide map data storage unit 1 lb.
  • the map data storage unit 11a stores map data including a guide map storage position pointer in data representing a guide point of road network data.
  • the guide map data storage unit 1 lb stores a plurality of guide map data for drawing a plurality of guide maps having a three-dimensional image power of a scene.
  • the map data read from the map data storage unit 11a and the guide map data read from the guide map data storage unit ib are sent to the processing unit 17.
  • the storage unit 12 is also configured with a RAM power, for example, and is accessed from the processing unit 17.
  • the storage unit 12 is used for temporarily storing data processed by the processing unit 17.
  • the storage unit 12 temporarily stores data representing the optimum route obtained by the route search process performed in the processing unit 17 as travel route data.
  • the position detection unit 13 is also configured with forces such as a GPS receiver, a vehicle speed sensor, and a gyro, and represents position data indicating the current position detected by the GPS receiver, and vehicle speed detected by the vehicle speed sensor.
  • the current position of the host vehicle is detected based on the speed data and the direction data representing the traveling direction of the vehicle detected by the gyro.
  • Current position data representing the current position of the vehicle detected by the position detection unit 13 is sent to the processing unit 17.
  • the situation acquisition unit 14 includes, for example, various sensors attached to the inside or outside of the vehicle, and acquires situation data representing a situation that is a condition for switching the guide map. Specifically, the status acquisition unit 14 acquires the date and time from a clock mechanism (not shown), acquires an illuminance meter power illuminance value (not shown), and turns on the V illumination lamp power (not shown) for turning on the night illumination. Get off state. This situation acquisition part 14 The obtained situation data is sent to the processing unit 17.
  • the display output unit 15 includes, for example, a CRT display device, a liquid crystal display device, and the like, and a map including the current position of the vehicle and a guide route according to display data sent from the processing unit 17. When the vehicle reaches the guidance point, a guidance map is displayed.
  • the input unit 16 also includes forces such as a touch panel placed on the screen of the display output unit 15, a remote controller, and an operation switch. The user can input a destination and make various settings. Used to do. Data input from the input unit 16 is sent to the processing unit 17.
  • the processing unit 17 is also configured with, for example, a microcomputer power, and controls the entire navigation device. For example, the processing unit 17 converts the optimal route from the current position of the vehicle detected by the position detection unit 13 to the destination input from the input unit 16 into the map data acquired by the map data storage unit 11a. A route search process for searching based on the above is executed. In addition, when the processing unit 17 reaches a guide point on the map data acquired from the map data storage unit 11a indicated by the current position data sent from the position detection unit 13, A guide map display process for displaying a guide map is executed according to the situation data acquired from the acquisition unit 14 (details will be described later).
  • the map data stored in the map data storage unit 11a has a well-known structure and includes a guide map storage position pointer 20 in the data representing the guide points of the road network data included in the map data. Yes.
  • the guide map storage position pointer 20 holds the storage position of the image data management table 21! /.
  • the guide map data storage unit l ib stores guide map data for each guide point.
  • the guide map data is composed of an image data management table 21 and image data 22.
  • the image data management table 21 includes a plurality of pieces of image data (images 1, 2,%) Respectively corresponding to a plurality of pieces of situation data (situations 0, 1,... ⁇ Holds a pointer indicating the storage position of 1).
  • Image data 22 is data for drawing a guide map displayed at a guide point, and for drawing a full-color three-dimensional image (guide map) of a different scene at one guide point. It consists of a plurality of image data.
  • the image data 22 can be created in various formats such as a bitmap format and a JPEG format. Note that the image data 22 included in the image data 22 need not be stored in one place, and the storage order of the image data follows the order of the pointers stored in the image data management table 21. There is no need.
  • FIG. 3 shows the operation of the navigation device configured as described above according to the first embodiment of the present invention, centering on the process of displaying the guide map at the guide point of the travel route. This will be explained with reference to the flow chart.
  • route search processing is executed (step ST31). That is, the processing unit 17 searches for the optimum route from the current position of the vehicle detected by the position detection unit 13 to the destination input by the input unit 16 based on the map data read from the map information storage unit 11.
  • the Data representing the optimum route obtained by this search is stored in the storage unit 12 as travel route data.
  • map data is read from the map data storage unit 11a, stored in the storage unit 12, and a map display process is performed. As a result, the map is displayed on the display output unit 15. After that, the route plan starts when the vehicle starts moving.
  • step ST32 the vehicle position search is performed (step ST32). That is, the processing unit 17 acquires current position data representing the current position of the host vehicle from the position detection unit 13. Next, it is checked whether or not a guide map needs to be displayed (step ST33). Specifically, the processing unit 17 collates the travel route data obtained in step ST31 with the current position data obtained in step ST32, thereby reaching the point where the guide map should be displayed, that is, the guide point. Judge whether. The guide point can be, for example, a point 500 m before the branch point of the travel route. If it is determined in this step ST33 that the guide map display is unnecessary, the process returns to step ST32 and the above-described processing is repeated until the guide point is reached.
  • step ST34 the processing unit 17 acquires status data at that time from the status acquisition unit 14.
  • display target images are acquired (step ST35). That is, the processing unit 17 acquires the guide map storage position pointer 20 included in the data representing the guide point of the road network data included in the map data that has already been read into the storage unit 12 to display the map, A guide map data storage unit 1 lb of position force image data management table 21 indicated by the contents of this guide map storage position pointer 20 is acquired.
  • step ST34 the status data acquired in step ST34 is collated with the image data management table 21, the central force of the image data management table 21 selects a pointer corresponding to the status data, and the image data indicated by the selected pointer is displayed. Acquired from image data 22.
  • step ST36 image display is performed (step ST36). That is, the processing unit 17 generates display data by combining the image data (guide map image) acquired in step ST35 and the image data (map image) generated based on the map data, and outputs the display data to the display output unit 15. send.
  • the map and the guide map are displayed on the screen of the display output unit 15.
  • a map including a travel route and a current position mark can be displayed on the left half of the screen of the display output unit 15, and a guide map can be displayed on the right half.
  • the image data 22 for drawing a plurality of guide maps respectively corresponding to a plurality of situations is prepared.
  • the current position arrives at the guide point indicated by the map data, it is configured to display a guide map according to the situation acquired by the status acquisition unit 14, so a color palette with a different color tone is prepared.
  • a full-color guide map can be displayed without being limited by the number of colors because it does not depend on the color palette.
  • the navigation device according to Embodiment 2 of the present invention is the same as the navigation device according to Embodiment 1, but the situation acquisition unit 14 force also indicates the current time when passing through the guide point. It is obtained and a guide map corresponding to the time zone to which the obtained time belongs is displayed.
  • the configuration of the navigation device according to the second embodiment is the same as that of the navigation device shown in FIG. 1 except for the function of the situation acquisition unit 14.
  • the situation acquisition unit 14 acquires time data representing the current time, such as a clock mechanism, not shown, as situation data.
  • FIG. 4 is a diagram showing a data structure of map data and guide map data used in the navigation device according to Embodiment 2 of the present invention.
  • the image data 22 is composed of image data data for a morning image, a daytime image, an evening image, and a nighttime image.
  • the image data management table 21 also includes the morning image storage position indicating the storage position of the morning image, the daytime image storage position indicating the storage position of the daytime image, and the evening image indicating the storage position of the evening image.
  • a night image storage position indicating a storage position and a night image storage position is stored.
  • step ST 51 it is checked whether the time is morning (step ST 51). That is, the processing unit 17 extracts time data from the status acquisition unit 14 and checks whether or not the time indicated by the extracted time data belongs to the morning time zone. If it is determined in step ST51 that the time is morning, a morning image is acquired (step ST52). That is, the processing unit 17 extracts the morning image storage position from the image data management table 21, and acquires the image data of the morning image from the image data 22 using the extracted morning image storage position as a pointer. Thereafter, the display target image acquisition process ends.
  • step ST53 When it is determined in step ST51 that the time is not in the morning !, it is next checked whether the time is daytime (step ST53). That is, the processing unit 17 extracts time data from the status acquisition unit 14, and checks whether the time indicated by the extracted time data belongs to the daytime time zone. In this step ST53, the time is daytime
  • a daytime image is acquired (step ST54). That is, the processing unit 17 extracts the daytime image storage position from the image data management table 21, and acquires the daytime image data from the image data 22 using the extracted daytime image storage position as a pointer. Thereafter, the display target image acquisition process ends.
  • step ST55 whether or not the time is evening power is checked. That is, the processing unit 17 extracts time data from the status acquisition unit 14, and checks whether or not the time indicated by the extracted time data belongs to the evening time zone. If it is determined in step ST55 that the time is evening, an evening image is acquired (step ST56). That is, the processing unit 17 extracts the evening image storage position from the image data management table 21, and acquires the image data of the evening image from the image data 22 using the extracted evening image storage position as a pointer. Thereafter, the display target image acquisition process ends.
  • step ST55 If it is determined in step ST55 that the time is not evening, it is recognized that the time is nighttime, and a nighttime image is acquired (step ST57). That is, the processing unit 17 extracts the nighttime image storage position from the image data management table 21, and acquires the image data of the nighttime image from the image data 22 using the extracted nighttime image storage position as a pointer. Thereafter, the display target image acquisition process ends.
  • steps ST51, ST53, and ST55 are based on the conditions of equations (1) to (4), and are stored in advance in the processing unit 17 or the storage unit 12, for example. Note that the conditions expressed by the equations (1) to (4) can be input from the input unit 16.
  • Morning image display time zone Tl ⁇ Time when passing the guide point ⁇ 2 (1)
  • Daytime image display time range ⁇ 2 ⁇ Time when passing the guide point ⁇ 3 ...
  • Night image display time zone ⁇ 4 ⁇ Time when passing the guide point ⁇ T1 ⁇ ⁇ ⁇ (4)
  • the navigation device is configured to display the guide map according to the time zone to which the time at the time of passing the guide point belongs.
  • the guide map displayed on the display output unit 15 is closer to the scenery that you can actually see. , It is easy to select the direction of travel when traveling to the destination.
  • the navigation device according to the third embodiment of the present invention is the navigation device according to the first embodiment, and acquires the illuminating light Z non-lighting state from the situation acquisition unit 14 when passing the guidance point.
  • the guide map corresponding to the lighting of the acquired illumination Z and the non-lighting state is displayed.
  • the configuration of the navigation device according to the third embodiment is the same as that of the navigation device shown in FIG.
  • the situation acquisition unit 14 acquires, as the situation data, data representing an on-Z-off state of an illumination switch (not shown) that turns on the night illumination.
  • FIG. 6 is a diagram showing a data structure of map data and guide map data used in the navigation device according to Embodiment 3 of the present invention.
  • the image data 22 is composed of a daytime image that is a display image when the illumination is not lit and a night image that is a display image when the illumination is lit.
  • the image data management table 21 stores a daytime image storage position indicating a storage position of a daytime image and a nighttime image storage position indicating a storage position of a nighttime image.
  • step ST71 it is checked whether or not the illumination is lit. That is, the processing unit 17 retrieves data representing the on / off state of the illumination switch from the status acquisition unit 14, and checks whether or not the retrieved data representing the on / off state indicates on. If it is determined in step ST71 that the illumination is lit, a night image is acquired (step ST72). That is, the processing unit 17 extracts the nighttime image storage position from the image data management table 21, and acquires the image data of the nighttime image from the image data 22 using the extracted nighttime image storage position as a pointer. After that, the display target image acquisition process ends To do.
  • step ST73 a daytime image is acquired (step ST73). That is, the processing unit 17 extracts the daytime image storage position from the image data management table 21, and acquires the daytime image data from the image data 22 using the extracted daytime image storage position as a pointer. Thereafter, the display target image acquisition process ends.
  • a plan view corresponding to the on / off state of the illumination switch that lights the night illumination of the automobile is displayed. Since it is configured, the guide map displayed on the display output unit 15 is closer to the scenery that can be seen more practically, and it is easy to select the direction of travel in traveling to the destination.
  • the navigation device according to the fourth embodiment of the present invention is the navigation device according to the first embodiment.
  • the navigation device according to the first embodiment acquires the current illuminance value from the situation acquisition unit 14 when passing the guidance point, and the acquired illuminance value.
  • a guide map corresponding to is displayed.
  • the configuration of the navigation device according to the fourth embodiment is the same as that of the navigation device shown in FIG. 1 except for the function of the situation acquisition unit 14.
  • the situation acquisition unit 14 acquires the illuminance value measured by the illuminometer, not shown, as the situation data.
  • the data structure of the map data and guide map data used in the navigation device according to Embodiment 4 of the present invention is the same as that of Embodiment 2 shown in FIG. However, the morning image, daytime image, evening image and nighttime image are classified according to the illuminance value.
  • Step ST81 it is checked whether or not the illuminance value indicates morning. That is, the processing unit 17 extracts the current illuminance value from the situation acquisition unit 14, and checks whether or not the extracted illuminance value corresponds to the morning time zone. If it is determined in step ST81 that the illuminance value is in the morning, a morning image is acquired (step ST82). The processing in step ST82 is the same as the processing in step ST52 shown in FIG. Thereafter, the display target image acquisition process ends.
  • step ST83 If it is determined in step ST81 that the illuminance value indicates morning, then it is checked whether the illuminance value indicates daytime (step ST83). That is, the processing unit 17 extracts the current illuminance value from the situation acquisition unit 14, and checks whether or not the extracted illuminance value corresponds to the daytime time zone. If it is determined in step ST83 that the illuminance value indicates daytime, a daytime image is acquired (step ST84). The processing in step ST84 is the same as the processing in step ST54 shown in FIG. Thereafter, the display target image acquisition process ends.
  • step ST83 If it is determined in step ST83 that the illuminance value indicates daytime, then it is checked whether the illuminance value indicates evening (step ST85). That is, the processing unit 17 extracts the current illuminance value from the situation acquisition unit 14, and checks whether or not the extracted illuminance value corresponds to the evening time zone. If it is determined in step ST85 that the illuminance value indicates evening, an evening image is acquired (step ST86). The processing in step ST86 is the same as the processing in step ST56 shown in FIG. Thereafter, the display target image acquisition process ends.
  • step ST85 If it is determined in step ST85 that the illuminance value does not indicate evening, it is recognized that the illumination value indicates night, and a night image is acquired (step ST87).
  • the processing in step ST87 is the same as the processing in step ST57 shown in FIG. Thereafter, the display target image acquisition process ends.
  • steps ST81, ST83, and ST85 are based on the conditions of equations (5) to (8), and are stored in advance in the processing unit 17 or the storage unit 12, for example. Note that the conditions expressed by the equations (5) to (8) can be input from the input unit 16.
  • Illuminance for image display in the morning B1 ⁇ Illuminance when passing the guide point ⁇ 2 ⁇ ⁇ ⁇ (5)
  • Illuminance for daytime image display B2 ⁇ Illuminance when passing through the guide point ⁇ 3 ⁇ ⁇ (6)
  • Evening image display target illuminance ⁇ 3 ⁇ Illuminance when passing through the guide point ⁇ ⁇ 4 ⁇ ⁇ ⁇ (7)
  • Illuminance for image display at night ⁇ 4 ⁇ Illuminance when passing through the guide point ⁇ 1 ⁇ ⁇ ⁇ (8)
  • the navigation device is configured to display the guide map according to the surrounding brightness, so that it is displayed on display output unit 15.
  • the guide map will be closer to the scenery that you can actually see, and it will be easier to select the direction of travel when traveling to your destination.
  • the navigation device according to the fifth embodiment of the present invention is the navigation device according to the first embodiment.
  • the situation acquisition unit 14 also acquires data representing the current season, and this A guide map corresponding to the season indicated by the data is displayed.
  • the configuration of the navigation device according to the fifth embodiment is the same as that of the navigation device shown in FIG. 1 except for the function of the situation acquisition unit 14.
  • the status acquisition unit 14 acquires current date data from a clock mechanism (not shown) as status data.
  • FIG. 9 is a diagram showing a data structure of map data and guide map data used in the navigation device according to Embodiment 5 of the present invention.
  • the image data 22 includes image data for a spring image, a summer image, a fall image, and a winter image.
  • the image data management table 21 also includes a spring image storage location indicating the storage location of the spring image, a summer image storage location indicating the storage location of the summer image, and an autumn image indicating the storage location of the autumn image.
  • a winter image storage position indicating an image storage position and a winter image storage position is stored.
  • a spring image may include a flower and autumn may include a sight image including autumn leaves.
  • step ST101 it is checked whether or not the season is spring (step ST101). That is, the processing unit 17 extracts date data representing the current date from the status acquisition unit 14, and checks whether the season indicated by the extracted date data belongs to spring. If it is determined in step ST101 that the season is spring, a spring image is acquired (step ST102). That is, the processing unit 17 extracts the spring image storage position from the image data management table 21, and acquires the image data of the spring image from the image data 22 using the extracted spring image storage position as a pointer. Thereafter, the display target image acquisition process ends.
  • step ST101 If it is determined in step ST101 that the season is not spring, then it is checked whether the season is summer power (step ST103). That is, the processing unit 17 extracts date data from the status acquisition unit 14, and checks whether the season indicated by the extracted date data belongs to summer. If it is determined in step ST103 that the season is summer, a summer image is acquired (step ST104). That is, the processing unit 17 extracts the summer image storage position from the image data management table 21, and acquires the image data of the summer image from the image data 22 using the extracted summer image storage position as a pointer. Thereafter, the display target image acquisition process ends.
  • step ST105 If it is determined in step ST103 that the season is not summer, then it is checked whether the season is autumn power (step ST105). That is, the processing unit 17 extracts date data from the status acquisition unit 14, and checks whether the season indicated by the extracted date data belongs to autumn. If it is determined in step ST105 that the season is autumn, an image for autumn is acquired (step ST106). That is, the processing unit 17 retrieves the autumn image storage position from the image data management table 21, and acquires the image data of the autumn image from the image data 22 using the retrieved autumn image storage position as a pointer. Thereafter, the display target image acquisition process ends.
  • step ST105 If it is determined in step ST105 that the season is not autumn, it is recognized that the season is winter, and a winter image is acquired (step ST107). That is, the processing unit 17 retrieves the winter image storage position from the image data management table 21, and acquires the image data of the winter image from the image data 22 using the retrieved winter image storage position as a pointer. To do. Thereafter, the display target image acquisition process ends.
  • steps ST101, ST103, and ST105 are based on the conditions of equations (9) to (12), and are stored in advance in processing unit 17 or storage unit 12, for example. It should be noted that the conditions shown in equations (9) to (12) are determined by inputting from the input unit 16.
  • D1 to D4 are prepared for each region. It can be configured to use D1 to D4 corresponding to the region based on the data representing this region.
  • the navigation device is configured to display different guide maps depending on the season at the time of passing the guide point, so the display output unit 15
  • the guide map displayed on the screen is closer to the scenery that can be seen more practically, and it becomes easier to select the direction of travel when traveling to the destination.
  • the navigation device can provide a high-quality guide map close to the scenery that the driver actually sees by displaying a plan view corresponding to the situation of the vehicle position. It has a structure that improves visibility and is suitable for use in in-vehicle navigation devices.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)

Abstract

 案内地点を表すデータに案内図格納位置ポインタ20を含む地図データを記憶する地図データ記憶部11aと、1つの案内地点に対して、異なる光景を案内図として描画するための複数の案内図データを記憶する案内図データ記憶部11bと、現在位置を検出する位置検出部13と、現在の状況を取得する状況取得部14と、検出された現在位置が地図データ記憶部から取得した地図データによって示される案内地点に到達したときに、該案内地点の案内図格納位置ポインタによって示される案内図データ記憶部の位置から、状況取得部で取得された状況に対応する案内図データを取得し、地図データと合成して表示データを生成する処理部17と、処理部で生成された表示データに基づき地図および案内図を表示する表示出力部15とを備えている。

Description

明 細 書
ナビゲーシヨン装置
技術分野
[0001] この発明は、たとえば交差点や分岐点の近くに設定された案内地点において、そ の案内地点の光景を案内図として表示することによりユーザを案内するナビゲーショ ン装置に関し、特に視認性に優れた案内図を表示する技術に関する。
背景技術
[0002] 従来、ディスプレイに地図を表示して経路案内を行うナビゲーシヨン装置が知られ ている。このナビゲーシヨン装置は、ユーザが目的地を設定することによって、現在地 力 目的地までの最適経路を探索し、これを走行経路として記憶する。そして、自車 が移動を開始して経路案内が開始されると、現在位置を逐次検出し、検出した現在 位置が含まれる地図上に、現在地および走行経路を表示して案内を行う。また、走 行経路の分岐点の近くに到達したときは、ドライバが実際に見ている前方の光景と照 合しやすい 3次元画像力 成る案内図を表示するとともに、音声による案内も行う。こ のように、地図と案内図を用いた案内によって、ユーザは、走行経路を走行する際の 進行方向を容易に選択することができる。
[0003] このようなナビゲーシヨン装置において、自車から観察される実際の光景に近い光 景を表示画面上に再現しょうとする技術が知られている。たとえば、特許文献 1は、時 刻や季節感を伴った地図等の画像を表示する画像表示方法を開示して ヽる。この画 像表示方法は、カレンダ 'タイマにより現在の日時を監視し、乗算定数発生部は現在 の時刻や季節等に応じた色合いとなるように R、 G、 Bデータの乗算定数 CR、 CG、 C Bを発生し、 R、 G、 B用の乗算器は、カラーパレットから出力される地図の色情報 (R GBデータ)に乗算定数 CR、 CG、 CBをそれぞれ乗算して地図画像の色情報を操作 し、この操作により得られた色情報に基づいて画像を表示する。この画像表示方法に よれば、予め設定された時間帯や季節に連動して地図画面の表示色を変えて昼夜 の雰囲気を表現し、視認性を向上させることができる。
[0004] 特許文献 1 :特開平 9 311623号公報 [0005] し力しながら、上述した特許文献 1に開示された技術では、状況に合わせた色調の カラーパレットを事前に用意し、表示の際に、その時点で最適なカラーパレットを選ん で画像を表示しているので、あら力じめ設定する状況の数を nとし、カラーパレットで 定義できる最大色数を mとすると、ある 1つの状況で表現できる色数は、たとえば、 m Znのように色数が制限される。また、ビットマップ形式の画像では、カラーパレットで 定義できる最大色数 mは、 256色に制限されるのでリアルな画像を表示することがで きない。さらに、色情報を除いた画像データに対し、色調の異なるカラーパレットを適 用しているため、画像自体を状況に応じて変えることができないという制限がある。
[0006] この発明は、上述した課題を解決するためになされたものであり、状況に応じた案 内図を色数の制限を受けることなく表示することができるナビゲーシヨン装置を提供 することを目的とする。
発明の開示
[0007] この発明に係るナビゲーシヨン装置は、上記課題を解決するために、案内地点を表 すデータに案内図格納位置ポインタを含む地図データを記憶する地図データ記憶 部と、 1つの案内地点に対して、異なる光景を案内図として描画するための複数の案 内図データを記憶する案内図データ記憶部と、現在位置を検出する位置検出部と、 現在の状況を取得する状況取得部と、位置検出部で検出された現在位置が地図デ ータ記憶部力 取得した地図データによって示される案内地点に到達したときに、該 案内地点を表すデータに含まれる案内図格納位置ポインタによって示される案内図 データ記憶部の位置から、状況取得部で取得された状況に対応する案内図データ を取得し、地図データ記憶部力 取得した地図データと合成して表示データを生成 する処理部と、処理部で生成された表示データに基づき地図および案内図を表示す る表示出力部とを備えている。
[0008] この発明によれば、 1つの案内地点に対して、異なる光景を案内図として描画する ための複数の案内図データを記憶しておき、現在位置が地図データによって示され る案内地点に到達したときに、その時点の状況に対応する案内図データを取得し、 地図データと合成して表示する。その結果、カラーパレットを使用しないので、表示 可能な色数を増加させることができ、また、状況に応じ異なった画像を準備できるの で、ドライバが実際に見る前方の光景により近い画像が表示することが可能となり、視 認性が向上する。また、案内図を高品質で表示させることができるなどの効果がある 図面の簡単な説明
[0009] [図 1]この発明の実施の形態 1に係るナビゲーシヨン装置の機能的な構成を示すプロ ック図である。
[図 2]この発明の実施の形態 1に係るナビゲーシヨン装置で使用される地図データお よび案内図データのデータ構造を示す図である。
[図 3]この発明の実施の形態 1に係るナビゲーシヨン装置の概略動作を示すフローチ ヤートである。
[図 4]この発明の実施の形態 2および実施の形態 4に係るナビゲーシヨン装置で使用 される地図データおよび案内図データのデータ構造を示す図である。
[図 5]この発明の実施の形態 2および実施の形態 4に係るナビゲーシヨン装置で行わ れる表示対象画像取得処理の詳細を示すフローチャートである。
[図 6]この発明の実施の形態 3に係るナビゲーシヨン装置で使用される地図データお よび案内図データのデータ構造を示す図である。
[図 7]この発明の実施の形態 3に係るナビゲーシヨン装置で行われる表示対象画像取 得処理の詳細を示すフローチャートである。
[図 8]この発明の実施の形態 4に係るナビゲーシヨン装置で行われる表示対象画像取 得処理の詳細を示すフローチャートである。
[図 9]この発明の実施の形態 5に係るナビゲーシヨン装置で使用される地図データお よび案内図データのデータ構造を示す図である。
[図 10]この発明の実施の形態 5に係るナビゲーシヨン装置で行われる表示対象画像 取得処理の詳細を示すフローチャートである。
発明を実施するための最良の形態
[0010] 以下、この発明をより詳細に説明するために、この発明を実施するための最良の形 態について、添付の図面に従って説明する。
実施の形態 1. 図 1は、この発明の実施の形態 1に係るナビゲーシヨン装置の機能的な構成を示す ブロック図である。このナビゲーシヨン装置は、地図情報記憶部 11、記憶部 12、位置 検出部 13、状況取得部 14、表示出力部 15、入力部 16および処理部 17から構成さ れている。
[0011] 地図情報記憶部 11は、たとえば CD— ROM、 DVD-ROM,ハードディスクといつ た記憶媒体および記憶媒体に記録されているデータを読み出すディスクドライブから 構成されている。なお、地図情報記憶部 11は、外部力 通信によりデータを受信す る通信装置など力も構成することもできる。この地図情報記憶部 11は、地図データ記 憶部 11 aと案内図データ記憶部 1 lbとから構成されて 、る。
[0012] 地図データ記憶部 11aは、道路ネットワークデータの案内地点を表すデータに案 内図格納位置ポインタを含む地図データを記憶して 、る。案内図データ記憶部 1 lb は、光景の 3次元画像力 成る複数の案内図を描画するための複数の案内図データ を記憶している。地図データ記憶部 11aから読み出された地図データおよび案内図 データ記憶部 l ibから読み出された案内図データは、処理部 17に送られる。
[0013] 記憶部 12は、たとえば RAM力も構成されており、処理部 17からアクセスされる。こ の記憶部 12は、処理部 17が処理するデータを一時的に格納するために使用される 。たとえば、記憶部 12には、処理部 17において行われた経路探索処理によって得ら れた最適経路を表すデータが走行経路データとして一時的に格納される。
[0014] 位置検出部 13は、 GPS受信機、車速センサ、ジャイロなど力も構成されており、 GP S受信機で検出された現在位置を表す位置データ、車速センサで検出された車両の 速度を表す速度データおよびジャイロで検出された車両の進行方位を表す方位デ ータに基づいて自車の現在位置を検出する。この位置検出部 13で検出された自車 の現在位置を表す現在位置データは、処理部 17に送られる。
[0015] 状況取得部 14は、たとえば、車内または車外に取り付けられた各種センサゃスイツ チ類力 構成されており、案内図を切り替える際の条件となる状況を表す状況データ を取得する。具体的には、状況取得部 14は、図示しない時計機構から日付および時 刻を取得し、図示しない照度計力 照度値を取得し、夜間照明を点灯する図示しな V、イルミネーションスィッチ力もオン Zオフ状態を取得する。この状況取得部 14で取 得された状況データは、処理部 17に送られる。
[0016] 表示出力部 15は、たとえば、 CRTディスプレイ装置や液晶ディスプレイ装置などか ら構成されており、処理部 17から送られてくる表示データにしたがって、自車の現在 位置および案内経路を含む地図を表示するとともに、自車が案内地点に到達した場 合は案内図を表示する。
[0017] 入力部 16は、たとえば、表示出力部 15の画面上に載置されたタツチパネルや、リ モートコントローラ、操作スィッチなど力も構成されており、ユーザが目的地等を入力 したり、各種設定を行うために使用される。この入力部 16から入力されたデータは、 処理部 17に送られる。
[0018] 処理部 17は、たとえばマイクロコンピュータ力も構成されており、ナビゲーシヨン装 置の全体を制御する。たとえば、処理部 17は、位置検出部 13で検出された自車の 現在位置から、入力部 16から入力された目的地までの最適経路を、地図データ記 憶部 11aで取得された地図データに基づいて検索する経路探索処理を実行する。ま た、処理部 17は、位置検出部 13から送られてくる現在位置データによって示される 自車の現在位置力 地図データ記憶部 11aから取得した地図データ上の案内地点 に到達した場合に、状況取得部 14から取得した状況データにしたがって案内図を表 示する案内図表示処理を実行する(詳細は後述する)。
[0019] 次に、この発明の実施の形態 1に係るナビゲーシヨン装置で使用される地図データ および案内図データのデータ構造を、図 2を参照しながら説明する。
[0020] 地図データ記憶部 11aに記憶される地図データは、周知の構造を有する他に、該 地図データに含まれる道路ネットワークデータの案内地点を表すデータに、案内図 格納位置ポインタ 20を含んでいる。案内図格納位置ポインタ 20は、画像データ管理 テーブル 21の格納位置を保持して!/、る。
[0021] 案内図データ記憶部 l ibは、案内地点毎の案内図データを記憶している。案内図 データは、画像データ管理テーブル 21と画像データ 22とカゝら構成されている。画像 データ管理テーブル 21は、状況取得部 14から送られてくる複数の状況データ(状況 0、 1、 · · ·、!!— 1)にそれぞれ対応する複数の画像データ (画像 1、 2、 · · ·、!!— 1)の 格納位置を示すポインタを保持して 、る。 [0022] 画像データ 22は、案内地点で表示される案内図を描画するためのデータであり、 1 つの案内地点に対して、異なる光景のフルカラーの 3次元画像 (案内図)を描画する ための複数の画像データから構成されている。画像データ 22は、ビットマップ形式、 J PEG形式といった種々の形式で作成することができる。なお、画像データ 22に含ま れる各画像データは、 1箇所に纏めて格納されている必要はなぐまた、各画像デー タの格納順番も画像データ管理テーブル 21に格納されて ヽるポインタの順番に従う 必要はない。
[0023] 次に、上記のように構成される、この発明の実施の形態 1に係るナビゲーシヨン装置 の動作を、走行経路の案内地点で案内図を表示する処理を中心に、図 3に示すフロ 一チャートを参照しながら説明する。
[0024] まず、経路探索処理が実行される (ステップ ST31)。すなわち、処理部 17は、位置 検出部 13で検出された自車の現在位置から、入力部 16によって入力された目的地 までの最適経路を地図情報記憶部 11から読み出した地図データに基づいて検索す る。この検索により得られた最適経路を表すデータは、走行経路データとして記憶部 12に記憶される。経路探索処理が終了すると、地図データ記憶部 11aから地図デー タが読み出されて記憶部 12に記憶され、地図表示処理が行われる。これにより、表 示出力部 15に地図が表示される。その後、自車が移動を開始することにより経路案 内が開始される。
[0025] 経路案内が開始されると、自車位置検索が行われる (ステップ ST32)。すなわち、 処理部 17は、位置検出部 13から自車の現在位置を表す現在位置データを取得す る。次に、案内図の表示が必要であるかどうかが調べられる (ステップ ST33)。具体 的には、処理部 17は、ステップ ST31で得られた走行経路データとステップ ST32で 得られた現在位置データとを照合することにより、案内図を表示すべき地点、つまり 案内地点に到達したどうかを判断する。案内地点は、たとえば、走行経路の分岐点 手前 500mの地点とすることができる。このステップ ST33において、案内図の表示が 不要であることが判断されるとステップ ST32に戻り、案内地点に到達するまで上述し た処理が繰り返される。
[0026] 一方、ステップ ST33において、案内図の表示が必要であることが判断されると、次 いで、状況取得が実行される (ステップ ST34)。すなわち、処理部 17は、状況取得 部 14から、その時点における状況データを取得する。次いで、表示対象画像の取得 が行われる (ステップ ST35)。すなわち、処理部 17は、地図を表示するために既に 記憶部 12に読み込まれて 、る地図データに含まれる道路ネットワークデータの案内 地点を表すデータに含まれる案内図格納位置ポインタ 20を取得し、この案内図格納 位置ポインタ 20の内容で示される、案内図データ記憶部 1 lbの位置力 画像データ 管理テーブル 21を取得する。そして、ステップ ST34で取得した状況データと画像デ ータ管理テーブル 21とを照合し、画像データ管理テーブル 21の中力も状況データ に対応するポインタを選び出し、この選び出したポインタで示される画像データを画 像データ 22の中から取得する。
[0027] 最後に、画像表示が行われる (ステップ ST36)。すなわち、処理部 17は、ステップ ST35において取得した画像データ (案内図の画像)と地図データに基づき生成した 画像データ(地図の画像)とを合成して表示データを生成し、表示出力部 15へ送る。 これにより、表示出力部 15の画面に地図および案内図が表示される。この場合、たと えば、表示出力部 15の画面の左半分に走行経路および現在位置マークを含む地 図を表示し、右半分に案内図を表示するように構成できる。
[0028] 以上説明したように、この発明の実施の形態 1に係るナビゲーシヨン装置によれば、 複数の状況にそれぞれ対応する複数の案内図を描画するための画像データ 22を用 意しておき、現在位置が地図データによって示される案内地点に到達したときに、状 況取得部 14で取得された状況に応じた案内図を表示するように構成したので、色調 の異なるカラーパレットを用意しておき、状況に合わせて色調を変化させて案内図を 表示する従来のナビゲーシヨン装置に比べると、カラーパレットに依存しないので色 数の制限を受けず、フルカラーの案内図を表示することができる。そのため、実際に 見える風景に近い案内図を提供できるので、視認性に優れ、目的地までの走行にお ける進行方向の選択が容易になる。
[0029] 実施の形態 2.
この発明の実施の形態 2に係るナビゲーシヨン装置は、実施の形態 1に係るナビゲ ーシヨン装置において、案内地点を通過するときに状況取得部 14力も現在の時刻を 取得し、この取得した時刻が属する時間帯に対応する案内図を表示するようにしたも のである。この実施の形態 2に係るナビゲーシヨン装置の構成は、状況取得部 14の 機能を除き、図 1に示したナビゲーシヨン装置と同じである。状況取得部 14は、状況 データとして、図示しな!、時計機構カゝら現在の時刻を表す時刻データを取得する。
[0030] 図 4は、この発明の実施の形態 2に係るナビゲーシヨン装置で使用される地図デー タおよび案内図データのデータ構造を示す図である。画像データ 22は、朝方用画像 、昼間用画像、夕方用画像および夜間用画像の各画像データカゝら構成されている。 また、画像データ管理テーブル 21には、朝方用画像の格納位置を示す朝方用画像 格納位置、昼間用画像の格納位置を示す昼間用画像格納位置、夕方用画像の格 納位置を示す夕方用画像格納位置および夜間用画像の格納位置を示す夜間用画 像格納位置が格納されて 、る。
[0031] 次に、上記のように構成される、この発明の実施の形態 2に係るナビゲーシヨン装置 の動作を説明する。この実施の形態 2に係るナビゲーシヨン装置の動作は、実施の形 態 1に係るナビゲーシヨン装置の表示対象画像取得処理 (ステップ ST35)の内容が 異なるのみである。したがって、以下では、表示対象画像取得処理の詳細を、図 5に 示すフローチャートを参照しながら説明する。
[0032] 表示対象画像取得処理では、まず、時刻は朝方かどうかが調べられる (ステップ ST 51)。すなわち、処理部 17は、状況取得部 14から時刻データを取り出し、この取り出 した時刻データによって示される時刻が朝方の時間帯に属するかどうかを調べる。こ のステップ ST51において、時刻が朝方であることが判断されると、朝方用画像が取 得される(ステップ ST52)。すなわち、処理部 17は、画像データ管理テーブル 21か ら朝方用画像格納位置を取り出し、この取り出した朝方用画像格納位置をポインタと して画像データ 22から朝方用画像の画像データを取得する。その後、表示対象画 像取得処理は終了する。
[0033] 上記ステップ ST51にお 、て、時刻が朝方でな!、ことが判断されると、次 、で、時刻 は昼間かどうかが調べられる (ステップ ST53)。すなわち、処理部 17は、状況取得部 14から時刻データを取り出し、この取り出した時刻データによって示される時刻が昼 間の時間帯に属するかどうかを調べる。このステップ ST53において、時刻が昼間で あることが判断されると、昼間用画像が取得される (ステップ ST54)。すなわち、処理 部 17は、画像データ管理テーブル 21から昼間用画像格納位置を取り出し、この取り 出した昼間用画像格納位置をポインタとして画像データ 22から昼間用画像の画像デ ータを取得する。その後、表示対象画像取得処理は終了する。
[0034] 上記ステップ ST53にお 、て、時刻が昼間でな 、ことが判断されると、次 、で、時刻 は夕方力どうかが調べられる (ステップ ST55)。すなわち、処理部 17は、状況取得部 14から時刻データを取り出し、この取り出した時刻データによって示される時刻が夕 方の時間帯に属するかどうかを調べる。このステップ ST55において、時刻が夕方で あることが判断されると、夕方用画像が取得される (ステップ ST56)。すなわち、処理 部 17は、画像データ管理テーブル 21から夕方用画像格納位置を取り出し、この取り 出した夕方用画像格納位置をポインタとして画像データ 22から夕方用画像の画像デ ータを取得する。その後、表示対象画像取得処理は終了する。
[0035] 上記ステップ ST55において、時刻が夕方でないことが判断されると、時刻は夜間 であることが認識され、夜間用画像が取得される (ステップ ST57)。すなわち、処理 部 17は、画像データ管理テーブル 21から夜間用画像格納位置を取り出し、この取り 出した夜間用画像格納位置をポインタとして画像データ 22から夜間用画像の画像デ ータを取得する。その後、表示対象画像取得処理は終了する。
[0036] なお、ステップ ST51、 ST53および ST55における判断は、(1)式〜(4)式の条件 に基づいており、たとえば、事前に処理部 17または記憶部 12に保存されている。な お、(1)式〜 (4)式で示される条件は、入力部 16から入力するように構成することも できる。
朝方用画像表示時間帯: Tl≤案内地点通過時の時刻 <Τ2· ·· (1)
昼間用画像表示時間帯: Τ2≤案内地点通過時の時刻く Τ3· ·· (2)
夕方用画像表示時間帯: Τ3≤案内地点通過時の時刻 < ΤΦ ·· (3)
夜間用画像表示時間帯: Τ4≤案内地点通過時の時刻 < T1 · · · (4)
[0037] 以上説明したように、この発明の実施の形態 2に係るナビゲーシヨン装置によれば、 案内地点通過時の時刻が属する時間帯に応じた案内図を表示するように構成したの で、表示出力部 15に表示される案内図は、より実際に見える風景に近い状態になり 、 目的地までの走行における進行方向の選択が容易になる。
[0038] 実施の形態 3.
この発明の実施の形態 3に係るナビゲーシヨン装置は、実施の形態 1に係るナビゲ ーシヨン装置において、案内地点を通過するときに状況取得部 14からイルミネーショ ンの点灯 Z非点灯状態を取得し、この取得したイルミネーションの点灯 Z非点灯状 態に対応した案内図を表示するようにしたものである。この実施の形態 3に係るナビ ゲーシヨン装置の構成は、状況取得部 14の機能を除き、図 1に示したナビゲーシヨン 装置と同じである。状況取得部 14は、状況データとして、夜間照明を点灯するイルミ ネーシヨンスィッチ(図示しな ヽ)のオン Zオフ状態を表すデータを取得する。
[0039] 図 6は、この発明の実施の形態 3に係るナビゲーシヨン装置で使用される地図デー タおよび案内図データのデータ構造を示す図である。画像データ 22は、イルミネー シヨン非点灯時表示用画像である昼間用画像とイルミネーション点灯時表示用画像 である夜間用画像とから構成されている。また、画像データ管理テーブル 21には、昼 間用画像の格納位置を示す昼間用画像格納位置および夜間用画像の格納位置を 示す夜間用画像格納位置が格納されて 、る。
[0040] 次に、上記のように構成される、この発明の実施の形態 3に係るナビゲーシヨン装置 の動作を説明する。この実施の形態 3に係るナビゲーシヨン装置の動作は、実施の形 態 1に係るナビゲーシヨン装置の表示対象画像取得処理 (ステップ ST35)の内容が 異なるのみである。したがって、以下では、表示対象画像取得処理の詳細を、図 7に 示すフローチャートを参照しながら説明する。
[0041] 表示対象画像取得処理では、まず、イルミネーションは点灯して 、るかどうかが調 ベられる (ステップ ST71)。すなわち、処理部 17は、状況取得部 14からイルミネーシ ヨンスィッチのオン Zオフ状態を表すデータを取り出し、この取り出したオン Zオフ状 態を表すデータがオンを示して 、るかどうかを調べる。このステップ ST71にお!/ヽて、 イルミネーションが点灯していることが判断されると、夜間用画像が取得される (ステツ プ ST72)。すなわち、処理部 17は、画像データ管理テーブル 21から夜間用画像格 納位置を取り出し、この取り出した夜間用画像格納位置をポインタとして画像データ 2 2から夜間用画像の画像データを取得する。その後、表示対象画像取得処理は終了 する。
[0042] 一方、ステップ ST71にお!/、て、イルミネーションが点灯して!/ヽな 、ことが判断される と、昼間用画像が取得される (ステップ ST73)。すなわち、処理部 17は、画像データ 管理テーブル 21から昼間用画像格納位置を取り出し、この取り出した昼間用画像格 納位置をポインタとして画像データ 22から昼間用画像の画像データを取得する。そ の後、表示対象画像取得処理は終了する。
[0043] 以上説明したように、この発明の実施の形態 3に係るナビゲーシヨン装置によれば、 自動車の夜間照明を点灯するイルミネーションスィッチのオン Zオフ状態に応じた案 内図を表示するように構成したので、表示出力部 15に表示される案内図は、より実 際に見える風景に近い状態になり、 目的地までの走行における進行方向の選択が 容易になる。
[0044] 実施の形態 4.
この発明の実施の形態 4に係るナビゲーシヨン装置は、実施の形態 1に係るナビゲ ーシヨン装置において、案内地点を通過するときに状況取得部 14から現在の照度値 を取得し、この取得した照度値に対応する案内図を表示するようにしたものである。こ の実施の形態 4に係るナビゲーシヨン装置の構成は、状況取得部 14の機能を除き、 図 1に示したナビゲーシヨン装置と同じである。状況取得部 14は、状況データとして、 図示しな 、照度計で計測された照度値を取得する。
[0045] この発明の実施の形態 4に係るナビゲーシヨン装置で使用される地図データおよび 案内図データのデータ構造は、図 4に示した実施の形態 2のそれと同じである。ただ し、朝方用画像、昼間用画像、夕方用画像および夜間用画像の区分は照度値にし たがって行われる。
[0046] 次に、上記のように構成される、この発明の実施の形態 4に係るナビゲーシヨン装置 の動作を説明する。この実施の形態 4に係るナビゲーシヨン装置の動作は、実施の形 態 1に係るナビゲーシヨン装置の表示対象画像取得処理 (ステップ ST35)の内容が 異なるのみである。したがって、以下では、表示対象画像取得処理の詳細を、図 8に 示すフローチャートを参照しながら説明する。
[0047] 表示対象画像取得処理では、まず、照度値が朝方を示して 、るかどうかが調べら れる (ステップ ST81)。すなわち、処理部 17は、状況取得部 14から現在の照度値を 取り出し、この取り出した照度値が朝方の時間帯に対応するかどうかを調べる。このス テツプ ST81において、照度値が朝方であることが判断されると、朝方用画像が取得 される(ステップ ST82)。このステップ ST82の処理は、図 5に示したステップ ST52の 処理と同じである。その後、表示対象画像取得処理は終了する。
[0048] 上記ステップ ST81にお 、て、照度値が朝方を示して 、な 、ことが判断されると、次 いで、照度値が昼間を示しているかどうかが調べられる(ステップ ST83)。すなわち、 処理部 17は、状況取得部 14から現在の照度値を取り出し、この取り出した照度値が 昼間の時間帯に対応するかどうかを調べる。このステップ ST83において、照度値が 昼間を示していることが判断されると、昼間用画像が取得される (ステップ ST84)。こ のステップ ST84の処理は、図 5に示したステップ ST54の処理と同じである。その後 、表示対象画像取得処理は終了する。
[0049] 上記ステップ ST83にお 、て、照度値が昼間を示して 、な 、ことが判断されると、次 いで、照度値が夕方を示しているかどうかが調べられる (ステップ ST85)。すなわち、 処理部 17は、状況取得部 14から現在の照度値を取り出し、この取り出した照度値が 夕方の時間帯に対応するかどうかを調べる。このステップ ST85において、照度値が 夕方を示していることが判断されると、夕方用画像が取得される (ステップ ST86)。こ のステップ ST86の処理は、図 5に示したステップ ST56の処理と同じである。その後 、表示対象画像取得処理は終了する。
[0050] 上記ステップ ST85において、照度値が夕方を示していないことが判断されると、照 度値は夜間を示していることが認識され、夜間用画像が取得される (ステップ ST87) 。このステップ ST87の処理は、図 5に示したステップ ST57の処理と同じである。その 後、表示対象画像取得処理は終了する。
[0051] なお、ステップ ST81、 ST83および ST85における判断は、(5)式〜(8)式の条件 に基づいており、たとえば、事前に処理部 17または記憶部 12に保存されている。な お、(5)式〜(8)式で示される条件は、入力部 16から入力するように構成することも できる。
朝方用画像表示対象照度: B1≤案内地点通過時の照度 < Β2· · · (5) 昼間用画像表示対象照度: B2≤案内地点通過時の照度 < Β3· · · (6) 夕方用画像表示対象照度: Β3≤案内地点通過時の照度 < Β4· · · (7)
夜間用画像表示対象照度: Β4≤案内地点通過時の照度 < Β 1 · · · (8)
[0052] 以上説明したように、この発明の実施の形態 4に係るナビゲーシヨン装置によれば、 周囲の明るさに応じた案内図を表示するように構成したので、表示出力部 15に表示 される案内図は、より実際に見える風景に近い状態になり、目的地までの走行におけ る進行方向の選択が容易になる。
[0053] 実施の形態 5.
この発明の実施の形態 5に係るナビゲーシヨン装置は、実施の形態 1に係るナビゲ ーシヨン装置において、案内地点を通過するときに状況取得部 14力も現在の季節を 表すデータを取得し、この取得したデータによって示される季節に対応した案内図を 表示するようにしたものである。この実施の形態 5に係るナビゲーシヨン装置の構成は 、状況取得部 14の機能を除き、図 1に示したナビゲーシヨン装置と同じである。状況 取得部 14は、状況データとして、図示しない時計機構から現在の日付データを取得 する。
[0054] 図 9は、この発明の実施の形態 5に係るナビゲーシヨン装置で使用される地図デー タおよび案内図データのデータ構造を示す図である。画像データ 22は、春用画像、 夏用画像、秋用画像および冬用画像の各画像データカゝら構成されている。また、画 像データ管理テーブル 21には、春用画像の格納位置を示す春用画像格納位置、夏 用画像の格納位置を示す夏用画像格納位置、秋用画像の格納位置を示す秋用画 像格納位置および冬用画像の格納位置を示す冬用画像格納位置が格納されている 。この場合、たとえば春用画像は花を含み、秋は紅葉を含む光景の画像とすることが できる。
[0055] 次に、上記のように構成される、この発明の実施の形態 5に係るナビゲーシヨン装置 の動作を説明する。この実施の形態 5に係るナビゲーシヨン装置の動作は、実施の形 態 1に係るナビゲーシヨン装置の表示対象画像取得処理 (ステップ ST35)の内容が 異なるのみである。したがって、以下では、表示対象画像取得処理の詳細を、図 10 に示すフローチャートを参照しながら説明する。 [0056] 表示対象画像取得処理では、まず、季節は春かどうかが調べられる (ステップ ST1 01)。すなわち、処理部 17は、状況取得部 14から現在の日付を表す日付データを 取り出し、この取り出した日付データによって示される季節が春に属するかどうかを調 ベる。このステップ ST101において、季節が春であることが判断されると、春用画像 が取得される (ステップ ST102)。すなわち、処理部 17は、画像データ管理テーブル 21から春用画像格納位置を取り出し、この取り出した春用画像格納位置をポインタと して画像データ 22から春用画像の画像データを取得する。その後、表示対象画像 取得処理は終了する。
[0057] 上記ステップ ST101において、季節が春でないことが判断されると、次いで、季節 は夏力どうかが調べられる (ステップ ST103)。すなわち、処理部 17は、状況取得部 14から日付データを取り出し、この取り出した日付データによって示される季節が夏 に属するかどうかを調べる。このステップ ST103において、季節が夏であることが判 断されると、夏用画像が取得される (ステップ ST104)。すなわち、処理部 17は、画 像データ管理テーブル 21から夏用画像格納位置を取り出し、この取り出した夏用画 像格納位置をポインタとして画像データ 22から夏用画像の画像データを取得する。 その後、表示対象画像取得処理は終了する。
[0058] 上記ステップ ST103において、季節が夏でないことが判断されると、次いで、季節 は秋力どうかが調べられる (ステップ ST105)。すなわち、処理部 17は、状況取得部 14から日付データを取り出し、この取り出した日付データによって示される季節が秋 に属するかどうかを調べる。このステップ ST105において、季節が秋であることが判 断されると、秋用画像が取得される (ステップ ST106)。すなわち、処理部 17は、画 像データ管理テーブル 21から秋用画像格納位置を取り出し、この取り出した秋用画 像格納位置をポインタとして画像データ 22から秋用画像の画像データを取得する。 その後、表示対象画像取得処理は終了する。
[0059] 上記ステップ ST105において、季節が秋でないことが判断されると、季節は冬であ ることが認識され、冬用画像が取得される (ステップ ST107)。すなわち、処理部 17 は、画像データ管理テーブル 21から冬用画像格納位置を取り出し、この取り出した 冬用画像格納位置をポインタとして画像データ 22から冬用画像の画像データを取得 する。その後、表示対象画像取得処理は終了する。
[0060] なお、ステップ ST101、 ST103および ST105における判断は、(9)式〜(12)式 の条件に基づいており、たとえば、事前に処理部 17または記憶部 12に保存されてい る。なお、(9)式〜(12)式で示される条件は、入力部 16から入力するように構成する ことちでさる。
春用画像表示期間: Dl≤案内地点通過時の日時 < D2 (9)
夏用画像表示期間: D2≤案内地点通過時の日時 < D3 · · · ( 10)
秋用画像表示期間: D3≤案内地点通過時の日時 < D4〜(11)
冬用画像表示期問: D4≤案内地点通過時の日時 < D1 · · · ( 12)
[0061] また、(9)式〜(12)式に関連して、各季節を定義する期間は、地域によって異なる ため、地域ごとに D1〜D4を用意しておき、位置検出部 13から地域を表すデータを 取得し、この地域を表すデータに基づき、地域に対応した D1〜D4を用いるように構 成することができる。
[0062] 以上説明したように、この発明の実施の形態 5に係るナビゲーシヨン装置によれば、 案内地点通過時の季節に応じて異なる案内図を表示するように構成したので、表示 出力部 15に表示される案内図は、より実際に見える風景に近い状態になり、目的地 までの走行における進行方向の選択が容易になる。
産業上の利用可能性
[0063] 以上のように、この発明に係るナビゲーシヨン装置は、自車位置の状況に応じた案 内図を表示することで、ドライバが実際に見る風景に近い高品質な案内図を提供で きる構成で、視認性を向上させたものであり、車載用ナビゲーシヨン装置などに用い るのに適している。

Claims

請求の範囲
[1] 案内地点を表すデータに案内図格納位置ポインタを含む地図データを記憶する地 図データ記憶部と、
1つの案内地点に対して、異なる光景を案内図として描画するための複数の案内 図データを記憶する案内図データ記憶部と、
現在位置を検出する位置検出部と、
現在の状況を取得する状況取得部と、
前記位置検出部で検出された現在位置が前記地図データ記憶部から取得した地 図データによって示される案内地点に到達したときに、該案内地点を表すデータに 含まれる案内図格納位置ポインタによって示される前記案内図データ記憶部の位置 から、前記状況取得部で取得された状況に対応する案内図データを取得し、前記地 図データ記憶部力 取得した地図データと合成して表示データを生成する処理部と 前記処理部で生成された表示データに基づき地図および案内図を表示する表示 出力部
とを備えたナビゲーシヨン装置。
[2] 案内図データ記憶部は、 1つの案内地点に対して、異なる時間帯の光景を案内図 として描画するための複数の案内図データを記憶し、
状況取得部は、現在の時刻を取得し、
処理部は、位置検出部で検出された現在位置が地図データ記憶部から取得した 地図データによって示される案内地点に到達したときに、該案内地点を表すデータ に含まれる案内図格納位置ポインタによって示される前記案内図データ記憶部の位 置から、前記状況取得部で取得された時刻が属する時間帯に対応する案内図デー タを取得し、前記地図データ記憶部力 取得した地図データと合成して表示データ を生成する
ことを特徴とする請求項 1記載のナビゲーシヨン装置。
[3] 案内図データ記憶部は、 1つの案内地点に対して、昼間の光景および夜間の光景 を案内図として描画するための案内図データを記憶し、 状況取得部は、夜間照明を点灯するイルミネーションスィッチのオン Zオフ状態を 取得し、
処理部は、位置検出部で検出された現在位置が地図データ記憶部から取得した 地図データによって示される案内地点に到達したときに、該案内地点を表すデータ に含まれる案内図格納位置ポインタによって示される前記案内図データ記憶部の位 置から、前記状況取得部で取得されたイルミネーションスィッチのオン Zオフ状態に 対応する案内図データを取得し、前記地図データ記憶部で取得した地図データと合 成して表示データを生成する
ことを特徴とする請求項 1記載のナビゲーシヨン装置。
[4] 案内図データ記憶部は、 1つの案内地点に対して、異なる時間帯の光景を案内図 として描画するための複数の案内図データを記憶し、
状況取得部は、現在の照度値を取得し、
処理部は、位置検出部で検出された現在位置が地図データ記憶部から取得した 地図データによって示される案内地点に到達したときに、該案内地点を表すデータ に含まれる案内図格納位置ポインタによって示される前記案内図データ記憶部の位 置から、前記状況取得部で取得された照度値に対応する案内図データを取得し、前 記地図データ記憶部で取得した地図データと合成して表示データを生成する ことを特徴とする請求項 1記載のナビゲーシヨン装置。
[5] 案内図データ記憶部は、 1つの案内地点に対して、異なる季節の光景を案内図とし て描画するための複数の画像データを記憶し、
状況取得部は、現在の日付を取得し、
処理部は、位置検出部で検出された現在位置が地図データ記憶部から取得した 地図データによって示される案内地点に到達したときに、該案内地点を表すデータ に含まれる案内図格納位置ポインタによって示される前記案内図データ記憶部の位 置から、前記状況取得部で取得された日付が属する季節に対応する案内図データ を取得し、前記地図データ記憶部で取得した地図データと合成して表示データを生 成する
ことを特徴とする請求項 1記載のナビゲーシヨン装置。
PCT/JP2007/050094 2006-04-26 2007-01-09 ナビゲーション装置 WO2007125658A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE112007000809T DE112007000809T5 (de) 2006-04-26 2007-01-09 Navigationsgerät
JP2008513088A JPWO2007125658A1 (ja) 2006-04-26 2007-01-09 ナビゲーション装置
US12/087,268 US8918283B2 (en) 2006-04-26 2007-01-09 Navigation apparatus
CN200780006594.5A CN101389926B (zh) 2006-04-26 2007-01-09 导航装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-122367 2006-04-26
JP2006122367 2006-04-26

Publications (1)

Publication Number Publication Date
WO2007125658A1 true WO2007125658A1 (ja) 2007-11-08

Family

ID=38655198

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/050094 WO2007125658A1 (ja) 2006-04-26 2007-01-09 ナビゲーション装置

Country Status (5)

Country Link
US (1) US8918283B2 (ja)
JP (2) JPWO2007125658A1 (ja)
CN (1) CN101389926B (ja)
DE (1) DE112007000809T5 (ja)
WO (1) WO2007125658A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100852615B1 (ko) 2006-04-27 2008-08-18 팅크웨어(주) 계절 및 지형 변화에 따른 지도 표현 방법 및 시스템
US8157853B2 (en) * 2008-01-24 2012-04-17 Medtronic, Inc. Delivery systems and methods of implantation for prosthetic heart valves
US9218682B2 (en) * 2008-10-15 2015-12-22 Nokia Technologies Oy Method and apparatus for generating an image
JP5556485B2 (ja) * 2010-08-05 2014-07-23 アイシン・エィ・ダブリュ株式会社 情報提供装置、情報提供方法、及び情報提供プログラム
US9544869B2 (en) * 2013-05-16 2017-01-10 Qualcomm Incorporated Method for adapting to venue positioning capabilities

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07191612A (ja) * 1993-12-27 1995-07-28 Aisin Aw Co Ltd 車両用情報表示装置
JPH09311623A (ja) * 1996-05-21 1997-12-02 Alpine Electron Inc 画像表示方法
JPH10148534A (ja) * 1996-11-18 1998-06-02 Nissan Motor Co Ltd 車載情報表示装置
JPH10267668A (ja) * 1997-03-27 1998-10-09 Fujitsu Ten Ltd ナビゲーション装置
JPH10339649A (ja) * 1997-06-10 1998-12-22 Matsushita Electric Ind Co Ltd 経路案内システム
JP2000283784A (ja) * 1999-03-31 2000-10-13 Matsushita Electric Ind Co Ltd 走行位置表示装置
JP2000292198A (ja) * 1999-04-08 2000-10-20 Kenwood Corp 車載用ナビゲーション装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2801798B2 (ja) 1991-07-10 1998-09-21 パイオニア株式会社 ナビゲーションシステム
DE69426011T2 (de) * 1993-12-27 2001-02-15 Aisin Aw Co Fahrzeuginformationsanzeigesystem
JP3351650B2 (ja) * 1995-03-28 2002-12-03 アルパイン株式会社 ナビゲーション装置のデモンストレーション方法
JPH09113291A (ja) 1995-10-19 1997-05-02 Toshiba Corp 地図表示処理装置
JPH1138872A (ja) * 1997-07-17 1999-02-12 Toyota Motor Corp 地図データ配信システム、およびそのシステムに適する地図データ取得装置
US20040204848A1 (en) * 2002-06-20 2004-10-14 Shigeru Matsuo Navigation apparatus for receiving delivered information
JP2003185453A (ja) * 2001-12-20 2003-07-03 Mitsubishi Electric Corp ナビゲーション装置および経路探索方法
US6937936B2 (en) * 2002-04-25 2005-08-30 Aisin Aw Co., Ltd. Navigation system
ES2425555T3 (es) * 2002-04-30 2013-10-16 Telmap Ltd. Sistema de navegación que utiliza mapas de corredores
CN100449266C (zh) 2002-08-09 2009-01-07 爱信艾达株式会社 地图显示装置
JP3981040B2 (ja) * 2003-04-18 2007-09-26 アルパイン株式会社 ナビゲーション装置およびその装置における地図データのアクセス方法
US7342516B2 (en) * 2003-10-08 2008-03-11 Hitachi, Ltd. Method and apparatus for communicating map and route guidance information for vehicle navigation
JP4189297B2 (ja) * 2003-10-29 2008-12-03 株式会社ナビタイムジャパン 経路案内システム、携帯端末、サーバ、プログラム、記録媒体
JP2005214693A (ja) 2004-01-28 2005-08-11 Alpine Electronics Inc 車載用ナビゲーション装置及びその画面表示方法
JP2006154538A (ja) * 2004-11-30 2006-06-15 Aisin Aw Co Ltd 地図描画方法、地図描画システム、ナビゲーション装置及び入出力装置
US7698061B2 (en) * 2005-09-23 2010-04-13 Scenera Technologies, Llc System and method for selecting and presenting a route to a user
JP4745045B2 (ja) * 2005-12-15 2011-08-10 アルパイン株式会社 ナビゲーション装置
JP4257661B2 (ja) * 2006-06-30 2009-04-22 アイシン・エィ・ダブリュ株式会社 ナビゲーション装置
JP4809900B2 (ja) * 2006-11-17 2011-11-09 パイオニア株式会社 ナビゲーション装置、地図表示方法及び地図表示プログラム
CN101553709A (zh) * 2006-12-11 2009-10-07 三菱电机株式会社 导航装置
WO2008096485A1 (ja) * 2007-02-05 2008-08-14 Mitsubishi Electric Corporation ナビゲーション装置
US8311736B2 (en) * 2008-06-04 2012-11-13 Hitachi, Ltd. Navigation device, navigation method and navigation system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07191612A (ja) * 1993-12-27 1995-07-28 Aisin Aw Co Ltd 車両用情報表示装置
JPH09311623A (ja) * 1996-05-21 1997-12-02 Alpine Electron Inc 画像表示方法
JPH10148534A (ja) * 1996-11-18 1998-06-02 Nissan Motor Co Ltd 車載情報表示装置
JPH10267668A (ja) * 1997-03-27 1998-10-09 Fujitsu Ten Ltd ナビゲーション装置
JPH10339649A (ja) * 1997-06-10 1998-12-22 Matsushita Electric Ind Co Ltd 経路案内システム
JP2000283784A (ja) * 1999-03-31 2000-10-13 Matsushita Electric Ind Co Ltd 走行位置表示装置
JP2000292198A (ja) * 1999-04-08 2000-10-20 Kenwood Corp 車載用ナビゲーション装置

Also Published As

Publication number Publication date
CN101389926B (zh) 2011-11-09
JP2010185880A (ja) 2010-08-26
US20090005976A1 (en) 2009-01-01
US8918283B2 (en) 2014-12-23
DE112007000809T5 (de) 2009-04-30
CN101389926A (zh) 2009-03-18
JPWO2007125658A1 (ja) 2009-09-10

Similar Documents

Publication Publication Date Title
US20080215234A1 (en) Portable navigation device
JP2003344062A (ja) ナビゲーション装置
JPH09292262A (ja) 周辺施設検索表示方法及び誘導経路の目的地設定方法
WO2007125658A1 (ja) ナビゲーション装置
JP2009280142A (ja) 車載インパネ画像表示装置
JP4219474B2 (ja) 走行位置表示装置
JPH1116091A (ja) 車両用表示装置
JP2002090167A (ja) 車載用ナビゲーション装置のルート案内方法
JP3732935B2 (ja) ナビゲーション装置
JPH09127862A (ja) 車両用地図表示装置
JP2017032436A (ja) 移動案内システム、移動案内方法及びコンピュータプログラム
JP2017083278A (ja) 情報提供システム、情報提供方法及びコンピュータプログラム
JP2004317222A (ja) ナビゲーション装置およびナビゲーション装置におけるランドマークの表示方法
JP3556868B2 (ja) ナビゲーション装置
JP3938825B2 (ja) ナビゲーション装置
JP2000003497A (ja) 走行位置表示装置
JP2007263666A (ja) 経路探索方法、ナビゲーション装置及びコンピュータプログラム
JPH08105752A (ja) 車載用ナビゲーション装置
JP4183570B2 (ja) シミュレーション走行時の地図表示方法およびそれを用いたナビゲーション装置
JP2004177209A (ja) ナビゲーション装置
JP2002267474A (ja) ナビゲーション装置
JP2002267464A (ja) ナビゲーション装置
JP2007285907A (ja) 地図表示装置、地図表示方法、及び地図表示プログラム
JPH08254433A (ja) 車載用ナビゲーション装置
JP4969392B2 (ja) ナビゲーション装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07706441

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2008513088

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 12087268

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 200780006594.5

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 1120070008091

Country of ref document: DE

RET De translation (de og part 6b)

Ref document number: 112007000809

Country of ref document: DE

Date of ref document: 20090430

Kind code of ref document: P

122 Ep: pct application non-entry in european phase

Ref document number: 07706441

Country of ref document: EP

Kind code of ref document: A1

REG Reference to national code

Ref country code: DE

Ref legal event code: 8607