WO2007135855A1 - 情報案内装置、情報案内方法、情報案内プログラムおよびコンピュータに読み取り可能な記録媒体 - Google Patents

情報案内装置、情報案内方法、情報案内プログラムおよびコンピュータに読み取り可能な記録媒体 Download PDF

Info

Publication number
WO2007135855A1
WO2007135855A1 PCT/JP2007/059503 JP2007059503W WO2007135855A1 WO 2007135855 A1 WO2007135855 A1 WO 2007135855A1 JP 2007059503 W JP2007059503 W JP 2007059503W WO 2007135855 A1 WO2007135855 A1 WO 2007135855A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
driver
guidance
unit
display screen
Prior art date
Application number
PCT/JP2007/059503
Other languages
English (en)
French (fr)
Inventor
Hiroaki Shibasaki
Original Assignee
Pioneer Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corporation filed Critical Pioneer Corporation
Priority to US12/300,690 priority Critical patent/US8200422B2/en
Priority to EP07742938A priority patent/EP2019286A4/en
Priority to JP2008516592A priority patent/JP4421667B2/ja
Publication of WO2007135855A1 publication Critical patent/WO2007135855A1/ja

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3641Personalized guidance, e.g. limited guidance on previously travelled routes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3691Retrieval, searching and output of information related to real-time traffic, weather, or environmental conditions
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • G09B29/106Map spot or coordinate position indicators; Map reading aids using electronic means

Definitions

  • Information guidance device information guidance method, information guidance program, and computer-readable recording medium
  • the present invention relates to an information guide device that guides information, an information guide method, an information guide program, and a computer-readable recording medium.
  • the use of the present invention is not limited to the above-described information guide device, information guide method, information guide program, and computer-readable recording medium.
  • Patent Document 1 Japanese Patent Laid-Open No. 06-309595
  • the display screen of the navigation device cannot be stared for a long time while driving, so the information displayed on the display screen can be grasped only by glance.
  • An example is the problem of being difficult to do.
  • the information guidance device displays information for supporting the movement of the moving body (hereinafter referred to as movement support information).
  • Detection means for detecting information about the driver's line of sight directed to the direction of the display screen (hereinafter referred to as line-of-sight information), and when the line-of-sight information is detected by the detection means, based on the movement support information described above
  • An acquisition means for acquiring information for guiding the driver, generation means for generating guidance information for guiding the information acquired by the acquisition means by voice, and guidance information generated by the generation means And an output means for outputting.
  • the information guidance method according to the invention of claim 16 provides a driver's direction directed to a display screen that displays information for supporting the movement of the moving body (hereinafter referred to as movement support information).
  • an information guidance program according to the invention of claim 17 causes a computer to execute the method of information proposal according to claim 16.
  • the computer-readable recording medium according to the invention of claim 18 is characterized in that the information guide program according to claim 17 is recorded.
  • FIG. 1 is a block diagram showing an example of a functional configuration of an information guide device that is useful in the present embodiment.
  • FIG. 2 is a flowchart showing the contents of processing of the information guide apparatus according to the present embodiment.
  • FIG. 3 is a block diagram of an example of a hardware configuration of the navigation device according to the first embodiment.
  • FIG. 4 is a flowchart showing the contents of processing of the navigation device according to the first embodiment.
  • FIG. 5 is a diagram showing a reference unit of elapsed time set for each predetermined traffic information.
  • FIG. 6 is a diagram showing an example of a case where the navigation device determines specific traffic information to guide the driver based on the elapsed time from a plurality of predetermined traffic information. .
  • FIG. 7 is a flowchart showing the contents of the processing of the navigation device according to the second embodiment.
  • Fig. 8 shows the criteria for the number of gazes set for each predetermined traffic information. It is a figure which shows a unit.
  • FIG. 9 is a flowchart showing the contents of the processing of the navigation device according to the third embodiment.
  • FIG. 10 is a diagram showing a reference unit for travel time and travel distance set for each traffic information determined in advance.
  • FIG. 1 is a block diagram showing an example of a functional configuration of an information guide device that is useful in the present embodiment.
  • an information guide device 100 includes a detection unit 101, a determination unit 102, a calculation unit 103, a determination unit 104, an acquisition unit 105, a generation unit 106, and an output unit 107. It is configured.
  • the detection unit 101 detects information related to the driver's line of sight directed in the direction of a display screen that displays information for supporting the movement of the moving body (hereinafter referred to as movement support information).
  • the movement support information is, for example, map information indicating the current location of the moving body.
  • Information relating to the driver's line of sight is detected by, for example, a camera mounted around the display screen of the information guide device 100.
  • the determination unit 102 determines whether or not the driver stares at the display screen of the information guide device 100 based on the time or frequency at which the information regarding the driver's line of sight is detected by the detection unit 101. . Specifically, for example, when the detection unit 101 detects information on the driver's line of sight for a predetermined time or more, or the detection unit 101 detects information on the driver's line of sight more than a specified number of times within a predetermined time. In this case, the determination unit 102 determines that the driver has stared at the display screen.
  • the calculation unit 103 determines whether the driver has stared at the display screen by the previous determination unit 102, or after the guidance information is output from the previous output unit 107, the determination unit 102 again determines whether the driver has The elapsed time until it is determined that the display screen is stared is calculated. Alternatively, the calculation unit 103 calculates the number of times of gaze that the determination unit 102 has determined that the driver has stared at the display screen after the guidance information is output by the previous output unit 107. Alternatively, the calculation unit 103 determines whether the driver has stared at the display screen by the previous determination unit 102, or after the guidance information is output by the previous output unit 107, and the travel time and travel time the mobile body has traveled. Calculate the distance.
  • the calculation unit 103 calculates the number of times that the determination unit 102 determined that the driver stared at the display screen within a predetermined time. Alternatively, the calculation unit 103 may determine whether the driver gazes at the display screen after the guidance information is output from the previous output unit 107 for each of a plurality of predetermined items until the determination unit 102 gazes at the display screen. Time is calculated for each item. Alternatively, for each of a plurality of predetermined items, the calculation unit 103 performs the number of gazes that the determination unit 102 has determined that the driver has stared at the display screen after the previous output unit 107 has output the guidance information. Is calculated for each item. Alternatively, the calculation unit 103 can calculate the travel time and travel distance for which each moving item travels when the guidance information is output by the previous output unit 107 for each of a plurality of predetermined items. To calculate.
  • the determination unit 104 guides the driver from information on a plurality of predetermined items. Determine information about.
  • the determination unit 104 is detected by the detection unit 101.
  • information on a specific item to be guided to the driver is determined.
  • the information about multiple items that have been daringly determined includes information on the distance from the current point to the destination, the required time, or the distance from the current point to the intersection, or the roads, topography, Information that represents the characteristics of the building.
  • the acquisition unit 105 acquires the information determined by the determination unit 104 as information for guiding the driver based on the map information.
  • the generation unit 106 generates guide information that guides the information acquired by the acquisition unit 103 by voice.
  • the output unit 105 outputs the guide information generated by the generation unit 104.
  • the output unit 105 is, for example, a speaker mounted on a moving body.
  • FIG. 2 is a flowchart showing the contents of the processing of the information guidance apparatus that works on this embodiment.
  • the information guiding apparatus 100 determines whether or not an operation start request has been received (step S201).
  • the operation start request is made, for example, when the user inputs an instruction by operating an operation unit (not shown).
  • step S201 Wait until the operation start request is accepted in step S201 (step S201: No loop). If accepted (step S201: Yes), the detecting unit 101 displays the direction of the display screen for displaying the movement support information. Information relating to the driver's line of sight directed to is detected (step S202).
  • the movement support information is, for example, map information indicating the current location of the moving object. Information relating to the driver's line of sight is detected by, for example, a camera mounted around the display screen of the information guide device 100.
  • the determination unit 102 determines whether the driver stared at the display screen of the information guide device 100 based on the time or frequency at which the information about the driver's line of sight was detected by the detection unit 101 in step S202. It is determined whether or not (step S203). Specifically, for example, when the detection unit 101 detects information related to the driver's line of sight for a predetermined time or more, If the detection unit 101 detects information on the driver's line of sight more than the specified number of times within a predetermined time, the determination unit 102 determines that the driver has stared at the display screen.
  • the determination unit 104 determines that the driver gazes at the display screen, and selects a specific information that guides the driver from information on a plurality of predetermined items.
  • Information about the item is determined (step S204).
  • the determination unit 104 performs a specific guidance to guide the driver based on the current position of the moving object at the time when the information on the driver's line of sight is detected by the detection unit 101 or the information calculated by the calculation unit 103.
  • the acquisition unit 105 acquires the information determined by the determination unit 104 in step S204 as information for guiding the driver (step S205). At this time, the acquisition unit 105 may acquire all information related to a plurality of predetermined items. In addition, the generation unit 106 generates guidance information in which the information acquired by the acquisition unit 105 in step S205 is written in a voice (step S206).
  • the output unit 107 outputs the guide information generated by the generation unit 106 in step S206 (step S207).
  • the output unit 107 is, for example, a spinning force mounted on the moving body.
  • the information guide apparatus 100 when information guide apparatus 100 detects information related to the driver's line of sight, whether or not the driver stares at the display screen of information guide apparatus 100. Power ⁇ Judge.
  • the information proposal device 100 determines information on a specific item in the driver from information on a plurality of predetermined items. Information obtained.
  • the information guidance device 100 generates guidance information for guiding the acquired information by voice, and outputs the generated guidance information. Therefore, the driver can grasp the information displayed on the display screen based on the voice guidance information without staring at the display screen of the information guide device 100 for a long time during driving.
  • Example 1 Example 1
  • Example 1 of the present invention will be described.
  • a navigation device mounted on a moving body such as a vehicle (including a four-wheeled vehicle and a two-wheeled vehicle) is previously guided for each of a plurality of predetermined traffic information.
  • a vehicle including a four-wheeled vehicle and a two-wheeled vehicle
  • the elapsed time from when the driver determines that the driver has stared at the display is calculated for each traffic information, and the traffic information to guide the driver is determined based on the calculated elapsed time To do.
  • FIG. 3 is a block diagram of an example of a hardware configuration of the navigation device according to the first embodiment.
  • a navigation apparatus 300 is mounted on a moving body such as a vehicle, and includes a CPU 301, a ROM 302, a RAM 303, a magnetic disk drive 304, a magnetic disk 305, an optical disk drive 306, and the like. , Optical disk 307, audio I / F (interface) 308, microphone 309, speaker 310, human-powered chair 311, video I / F 312, display 3 13, communication I / F 314, GPS unit 315, various sensors 316, and a camera 317. Each component 30 :! to 317 is connected by a bus 320.
  • the CPU 301 controls the entire navigation device 300.
  • the ROM 302 stores programs such as a boot program, a current position calculation program, a route search program, a route guidance program, a voice generation program, a map information display program, a communication program, a database creation program, and a data analysis program.
  • the RAM 3 03 is used as a work area for the CPU 301.
  • the current position calculation program calculates the current position of the vehicle (the current position of the navigation device 300) based on output information from a GPS unit 315 and various sensors 316 described later.
  • the route search program searches for an optimum route from the departure point to the destination point using map information recorded on a magnetic disk 305 described later.
  • the optimal route is the shortest (or fastest) route to the destination or the conditions specified by the user. For example, a matching route.
  • not only the destination point but also a route to a stop point or a rest point may be searched.
  • the searched guidance route is output to the audio I / F 308 and the video I / F 312 via the CPU 301.
  • the route guidance program is read out from the magnetic disk 305, the guidance route information searched by executing the route search program, the current position information of the vehicle calculated by executing the current position calculation program. Real-time route guidance information is generated based on the map information. The generated route guidance information is output to the audio I / F 308 and the video IZF 312 via the CPU 301.
  • the sound generation program generates tone and sound information corresponding to the pattern. In other words, based on the route guidance information generated by executing the route guidance program, the virtual sound source setting corresponding to the guidance point and the voice guidance information are generated. The generated voice guidance information is output to the voice I / F 308 via the CPU 301.
  • the map information display program displays map information recorded on the magnetic disk 305 and the optical disk 307 on the display 313 by the video I / F 312.
  • the CPU 301 determines whether or not the driver has stared at the display 313. Specifically, for example, if information on the driver's line of sight directed toward the camera 317 by various sensors 316 is detected continuously for 0.5 seconds or more, the CPU 301 causes the driver to stare at the display 313. It is determined that Alternatively, when information regarding the driver's line of sight directed toward the camera 317 by various sensors 316 is detected three or more times in 5 seconds, the CPU 301 determines that the driver stared at the display 313.
  • the CPU 301 gazes at the display 313 after the previous guidance for each of a plurality of predetermined traffic information.
  • the elapsed time elapsed until it is determined that the vehicle has been determined is calculated for each piece of traffic information, and the traffic information to guide the driver is determined based on the calculated elapsed time.
  • the plurality of predetermined traffic information are information relating to, for example, the travel time of the vehicle, the distance to the destination, or the right / left turn point.
  • the CPU 301 acquires the determined traffic information and generates guidance information for guiding the acquired traffic information by voice. And The CPU 301 outputs the generated guidance information to the speaker 310 via the audio I / F 308.
  • the magnetic disk drive 304 controls reading / writing of data with respect to the magnetic disk 305 according to the control of the CPU 301.
  • the magnetic disk 305 records data written under the control of the magnetic disk drive 304.
  • HD node disk
  • FD flexible disk
  • the optical disk drive 306 controls data reading / writing to the optical disk 307 according to the control of the CPU 301.
  • the optical disk 307 is a detachable recording medium from which data is read according to the control of the optical disk drive 306.
  • a writable recording medium can be used as the optical disk 307.
  • the removable recording medium may be an MO, a memory card, or the like.
  • map information recorded on a recording medium such as the magnetic disk 305 or the optical disk 307 is map information used for route search / route guidance.
  • the map information includes background data that represents features (features) such as buildings, rivers, and the ground surface, and road shape data that represents the shape of the road. Two-dimensional or three-dimensional data is displayed on the display screen of the display 313. Drawn on.
  • the road shape data further includes traffic condition data.
  • the traffic condition data includes, for example, the presence or absence of traffic lights and pedestrian crossings for each node, the presence or absence of entrances and junctions on highways, the length (distance) for each link, road width, direction of travel, road type (high speed Road, toll road, general road, etc.).
  • the traffic condition data stores past congestion information obtained by statistically processing the past congestion information based on the season * day of the week and large consecutive holidays' time.
  • the navigation device 300 obtains information on the currently occurring traffic jam from the road traffic information received by the communication IZF 314, which will be described later, but it is possible to predict the traffic jam situation at the specified time using the past traffic jam information. .
  • the force for recording map information or the like on a recording medium such as the magnetic disk 305 or the optical disk 307 is not limited to this.
  • map information is recorded only if it is integrated with the hardware of the navigation device 300. It may be provided outside the navigation device 300. In that case, the navigation apparatus 300 acquires map information via a network through the communication I / F 314, for example. The acquired map information is stored in the RAM 303 or the like.
  • the audio I / F 308 is connected to a microphone 309 for audio input and a speaker 310 for audio output. Audio received by the microphone 309 is A / D converted in the audio IZF 308. In addition, sound is output from the speaker 310. Note that the sound input from the microphone 309 can be recorded on the magnetic disk 305 or the optical disk 307 as sound data.
  • Examples of the input device 311 include a remote controller having a plurality of keys for inputting characters, numerical values, various instructions, a keyboard, a mouse, a touch panel, and the like.
  • the video I / F 312 is connected to the display 313 and the camera 317.
  • the video IZF 312 includes, for example, a graphic controller that controls the entire display 313, a buffer memory such as VRAM (Video RAM) that temporarily records image information that can be displayed immediately, and a graphic controller. This is composed of a control IC that controls the display of the display 313 based on the image data output from the display.
  • VRAM Video RAM
  • the display 313 displays icons, cursors, menus, windows, or various data such as characters and images.
  • a plurality of displays 313 may be provided in the vehicle, for example, for a driver and for a passenger seated in a rear seat.
  • Communication I / F 314 is connected to a network via radio and functions as an interface between navigation device 300 and CPU 301.
  • the communication I / F 314 is connected to a communication network such as the Internet via wireless, and also functions as an interface between the communication network and the CPU 301.
  • Communication networks include LANs, WANs, public line networks and mobile phone networks.
  • the communication I / F 314 is composed of, for example, an FM tuner, a VICS (Vehicle Information and Communication System) / beacon receiver, a wireless navigation device, and other navigation devices, and traffic congestion distributed from the VICS center.
  • Road traffic information such as traffic regulations.
  • VICS is a registered trademark.
  • the GPS unit 315 receives radio waves from GPS satellites and calculates information indicating the current position of the vehicle.
  • the output information of the GPS unit 315 is used when the CPU 301 calculates the current position of the vehicle together with output values of various sensors 316 described later.
  • the information indicating the current position is information that identifies one point on the map information, such as latitude'longitude and altitude.
  • Various sensors 316 output information that can determine the position and behavior of the vehicle, such as a vehicle speed sensor, an acceleration sensor, and an angular velocity sensor.
  • the output values of the various sensors 316 are used for the calculation of the current position by the CP 301 and the measurement of the speed and direction change amount.
  • the various sensors 316 detect information related to the driver's line of sight. Specifically, each type of sensor 316 detects information related to the driver's line of sight when the driver's line of sight is directed toward the camera 317 mounted around the display 313. More specifically, the relative image of the reflected image (Purkinje image) at the pupil center and the corneal surface from image information obtained by irradiating infrared rays from the infrared point light source toward the driver's eyeball by the infrared function of the camera 317. Detect position. The various sensors 316 detect information on the direction in which the driver's line of sight is directed based on the relative positions of the reflected image (Punorecyne image) at the pupil center and the corneal surface.
  • the camera 317 is mounted around the display 313, and captures information related to the driver's line of sight. Specifically, the camera 317 shoots the periphery of the driver's eyeball by irradiating infrared light from the infrared point light source toward the driver's eyeball by the infrared function. The photographed image information is recorded in the RAM 303, for example.
  • the detection unit 101 includes a determination unit 102, a calculation unit 103, a determination unit 104f, and a CPU 301 by various sensors 316 and a camera 317.
  • the function is obtained by the CPU 301, the GPS unit 315, and the various sensors 316, the generation unit 106 by the CPU 301 and the audio I / F 308, and the output unit 107 by the speaker 310.
  • step S401 the navigation device 300 determines whether or not an operation start request has been received.
  • the operation start request is made, for example, when the driver inputs an instruction by operating the input device 311.
  • step S401 the process waits until an operation start request is accepted (step S401).
  • step S401 Yes
  • the CPU 301 determines whether or not information related to the driver's line of sight has been detected (step S402). Specifically, for example, when the driver's line of sight is directed toward the camera 317 mounted around the display 313, the CPU 301 detects information related to the driver's line of sight using various sensors 316.
  • step S402 wait until information related to the driver's line of sight is detected (step S402: No loop). If detected (step S402: Yes), the CPU 301 gazes at the display 313. Whether or not (step S403). Specifically, for example, if information about the driver's line of sight directed toward the camera 317 by various sensors 316 is detected continuously for 0.5 seconds or more, the CPU 301 indicates that the driver displays the display 313. Judged to stare. Alternatively, when information regarding the driver's line of sight directed in the direction of the camera 317 is detected by the various sensors 316 three or more times in 5 seconds, the CPU 301 determines that the driver stared at the display 313.
  • step S403 If it is determined in step S403 that the driver is not staring at the display 313 (step S403: No), the process returns to step S402 until the CPU 301i is repeated. On the other hand, if it is determined in step S403 that the driver has stared at the display 313 (step S403: Yes), the CPU 301 has previously been provided for each of a plurality of predetermined traffic information. The elapsed time elapsed until it is determined that the driver stared at the display 313 is calculated for each piece of traffic information (step S404).
  • the plurality of predetermined traffic information are, for example, information on the travel time of the vehicle, the distance to the destination, or the distance to the right / left turn point.
  • the CPU 301 determines traffic information to guide the driver based on the elapsed time calculated in step S404 (step S405). Specifically, a reference unit for elapsed time is set for each traffic information, and the elapsed time calculated in step S404. Only the traffic information whose distance is more than the reference unit is guided to the driver. Then, the CPU 301 acquires the traffic information determined in step S405 (step S406).
  • the CPU 301 generates guidance information for guiding the traffic information acquired in step S406 by voice (step S407). Then, the CPU 301 outputs the guidance information generated in step S407 from the speaker 310 via the audio I / F 308 (step S407).
  • step S the CPU 301 determines whether or not an operation end request has been received.
  • step S409 if the operation end request is accepted and the answer is negative (step S409: No), the CPU 301 returns to the process of step S402 and repeats the process. On the other hand, when an operation end request is received in step S409 (step S409: Yes), the CPU 301 ends a series of processing.
  • the navigation apparatus 300 guides the driver based on the elapsed time from a plurality of traffic information determined in advance. An example of determining traffic information to be described will be described.
  • FIG. 5 is a diagram showing a reference unit of elapsed time set for each traffic information determined in advance.
  • the information on the travel time of the vehicle, the distance to the destination, or the distance to the right / left turn point is an example of the predetermined traffic information.
  • the reference unit of elapsed time is set in advance for each traffic information. The reference unit of elapsed time can be changed by the driver.
  • the base unit of elapsed time for travel time is 10 minutes
  • the base unit of elapsed time for the distance to the destination is 20 minutes
  • the base unit of the elapsed time for the distance to the right / left turn point is 1 minute Has been.
  • the navigation device 300 calculates, for each piece of traffic information, for each piece of traffic information, the elapsed time from the previous guidance until it is determined that the driver stared at the display 313. Only the traffic information whose calculated elapsed time is more than the reference unit is guided to the driver.
  • FIG. 6 shows an example of a case where the navigation device determines specific traffic information to guide the driver based on the elapsed time from a plurality of predetermined traffic information. It is a figure. In FIG. 6, it is assumed that the navigation device 300 provides information on the travel time, the distance to the destination, and the distance to the right / left turn point at 10:15.
  • the navigation device 300 only considers information related to the distance to the right / left turn point whose elapsed time is equal to or greater than the reference unit in FIG.
  • the navigation device 300 guides information related to the travel distance and the distance to the right / left turn point whose elapsed time is equal to or greater than the reference unit in FIG.
  • the navigation apparatus 300 when the navigation apparatus 300 detects information related to the driver's line of sight, has the driver stared at the display 313 of the navigation apparatus 300? Determine whether or not.
  • the navigation device 300 displays the traffic information for each of a plurality of traffic information determined in advance. The elapsed time until it is determined that the camera is staring is calculated for each traffic information. Then, the navigation device 300 determines traffic information to guide the driver based on the calculated elapsed time, and acquires the determined traffic information. Then, the navigation device 300 generates guidance information that guides the acquired traffic information by voice and outputs it from the speaker 310. Therefore, when the driver stares at the display 313 during driving, it is possible to prevent the guidance information having the same content as the previously guided content from being output.
  • the reference unit for the elapsed time is set to force, but it may be changed based on the current position of the vehicle. For example, for the unit of elapsed time related to the distance to the right / left turn point, the range from the right / left turn point to lkm The reference unit is 5 minutes when the vehicle is located at 5 minutes, the reference unit is 1 minute when the vehicle is located within 300 m or more and less than lkm from the right / left turn point, and within 300 m from the right / left turn point The reference unit when the vehicle is located at 10 seconds is 10 seconds.
  • the navigation device 300 determines that the driver has stared at the display 313 since the previous guidance for each of a plurality of predetermined traffic information. The elapsed time until the vehicle is calculated for each piece of traffic information, but after determining that the previous driver stared at the display 313 or when guidance information was output from the previous speaker 310, the driver again Elapsed time until it is determined that the user gazes at the display 313 may be calculated.
  • Example 2 of the present invention will be described.
  • the navigation device 300 mounted on a moving body such as a vehicle (including a four-wheeled vehicle and a two-wheeled vehicle) provides a previous guidance for each of a plurality of traffic information that has been determined in advance.
  • a moving body such as a vehicle (including a four-wheeled vehicle and a two-wheeled vehicle)
  • An example of calculating the number of gazes that the driver has determined to stare at the display 313 and determining the traffic information to guide the driver based on the calculated number of gazes will be described.
  • the hardware configuration of the navigation device 300 is almost the same as that in FIG.
  • FIG. 7 is a flowchart of the process performed by the navigation device according to the second embodiment.
  • the navigation apparatus 300 first determines whether an operation start request has been received (step S701).
  • the operation start request is made, for example, when the driver inputs an instruction by operating the input device 311.
  • step S701 the CPU 301 waits until an operation start request is accepted (step S701: No loop). If accepted (step S701: Yes), the CPU 301 has detected information on the driver's line of sight. The power is judged (step S702). Specifically, for example, the driver's line of sight is directed toward the camera 317 mounted around the display 313. In this case, the CPU 301 detects information related to the driver's line of sight using various sensors 316.
  • step S702 wait until information on the driver's line of sight is detected (step S702: No loop). If detected (step S702: Yes), the CPU 301 gazes at the display 313. Whether or not (step S703). Specifically, for example, if information about the driver's line of sight directed toward the camera 317 by various sensors 316 is detected continuously for 0.5 seconds or more, the CPU 301 indicates that the driver displays the display 313. Judged to stare. Alternatively, when information regarding the driver's line of sight directed in the direction of the camera 317 is detected by the various sensors 316 three or more times in 5 seconds, the CPU 301 determines that the driver stared at the display 313.
  • step S703 If it is determined in step S703 that the driver does not stare at the display 313 (step S703: No), the processing of step S702 (return and processing is repeated.) If it is determined in step S703 that the driver has stared at the display 313 (step S703: Yes), the CPU 301 determines that the driver has not been informed for each of a plurality of predetermined traffic information since the previous guidance. For each traffic information, the number of times of staring determined to have stared at the display 313 is calculated for each traffic information (step S704)
  • the predetermined multiple traffic information includes, for example, the travel time of the vehicle, the distance to the destination, or the right This is information on the distance to the left turn point.
  • CPU 301 determines traffic information to guide the driver based on the number of fixations calculated in step S704 (step S705). Specifically, a reference unit for the number of gazes is set for each traffic information, and only the traffic information for which the number of gazes calculated in step S704 is greater than or equal to the reference unit is guided to the driver. Further, the CPU 301 acquires the traffic information determined in step S705 (step S706).
  • the CPU 301 generates guidance information that guides the traffic information acquired in step S706 by voice (step S707). Then, the CPU 301 outputs the guidance information generated in step S707 from the speaker 310 via the audio I / F 308 (step S707).
  • CPU 301 determines whether or not an operation end request has been received (step S).
  • step S709 the driver can operate the input device 311 to input an instruction. It is done by exerting power. If it is determined in step S709 that the operation end request has not been received (step S709: No), the CPU 301 returns to the process of step S702 and repeats the process. On the other hand, when an operation end request is received in step S709 (step S709: Yes), the CPU 301 ends a series of processing.
  • the navigation apparatus 300 determines traffic information to guide the driver based on the predetermined number of gazes of a plurality of predetermined traffic information. An example of the case will be described.
  • FIG. 8 is a diagram showing a reference unit for the number of gazes set for each predetermined traffic information.
  • the traffic information acquired by the navigation device 300 includes, for example, information related to the travel time of the vehicle, the distance to the destination, or the distance to the right / left turn point.
  • a reference unit for the number of gazes is set in advance for each traffic information. The reference unit for the number of gazes can be changed by the driver.
  • the reference unit for the number of fixations with respect to travel time is 5 times
  • the reference unit for the number of fixations with respect to the distance to the destination is 3
  • the reference unit with respect to the distance to the right / left turn point is 1 time. Is set. Then, the navigation device 300 calculates the number of gazes for each traffic information since the last time the traffic information was guided to the driver, and only guides the traffic information for which the calculated number of gazes is equal to or greater than the reference unit. .
  • the navigation device 300 guides the driver about information on the distance to the destination and the distance to the right / left turn point where the number of gazes is equal to or greater than the reference unit in FIG.
  • the navigation device 300 when the navigation device 300 detects information related to the driver's line of sight, has the driver stared at the display 313 of the navigation device 300? Judgment is made. If the driver determines that he / she has stared at the display 313, the navigation device 300 may use a plurality of predetermined traffic information. For each traffic information, the number of times of gaze that the driver has determined to stare at the display 313 since the last guidance was calculated. Then, the navigation device 300 determines the traffic information to guide the driver based on the calculated number of gazes, and acquires the determined traffic information. Then, the navigation device 300 generates guidance information that guides the acquired traffic information by voice and outputs it from the speaker 310. Therefore, when the driver stares at the display 313 while driving, it is possible to prevent the same guidance information as the previously guided content from being output.
  • the reference unit for the number of fixations is set in advance, it may be changed based on the current position of the vehicle. For example, regarding the number of gazes at the right / left turn point, the number of gazes is 5 times when the vehicle is located in the range of 1 km or more from the right / left turn point, and the vehicle is located in the range of 300 m or more and less than 1 km from the right / left turn point If the vehicle is located within 300m from the right / left turn point, the number of staring is one.
  • the navigation device 300 determines that the driver has stared at the display 313 since the last guidance for each of the plurality of traffic information determined in advance. We decided to calculate the number of gazes for each traffic information, but since the guidance information was output from the speaker 3 10 last time, it was determined that the driver stared at the display 313. The number of gazes determined as having stared at the display 313 may be calculated.
  • Example 3 of the present invention will be described.
  • the navigation device 300 mounted on a moving body such as a vehicle (including a four-wheeled vehicle and a two-wheeled vehicle) performs a previous operation for each of a plurality of predetermined traffic information. Describes an example in which the travel time and travel distance traveled by the moving body after being guided are calculated for each traffic information, and the traffic information to be guided to the driver is determined based on the calculated travel time and travel distance. To do. Note that the hardware configuration of the navigation device 300 is almost the same as that in FIG.
  • FIG. 9 is a flowchart of the process contents of the navigation device according to the third embodiment.
  • the navigation apparatus 300 first determines whether an operation start request has been received (step S901).
  • the operation start request is made, for example, when the driver inputs an instruction by operating the input device 311.
  • step S901 wait until an operation start request is accepted (step S901).
  • step S901 Yes
  • the CPU 301 determines whether or not information related to the driver's line of sight has been detected (step S902). Specifically, for example, when the driver's line of sight is directed toward the camera 317 mounted around the display 313, the CPU 301 detects information related to the driver's line of sight using various sensors 316.
  • step S902 wait until information on the driver's line of sight is detected (step S902: No loop). If detected (step S902: Yes), CPU 301 gazes display 313 by the driver. Whether or not (step S903). Specifically, for example, if information about the driver's line of sight directed toward the camera 317 by various sensors 316 is detected continuously for 0.5 seconds or more, the CPU 301 indicates that the driver displays the display 313. Judged to stare. Alternatively, when information regarding the driver's line of sight directed in the direction of the camera 317 is detected by the various sensors 316 three or more times in 5 seconds, the CPU 301 determines that the driver stared at the display 313.
  • step S903 If it is determined in step S903 that the driver does not stare at the display 313 (step S903: No), the process returns to step S902 until the CPU 301i, and the process is repeated. On the other hand, if it is determined in step S903 that the driver has stared at the display 313 (step S903: Yes), the CPU 301 determines whether the vehicle has been previously guided for each of a plurality of predetermined traffic information. The travel time and travel distance traveled by is calculated (step S904).
  • the predetermined traffic information is, for example, information on the travel time of the vehicle, the distance to the destination, or the distance to the right / left turn point.
  • CPU 301 calculates the travel time and travel time of the vehicle calculated in step S904. Traffic information to be guided to the driver is determined based on the distance (step S905). Specifically, a reference unit for travel time or travel distance is set for each traffic information, and only the traffic information whose travel time or travel distance calculated in step S904 is greater than the reference unit is guided to the driver. .
  • CPU 301 obtains the traffic information determined in step S905 (step S906).
  • the CPU 301 generates guidance information for guiding the traffic information acquired in step S906 by voice (step S907).
  • the CPU 301 outputs the guidance information generated in step S907 from the speaker 310 via the audio I / F 308 (step S908).
  • step S 909 CPU 301 determines whether or not an operation end request has been accepted (step S 909).
  • the operation end request is made, for example, when the driver operates the input device 311 to input an instruction. If it is determined in step S909 that the operation end request has not been received (step S909: No), the CPU 301 returns to the process of step S902 and repeats the process. On the other hand, when an operation end request is received in step S909 (step S909: Yes), the CPU 301 ends a series of processing.
  • the navigation device 300 uses the travel time and travel time the vehicle has traveled since the previous guidance for each of a plurality of predetermined traffic information. An example of determining traffic information to guide the driver based on the distance will be described.
  • FIG. 10 is a diagram showing a reference unit of travel time and travel distance set for each predetermined traffic information.
  • the predetermined traffic information includes, for example, information related to the travel time of the vehicle, the distance to the destination, or the distance to the right / left turn point.
  • a reference unit for travel time and travel distance is set in advance. The reference unit for travel time and travel distance can be changed by the driver.
  • the reference unit for travel time is 10 minutes
  • the reference unit for the distance to the destination is 5 km
  • the reference unit for the distance to the right / left turn point is 100 m.
  • the navigation device 300 is used for the vehicle after traffic information is guided to the previous driver.
  • the travel time and travel distance traveled by the vehicle are calculated, and traffic information with the calculated travel time and travel distance equal to or greater than the reference unit is guided to the driver.
  • the travel time for which the vehicle has traveled since the last time the driver was informed about the travel time was 5 minutes, and the last time the driver was informed about the distance to the destination. Assume that the distance traveled is 6 km and the distance traveled by the vehicle after guiding the previous driver to the right / left turn point was 300 m. In this case, the navigation device 300 guides information related to the distance to the destination whose travel time or travel distance is equal to or greater than the reference unit in FIG.
  • the navigation device 300 when the navigation device 300 detects information related to the driver's line of sight, has the driver stared at the display 313 of the navigation device 300? Judgment is made. If it is determined that the driver has stared at the display 313, the navigation device 300 has been driven by the vehicle since the previous guidance for each of a plurality of predetermined traffic information. Calculate travel time and travel distance. Then, the navigation device 300 determines traffic information to guide the driver based on the calculated travel time and travel distance, and acquires the determined traffic information. Then, the navigation device 300 generates guidance information for guiding the acquired traffic information by voice and outputs it from the speaker 310. Therefore, when the driver stares at the display 313 while driving the vehicle, it is possible to prevent the output of the same guidance information as the previous guidance.
  • the reference unit of the travel time and the travel distance may be changed based on the current position of the force vehicle that is preliminarily set. For example, regarding the distance traveled to the right / left turn point, if the vehicle is located within lkm or more from the right / left turn point, the travel distance is 3km, and the vehicle is located within 300m to less than lkm from the right / left turn point. If the vehicle is located within 300m from the right / left turn point, the mileage will be 100m.
  • the navigation device 300 calculates the travel time and travel distance that the vehicle has traveled since the previous guidance for each of a plurality of predetermined traffic information. It was decided that the previous driver stared at the display 313. The travel time and travel distance traveled by the moving body may be calculated after the guidance information is output from the speaker 310 last time.
  • the navigation device 300 determines that the driver has stared at the display 313, the navigation device 300 selects from the traffic information regarding a plurality of predetermined items.
  • the information is not limited to traffic information but may be information based on map information displayed on the display screen.
  • the navigation device 300 displays the landmarks existing near the intersection.
  • the name, landmark location, direction from the current location, name of the intersection, name of the intersecting road, etc. are acquired from the map information and guided to the driver by voice.
  • the information guidance method described in the present embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation.
  • This program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, M0, or a DVD, and is executed by being read from the recording medium by the computer.
  • the program may be a transmission medium that can be distributed through a network such as the Internet.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Ecology (AREA)
  • Environmental & Geological Engineering (AREA)
  • Environmental Sciences (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

 情報案内装置(100)の検知部(101)は、移動体の現在地点を示す地図情報を表示する表示画面の方向に向けられた運転者の視線に関する情報を検知する。また、決定部(104)は、検知部(101)により視線に関する情報が検知された場合、あらかじめ定められた複数の項目に関する情報の中から運転者に案内する特定の項目に関する情報を決定する。また、取得部(105)は、地図情報に基づいて、決定部(104)により決定された情報を取得する。また、生成部(106)は、取得部(105)により取得された情報を音声で案内する案内情報を生成する。そして、出力部(107)は、生成部(106)により生成された案内情報を出力する。

Description

明 細 書
情報案内装置、情報案内方法、情報案内プログラムおよびコンピュータ に読み取り可能な記録媒体
技術分野
[0001] この発明は、情報を案内する情報案内装置、情報案内方法、情報案内プログラム およびコンピュータに読み取り可能な記録媒体に関する。ただし、この発明の利用は 、上述した情報案内装置、情報案内方法、情報案内プログラムおよびコンピュータに 読み取り可能な記録媒体には限られない。
背景技術
[0002] 従来、あらかじめ記憶されている各地点の情報などを用いて、現在地点から目的地 点までの最適な経路を短時間で探索し、運転支援を効果的におこなうことのできるナ ビグーシヨン装置が提案されている(たとえば、下記特許文献 1参照。)。
[0003] 特許文献 1 :特開平 06— 309595号公報
発明の開示
発明が解決しょうとする課題
[0004] し力、しながら、上記従来技術によれば、運転中はナビゲーシヨン装置の表示画面を 長時間凝視することができないため、一瞥しただけでは表示画面上に表示された情 報を把握することが難しいという問題が一例として挙げられる。
課題を解決するための手段
[0005] 上述した課題を解決し、 目的を達成するため、請求項 1の発明にかかる情報案内 装置は、移動体の移動を支援するための情報 (以下、移動支援情報と称する)を表 示する表示画面の方向に向けられた運転者の視線に関する情報(以下、視線情報と 称する)を検知する検知手段と、前記検知手段により視線情報が検知された場合、前 記移動支援情報に基づいて前記運転者に案内するための情報を取得する取得手 段と、前記取得手段により取得された情報を音声で案内する案内情報を生成する生 成手段と、前記生成手段により生成された案内情報を出力する出力手段と、を備える ことを特徴とする。 [0006] また、請求項 16の発明にかかる情報案内方法は、移動体の移動を支援するための 情報 (以下、移動支援情報と称する)を表示する表示画面の方向に向けられた運転 者の視線に関する情報 (以下、視線情報と称する)を検知する検知工程と、前記検知 工程により前記視線情報が検知された場合、前記移動支援情報に基づいて前記運 転者に案内するための情報を取得する取得工程と、前記取得工程により取得された 情報を音声で案内する案内情報を生成する生成工程と、前記生成工程により生成さ れた案内情報を出力する出力工程と、を含むことを特徴とする。
[0007] また、請求項 17の発明にかかる情報案内プログラムは、請求項 16に記載の情報案 内方法をコンピュータに実行させることを特徴とする。
[0008] また、請求項 18の発明にかかるコンピュータに読み取り可能な記録媒体は、請求 項 17に記載の情報案内プログラムを記録したことを特徴とする。
図面の簡単な説明
[0009] [図 1]図 1は、本実施の形態に力かる情報案内装置の機能的構成の一例を示すプロ ック図である。
[図 2]図 2は、本実施の形態にかかる情報案内装置の処理の内容を示すフローチヤ ートである。
[図 3]図 3は、本実施例 1にかかるナビゲーシヨン装置のハードウェア構成の一例を示 すブロック図である。
[図 4]図 4は、本実施例 1にかかるナビゲーシヨン装置の処理の内容を示すフローチヤ ートである。
[図 5]図 5は、あらかじめ定められた各交通情報に対して設定された経過時間の基準 単位を示す図である。
[図 6]図 6は、ナビゲーシヨン装置が、あらかじめ定められた複数の交通情報の中から 経過時間に基づいて運転者に案内する特定の交通情報を決定する場合の一例を示 した図である。
[図 7]図 7は、本実施例 2にかかるナビゲーシヨン装置の処理の内容を示すフローチヤ ートである。
[図 8]図 8は、あらかじめ定められた各交通情報に対して設定された凝視回数の基準 単位を示す図である。
[図 9]図 9は、本実施例 3にかかるナビゲーシヨン装置の処理の内容を示すフローチヤ ートである。
[図 10]図 10は、あら力、じめ定められた各交通情報に対して設定された走行時間およ び走行距離の基準単位を示す図である。
符号の説明
[0010] 100 情報案内装置
101 検知部
102 判定部
103 算出部
104 決定部
105 取得部
106 生成部
107 出力部
発明を実施するための最良の形態
[0011] 以下に添付図面を参照して、この発明にかかる情報案内装置、情報案内方法、情 報案内プログラムおよびコンピュータに読み取り可能な記録媒体の好適な実施の形 態を詳細に説明する。
[0012] (実施の形態)
(情報案内装置の機能的構成)
図 1を用いて、この発明にかかる情報案内装置の機能的構成について説明する。 図 1は、本実施の形態に力かる情報案内装置の機能的構成の一例を示すブロック図 である。
[0013] 図 1において、情報案内装置 100は、検知部 101と、判定部 102と、算出部 103と、 決定部 104と、取得部 105と、生成部 106と、出力部 107と、を含み構成されている。
[0014] 検知部 101は、移動体の移動を支援するための情報 (以下、移動支援情報と称す る)を表示する表示画面の方向に向けられた運転者の視線に関する情報を検知する 。移動支援情報は、たとえば、移動体の現在地点を示す地図情報などである。また、 運転者の視線に関する情報は、たとえば、情報案内装置 100の表示画面周辺に搭 載されたカメラによって検知される。
[0015] 判定部 102は、検知部 101により運転者の視線に関する情報が検知された時間ま たは頻度に基づいて、運転者が情報案内装置 100の表示画面を凝視したか否かを 判定する。具体的には、たとえば、検知部 101により所定時間以上運転者の視線に 関する情報が検知された場合、または検知部 101により所定時間以内に規定回数以 上運転者の視線に関する情報が検知された場合、判定部 102は、運転者が表示画 面を凝視したと判定する。
[0016] 算出部 103は、前回判定部 102により運転者が表示画面を凝視したと判定してか ら、または前回出力部 107により案内情報が出力されてから、再度判定部 102により 運転者が表示画面を凝視したと判定するまでの経過時間を算出する。あるいは、算 出部 103は、前回出力部 107により案内情報が出力されてから、判定部 102により運 転者が表示画面を凝視したと判定した凝視回数を算出する。あるいは、算出部 103 は、前回判定部 102により運転者が表示画面を凝視したと判定してから、または前回 出力部 107により案内情報が出力されてから、移動体が走行した走行時間および走 行距離を算出する。あるいは、算出部 103は、所定時間以内に判定部 102により運 転者が表示画面を凝視したと判定した凝視回数を算出する。あるいは、算出部 103 は、あらかじめ定められた複数の項目それぞれに対して、前回出力部 107により案内 情報が出力されてから判定部 102により運転者が表示画面を凝視したと判定するま での経過時間を各項目ごとに算出する。あるいは、算出部 103は、あらかじめ定めら れた複数の項目それぞれに対して、前回出力部 107により案内情報が出力されてか ら判定部 102により運転者が表示画面を凝視したと判定した凝視回数を各項目ごと に算出する。あるいは、算出部 103は、あら力、じめ定められた複数の項目それぞれに 対して、前回出力部 107により案内情報が出力されて力も移動体が走行した走行時 間および走行距離を各項目ごとに算出する。
[0017] 決定部 104は、判定部 102による判定の結果、運転者が表示画面を凝視したと判 定した場合、あらかじめ定められた複数の項目に関する情報の中から運転者に案内 する特定の項目に関する情報を決定する。この際、決定部 104は、検知部 101により 運転者の視線に関する情報が検知された時点における移動体の現在地点、または 算出部 103により算出された情報に基づいて、運転者に案内する特定の項目に関 する情報を決定する。あら力じめ定められた複数の項目に関する情報とは、たとえば 、現在地点から目的地点までの距離、所要時間、または現在地点から交差点までの 距離などに関する情報、あるいは現在地点周辺の道路、地形、建物などの特徴を表 す情報のことである。
[0018] 取得部 105は、地図情報に基づいて、運転者に案内するための情報として決定部 104により決定された情報を取得する。生成部 106は、取得部 103により取得された 情報を音声で案内する案内情報を生成する。出力部 105は、生成部 104により生成 された案内情報を出力する。出力部 105は、たとえば移動体に搭載されたスピーカ などである。
[0019] (情報案内装置 100の処理の内容)
つぎに、図 2を用いて、本実施の形態に力かる情報案内装置 100の処理の内容に ついて説明する。図 2は、本実施の形態に力かる情報案内装置の処理の内容を示す フローチャートである。図 2のフローチャートにおいて、まず、情報案内装置 100は、 動作の開始要求を受け付けたか否かを判断する(ステップ S201)。動作の開始要求 は、たとえば、利用者が図示しない操作部を操作して指示入力をおこなうことによりお こなう。
[0020] ステップ S201において、動作の開始要求を受け付けるまで待って(ステップ S201 : Noのループ)、受け付けた場合 (ステップ S201 : Yes)、検知部 101は、移動支援 情報を表示する表示画面の方向に向けられた運転者の視線に関する情報を検知す る(ステップ S202)。移動支援情報は、たとえば、移動体の現在地点を示す地図情 報などである。運転者の視線に関する情報は、たとえば、情報案内装置 100の表示 画面周辺に搭載されたカメラによって検知される。
[0021] つぎに、判定部 102は、ステップ S202において検知部 101により運転者の視線に 関する情報が検知された時間または頻度に基づいて、運転者が情報案内装置 100 の表示画面を凝視したか否かを判定する(ステップ S203)。具体的には、たとえば、 検知部 101により所定時間以上運転者の視線に関する情報が検知された場合、また は検知部 101により所定時間以内に規定回数以上運転者の視線に関する情報が検 知された場合、判定部 102は、運転者が表示画面を凝視したと判定する。
[0022] そして、決定部 104は、判定部 102による判定の結果、運転者が表示画面を凝視 したと判定した場合、あらかじめ定められた複数の項目に関する情報の中から運転 者に案内する特定の項目に関する情報を決定する (ステップ S204)。この際、決定 部 104は、検知部 101により運転者の視線に関する情報が検知された時点における 移動体の現在地点、または算出部 103により算出された情報に基づいて、運転者に 案内する特定の項目に関する情報を決定する。あらかじめ定められた複数の項目に 関する情報とは、たとえば、現在地点から目的地点までの距離、所要時間、または現 在地点から交差点までの距離などに関する情報、あるいは現在地点周辺の道路、地 形、建物などの特徴を表す情報のことである。
[0023] つぎに、取得部 105は、運転者に案内するための情報としてステップ S204におい て決定部 104により決定された情報を取得する(ステップ S205)。この際、取得部 10 5は、あらかじめ定められた複数の項目に関する情報すベてを取得してもよい。また、 生成部 106は、ステップ S205において取得部 105により取得された情報を音声で案 内する案内情報を生成する(ステップ S206)。
[0024] そして、出力部 107は、ステップ S206において生成部 106により生成された案内 情報を出力する (ステップ S207)。出力部 107は、たとえば移動体に搭載されたスピ 一力などである。
[0025] 以上説明したように、本実施の形態によれば、情報案内装置 100は、運転者の視 線に関する情報を検知した場合、運転者が情報案内装置 100の表示画面を凝視し たか否力 ^判定する。そして、運転者が表示画面を凝視したと判定した場合、情報案 内装置 100は、あらかじめ定められた複数の項目に関する情報の中から運転者に案 内する特定の項目に関する情報を決定し、決定した情報を取得する。そして、情報 案内装置 100は、取得した情報を音声で案内する案内情報を生成し、生成した案内 情報を出力する。したがって、運転者は運転中に情報案内装置 100の表示画面を長 時間凝視することなぐ音声案内情報に基づいて表示画面上に表示された情報を把 握すること力 Sできる。 実施例 1
[0026] 以下に、本発明の実施例 1について説明する。本実施例 1では、たとえば、車両( 四輪車、二輪車を含む)などの移動体に搭載されるナビゲーシヨン装置が、あらかじ め定められた複数の交通情報それぞれに対して、前回案内されてから運転者がディ スプレイを凝視したと判定するまでに経過した経過時間を各交通情報ごとに算出し、 算出した経過時間に基づいて運転者に案内する交通情報を決定する場合の一例に ついて説明する。
[0027] (ナビゲーシヨン装置のハードウェア構成)
図 3を用いて、本実施例 1にかかるナビゲーシヨン装置のハードウェア構成について 説明する。図 3は、本実施例 1にかかるナビゲーシヨン装置のハードウェア構成の一 例を示すブロック図である。
[0028] 図 3において、ナビゲーシヨン装置 300は、車両などの移動体に搭載されており、 C PU301と、 ROM302と、 RAM303と、磁気ディスクドライブ 304と、磁気ディスク 30 5と、光ディスクドライブ 306と、光ディスク 307と、音声 I/F (インターフェース) 308と 、マイク 309と、スピーカ 310と、人力デノくイス 311と、映像 I/F312と、ディスプレイ 3 13と、通信 I/F314と、 GPSユニット 315と、各種センサ 316と、カメラ 317と、を備え ている。また、各構成部 30:!〜 317はバス 320によってそれぞれ接続されている。
[0029] まず、 CPU301は、ナビゲーシヨン装置 300全体の制御を司る。 ROM302は、ブ ートプログラム、現在位置算出プログラム、経路探索プログラム、経路誘導プログラム 、音声生成プログラム、地図情報表示プログラム、通信プログラム、データベース作 成プログラム、データ解析プログラムなどのプログラムを記録している。また、 RAM3 03は、 CPU301のワークエリアとして使用される。
[0030] 現在位置算出プログラムは、たとえば、後述する GPSユニット 315および各種セン サ 316の出力情報に基づいて、車両の現在位置(ナビゲーシヨン装置 300の現在位 置)を算出させる。
[0031] 経路探索プログラムは、後述する磁気ディスク 305に記録されている地図情報など を利用して、出発地点から目的地点までの最適な経路を探索させる。ここで、最適な 経路とは、 目的地点までの最短 (あるいは最速)経路やユーザが指定した条件に最も 合致する経路などである。また、 目的地点のみならず、立ち寄り地点や休憩地点まで の経路を探索してもよい。探索された誘導経路は、 CPU301を介して音声 I/F308 や映像 I/F312へ出力される。
[0032] 経路誘導プログラムは、経路探索プログラムを実行することによって探索された誘 導経路情報、現在位置算出プログラムを実行することによって算出された車両の現 在位置情報、磁気ディスク 305から読み出された地図情報に基づいて、リアルタイム な経路誘導情報を生成させる。生成された経路誘導情報は、 CPU301を介して音声 I/F308や映像 IZF312へ出力される。
[0033] 音声生成プログラムは、パターンに対応したトーンと音声の情報を生成させる。すな わち、経路誘導プログラムを実行することによって生成された経路誘導情報に基づい て、案内ポイントに対応した仮想音源の設定と音声ガイダンス情報を生成させる。生 成された音声ガイダンス情報は、 CPU301を介して音声 I/F308へ出力される。
[0034] 地図情報表示プログラムは、磁気ディスク 305や光ディスク 307に記録されている 地図情報を映像 I/F312によってディスプレイ 313に表示させる。
[0035] また、 CPU301は、各種センサ 316およびカメラ 317により運転者の視線に関する 情報が検知された場合、運転者がディスプレイ 313を凝視したか否かを判定する。具 体的には、たとえば、各種センサ 316によりカメラ 317の方向に向けられた運転者の 視線に関する情報が 0. 5秒以上連続して検知された場合、 CPU301は、運転者が ディスプレイ 313を凝視したと判定する。あるいは、各種センサ 316によりカメラ 317 の方向に向けられた運転者の視線に関する情報が 5秒間に 3回以上検知された場合 、 CPU301は、運転者がディスプレイ 313を凝視したと判定する。
[0036] そして、運転者がディスプレイ 313を凝視したと判定した場合、 CPU301は、あらか じめ定められた複数の交通情報それぞれに対して、前回案内されてから運転者がデ イスプレイ 313を凝視したと判定するまでに経過した経過時間を各交通情報ごとに算 出し、算出した経過時間に基づいて運転者に案内する交通情報を決定する。あらか じめ定められた複数の交通情報は、たとえば、車両の走行時間、 目的地までの距離 、または右左折ポイントなどに関する情報である。そして、 CPU301は、決定した交 通情報を取得し、取得した交通情報を音声で案内する案内情報を生成する。そして 、 CPU301は、生成した案内情報を音声 I/F308を介してスピーカ 310に出力する
[0037] 磁気ディスクドライブ 304は、 CPU301の制御にしたがって磁気ディスク 305に対 するデータの読み取り/書き込みを制御する。磁気ディスク 305は、磁気ディスクドラ イブ 304の制御で書き込まれたデータを記録する。磁気ディスク 305としては、たとえ ば、 HD (ノヽードディスク)や FD (フレキシブルディスク)を用レ、ること力できる。
[0038] 光ディスクドライブ 306は、 CPU301の制御にしたがって光ディスク 307に対するデ ータの読み取り Z書き込みを制御する。光ディスク 307は、光ディスクドライブ 306の 制御にしたがってデータの読み出される着脱自在な記録媒体である。光ディスク 307 は、書き込み可能な記録媒体を利用することもできる。また、この着脱可能な記録媒 体として、光ディスク 307のほか、 MO、メモリカードなどであってもよい。
[0039] 磁気ディスク 305や光ディスク 307などの記録媒体に記録される情報の一例として 、経路探索 ·経路誘導などに用いる地図情報が挙げられる。地図情報は、建物、河 川、地表面などの地物(フィーチャ)をあらわす背景データと、道路の形状をあらわす 道路形状データとを有しており、ディスプレイ 313の表示画面において 2次元または 3 次元に描画される。
[0040] 道路形状データは、さらに交通条件データを有する。交通条件データには、たとえ ば、各ノードについて、信号や横断歩道などの有無、高速道路の出入り口やジャンク シヨンの有無、各リンクについての長さ(距離)、道幅、進行方向、道路種別(高速道 路、有料道路、一般道路など)などの情報が含まれている。
[0041] また、交通条件データには、過去の渋滞情報を、季節 *曜日 ·大型連休 '時刻など を基準に統計処理した過去渋滞情報を記憶している。ナビゲーシヨン装置 300は、 後述する通信 IZF314によって受信される道路交通情報によって現在発生している 渋滞の情報を得るが、過去渋滞情報により、指定した時刻における渋滞状況の予想 をおこなうことが可能となる。
[0042] なお、本実施例 1では地図情報などを磁気ディスク 305や光ディスク 307などの記 録媒体に記録するようにした力 これに限るものではなレ、。たとえば、地図情報は、ナ ビグーシヨン装置 300のハードウェアと一体に設けられているものに限って記録され ているものではなぐナビゲーシヨン装置 300の外部に設けられていてもよい。その場 合、ナビゲーシヨン装置 300は、たとえば、通信 I/F314を通じて、ネットワークを介 して地図情報を取得する。取得された地図情報は RAM303などに記憶される。
[0043] 音声 I/F308は、音声入力用のマイク 309および音声出力用のスピーカ 310に接 続される。マイク 309に受音された音声は、音声 IZF308内で A/D変換される。ま た、スピーカ 310からは音声が出力される。なお、マイク 309から入力された音声は、 音声データとして磁気ディスク 305あるいは光ディスク 307に記録可能である。
[0044] 入力デバイス 311は、文字、数値、各種指示などの入力のための複数のキーを備 えたリモコン、キーボード、マウス、タツチパネルなどが挙げられる。
[0045] 映像 I/F312は、ディスプレイ 313およびカメラ 317と接続される。映像 IZF312は 、具体的には、たとえば、ディスプレイ 313全体の制御をおこなうグラフィックコント口 ーラと、即時表示可能な画像情報を一時的に記録する VRAM (Video RAM)など のバッファメモリと、グラフィックコントローラから出力される画像データに基づいて、デ イスプレイ 313を表示制御する制御 ICなどによって構成される。
[0046] ディスプレイ 313には、アイコン、カーソル、メニュー、ウィンドウ、あるいは文字や画 像などの各種データが表示される。このディスプレイ 313は、たとえば、 CRT, TFT 液晶ディスプレイ、プラズマディスプレイなどを採用することができる。また、ディスプレ ィ 313は、車両に複数備えられていてもよぐたとえば、ドライバーに対するものと後 部座席に着座する搭乗者に対するものなどである。
[0047] 通信 I/F314は、無線を介してネットワークに接続され、ナビゲーシヨン装置 300と CPU301とのインターフェースとして機能する。また、通信 I/F314は、無線を介し てインターネットなどの通信網に接続され、この通信網と CPU301とのインターフエ一 スとしても機能する。
[0048] 通信網には、 LAN, WAN,公衆回線網や携帯電話網などがある。具体的には、 通信 I/F314は、たとえば、 FMチューナー、 VICS (Vehicle Information and Communication System) /ビーコンレシーバ、無線ナビゲーシヨン装置、および その他のナビゲーシヨン装置によって構成され、 VICSセンターから配信される渋滞 や交通規制などの道路交通情報を取得する。なお、 VICSは登録商標である。 [0049] また、 GPSユニット 315は、 GPS衛星からの電波を受信し、車両の現在位置を示す 情報を算出する。 GPSユニット 315の出力情報は、後述する各種センサ 316の出力 値とともに、 CPU301による車両の現在位置の算出に際して利用される。現在位置 を示す情報は、たとえば緯度'経度、高度などの、地図情報上の 1点を特定する情報 である。
[0050] 各種センサ 316は、車速センサや加速度センサ、角速度センサなどの、車両の位 置や挙動を判断することが可能な情報を出力する。各種センサ 316の出力値は、 CP U301による現在位置の算出や、速度や方位の変化量の測定などに用レ、られる。
[0051] また、各種センサ 316は、運転者の視線に関する情報を検知する。具体的には、各 種センサ 316は、運転者の視線がディスプレイ 313周辺に搭載されたカメラ 317の方 向に向けられた場合に、運転者の視線に関する情報を検知する。より具体的には、 カメラ 317の赤外線機能により赤外線の点光源から運転者の眼球方向に赤外線を照 射して撮影された画像情報から瞳孔中心および角膜表面における反射像 (プルキニ ェ像)の相対位置を検知する。そして、各種センサ 316は、瞳孔中心および角膜表 面における反射像 (プノレキニェ像)の相対位置に基づいて運転者の視線が向けられ てレ、る方向に関する情報を検知する。
[0052] カメラ 317は、ディスプレイ 313周辺に搭載され、運転者の視線に関する情報を撮 影する。具体的には、カメラ 317は、赤外線機能により赤外線の点光源から運転者の 眼球方向に赤外線を照射して運転者の眼球周辺を撮影する。撮影された画像情報 は、たとえば、 RAM303に記録される。
[0053] なお、実施の形態に力かる情報案内装置 100の機能的構成のうち、検知部 101は 、各種センサ 316およびカメラ 317によって、判定部 102、算出部 103、および決定 き 104fま、 CPU301 (こよって、取得咅 105fま、 CPU301、 GPSユニット 315、および 各種センサ 316によって、生成部 106は、 CPU301および音声 I/F308によって、 出力部 107は、スピーカ 310によって、それぞれその機能を実現する。
[0054] (ナビゲーシヨン装置 300の処理の内容)
つぎに、図 4を用いて、本実施例 1にかかるナビゲーシヨン装置 300の処理の内容 について説明する。図 4は、本実施例 1にかかるナビゲーシヨン装置の処理の内容を 示すフローチャートである。図 4のフローチャートにおいて、まず、ナビゲーシヨン装置 300は、動作の開始要求を受け付けたか否かを判断する(ステップ S401)。動作の 開始要求は、たとえば、運転者が入力デバイス 311を操作して指示入力をおこなうこ とによりおこなわれる。
[0055] ステップ S401において、動作の開始要求を受け付けるまで待って(ステップ S401
: Noのループ)、受け付けた場合(ステップ S401 :Yes)、 CPU301は、運転者の視 線に関する情報を検知したか否力、を判断する(ステップ S402)。具体的には、たとえ ば、運転者の視線がディスプレイ 313周辺に搭載されたカメラ 317の方向に向けられ た場合、 CPU301が各種センサ 316により運転者の視線に関する情報を検知する。
[0056] ステップ S402において、運転者の視線に関する情報を検知するまで待って (ステツ プ S402 : Noのループ)、検知した場合(ステップ S402 :Yes)、 CPU301は、運転者 がディスプレイ 313を凝視したか否かを判定する(ステップ S403)。具体的には、たと えば、各種センサ 316によりカメラ 317の方向に向けられた運転者の視線に関する情 報が 0. 5秒以上連続して検知された場合、 CPU301は、運転者がディスプレイ 313 を凝視したと判定する。あるいは、各種センサ 316によりカメラ 317の方向に向けられ た運転者の視線に関する情報が 5秒間に 3回以上検知された場合、 CPU301は、運 転者がディスプレイ 313を凝視したと判定する。
[0057] ステップ S403において、運転者がディスプレイ 313を凝視していないと判定した場 合(ステップ S403 : No)、 CPU301 iま、ステップ S402の処理に戻り、処理を繰り返 す。一方、ステップ S403において、運転者がディスプレイ 313を;凝視したと判定した 場合 (ステップ S403 :Yes)、 CPU301は、あらかじめ定められた複数の交通情報そ れぞれに対して、前回案内されてから運転者がディスプレイ 313を凝視したと判定す るまでに経過した経過時間を各交通情報ごとに算出する(ステップ S404)。あらかじ め定められた複数の交通情報は、たとえば、車両の走行時間、 目的地までの距離、 または右左折ポイントまでの距離などに関する情報である。
[0058] つぎに、 CPU301は、ステップ S404において算出した経過時間に基づいて運転 者に案内する交通情報を決定する (ステップ S405)。具体的には、各交通情報ごと に経過時間の基準単位が設定されており、ステップ S404において算出した経過時 間が基準単位以上である交通情報のみを運転者に案内する。そして、 CPU301は、 ステップ S405において決定された交通情報を取得する(ステップ S406)。
[0059] つぎに、 CPU301は、ステップ S406において取得した交通情報を音声で案内す る案内情報を生成する(ステップ S407)。そして、 CPU301は、音声 I/F308を介し てスピーカ 310からステップ S407において生成した案内情報を出力する(ステップ S
408)。
[0060] つぎに、 CPU301は、動作の終了要求を受け付けたか否かを判断する(ステップ S
409)。動作の終了要求は、たとえば、運転者が入力デバイス 311を操作して指示入 力をおこなうことによりおこなわれる。ステップ S409において、動作の終了要求を受 け付けてレ、なレヽ場合(ステップ S409 : No)、 CPU301は、ステップ S402の処理に戻 り、処理を繰り返す。一方、ステップ S409において、動作の終了要求を受け付けた 場合(ステップ S409 :Yes)、 CPU301は、一連の処理を終了する。
[0061] つぎに、図 5、図 6を用いて、本実施例 1にかかるナビゲーシヨン装置 300が、あらか じめ定められた複数の交通情報の中から経過時間に基づいて運転者に案内する交 通情報を決定する場合の一例について説明する。
[0062] 図 5は、あら力じめ定められた各交通情報に対して設定された経過時間の基準単 位を示す図である。図 5において、あらかじめ定められた交通情報として、車両の走 行時間、 目的地までの距離、または右左折ポイントまでの距離に関する情報が一例 として挙げられる。そして、各交通情報に対して経過時間の基準単位があらかじめ設 定されている。なお、経過時間の基準単位は、運転者が変更することができる。
[0063] たとえば、走行時間に対する経過時間の基準単位は 10分、 目的地までの距離に 対する経過時間の基準単位は 20分、右左折ポイントまでの距離に関する経過時間 の基準単位は 1分と設定されている。そして、ナビゲーシヨン装置 300は、あらかじめ 定められた複数の交通情報それぞれに対して、前回案内されてから運転者がデイス プレイ 313を凝視したと判定するまでの経過時間を各交通情報ごとに算出し、算出し た経過時間が基準単位以上である交通情報のみを運転者に案内する。
[0064] 図 6は、ナビゲーシヨン装置が、あらかじめ定められた複数の交通情報の中から経 過時間に基づいて運転者に案内する特定の交通情報を決定する場合の一例を示し た図である。図 6において、 10 : 15にナビゲーシヨン装置 300が、走行時間、 目的地 までの距離、および右左折ポイントまでの距離に関する情報を案内したとする。
[0065] その後、 10: 23に運転者がディスプレイ 313を凝視した場合、走行時間に関する情 報を前回案内した時刻が 10 : 15であるため、走行時間に対する経過時間は 8分とな る。同様に、 目的地までの距離に対する経過時間、および右左折ポイントまでの距離 に対する経過時間も 8分となる。この場合、ナビゲーシヨン装置 300は、経過時間が 図 5における基準単位以上である右左折ポイントまでの距離に関する情報のみを案 内する。
[0066] その後、 10: 30に再度運転者がディスプレイ 313を凝視した場合、走行時間に関 する情報を前回案内した時刻が 10 : 15であるため、走行時間に対する経過時間は 1 5分となる。同様に、 目的地までの距離に対する経過時間は 15分、右左折ポイントま での距離に対する経過時間は 7分となる。この場合、ナビゲーシヨン装置 300は、経 過時間が図 5における基準単位以上である走行距離および右左折ポイントまでの距 離に関する情報を案内する。
[0067] 以上説明したように、本実施例 1によれば、ナビゲーシヨン装置 300は、運転者の視 線に関する情報を検知した場合、運転者がナビゲーシヨン装置 300のディスプレイ 3 13を凝視したか否かを判定する。そして、運転者がディスプレイ 313を凝視したと判 定した場合、ナビゲーシヨン装置 300は、あら力じめ定められた複数の交通情報それ ぞれに対して、前回案内されてから運転者がディスプレイ 313を凝視したと判定する までの経過時間を各交通情報ごとに算出する。そして、ナビゲーシヨン装置 300は、 算出した経過時間に基づいて、運転者に案内する交通情報を決定し、決定した交通 情報を取得する。そして、ナビゲーシヨン装置 300は、取得した交通情報を音声で案 内する案内情報を生成してスピーカ 310から出力する。したがって、運転者が運転中 にディスプレイ 313を凝視した際に、前回案内された内容と同じ内容の案内情報が 出力されるのを防ぐことができる。
[0068] なお、図 5において、経過時間の基準単位は、あら力、じめ設定されていることとした が、車両の現在位置に基づいて変更させてもよい。たとえば、右左折ポイントまでの 距離に関する経過時間の基準単位について、右左折ポイントから lkm以上の範囲 に車両が位置してレ、る場合の基準単位を 5分、右左折ポイントから 300m以上 lkm 未満の範囲に車両が位置している場合の基準単位を 1分、右左折ポイントから 300m 以内の範囲に車両が位置している場合の基準単位を 10秒などとする。
[0069] また、本実施例 1において、ナビゲーシヨン装置 300は、あら力、じめ定められた複数 の交通情報それぞれに対して、前回案内されてから運転者がディスプレイ 313を凝 視したと判定するまでの経過時間を各交通情報ごとに算出することとしたが、前回運 転者がディスプレイ 313を凝視したと判定してから、または前回スピーカ 310から案内 情報が出力されてから、再度運転者がディスプレイ 313を凝視したと判定するまでの 経過時間を算出してもよい。
実施例 2
[0070] 以下に、本発明の実施例 2について説明する。本実施例 2では、たとえば、車両( 四輪車、二輪車を含む)などの移動体に搭載されるナビゲーシヨン装置 300が、あら 力じめ定められた複数の交通情報それぞれに対して、前回案内されてから運転者が ディスプレイ 313を凝視したと判定した凝視回数を算出し、算出した凝視回数に基づ レ、て運転者に案内する交通情報を決定する場合の一例について説明する。なお、 ナビゲーシヨン装置 300のハードウェア構成については、図 3とほぼ同様であるため、 説明を省略する。
[0071] (ナビゲーシヨン装置 300の処理の内容)
つぎに、図 7を用いて、本実施例 2にかかるナビゲーシヨン装置 300の処理の内容 について説明する。図 7は、本実施例 2にかかるナビゲーシヨン装置の処理の内容を 示すフローチャートである。図 7のフローチャートにおいて、まず、ナビゲーシヨン装置 300は、動作の開始要求を受け付けたか否かを判断する(ステップ S701)。動作の 開始要求は、たとえば、運転者が入力デバイス 311を操作して指示入力をおこなうこ とによりおこなわれる。
[0072] ステップ S701において、動作の開始要求を受け付けるまで待って(ステップ S701 : Noのループ)、受け付けた場合(ステップ S701 :Yes)、 CPU301は、運転者の視 線に関する情報を検知したか否力を判断する(ステップ S702)。具体的には、たとえ ば、運転者の視線がディスプレイ 313周辺に搭載されたカメラ 317の方向に向けられ た場合、 CPU301が各種センサ 316により運転者の視線に関する情報を検知する。
[0073] ステップ S702において、運転者の視線に関する情報を検知するまで待って (ステツ プ S702 : Noのループ)、検知した場合(ステップ S702 :Yes)、 CPU301は、運転者 がディスプレイ 313を凝視したか否かを判定する(ステップ S703)。具体的には、たと えば、各種センサ 316によりカメラ 317の方向に向けられた運転者の視線に関する情 報が 0. 5秒以上連続して検知された場合、 CPU301は、運転者がディスプレイ 313 を凝視したと判定する。あるいは、各種センサ 316によりカメラ 317の方向に向けられ た運転者の視線に関する情報が 5秒間に 3回以上検知された場合、 CPU301は、運 転者がディスプレイ 313を凝視したと判定する。
[0074] ステップ S703において、運転者がディスプレイ 313を凝視していないと判定した場 合(ステップ S703 : No)、 CPU301 iま、ステップ S702の処理 (こ戻り、処理を,操り返 す。一方、ステップ S703において、運転者がディスプレイ 313を凝視したと判定した 場合 (ステップ S703 :Yes)、 CPU301は、あらかじめ定められた複数の交通情報そ れぞれに対して、前回案内されてから運転者がディスプレイ 313を凝視したと判定し た凝視回数を各交通情報ごとに算出する(ステップ S704)。あらかじめ定められた複 数の交通情報は、たとえば、車両の走行時間、 目的地までの距離、または右左折ポ イントまでの距離などに関する情報である。
[0075] そして、 CPU301は、ステップ S704において算出した凝視回数に基づいて運転者 に案内する交通情報を決定する(ステップ S705)。具体的には、各交通情報に対し て、凝視回数に関する基準単位が設定されており、ステップ S704において算出した 凝視回数が基準単位以上である交通情報のみを運転者に案内する。また、 CPU30 1は、ステップ S705において決定された交通情報を取得する(ステップ S706)。
[0076] つぎに、 CPU301は、ステップ S706において取得した交通情報を音声で案内す る案内情報を生成する(ステップ S707)。そして、 CPU301は、音声 I/F308を介し てスピーカ 310からステップ S707において生成した案内情報を出力する(ステップ S
708)。
[0077] つぎに、 CPU301は、動作の終了要求を受け付けたか否かを判断する(ステップ S
709)。動作の終了要求は、たとえば、運転者が入力デバイス 311を操作して指示入 力をおこなうことによりおこなわれる。ステップ S709において、動作の終了要求を受 け付けていなレヽ場合(ステップ S709 : No)、 CPU301は、ステップ S702の処理に戻 り、処理を繰り返す。一方、ステップ S709において、動作の終了要求を受け付けた 場合(ステップ S709 :Yes)、 CPU301は、一連の処理を終了する。
[0078] つぎに、図 8を用いて、本実施例 2にかかるナビゲーシヨン装置 300が、あらかじめ 定められた複数の交通情報の中力 凝視回数に基づいて運転者に案内する交通情 報を決定する場合の一例について説明する。
[0079] 図 8は、あらかじめ定められた各交通情報に対して設定された凝視回数の基準単 位を示す図である。図 8において、ナビゲーシヨン装置 300が取得する交通情報は、 たとえば、車両の走行時間、 目的地までの距離、または右左折ポイントまでの距離な どに関する情報が一例として挙げられる。そして、各交通情報に対して、凝視回数の 基準単位があらかじめ設定されている。なお、凝視回数の基準単位は、運転者が変 更すること力 Sできる。
[0080] たとえば、走行時間に対する凝視回数の基準単位は 5回、 目的地までの距離に対 する凝視回数の基準単位は 3回、右左折ポイントまでの距離に対する凝視回数の基 準単位は 1回と設定されている。そして、ナビゲーシヨン装置 300は、前回運転者に 交通情報を案内してからの凝視回数を各交通情報ごとに算出し、算出した凝視回数 が基準単位以上である交通情報のみを運転者に案内する。
[0081] たとえば、前回運転者に走行時間に関する情報を案内してからの凝視回数が 3回、 前回運転者に目的地までの距離に関する情報を案内してからの凝視回数が 4回、前 回運転者に右左折ポイントまでの距離に関する情報を案内してからの凝視回数が 5 回であったとする。この場合、ナビゲーシヨン装置 300は、凝視回数が図 8における基 準単位以上である目的地までの距離および右左折ポイントまでの距離に関する情報 を運転者に案内する。
[0082] 以上説明したように、本実施例 2によれば、ナビゲーシヨン装置 300は、運転者の視 線に関する情報を検知した場合、運転者がナビゲーシヨン装置 300のディスプレイ 3 13を凝視したか否力、を判定する。そして、運転者がディスプレイ 313を凝視したと判 定した場合、ナビゲーシヨン装置 300は、あら力、じめ定められた複数の交通情報それ ぞれに対して、前回案内されてから運転者がディスプレイ 313を凝視したと判定した 凝視回数を各交通情報ごとに算出する。そして、ナビゲーシヨン装置 300は、算出し た凝視回数に基づいて、運転者に案内する交通情報を決定し、決定した交通情報を 取得する。そして、ナビゲーシヨン装置 300は、取得した交通情報を音声で案内する 案内情報を生成してスピーカ 310から出力する。したがって、運転者が運転中にディ スプレイ 313を凝視した際に、前回案内された内容と同じ内容の案内情報が出力さ れるのを防ぐことができる。
[0083] なお、図 8において、凝視回数の基準単位はあらかじめ設定されていることとしたが 、車両の現在位置に基づいて変更させてもよい。たとえば、右左折ポイントに対する 凝視回数について、右左折ポイントから lkm以上の範囲に車両が位置している場合 の凝視回数を 5回、右左折ポイントから 300m以上 lkm未満の範囲に車両が位置し ている場合の凝視回数を 3回、右左折ポイントから 300m以内の範囲に車両が位置し ている場合の凝視回数を 1回などとする。
[0084] また、本実施例 2において、ナビゲーシヨン装置 300は、あら力じめ定められた複数 の交通情報それぞれに対して、前回案内されてから運転者がディスプレイ 313を凝 視したと判定した凝視回数を各交通情報ごとに算出することとしたが、前回スピーカ 3 10から案内情報が出力されてから、運転者がディスプレイ 313を凝視したと判定した 凝視回数、あるいは所定時間以内に運転者がディスプレイ 313を凝視したと判定し た凝視回数を算出してもよい。
実施例 3
[0085] 以下に、本発明の実施例 3について説明する。本実施例 3では、たとえば、車両( 四輪車、二輪車を含む)などの移動体に搭載されるナビゲーシヨン装置 300が、あら 力、じめ定められた複数の交通情報それぞれに対して、前回案内されてから移動体が 走行した走行時間および走行距離を各交通情報ごとに算出し、算出した走行時間 および走行距離に基づいて運転者に案内する交通情報を決定する場合の一例につ いて説明する。なお、ナビゲーシヨン装置 300のハードウェア構成については、図 3と ほぼ同様であるため、説明を省略する。
[0086] (ナビゲーシヨン装置 300の処理の内容) つぎに、図 9を用いて、本実施例 3にかかるナビゲーシヨン装置 300の処理の内容 について説明する。図 9は、本実施例 3にかかるナビゲーシヨン装置の処理の内容を 示すフローチャートである。図 9のフローチャートにおいて、まず、ナビゲーシヨン装置 300は、動作の開始要求を受け付けたか否かを判断する(ステップ S901)。動作の 開始要求は、たとえば、運転者が入力デバイス 311を操作して指示入力をおこなうこ とによりおこなわれる。
[0087] ステップ S901において、動作の開始要求を受け付けるまで待って(ステップ S901
: Noのループ)、受け付けた場合(ステップ S901 :Yes)、 CPU301は、運転者の視 線に関する情報を検知したか否力、を判断する(ステップ S902)。具体的には、たとえ ば、運転者の視線がディスプレイ 313周辺に搭載されたカメラ 317の方向に向けられ た場合、 CPU301が各種センサ 316により運転者の視線に関する情報を検知する。
[0088] ステップ S902において、運転者の視線に関する情報を検知するまで待って (ステツ プ S902 : Noのループ)、検知した場合(ステップ S902 :Yes)、 CPU301は、運転者 がディスプレイ 313を凝視したか否かを判定する (ステップ S903)。具体的には、たと えば、各種センサ 316によりカメラ 317の方向に向けられた運転者の視線に関する情 報が 0. 5秒以上連続して検知された場合、 CPU301は、運転者がディスプレイ 313 を凝視したと判定する。あるいは、各種センサ 316によりカメラ 317の方向に向けられ た運転者の視線に関する情報が 5秒間に 3回以上検知された場合、 CPU301は、運 転者がディスプレイ 313を凝視したと判定する。
[0089] ステップ S903において、運転者がディスプレイ 313を凝視していないと判定した場 合(ステップ S903 : No)、 CPU301 iま、ステップ S902の処理に戻り、処理を繰り返 す。一方、ステップ S903において、運転者がディスプレイ 313を凝視したと判定した 場合 (ステップ S903 :Yes)、 CPU301は、あらかじめ定められた複数の交通情報そ れぞれに対して、前回案内されてから車両が走行した走行時間および走行距離を算 出する(ステップ S904)。あらかじめ定められた交通情報は、たとえば、車両の走行 時間、 目的地までの距離、または右左折ポイントまでの距離などに関する情報である
[0090] そして、 CPU301は、ステップ S904において算出した車両の走行時間および走行 距離に基づいて運転者に案内する交通情報を決定する(ステップ S905)。具体的に は、各交通情報に対して走行時間または走行距離に関する基準単位が設定されて おり、ステップ S904において算出した走行時間または走行距離が基準単位以上で ある交通情報のみを運転者に案内する。
[0091] また、 CPU301は、ステップ S905において決定された交通情報を取得する(ステツ プ S906)。つぎに、 CPU301は、ステップ S906において取得した交通情報を音声 で案内する案内情報を生成する (ステップ S907)。そして、 CPU301は、音声 I/F3 08を介してスピーカ 310からステップ S907において生成した案内情報を出力する( ステップ S908)。
[0092] つぎに、 CPU301は、動作の終了要求を受け付けたか否かを判断する(ステップ S 909)。動作の終了要求は、たとえば、運転者が入力デバイス 311を操作して指示入 力をおこなうことによりおこなわれる。ステップ S909において、動作の終了要求を受 け付けていなレヽ場合(ステップ S909 : No)、 CPU301は、ステップ S902の処理に戻 り、処理を繰り返す。一方、ステップ S909において、動作の終了要求を受け付けた 場合(ステップ S909 :Yes)、 CPU301は、一連の処理を終了する。
[0093] つぎに、図 10を用いて、本実施例 3にかかるナビゲーシヨン装置 300が、あらかじめ 定められた複数の交通情報それぞれに対して、前回案内されてから車両が走行した 走行時間および走行距離に基づいて運転者に案内する交通情報を決定する場合の 一例について説明する。
[0094] 図 10は、あらかじめ定められた各交通情報に対して設定された走行時間および走 行距離の基準単位を示す図である。図 10において、あらかじめ定められた交通情報 は、たとえば、車両の走行時間、 目的地までの距離、または右左折ポイントまでの距 離などに関する情報が一例として挙げられる。そして、各交通情報に対して、走行時 間および走行距離の基準単位があらかじめ設定されている。なお、走行時間および 走行距離の基準単位は、運転者が変更することができる。
[0095] たとえば、走行時間に対する基準単位は 10分、 目的地までの距離に対する基準単 位は 5km、右左折ポイントまでの距離に対する基準単位は 100mと設定されている。 そして、ナビゲーシヨン装置 300は、前回運転者に交通情報が案内されてから車両 が走行した走行時間および走行距離を算出し、算出した走行時間および走行距離 が基準単位以上である交通情報を運転者に案内する。
[0096] たとえば、前回運転者に走行時間に関する情報を案内してから車両が走行した走 行時間が 5分、前回運転者に目的地までの距離に関する情報を案内して力 車両が 走行した走行距離が 6km、前回運転者に右左折ポイントまでの距離を案内してから 車両が走行した走行距離が 300mであったとする。この場合、ナビゲーシヨン装置 30 0は、走行時間または走行距離が図 10における基準単位以上である目的地までの 距離および右左折ポイントまでの距離に関する情報を案内する。
[0097] 以上説明したように、本実施例 3によれば、ナビゲーシヨン装置 300は、運転者の視 線に関する情報を検知した場合、運転者がナビゲーシヨン装置 300のディスプレイ 3 13を凝視したか否力、を判定する。そして、運転者がディスプレイ 313を凝視したと判 定した場合、ナビゲーシヨン装置 300は、あら力、じめ定められた複数の交通情報それ ぞれに対して、前回案内されてから車両が走行した走行時間および走行距離を算出 する。そして、ナビゲーシヨン装置 300は、算出した走行時間および走行距離に基づ いて、運転者に案内する交通情報を決定し、決定した交通情報を取得する。そして、 ナビゲーシヨン装置 300は、取得した交通情報を音声で案内する案内情報を生成し てスピーカ 310から出力する。したがって、運転者が車両を運転中にディスプレイ 31 3を凝視した際に、前回案内された内容と同じ内容の案内情報が出力されるのを防ぐ こと力 Sできる。
[0098] なお、図 10において、走行時間および走行距離の基準単位はあら力じめ設定され ていることとした力 車両の現在位置に基づいて変更させてもよい。たとえば、右左折 ポイントに対する走行距離について、右左折ポイントから lkm以上の範囲に車両が 位置している場合の走行距離を 3km、右左折ポイントから 300m以上 lkm未満の範 囲に車両が位置している場合の走行距離を 200m、右左折ポイントから 300m以内 の範囲に車両が位置している場合の走行距離を 100mなどとする。
[0099] また、本実施例 3において、ナビゲーシヨン装置 300は、あら力、じめ定められた複数 の交通情報それぞれに対して、前回案内されてから車両が走行した走行時間および 走行距離を算出することとしたが、前回運転者がディスプレイ 313を凝視したと判定 してから、または前回スピーカ 310から案内情報が出力されてから、移動体が走行し た走行時間および走行距離を算出してもよい。
[0100] また、本発明の実施例:!〜 3において、ナビゲーシヨン装置 300は、運転者がデイス プレイ 313を凝視したと判定した場合、あらかじめ定められた複数の項目に関する交 通情報の中から特定の交通情報を取得し、取得した交通情報を運転者に音声で案 内することとしたが、交通情報に限ることはなぐ表示画面に表示されている地図情報 に基づく情報でもよい。具体的には、たとえば、運転者がディスプレイ 313を凝視した と判定した時点で表示画面上に交差点付近の地図情報が表示されている場合、ナ ビグーシヨン装置 300は、交差点付近に存在するランドマークの名称、ランドマーク の位置、現在地点からの方向、交差点の名称、交差する道路の名称などを地図情報 から取得して運転者に音声で案内する。
[0101] なお、本実施の形態で説明した情報案内方法は、あらかじめ用意されたプログラム をパーソナル.コンピュータやワークステーションなどのコンピュータで実行することに より実現することができる。このプログラムは、ハードディスク、フレキシブルディスク、 CD-ROM, M〇、 DVDなどのコンピュータで読み取り可能な記録媒体に記録され 、コンピュータによって記録媒体から読み出されることによって実行される。またこの プログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒 体であってもよい。

Claims

請求の範囲
[1] 移動体の移動を支援するための情報 (以下、移動支援情報と称する)を表示する表 示画面の方向に向けられた運転者の視線に関する情報 (以下、視線情報と称する) を検知する検知手段と、
前記検知手段により視線情報が検知された場合、前記移動支援情報に基づいて 前記運転者に案内するための情報を取得する取得手段と、
前記取得手段により取得された情報を音声で案内する案内情報を生成する生成手 段と、
前記生成手段により生成された案内情報を出力する出力手段と、
を備えたことを特徴とする情報案内装置。
[2] 前記移動支援情報は、前記移動体の現在地点を示す地図情報であり、
前記取得手段は、前記地図情報に基づいて、前記運転者に案内するための情報 を取得することを特徴とする請求項 1に記載の情報案内装置。
[3] 前記取得手段は、前記運転者に案内するための情報としてあらかじめ定められた 複数の項目に関する情報を取得することを特徴とする請求項 1に記載の情報案内装 置。
[4] 前記検知手段により視線情報が検知された場合、あらかじめ定められた複数の項 目に関する情報の中から運転者に案内する特定の項目に関する情報を決定する決 定手段を備え、
前記取得手段は、前記運転者に案内するための情報として前記決定手段により決 定された情報を取得することを特徴とする請求項 1に記載の情報案内装置。
[5] 前記決定手段は、前記検知手段により視線情報が検知された時点における前記移 動体の現在地点に基づいて、前記特定の項目に関する情報を決定することを特徴と する請求項 4に記載の情報案内装置。
[6] 前記検知手段により前記視線情報が検知された時間または頻度に基づレ、て、前記 運転者が前記表示画面を凝視したか否かを判定する判定手段を備え、
前記判定手段による判定の結果、前記運転者が前記表示画面を凝視したと判定し た場合、前記取得手段は前記運転者に案内するための情報を取得することを特徴と する請求項 1〜5のいずれか一つに記載の情報案内装置。
[7] 前記検知手段により前記視線情報が検知された時間または頻度に基づレ、て、前記 運転者が前記表示画面を凝視したか否かを判定する判定手段を備え、
前記判定手段による判定の結果、前記運転者が前記表示画面を凝視したと判定し た場合、前記決定手段は、前記特定の項目に関する情報を決定することを特徴とす る請求項 4に記載の情報案内装置。
[8] 前回前記判定手段により前記運転者が前記表示画面を凝視したと判定してから、 または前回前記出力手段により前記案内情報が出力されてから、再度前記判定手 段により前記運転者が前記表示画面を凝視したと判定するまでの経過時間を算出す る算出手段を備え、
前記決定手段は、前記算出手段により算出された経過時間に基づいて前記特定 の項目に関する情報を決定することを特徴とする請求項 7に記載の情報案内装置。
[9] 前回前記出力手段により前記案内情報が出力されてから、前記判定手段により前 記運転者が前記表示画面を凝視したと判定した凝視回数を算出する算出手段を備 え、
前記決定手段は、前記算出手段により算出された前記凝視回数に基づいて前記 特定の項目に関する情報を決定することを特徴とする請求項 7に記載の情報案内装 置。
[10] 前回前記判定手段により前記運転者が前記表示画面を凝視したと判定してから、 または前回前記出力手段により前記案内情報が出力されてから、前記移動体が走 行した走行時間および走行距離を算出する算出手段を備え、
前記決定手段は、前記算出手段により算出された前記走行時間および前記走行 距離に基づレ、て前記特定の項目に関する情報を決定することを特徴とする請求項 7 に記載の情報案内装置。
[11] 所定時間以内に前記判定手段により前記運転者が前記表示画面を凝視したと判 定した凝視回数を算出する算出手段を備え、
前記決定手段は、前記算出手段により算出された凝視回数に基づいて前記特定 の項目に関する情報を決定することを特徴とする請求項 7に記載の情報案内装置。
[12] 前記決定手段は、前記算出手段により算出された凝視回数に基づいて、前記あら 力じめ定められた複数の項目それぞれに対して、前記特定の項目に関する情報を決 定することを特徴とする請求項 11に記載の情報案内装置。
[13] 前記あらかじめ定められた複数の項目それぞれに対して、前回前記出力手段によ り前記案内情報が出力されてから前記判定手段により前記運転者が前記表示画面 を凝視したと判定するまでの経過時間を各項目ごとに算出する算出手段を備え、 前記決定手段は、前記算出手段により算出された経過時間に基づいて、前記特定 の項目に関する情報を決定することを特徴とする請求項 7に記載の情報案内装置。
[14] 前記あらかじめ定められた複数の項目それぞれに対して、前回前記出力手段によ り前記案内情報が出力されてから前記判定手段により前記運転者が前記表示画面 を凝視したと判定した凝視回数を各項目ごとに算出する算出手段を備え、
前記決定手段は、前記算出手段により算出された凝視回数に基づいて、前記特定 の項目に関する情報を決定することを特徴とする請求項 7に記載の情報案内装置。
[15] 前記あらかじめ定められた複数の項目それぞれに対して、前回前記出力手段によ り前記案内情報が出力されてから前記移動体が走行した走行時間および走行距離 を各項目ごとに算出する算出手段を備え、
前記決定手段は、前記算出手段により算出された前記走行時間および前記走行 距離に基づいて、前記特定の項目に関する情報を決定することを特徴とする請求項
7に記載の情報案内装置。
[16] 移動体の移動を支援するための情報 (以下、移動支援情報と称する)を表示する表 示画面の方向に向けられた運転者の視線に関する情報(以下、視線情報と称する) を検知する検知工程と、
前記検知工程により前記視線情報が検知された場合、前記移動支援情報に基づ いて前記運転者に案内するための情報を取得する取得工程と、
前記取得工程により取得された情報を音声で案内する案内情報を生成する生成ェ 程と、
前記生成工程により生成された案内情報を出力する出力工程と、
を含むことを特徴とする情報案内方法。 請求項 16に記載の情報案内方法をコンピュータに実行させることを特徴とする情 報案内プログラム。
請求項 17に記載の情報案内プログラムを記録したことを特徴とするコンピュータに 読み取り可能な記録媒体。
PCT/JP2007/059503 2006-05-18 2007-05-08 情報案内装置、情報案内方法、情報案内プログラムおよびコンピュータに読み取り可能な記録媒体 WO2007135855A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US12/300,690 US8200422B2 (en) 2006-05-18 2007-05-08 Information presentation apparatus, information presentation method, information presentation program, and computer-readable recording medium
EP07742938A EP2019286A4 (en) 2006-05-18 2007-05-08 INFORMATION PRESENTATION DEVICE, METHOD AND PROGRAM, AND COMPUTER-READABLE RECORDING MEDIUM
JP2008516592A JP4421667B2 (ja) 2006-05-18 2007-05-08 情報案内装置、情報案内方法、情報案内プログラムおよびコンピュータに読み取り可能な記録媒体

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-138501 2006-05-18
JP2006138501 2006-05-18

Publications (1)

Publication Number Publication Date
WO2007135855A1 true WO2007135855A1 (ja) 2007-11-29

Family

ID=38723168

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/059503 WO2007135855A1 (ja) 2006-05-18 2007-05-08 情報案内装置、情報案内方法、情報案内プログラムおよびコンピュータに読み取り可能な記録媒体

Country Status (4)

Country Link
US (1) US8200422B2 (ja)
EP (1) EP2019286A4 (ja)
JP (1) JP4421667B2 (ja)
WO (1) WO2007135855A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022014313A (ja) * 2020-07-06 2022-01-19 三菱電機株式会社 音声出力制御装置および音声出力制御プログラム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9108513B2 (en) 2008-11-10 2015-08-18 Volkswagen Ag Viewing direction and acoustic command based operating device for a motor vehicle
US8700332B2 (en) * 2008-11-10 2014-04-15 Volkswagen Ag Operating device for a motor vehicle
TW201208919A (en) * 2010-08-20 2012-03-01 Hon Hai Prec Ind Co Ltd Vehicle convenience setting system and method of using the same
JP5569365B2 (ja) * 2010-11-30 2014-08-13 アイシン・エィ・ダブリュ株式会社 案内装置、案内方法、及び案内プログラム
DE102012005886B4 (de) * 2012-03-23 2023-02-16 Audi Ag Verfahren zur Bedienung einer Bedienvorrichtung eines Kraftfahrzeugs
DE102013021834B4 (de) * 2013-12-21 2021-05-27 Audi Ag Vorrichtung und Verfahren zum Navigieren innerhalb eines Menüs zur Fahrzeugsteuerung sowie Auswählen eines Menüeintrags aus dem Menü

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06309595A (ja) 1993-04-26 1994-11-04 Pioneer Electron Corp ナビゲーション装置
JP2002367100A (ja) * 2001-06-12 2002-12-20 Nissan Motor Co Ltd 運転者状態検出装置
JP2003240560A (ja) * 2002-02-13 2003-08-27 Alpine Electronics Inc 視線を用いた画面制御装置
EP1378724A1 (en) 2002-07-01 2004-01-07 Mazda Motor Corporation Route guidance system based on visual activity of the driver
JP2006003787A (ja) * 2004-06-21 2006-01-05 Fujitsu Ten Ltd 表示制御装置
US20060031005A1 (en) 2004-08-03 2006-02-09 Denso Corporation Navigation apparatus and program
JP2006090790A (ja) * 2004-09-22 2006-04-06 Toyota Motor Corp 運転支援装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6026346A (en) * 1996-11-27 2000-02-15 Honda Giken Kogyo Kabushiki Kaisha Navigation system for indicating of optimum route
JP3704707B2 (ja) * 2002-07-01 2005-10-12 マツダ株式会社 経路誘導装置、経路誘導方法、及び、経路誘導用プログラム
JP3931336B2 (ja) * 2003-09-26 2007-06-13 マツダ株式会社 車両用情報提供装置
US7529772B2 (en) * 2005-09-27 2009-05-05 Scenera Technologies, Llc Method and system for associating user comments to a scene captured by a digital imaging device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06309595A (ja) 1993-04-26 1994-11-04 Pioneer Electron Corp ナビゲーション装置
JP2002367100A (ja) * 2001-06-12 2002-12-20 Nissan Motor Co Ltd 運転者状態検出装置
JP2003240560A (ja) * 2002-02-13 2003-08-27 Alpine Electronics Inc 視線を用いた画面制御装置
EP1378724A1 (en) 2002-07-01 2004-01-07 Mazda Motor Corporation Route guidance system based on visual activity of the driver
JP2006003787A (ja) * 2004-06-21 2006-01-05 Fujitsu Ten Ltd 表示制御装置
US20060031005A1 (en) 2004-08-03 2006-02-09 Denso Corporation Navigation apparatus and program
JP2006090790A (ja) * 2004-09-22 2006-04-06 Toyota Motor Corp 運転支援装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022014313A (ja) * 2020-07-06 2022-01-19 三菱電機株式会社 音声出力制御装置および音声出力制御プログラム
JP7407665B2 (ja) 2020-07-06 2024-01-04 三菱電機株式会社 音声出力制御装置および音声出力制御プログラム

Also Published As

Publication number Publication date
JP4421667B2 (ja) 2010-02-24
US8200422B2 (en) 2012-06-12
EP2019286A4 (en) 2011-12-28
EP2019286A1 (en) 2009-01-28
US20090125233A1 (en) 2009-05-14
JPWO2007135855A1 (ja) 2009-10-01

Similar Documents

Publication Publication Date Title
JP3220408B2 (ja) 経路案内装置
US6574551B1 (en) Autoscaling of recommended route
JP2009115717A (ja) ナビゲーション装置、ナビゲーション方法、ナビゲーションプログラム、および記録媒体
CN108973990A (zh) 用于自动驾驶控制的方法、介质和系统
WO2005093373A1 (ja) ナビゲーション装置、経路探索方法、経路探索プログラムおよびコンピュータ読み取り可能な記録媒体
WO2007135855A1 (ja) 情報案内装置、情報案内方法、情報案内プログラムおよびコンピュータに読み取り可能な記録媒体
JP3443975B2 (ja) 案内装置
JP2015191256A (ja) 危険度合い判定装置、危険度合い判定方法および危険度合い判定プログラム
JP4949189B2 (ja) ナビゲーション装置、ナビゲーション方法、ナビゲーションプログラム、および記録媒体
JP2008275565A (ja) ナビゲーション装置
EP3109593A2 (en) E-car trip planner
WO2008059591A1 (fr) Dispositif, procédé et programme de guidage routier, procédé et programme de création de données de consommation de carburant et support d'enregistrement lisible par ordinateur
JP2003269967A (ja) ナビゲーション装置とその地図表示方法
JP5355826B2 (ja) 情報提示装置およびナビゲーション装置
JP4245174B2 (ja) ナビゲーション装置および方法、並びにナビゲーションプログラム
JP5385585B2 (ja) 車載用ナビゲーション装置及びランドマーク表示方法
JP2008232956A (ja) ナビゲーション装置およびナビゲーション方法
JP2008157737A (ja) 経路探索装置、経路探索方法、経路探索プログラムおよびコンピュータに読み取り可能な記録媒体
JP2005077187A (ja) 車載用ナビゲーション装置及び経路案内方法
JP3606447B2 (ja) ナビゲーション装置
JP4608009B2 (ja) 経路探索装置、経路探索方法、経路探索プログラム、および記録媒体
JP4087140B2 (ja) 車載用ナビゲーション装置
JP2007263580A (ja) 経路探索装置、経路探索方法、経路探索プログラムおよび記録媒体
JP4086148B2 (ja) 車載ナビゲーション装置およびその経路誘導方法
JP2012225712A (ja) ナビゲーション装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07742938

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2008516592

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2007742938

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 12300690

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE