WO2019082234A1 - 運転支援装置および運転支援方法 - Google Patents

運転支援装置および運転支援方法

Info

Publication number
WO2019082234A1
WO2019082234A1 PCT/JP2017/038144 JP2017038144W WO2019082234A1 WO 2019082234 A1 WO2019082234 A1 WO 2019082234A1 JP 2017038144 W JP2017038144 W JP 2017038144W WO 2019082234 A1 WO2019082234 A1 WO 2019082234A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
driver
hiyari
passenger
unit
Prior art date
Application number
PCT/JP2017/038144
Other languages
English (en)
French (fr)
Inventor
大樹 蝦名
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to DE112017007950.0T priority Critical patent/DE112017007950T5/de
Priority to PCT/JP2017/038144 priority patent/WO2019082234A1/ja
Publication of WO2019082234A1 publication Critical patent/WO2019082234A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/096805Systems involving transmission of navigation instructions to the vehicle where the transmitted instructions are used to compute a route
    • G08G1/096827Systems involving transmission of navigation instructions to the vehicle where the transmitted instructions are used to compute a route where the route is computed onboard
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3484Personalized, e.g. from learned user behaviour or user-defined profiles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3641Personalized guidance, e.g. limited guidance on previously travelled routes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map

Definitions

  • the present invention relates to a driving support apparatus and a driving support method for collecting points where an occupant in a vehicle running is apt to miss and using the collected points to perform driving support for a driver.
  • Patent Document 1 discloses a technology for notifying the driver of the point where the incident response occurred and the situation at that time when approaching.
  • the driver's view and the view of the passenger other than the driver are different. Therefore, the driver and the passenger may have different responses to sudden events that occur while driving.
  • the driver may not make a hiyari even when the passenger makes a hiyari, conversely, the driver may make a hiyari when the passenger makes a hiyari.
  • the driver's hit point is considered as a point
  • the point where the hit person has a hit response is not taken into consideration.
  • the passenger includes the passenger in the front passenger seat and the passenger in the rear seat.
  • the present invention has been made to solve such a problem, and an object of the present invention is to provide a driving support device and a driving support method capable of providing appropriate driving support to the driver.
  • the driving assistance apparatus includes driver hiyari information indicating that a driver in a running vehicle has made a hiyari, and a passenger other than the driver in the vehicle is hiry To the collection unit that collects the passenger's hiyari information indicating that each is linked to the hiyari spot, which is the spot, and the driver's hiyari information collected by the collection unit, the passenger hiyari information, and the hiyari spot And a route guiding unit for guiding a route to a predetermined destination.
  • the driver's nearing information indicating that the driver in the vehicle while driving is the nearing
  • the same person's near window showing that the other passenger in the vehicle has the nearing Based on a collection unit that collects information and each of them in association with a near point, which is a point where the nearness is made, driver's near information collected by the collection unit, passenger's near incident information, and a near place, the presence of the near area is And a notification unit for giving notification.
  • the driver's near-miss information indicating that the driver in the vehicle while driving is a near-miss and the same-person's near-missing indicates that a passenger other than the driver in the vehicle has missed
  • the route to the destination determined in advance is collected based on the driver's hiyari information, the passenger's hiyari information, and the hiyari point collected by correlating the information and each with the hiyari point, which is the point where the hiyari was made. invite.
  • the driving assistance device indicates the driver's nearing information indicating that the driver in the vehicle while driving is nearing, and the fellow's near window showing that a passenger other than the driver in the vehicle has nearing.
  • a collection unit that collects each information and information in association with a near point, which is a point, and driver's near information collected by the collection unit, passenger's near information, and a near point, which are determined in advance. Since the vehicle includes the route guidance unit that guides the route to the destination, appropriate driving support can be provided to the driver.
  • the driving support device includes driver hiyori information indicating that the driver in the running vehicle has made a hiyari and passenger hiry information indicating that a passenger other than the driver in the vehicle has made hiyari.
  • driver hiyori information indicating that the driver in the running vehicle has made a hiyari
  • passenger hiry information indicating that a passenger other than the driver in the vehicle has made hiyari.
  • the passenger hiyari information indicating that a passenger other than the driver in the vehicle has made hiyari In order to guide the route to a predetermined destination based on the collected driver's hiyari information, fellow passenger's hiyari information, and hiyari spot collected by correlating each with the spotted spot that is the spot. This makes it possible to provide appropriate driving support to the driver.
  • BRIEF DESCRIPTION OF THE DRAWINGS It is a block diagram which shows an example of a structure of the driving assistance device by Embodiment 1 of this invention.
  • BRIEF DESCRIPTION OF THE DRAWINGS It is a block diagram which shows an example of a structure of the driving assistance device by Embodiment 1 of this invention. It is a block diagram which shows an example of the hardware constitutions of the driving assistance device by Embodiment 1 of this invention. It is a flowchart which shows an example of operation
  • FIG. 1 is a block diagram showing an example of a configuration of a driving support device 1 according to a first embodiment of the present invention.
  • the required minimum structure which comprises the driving assistance device by this Embodiment 1 is shown.
  • the driving support device 1 includes a collecting unit 2 and a route guiding unit 3.
  • the collecting unit 2 includes driver's hiyari information indicating that the driver in the running vehicle has made a hiyari, and passenger's hiyari information indicating that a passenger other than the driver in the vehicle has made hiyari. , It gathers in correspondence with the hiyari point which is the hiyari point.
  • the route guidance unit 3 guides a route to a predetermined destination based on the driver's near incident information, the passenger's near incident information, and the near incident point collected by the collection unit 2. Below, the thing of the vehicle carrying the driving assistance device 1 is called own vehicle.
  • missing means that a driver or a passenger makes a sudden reaction regarding traveling in a traveling vehicle. For example, when a person or a thing comes out in front of a traveling vehicle and comes to contact the vehicle, the driver or the passenger does a surprising gesture, but in the embodiment, such a gesture is used. It is expressed as "Hiyari.”
  • FIG. 2 is a block diagram showing an example of the configuration of the driving support device 4 according to another configuration.
  • FIG. 3 is a block diagram showing an example of the hardware configuration of the driving support device 4.
  • the driving support device 4 includes an information acquisition unit 5, a control unit 6, a user interface unit 7, an information transmission / reception unit 8, and an information holding unit 9.
  • the information acquisition unit 5 includes a map information acquisition unit 10, a vehicle information acquisition unit 11, a traffic information acquisition unit 12, a vehicle position information acquisition unit 13, an occupant information acquisition unit 14, and a near incident judgment unit 15. doing.
  • the control unit 6 includes a vehicle position determination unit 16, a route guidance unit 3, a display control unit 17, and a voice control unit 18.
  • the user interface unit 7 includes a screen display output unit 19, an audio output unit 20, and an input unit 21.
  • the information transmission / reception unit 8 is communicably connected to the external server 22.
  • the map information acquisition unit 10 acquires map information.
  • the map information acquisition unit 10 may acquire map information from the outside via the communication device 26 and store the acquired map information in the storage device 25.
  • the map information may be stored in advance in the storage device 25. Examples of the storage device 25 include SD (registered trademark), HDD (Hard Disk Drive), flash memory, and the like.
  • the communication device 26 can transmit and receive various information by communication.
  • the vehicle information acquisition unit 11 acquires vehicle information from various sensors provided in the host vehicle on which the driving assistance device 4 is mounted. For example, the vehicle information acquisition unit 11 acquires vehicle speed information as vehicle information from a vehicle speed sensor, and acquires steering angle information at the time of steering wheel operation as vehicle information from a steering angle sensor.
  • the traffic information acquisition unit 12 acquires traffic information from the outside via the communication device 26.
  • the host vehicle position information acquisition unit 13 acquires current position information of the host vehicle using, for example, a GPS (Global Positioning System).
  • the occupant information acquisition unit 14 acquires occupant information indicating the state of the occupant including the driver and the passenger in the host vehicle.
  • the occupant information includes, for example, the heart rate of the occupant, the expression of the occupant, the movement of the occupant, the voice emitted by the occupant, and the like.
  • the occupant information acquisition unit 14 acquires the heart rate of the occupant as occupant information from a sensor disposed in the occupant.
  • the occupant information acquisition unit 14 acquires the expression or movement of the occupant as occupant information from a camera installed in the host vehicle and capable of photographing the occupant.
  • the expression of the occupant includes the change in the degree of eye opening of the occupant and the movement of the face of the occupant.
  • the movement of the occupant includes the movement of the upper body of the occupant.
  • the occupant information acquisition unit 14 acquires a voice uttered by an occupant from the microphone installed in the host vehicle as occupant information.
  • the occupant information acquisition unit 14 acquires steering angle information included in the vehicle information acquired by the vehicle information acquisition unit 11 as occupant information.
  • the nearness determination unit 15 determines whether or not the occupant in the host vehicle is a nearness. Specifically, the hiyari judgment unit 15 judges that the passenger is a hiyari when the heart rate of the passenger rises sharply until it reaches a predetermined threshold.
  • the near-miss determining unit 15 performs known image processing on the expression or movement of the occupant, and determines that the occupant is a missing if the expression or movement changes rapidly until it becomes equal to or greater than a predetermined threshold.
  • the hiyari judging unit 15 performs known voice recognition processing on the voice emitted by the occupant, and determines that the occupant is a hiyari when it is a voice emitted when the occupant is surprised.
  • the near judging unit 15 judges that the near incident is a near incident based on the steering angle information acquired by the vehicle information acquiring unit 11.
  • the hiyari judging unit 15 When it is determined that the passenger has made a hiyari, the hiyari judging unit 15 outputs information indicating that the passenger has made a hiyari to the information holding unit 9 by correlating the information indicating the hiyari with the hiyari point, which is a point where the hiyari was made. At this time, the hiyari judgment unit 15 distinguishes between driver's hiyari information indicating that the driver has made a hiyari and passenger's hiyari information indicating that the passenger has made a hiyari, and corresponds the hiyari point to each information. And output to the information holding unit 9.
  • the hiyari judgment unit 15 has a function of the collection unit 2 that collects the driver's hiyari information and the passenger's hiyari information in association with the hiyari point.
  • the near point is the position information acquired by the vehicle position information acquisition unit 13 when the occupant makes a near incident.
  • the information holding unit 9 stores the driver's hiyari information and the passenger's hiyari information in correspondence with the driver's hiyari information with the driver's hiyari information, for the driver's hiyari information, the passenger's hiyari information, and the hiyari point received from the hiyari determination unit 15 respectively. There is.
  • the near incident determination unit 15 associates the information indicating the near incident with the near spot, which is the point where the near incident is, and outputs the information to the information transmitting / receiving unit 8.
  • the hiyari judgment unit 15 distinguishes between driver's hiyari information indicating that the driver has made a hiyari and passenger's hiyari information indicating that the passenger has made a hiyari, and corresponds the hiyari point to each information. And output to the information transmission / reception unit 8.
  • the information transmission / reception unit 8 transmits the driver's near incident information, the passenger's near incident information, and the near incident point received from the near incident determination unit 15 to the external server 22. That is, the information transmitting / receiving unit 8 has a function of a transmitting unit that transmits the driver near information, the fellow passenger near information, and the near point to the external server 22.
  • the external server 22 stores each of the driver's hiyori information and the passenger's hiyari information in association with the hiyari spot with respect to the driver's hiry information, the passenger's hiyori information, and the hiyari point received from the information transmitting / receiving unit 8 .
  • the external server 22 receives and stores the driver's near incident information, the fellow passenger's near incident information, and the near incident from other vehicles equipped with the same driving assistance apparatus as the driving assistance apparatus 4.
  • the vehicle position determination unit 16 determines the current position of the vehicle on the map based on the current position information of the vehicle acquired by the vehicle position information acquisition unit 13 and the map information acquired by the map information acquisition unit 10. To judge.
  • the route guidance unit 3 calculates the route to the destination determined by the vehicle position determination unit 16 and the destination set by the user using the input device 29, and guides the calculated route. At this time, the route guidance unit 3 calculates the route in consideration of the driver's near-miss information, the passenger's near-visit information, and the near location, which the information transmitting / receiving unit 8 has acquired from the external server 22.
  • the display control unit 17 controls the display device 27 to display various information such as a map, a route, and a near spot.
  • the voice control unit 18 controls the voice output device 28 to output various information such as route guidance and notification of a near spot.
  • the screen display output unit 19 outputs various information to the display device 27 according to the control of the display control unit 17.
  • the audio output unit 20 outputs various information to the audio output device 28 according to the control of the audio control unit 18.
  • the input unit 21 receives information input by the user using the input device 29.
  • Map information acquisition unit 10 vehicle information acquisition unit 11, traffic information acquisition unit 12, vehicle position information acquisition unit 13, occupant information acquisition unit 14, near call judgment unit 15, vehicle position judgment unit 16, route in driving support device 4
  • Each function of the guidance unit 3, the display control unit 17, the voice control unit 18, the screen display output unit 19, the voice output unit 20, and the input unit 21 is realized by the processing circuit shown in FIG.
  • the driving support device 4 acquires map information, acquires vehicle information, acquires traffic information, acquires current position information of the host vehicle, acquires occupant information, and determines whether the occupant is a near-miss or not To determine the current position of the vehicle on the map, to guide the route, to perform display control, to perform voice control, to control to display information on the display device 27, and to output information to the voice output device 28 And a processing circuit for receiving information input by the user using the input device 29.
  • the processing circuit is a central processing unit (CPU) 23 (also referred to as a central processing unit, processing unit, arithmetic unit, microprocessor, microcomputer, or DSP (Digital Signal Processor)) that executes a program stored in the memory 24.
  • CPU central processing unit
  • DSP Digital Signal Processor
  • Map information acquisition unit 10 vehicle information acquisition unit 11, traffic information acquisition unit 12, vehicle position information acquisition unit 13, occupant information acquisition unit 14, near call judgment unit 15, vehicle position judgment unit 16, route in driving support device 4
  • Each function of the guide unit 3, the display control unit 17, the voice control unit 18, the screen display output unit 19, the voice output unit 20, and the input unit 21 is realized by software, firmware, or a combination of software and firmware.
  • the software or firmware is written as a program and stored in the memory 24.
  • the processing circuit implements the functions of the respective units by reading and executing the program stored in the memory 24.
  • the driving support device 4 acquires map information, acquires vehicle information, acquires traffic information, acquires current position information of the host vehicle, acquires occupant information, and a passenger A step of judging whether the vehicle is near or not, a step of judging the current position of the vehicle on the map, a step of guiding the route, a step of performing display control, a step of performing voice control, and display information on the display device 27
  • Memory for storing a program that results in the steps of controlling, controlling to output information from the audio output device 28, and accepting information input by the user using the input device 29. 24 is provided.
  • these programs include a map information acquisition unit 10, a vehicle information acquisition unit 11, a traffic information acquisition unit 12, a vehicle position information acquisition unit 13, an occupant information acquisition unit 14, a near call judgment unit 15, and a vehicle position judgment unit 16
  • the computer is made to execute the procedure or method of the route guidance unit 3, the display control unit 17, the voice control unit 18, the screen display output unit 19, the voice output unit 20 and the input unit 21.
  • the memory is, for example, nonvolatile or volatile such as random access memory (RAM), read only memory (ROM), flash memory, erasable programmable read only memory (EPROM), electrically erasable read only memory (EEPROM), etc.
  • RAM random access memory
  • ROM read only memory
  • EPROM erasable programmable read only memory
  • EEPROM electrically erasable read only memory
  • Semiconductor memory magnetic disk, flexible disk, optical disk, compact disk, mini disk, DVD, etc., or any storage medium to be used in the future.
  • FIG. 4 is a flowchart showing an example of the operation of the driving support device 4.
  • step S11 the occupant information acquisition unit 14 acquires occupant information.
  • step S12 the close judging unit 15 determines whether or not at least one of the driver and the passenger in the host vehicle is a close on the basis of the occupant information acquired by the occupant information acquiring unit 14. If at least one of the driver and the passenger is a near call, the process proceeds to step S12. If at least one of the driver and the passenger is not a close call, the process ends.
  • the near incident judging unit 15 outputs at least one of the driver's near incident information and the passenger's near incident information to the information holding unit 9 in association with the near incident point.
  • the information holding unit 9 stores the driver's hiyari information and the passenger's hiyari information respectively associated with the driver's hiyari information, the passenger's hiyari information, and the hiyari point received from the hiyari determination unit 15 in association with the hiyari point.
  • at least one of the driver's near incident information and the passenger's near incident information is registered in the information holding unit 9 in association with the near incident point.
  • each of the driver's hiyari information and the passenger's hiyari information is registered in the information holding unit 9 in association with the hiyari point.
  • the driver's hiyari information and the hiyari point are associated with each other and registered in the information holding unit 9.
  • the passenger's hiyari information and the hiyari spot are associated with each other and registered in the information holding unit 9.
  • the information holding unit 9 acquires driver's near-miss information, passenger's near-visit information, and near-point of another vehicle registered in the external server 22 via the information transmitting / receiving unit 8 and registered.
  • the driver's near incident information, the passenger's near incident information, and the near incident point registered in the information holding unit 9 are synchronized with the driver's near incident information, the passenger's near incident information, and the near incident point registered in the external server 22.
  • the latest driver's hiyari information, passenger's hiyari information, and hiyari's point are registered in the information holding unit 9.
  • the near incident judging unit 15 outputs at least one of the driver's near incident information and the passenger's near incident information to the information transmitting / receiving unit 8 in association with the near incident point.
  • the information transmission / reception unit 8 transmits the driver's near incident information, the passenger's near incident information, and the near incident point received from the near incident determination unit 15 to the external server 22.
  • the external server 22 stores the driver's hiyari information and the passenger's hiyari information respectively associated with the driver's hiyari information, the passenger's hiyari information, and the hiyari point received from the information transmitting / receiving unit 8 in association with the hiyari point.
  • At least one of the driver's near incident information and the passenger's near incident information is registered in the external server 22 in association with the near incident point. That is, when the driver and the passenger make a hiyari, each of the driver's hiyari information and the passenger's hiyari information is registered in the external server 22 in association with the hiyari location. When only the driver makes a hiyari, the driver's hiyari information and the hiyari point are associated with each other and registered in the external server 22. When only the passenger makes a hiyari, the passenger's hiyari information and the hiyari location are associated with each other and registered in the external server 22.
  • the driver's near incident information, the passenger's near incident information, and the near site are also registered in the external server 22 from other vehicles equipped with the same driving support device as the driving support device 4.
  • the external server 22 transmits the request from the information transmission / reception unit 8 or the driver's nearness information, the passenger's nearness information, and the nearness point regularly registered in the external server 22 to the information transmission / reception unit 8.
  • FIG. 5 is a flowchart showing an example of the operation of the driving support device 4.
  • step S21 the route guidance unit 3 calculates the route to the destination determined by the vehicle position determination unit 16 and the vehicle position determined by the user using the input device 29, and the calculated route point. To determine if it exists. Specifically, the route guidance unit 3 refers to the driver's near incident information, the passenger's near incident information, and the near incident point registered in the information holding unit 9 and determines whether the near incident point exists on the calculated route. To judge. If a hiyari point exists on the route, the process proceeds to step S22. On the other hand, if there is no hiyari spot on the route, the process is ended.
  • step S ⁇ b> 22 the route guidance unit 3 determines whether the near point existing on the route is the near point corresponding to the driver near information.
  • route guidance section 3 corresponds to driver's hilarity information as well as hiyari points associated only with driver's hiyari information as well as hiyari points associated with each of driver's hiyari information and passenger's hiyari information. It is judged that it is the attached hiyari point. If it is a hiyari spot associated with the driver hiyori information, the process proceeds to step S23. On the other hand, when it is not the hiyari point matched with driver hiyori information, it transfers to step S25.
  • step S23 the route guidance unit 3 determines whether or not the host vehicle is in front of the near point.
  • Presence of nearing point means that the host vehicle traveling along the route calculated by the route guidance unit 3 is present at a position equal to or less than a predetermined distance from the nearing point. If the host vehicle is in front of the near point, the process proceeds to step S24. On the other hand, when the host vehicle is not present in front of the near point, the process of step S23 is repeated.
  • the route guidance unit 3 notifies the driver of the presence of a near spot. That is, the route guidance unit 3 has a function of a notification unit for notifying the driver of the presence of a near spot. For example, it may be displayed on the map displayed on the display unit 27 so that the near spot can be seen, or the voice output unit 28 may notify by voice that the near spot is approaching.
  • step S25 the route guidance unit 3 re-searches the route avoiding the near spot associated with the passenger's near incident information. That is, when there is a near point associated with only the passenger's near incident information on the route calculated in step S21, the route guiding unit 3 re-searches the route avoiding the near position.
  • the driver's near-miss information and the passenger's near-miss information are distinguished, and the respective information is associated with the near spot and registered in the information holding unit 9 and the external server 22.
  • the driver near information, the fellow driver near information, and the near point registered in the information holding unit 9 are synchronized with the driver near information registered in the external server 22, the fellow near driver information, and the near place. Therefore, the latest driver hiyori information, the passenger hiyari information, and the hiyari point are registered in the information holding unit 9. Then, route guidance is performed based on the driver's near incident information, the fellow passenger's near incident information, and the near incident point registered in the information holding unit 9.
  • the route avoiding the point is re-searched.
  • Second Embodiment ⁇ Configuration> The case where the driving support apparatus 4 according to the first embodiment includes the route guiding unit 3 has been described. In the second embodiment of the present invention, a driving support device not provided with the route guidance unit 3 will be described.
  • FIG. 6 is a block diagram showing an example of the configuration of the driving support apparatus 30 according to the second embodiment.
  • the required minimum structure which comprises the driving assistance device by this Embodiment 2 is shown.
  • the driving support device 30 includes a collecting unit 2 and a notification unit 31.
  • the collecting unit 2 is the same as the collecting unit 2 shown in FIG. 1 and thus the detailed description is omitted here.
  • the notification unit 31 notifies the presence of a near spot based on the driver near information, the fellow passenger near information, and the near point collected by the collection unit 2.
  • FIG. 7 is a block diagram showing an example of the configuration of the driving support device 32 according to another configuration.
  • the configuration other than the notification unit 31 is the same as that of the driving support device 4 shown in FIG. 2, so the detailed description will be omitted here.
  • the hardware configuration of the driving support device 32 is the same as the hardware configuration of the driving support device 4 shown in FIG. 3.
  • the notification unit 31 notifies the driver of the presence of the near spot when the own vehicle is present in front of the near spot.
  • the function of the notification unit 31 in the driving support device 32 is realized by a processing circuit. That is, the driving support device 32 includes a processing circuit for notifying the driver of the near spot.
  • the function of the notification unit 31 in the driving support device 32 is realized by software, firmware, or a combination of software and firmware.
  • the software or firmware is written as a program and stored in the memory 24.
  • the processing circuit implements the functions of the respective units by reading and executing the program stored in the memory 24. That is, the driving support device 32 includes the memory 24 for storing a program in which the step of notifying the driver of the near spot is eventually executed. Moreover, it can be said that these programs cause a computer to execute the procedure or method of the notification unit 31.
  • FIG. 8 is a flowchart showing an example of the operation of the driving support device 32.
  • FIG. 8 illustrates an example of an operation of notifying the driver of the presence of a near spot using the driver near information, the fellow passenger near information, and the near point registered in the external server 22.
  • Driver hiyari information, passenger's hiyari information, and hiyari points used here are not only the driver's hiyari information, the passenger's hiyari information, and hiyari's point that the vehicle has registered in the external server 22 in the past, as well as other vehicles.
  • the driver near information, the passenger's near information, and the near point registered in the external server 22 in the past are also included.
  • step S31 the notification unit 31 determines whether the host vehicle is approaching a near spot. Specifically, based on the vehicle position determined by the vehicle position determination unit 16 and the hiyari spot registered in the information storage unit 9, the notification unit 31 determines whether the vehicle is approaching the hiyari location. To judge. If the host vehicle is approaching the hiyari point, the process proceeds to step S32. On the other hand, when the host vehicle is not approaching the spot, the processing is ended.
  • the notification unit 31 notifies the driver of the presence of a near spot. That is, the notification unit 31 notifies that the host vehicle is approaching the near spot. For example, it may be displayed on the map displayed on the display unit 27 so that the near spot can be seen, or the voice output unit 28 may notify by voice that the near spot is approaching.
  • the driver's near-miss information and the passenger's near-miss information are distinguished, and the respective information is associated with the near spot and registered in the information holding unit 9 and the external server 22.
  • the driver near information, the fellow driver near information, and the near point registered in the information holding unit 9 are synchronized with the driver near information registered in the external server 22, the fellow near driver information, and the near place. Therefore, the latest driver hiyori information, the passenger hiyari information, and the hiyari point are registered in the information holding unit 9. Then, based on the driver near information, the fellow driver near information, and the near point registered in the information holding unit 9, when the host vehicle approaches the near point, the presence of the near point is notified. By doing this, it is possible to provide appropriate driving support to the driver.
  • the notification unit 31 emphasizes and notifies rather than when notifying the presence of the near spot where the driver near incident information is associated. May be For example, the highlight point may be emphasized and displayed, or the volume at the time of notification may be increased. In this case, in a case where only the driver is present in the vehicle, it is very useful for the driver to notify a point where only the passenger has made a spot.
  • the driving support device described above is not limited to an on-vehicle navigation device, that is, a car navigation device, and a PND (Portable Navigation Device) mountable on a vehicle, and a server provided outside the vehicle, etc.
  • the present invention can also be applied to a navigation device to be constructed or a device other than the navigation device.
  • each function or each component of the driving support device is distributed and arranged to each function which constructs the above-mentioned system.
  • the function of the driving support device can be arranged in the server.
  • the user side includes a display device 27, an audio output device 28, and an input device 29.
  • the first server 33 includes a map information acquisition unit 10, a vehicle information acquisition unit 11, a traffic information acquisition unit 12, a vehicle position information acquisition unit 13, an occupant information acquisition unit 14, a near call judgment unit 15, a vehicle position judgment unit 16, A route guidance unit 3, a display control unit 17, an audio control unit 18, a screen display output unit 19, an audio output unit 20, an input unit 21, an information transmission / reception unit 8, and an information holding unit 9.
  • the second server 34 corresponds to the external server 22. With such a configuration, a driving support system can be constructed. The same applies to the driving support device 32 shown in FIG.
  • the function of a driving assistance device can be arrange
  • the user side includes a display device 27, an audio output device 28, and an input device 29.
  • the mobile communication terminal 35 includes a map information acquisition unit 10, a vehicle information acquisition unit 11, a traffic information acquisition unit 12, a vehicle position information acquisition unit 13, an occupant information acquisition unit 14, a near call judgment unit 15, an information transmission / reception unit 8 and information.
  • a holding unit 9 is provided.
  • the first server 36 includes a host vehicle position determination unit 16, a route guidance unit 3, a display control unit 17, an audio control unit 18, a screen display output unit 19, an audio output unit 20, and an input unit 21. With such a configuration, a driving support system can be constructed. The same applies to the driving support device 32 shown in FIG.
  • software for executing the operation in the above embodiment may be incorporated into, for example, a server.
  • the driving support method realized by the server executing this software includes driver hiyari information indicating that the driver in the running vehicle has made a hiyari, and a passenger other than the driver in the car is hiry It is determined in advance based on the driver's hiyari information, the passenger's hiyari information, and the hiyari spot, which are collected in association with the hiyari spot which is the spot where the passenger's hiyari information indicating the event has been made. Guide you to your destination.
  • each embodiment can be freely combined, or each embodiment can be appropriately modified or omitted.
  • SYMBOLS 1 driving assistance apparatus 2 collection part, 3 route guidance part, 4 driving assistance apparatus, 5 information acquisition part, 6 control part, 7 user interface part, 8 information transmission / reception part, 9 information holding part, 10 map information acquisition part, 11 Vehicle information acquisition unit, 12 traffic information acquisition unit, 13 own vehicle position information acquisition unit, 14 passenger information acquisition unit, 15 near-miss judgment unit, 16 own vehicle position judgment unit, 17 display control unit, 18 voice control unit, 19 screen display Output unit, 20 voice output unit, 21 input unit, 22 external server, 23 CPU, 24 memory, 25 storage device, 26 communication device, 27 display device, 28 voice output device, 29 input device, 30 driving support device, 31 notification Unit, 32 driving support device, 33 first server, 34 second server, 35 mobile communication terminal, 36 first server, 37 The second server.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

本発明は、運転者に対して適切な運転支援を行うことが可能な運転支援装置および運転支援方法を提供することを目的とする。本発明による運転支援装置は、走行中の車両内の運転者がヒヤリとしたことを示す運転者ヒヤリ情報と、車両内の運転者以外の同乗者がヒヤリとしたことを示す同乗者ヒヤリ情報とのそれぞれを、ヒヤリとした地点であるヒヤリ地点と対応付けて収集する収集部と、収集部が収集した運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点に基づいて、予め定められた目的地までの経路を案内する経路案内部とを備える。

Description

運転支援装置および運転支援方法
 本発明は、走行中の車両内の乗員がヒヤリとした地点を収集し、収集した地点を用いて運転者に対する運転支援を行う運転支援装置および運転支援方法に関する。
 従来、走行中の車両内の運転者にヒヤリハット反応があったとき、そのときの状況とヒヤリハット反応があった地点とを対応付けて記憶し、走行中の車両が過去にヒヤリハット反応があった地点に近づくと、当該ヒヤリハット反応があった地点とそのときの状況とを運転者に報知する技術が開示されている(例えば、特許文献1参照)。
 また、公益財団法人交通事故総合分析センターが収集した交通事故に関するデータに基づいて、交通事故の多発地点を案内する技術がある。
特開2007-47914号公報
 車両が走行しているとき、運転者の視野と、運転者以外の同乗者の視野とは異なっている。そのため、運転者と同乗者とでは走行中に生じる突発的な出来事に対する反応が異なることがある。
 例えば、車両の走行中において、同乗者がヒヤリとしても運転者はヒヤリとしない場合があったり、逆に、運転者がヒヤリとしても同乗者はヒヤリとしない場合がある。
 しかしながら、特許文献1などの従来の技術では、運転者のヒヤリ地点として、考慮がなされているが、同乗者にヒヤリハット反応があった地点は考慮されていないため、同乗者のみがヒヤリとした場合、当該ヒヤリ地点を活用できていないという課題があった。なお、ここでいう同乗者とは、助手席に乗っている同乗者、および後部座席に乗っている同乗者を含む者である。
 本発明は、このような問題を解決するためになされたものであり、運転者に対して適切な運転支援を行うことが可能な運転支援装置および運転支援方法を提供することを目的とする。
 上記の課題を解決するために、本発明による運転支援装置は、走行中の車両内の運転者がヒヤリとしたことを示す運転者ヒヤリ情報と、車両内の運転者以外の同乗者がヒヤリとしたことを示す同乗者ヒヤリ情報とのそれぞれを、ヒヤリとした地点であるヒヤリ地点と対応付けて収集する収集部と、収集部が収集した運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点に基づいて、予め定められた目的地までの経路を案内する経路案内部とを備える。
 また、本発明による運転支援装置は、走行中の車両内の運転者がヒヤリとしたことを示す運転者ヒヤリ情報と、車両内の運転者以外の同乗者がヒヤリとしたことを示す同乗者ヒヤリ情報とのそれぞれを、ヒヤリした地点であるヒヤリ地点と対応付けて収集する収集部と、収集部が収集した運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点に基づいて、ヒヤリ地点の存在を報知する報知部とを備える。
 さらに、本発明による運転支援方法は、走行中の車両内の運転者がヒヤリとしたことを示す運転者ヒヤリ情報と、車両内の運転者以外の同乗者がヒヤリとしたことを示す同乗者ヒヤリ情報とのそれぞれを、ヒヤリとした地点であるヒヤリ地点と対応付けて収集し、収集した運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点に基づいて、予め定められた目的地までの経路を案内する。
 本発明によると、運転支援装置は、走行中の車両内の運転者がヒヤリとしたことを示す運転者ヒヤリ情報と、車両内の運転者以外の同乗者がヒヤリとしたことを示す同乗者ヒヤリ情報とのそれぞれを、ヒヤリとした地点であるヒヤリ地点と対応付けて収集する収集部と、収集部が収集した運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点に基づいて、予め定められた目的地までの経路を案内する経路案内部とを備えるため、運転者に対して適切な運転支援を行うことが可能となる。
 また、運転支援装置は、走行中の車両内の運転者がヒヤリとしたことを示す運転者ヒヤリ情報と、車両内の運転者以外の同乗者がヒヤリとしたことを示す同乗者ヒヤリ情報とのそれぞれを、ヒヤリした地点であるヒヤリ地点と対応付けて収集する収集部と、収集部が収集した運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点に基づいて、ヒヤリ地点の存在を報知する報知部とを備えるため、運転者に対して適切な運転支援を行うことが可能となる。
 さらに、運転支援方法は、走行中の車両内の運転者がヒヤリとしたことを示す運転者ヒヤリ情報と、車両内の運転者以外の同乗者がヒヤリとしたことを示す同乗者ヒヤリ情報とのそれぞれを、ヒヤリとした地点であるヒヤリ地点と対応付けて収集し、収集した運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点に基づいて、予め定められた目的地までの経路を案内するため、運転者に対して適切な運転支援を行うことが可能となる。
 本発明の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。
本発明の実施の形態1による運転支援装置の構成の一例を示すブロック図である。 本発明の実施の形態1による運転支援装置の構成の一例を示すブロック図である。 本発明の実施の形態1による運転支援装置のハードウェア構成の一例を示すブロック図である。 本発明の実施の形態1による運転支援装置の動作の一例を示すフローチャートである。 本発明の実施の形態1による運転支援装置の動作の一例を示すフローチャートである。 本発明の実施の形態2による運転支援装置の構成の一例を示すブロック図である。 本発明の実施の形態2による運転支援装置の構成の一例を示すブロック図である。 本発明の実施の形態2による運転支援装置の動作の一例を示すフローチャートである。 本発明の実施の形態による運転支援システムの構成の一例を示すブロック図である。 本発明の実施の形態による運転支援システムの構成の一例を示すブロック図である。
 本発明の実施の形態について、図面に基づいて以下に説明する。
 <実施の形態1>
 <構成>
 図1は、本発明の実施の形態1による運転支援装置1の構成の一例を示すブロック図である。なお、図1では、本実施の形態1による運転支援装置を構成する必要最小限の構成を示している。
 図1に示すように、運転支援装置1は、収集部2と経路案内部3とを備えている。収集部2は、走行中の車両内の運転者がヒヤリとしたことを示す運転者ヒヤリ情報と、車両内の運転者以外の同乗者がヒヤリとしたことを示す同乗者ヒヤリ情報とのそれぞれを、ヒヤリとした地点であるヒヤリ地点と対応付けて収集する。経路案内部3は、収集部2が収集した運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点に基づいて、予め定められた目的地までの経路を案内する。以下では、運転支援装置1を搭載した車両のことを自車両という。
 ここで、ヒヤリとは、走行中の車両内において運転者または同乗者が走行に関する突発的な反応をすることをいう。例えば、走行中の車両の前方に人または物が飛び出して来て車両に接触しそうになったとき、運転者または同乗者は驚くような仕草をするが、このような仕草を本実施の形態では「ヒヤリとした」と表現する。
 次に、図1に示す運転支援装置1を含む運転支援装置の他の構成について説明する。
 図2は、他の構成に係る運転支援装置4の構成の一例を示すブロック図である。図3は、運転支援装置4のハードウェア構成の一例を示すブロック図である。
 図2に示すように、運転支援装置4は、情報取得部5と、制御部6と、ユーザインターフェース部7と、情報送受信部8と、情報保持部9とを備えている。情報取得部5は、地図情報取得部10と、車両情報取得部11と、交通情報取得部12と、自車位置情報取得部13と、乗員情報取得部14と、ヒヤリ判断部15とを有している。制御部6は、自車位置判断部16と、経路案内部3と、表示制御部17と、音声制御部18とを有している。ユーザインターフェース部7は、画面表示出力部19と、音声出力部20と、入力部21とを有している。情報送受信部8は、外部サーバ22と通信可能に接続されている。
 地図情報取得部10は、地図情報を取得する。なお、地図情報取得部10は、通信装置26を介して外部から地図情報を取得し、取得した地図情報を記憶装置25に記憶してもよい。また、地図情報は、記憶装置25に予め記憶しておいてもよい。記憶装置25としては、例えばSD(登録商標)、HDD(Hard Disk Drive)、フラッシュメモリなどが挙げられる。通信装置26は、種々の情報を通信によって送受信可能であるものとする。
 車両情報取得部11は、運転支援装置4が搭載されている自車両に設けられた種々のセンサから車両情報を取得する。例えば、車両情報取得部11は、車速センサから車速情報を車両情報として取得し、舵角センサからハンドル操作時の操舵角情報を車両情報として取得する。
 交通情報取得部12は、通信装置26を介して、外部から交通情報を取得する。自車位置情報取得部13は、例えばGPS(Global Positioning System)を用いて、自車両の現在の位置情報を取得する。
 乗員情報取得部14は、自車両内の運転者および同乗者を含む乗員の状態を示す乗員情報を取得する。乗員情報は、例えば、乗員の心拍数、乗員の表情、乗員の動き、乗員が発した声などが挙げられる。具体的には、乗員情報取得部14は、乗員に配置されたセンサから、乗員の心拍数を乗員情報として取得する。乗員情報取得部14は、自車両内に設置され乗員を撮影可能なカメラから、乗員の表情または動きを乗員情報として取得する。乗員の表情は、乗員の開眼度合の変化、および乗員の顔の動きを含む。乗員の動きは、乗員の上半身の動きを含む。乗員情報取得部14は、自車両内に設置されたマイクから、乗員が発した声を乗員情報として取得する。乗員情報取得部14は、車両情報取得部11が取得した車両情報に含まれる操舵角情報を乗員情報として取得する。
 ヒヤリ判断部15は、乗員情報取得部14が取得した乗員情報に基づいて、自車両内の乗員がヒヤリとしたか否かを判断する。具体的には、ヒヤリ判断部15は、乗員の心拍数が予め定められた閾値となるまで急激に上昇した場合、乗員がヒヤリとしたと判断する。ヒヤリ判断部15は、乗員の表情または動きに対して周知の画像処理を行い、表情または動きが予め定められた閾値以上となるまで急激に変化した場合、乗員がヒヤリとしたと判断する。ヒヤリ判断部15は、乗員が発した声に対して周知の音声認識処理を行い、乗員が驚いたときに発する声である場合、乗員がヒヤリとしたと判断する。ヒヤリ判断部15は、車両情報取得部11が取得した操舵角情報に基づいて、運転者が急なハンドル操作を行った場合、運転者がヒヤリとしたと判断する。
 ヒヤリ判断部15は、乗員がヒヤリとしたと判断した場合、ヒヤリとしたことを示す情報と、ヒヤリとした地点であるヒヤリ地点とを対応付けて情報保持部9に出力する。このとき、ヒヤリ判断部15は、運転者がヒヤリとしたことを示す運転者ヒヤリ情報と、同乗者がヒヤリとしたことを示す同乗者ヒヤリ情報とを区別し、それぞれの情報にヒヤリ地点を対応付けて情報保持部9に出力する。このように、ヒヤリ判断部15は、運転者ヒヤリ情報と同乗者ヒヤリ情報とのそれぞれをヒヤリ地点と対応付けて収集する収集部2の機能を有している。なお、ヒヤリ地点は、乗員がヒヤリとしたときに自車位置情報取得部13が取得した位置情報である。
 情報保持部9は、ヒヤリ判断部15から受け取った運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点について、運転者ヒヤリ情報と同乗者ヒヤリ情報とのそれぞれをヒヤリ地点と対応付けて記憶している。
 また、ヒヤリ判断部15は、乗員がヒヤリとしたと判断した場合、ヒヤリとしたことを示す情報と、ヒヤリとした地点であるヒヤリ地点とを対応付けて情報送受信部8に出力する。このとき、ヒヤリ判断部15は、運転者がヒヤリとしたことを示す運転者ヒヤリ情報と、同乗者がヒヤリとしたことを示す同乗者ヒヤリ情報とを区別し、それぞれの情報にヒヤリ地点を対応付けて情報送受信部8に出力する。
 情報送受信部8は、ヒヤリ判断部15から受け取った運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点を外部サーバ22に送信する。すなわち、情報送受信部8は、運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点を外部サーバ22に送信する送信部の機能を有している。
 外部サーバ22は、情報送受信部8から受信した運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点について、運転者ヒヤリ情報と同乗者ヒヤリ情報とのそれぞれをヒヤリ地点と対応付けて記憶している。また、外部サーバ22は、運転支援装置4と同じ運転支援装置を搭載する他車両からも運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点を受信し記憶している。
 自車位置判断部16は、自車位置情報取得部13が取得した自車両の現在の位置情報と、地図情報取得部10が取得した地図情報とに基づいて、地図上における自車両の現在位置を判断する。経路案内部3は、自車位置判断部16が判断した自車位置と、ユーザが入力装置29を用いて設定した目的地までの経路を算出し、算出した経路を案内する。このとき、経路案内部3は、情報送受信部8が外部サーバ22から取得した運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点を考慮して経路を算出する。
 表示制御部17は、地図、経路、およびヒヤリ地点など、種々の情報を表示装置27に表示するよう制御する。音声制御部18は、経路案内およびヒヤリ地点の報知など、種々の情報を音声出力装置28から出力するよう制御する。
 画面表示出力部19は、表示制御部17の制御に従って、種々の情報を表示装置27に出力する。音声出力部20は、音声制御部18の制御に従って、種々の情報を音声出力装置28に出力する。入力部21は、ユーザが入力装置29を用いて入力した情報を受け付ける。
 運転支援装置4における地図情報取得部10、車両情報取得部11、交通情報取得部12、自車位置情報取得部13、乗員情報取得部14、ヒヤリ判断部15、自車位置判断部16、経路案内部3、表示制御部17、音声制御部18、画面表示出力部19、音声出力部20、および入力部21の各機能は、図3に示す処理回路により実現される。すなわち、運転支援装置4は、地図情報を取得し、車両情報を取得し、交通情報を取得し、自車両の現在の位置情報を取得し、乗員情報を取得し、乗員がヒヤリとしたか否かを判断し、地図上における自車両の現在位置を判断し、経路を案内し、表示制御を行い、音声制御を行い、情報を表示装置27に表示するよう制御し、情報を音声出力装置28から出力するよう制御し、ユーザが入力装置29を用いて入力した情報を受け付けるための処理回路を備える。処理回路は、メモリ24に格納されるプログラムを実行するCPU(Central Processing Unit)23(中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)ともいう)である。
 運転支援装置4における地図情報取得部10、車両情報取得部11、交通情報取得部12、自車位置情報取得部13、乗員情報取得部14、ヒヤリ判断部15、自車位置判断部16、経路案内部3、表示制御部17、音声制御部18、画面表示出力部19、音声出力部20、および入力部21の各機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアは、プログラムとして記述され、メモリ24に格納される。処理回路は、メモリ24に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、運転支援装置4は、地図情報を取得するステップ、車両情報を取得するステップ、交通情報を取得するステップ、自車両の現在の位置情報を取得するステップ、乗員情報を取得するステップ、乗員がヒヤリとしたか否かを判断するステップ、地図上における自車両の現在位置を判断するステップ、経路を案内するステップ、表示制御を行うステップ、音声制御を行うステップ、情報を表示装置27に表示するよう制御するステップ、情報を音声出力装置28から出力するよう制御するステップ、ユーザが入力装置29を用いて入力した情報を受け付けるステップが結果的に実行されることになるプログラムを格納するためのメモリ24を備える。また、これらのプログラムは、地図情報取得部10、車両情報取得部11、交通情報取得部12、自車位置情報取得部13、乗員情報取得部14、ヒヤリ判断部15、自車位置判断部16、経路案内部3、表示制御部17、音声制御部18、画面表示出力部19、音声出力部20、および入力部21の手順または方法をコンピュータに実行させるものであるともいえる。ここで、メモリとは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Read Only Memory)等の不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD等、または、今後使用されるあらゆる記憶媒体であってもよい。
 <動作>
 図4は、運転支援装置4の動作の一例を示すフローチャートである。
 ステップS11において、乗員情報取得部14は、乗員情報を取得する。ステップS12において、ヒヤリ判断部15は、乗員情報取得部14が取得した乗員情報に基づいて、自車両内の運転者および同乗者のうちの少なくとも一方がヒヤリとしたか否かを判断する。運転者および同乗者のうちの少なくとも一方がヒヤリとした場合は、ステップS12に移行する。運転者および同乗者のうちの少なくとも一方がヒヤリとしていない場合は、処理を終了する。
 ステップS13において、ヒヤリ判断部15は、運転者ヒヤリ情報および同乗者ヒヤリ情報のうちの少なくとも一方を、ヒヤリ地点と対応付けて情報保持部9に出力する。情報保持部9は、ヒヤリ判断部15から受け取った運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点について、運転者ヒヤリ情報と同乗者ヒヤリ情報とのそれぞれをヒヤリ地点と対応付けて記憶する。これにより、運転者ヒヤリ情報および同乗者ヒヤリ情報のうちの少なくとも一方が、ヒヤリ地点と対応付けて情報保持部9に登録される。すなわち、運転者および同乗者がヒヤリとした場合は、運転者ヒヤリ情報および同乗者ヒヤリ情報のそれぞれがヒヤリ地点と対応付けられて情報保持部9に登録される。運転者のみがヒヤリとした場合は、運転者ヒヤリ情報とヒヤリ地点とが対応付けられて情報保持部9に登録される。同乗者のみがヒヤリとした場合は、同乗者ヒヤリ情報とヒヤリ地点とが対応付けられて情報保持部9に登録される。なお、情報保持部9には、外部サーバ22に登録されている他車両の運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点を、情報送受信部8を介して取得し登録される。すなわち、情報保持部9に登録されている運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点は、外部サーバ22に登録されている運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点と同期されており、これにより情報保持部9には最新の運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点が登録される。
 また、ステップS13において、ヒヤリ判断部15は、運転者ヒヤリ情報および同乗者ヒヤリ情報のうちの少なくとも一方を、ヒヤリ地点と対応付けて情報送受信部8に出力する。情報送受信部8は、ヒヤリ判断部15から受け取った運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点を外部サーバ22に送信する。外部サーバ22は、情報送受信部8から受信した運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点について、運転者ヒヤリ情報と同乗者ヒヤリ情報とのそれぞれをヒヤリ地点と対応付けて記憶する。これにより、運転者ヒヤリ情報および同乗者ヒヤリ情報のうちの少なくとも一方が、ヒヤリ地点と対応付けて外部サーバ22に登録される。すなわち、運転者および同乗者がヒヤリとした場合は、運転者ヒヤリ情報および同乗者ヒヤリ情報のそれぞれがヒヤリ地点と対応付けられて外部サーバ22に登録される。運転者のみがヒヤリとした場合は、運転者ヒヤリ情報とヒヤリ地点とが対応付けられて外部サーバ22に登録される。同乗者のみがヒヤリとした場合は、同乗者ヒヤリ情報とヒヤリ地点とが対応付けられて外部サーバ22に登録される。なお、上述の通り、外部サーバ22には、運転支援装置4と同じ運転支援装置を搭載する他車両から受信した運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点も登録されている。外部サーバ22は、情報送受信部8からの要求、または定期的に当該外部サーバ22に登録されている運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点を情報送受信部8に送信する。
 図5は、運転支援装置4の動作の一例を示すフローチャートである。
 ステップS21において、経路案内部3は、自車位置判断部16が判断した自車位置と、ユーザが入力装置29を用いて設定した目的地までの経路を算出し、算出した経路上にヒヤリ地点が存在しているか否かを判断する。具体的には、経路案内部3は、情報保持部9に登録されている運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点を参照し、算出した経路上にヒヤリ地点が存在しているか否かを判断する。経路上にヒヤリ地点が存在している場合は、ステップS22に移行する。一方、経路上にヒヤリ地点が存在していない場合は、処理を終了する。
 ステップS22において、経路案内部3は、経路上に存在しているヒヤリ地点が、運転者ヒヤリ情報に対応付けられたヒヤリ地点であるか否かを判断する。なお、経路案内部3は、運転者ヒヤリ情報のみに対応付けられたヒヤリ地点だけでなく、運転者ヒヤリ情報および同乗者ヒヤリ情報のそれぞれに対応付けられたヒヤリ地点も、運転者ヒヤリ情報に対応付けられたヒヤリ地点であると判断する。運転者ヒヤリ情報に対応付けられたヒヤリ地点である場合は、ステップS23に移行する。一方、運転者ヒヤリ情報に対応付けられたヒヤリ地点でない場合は、ステップS25に移行する。
 ステップS23において、経路案内部3は、自車両がヒヤリ地点の手前に存在しているか否かを判断する。ここで、ヒヤリ地点の手前に存在するとは、経路案内部3が算出した経路に沿って走行中の自車両が、ヒヤリ地点から予め定められた距離以下の位置に存在することをいう。自車両がヒヤリ地点の手前に存在している場合は、ステップS24に移行する。一方、自車両がヒヤリ地点の手前に存在していない場合は、ステップS23の処理を繰り返す。
 ステップS24において、経路案内部3は、運転者にヒヤリ地点の存在を報知する。すなわち、経路案内部3は、運転者にヒヤリ地点の存在を報知する報知部の機能を有している。例えば、表示装置27に表示された地図上にヒヤリ地点が分かるように表示してもよく、音声出力装置28からヒヤリ地点が近づいている旨を音声で報知してもよい。
 ステップS25において、経路案内部3は、同乗者ヒヤリ情報に対応付けられたヒヤリ地点を回避した経路を再探索する。すなわち、経路案内部3は、ステップS21で算出した経路上に同乗者ヒヤリ情報のみに対応付けられたヒヤリ地点が存在している場合、当該ヒヤリ地点を回避した経路を再探索する。
 以上のことから、本実施の形態1によれば、運転者ヒヤリ情報と同乗者ヒヤリ情報とを区別し、それぞれの情報にヒヤリ地点を対応付けて情報保持部9および外部サーバ22に登録している。情報保持部9に登録されている運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点は、外部サーバ22に登録されている運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点と同期されているため、情報保持部9には最新の運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点が登録される。そして、情報保持部9に登録された運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点とに基づいて経路案内を行う。このとき、経路上に同乗者ヒヤリ情報のみに対応するヒヤリ地点が存在する場合は当該ヒヤリ地点を回避した経路を再探索する。このようにすることによって、運転者に対して適切な運転支援を行うことが可能となる。特に、車両内に運転者のみが存在している場合において、同乗者のみがヒヤリとした地点を回避した経路を案内することは運転者にとって非常に有用である。
 <実施の形態2>
 <構成>
 実施の形態1による運転支援装置4は、経路案内部3を備える場合について説明した。本発明の実施の形態2では、経路案内部3を備えない運転支援装置について説明する。
 図6は、本実施の形態2による運転支援装置30の構成の一例を示すブロック図である。なお、図6では、本実施の形態2による運転支援装置を構成する必要最小限の構成を示している。
 図6に示すように、運転支援装置30は、収集部2と報知部31とを備えている。収集部2は、図1に示す収集部2と同様であるため、ここでは詳細な説明を省略する。報知部31は、収集部2が収集した運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点に基づいて、ヒヤリ地点の存在を報知する。
 次に、図6に示す運転支援装置30を含む運転支援装置の他の構成について説明する。
 図7は、他の構成に係る運転支援装置32の構成の一例を示すブロック図である。運転支援装置32において、報知部31以外の構成は図2に示す運転支援装置4と同様であるため、ここでは詳細な説明を省略する。また、運転支援装置32のハードウェア構成は、図3に示す運転支援装置4のハードウェア構成と同様である。
 報知部31は、自車両がヒヤリ地点の手前に存在している場合、運転者にヒヤリ地点の存在を報知する。運転支援装置32における報知部31の機能は、処理回路により実現される。すなわち、運転支援装置32は、運転者にヒヤリ地点を報知するための処理回路を備える。
 運転支援装置32における報知部31の機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアは、プログラムとして記述され、メモリ24に格納される。処理回路は、メモリ24に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、運転支援装置32は、運転者にヒヤリ地点を報知するステップが結果的に実行されることになるプログラムを格納するためのメモリ24を備える。また、これらのプログラムは、報知部31の手順または方法をコンピュータに実行させるものであるともいえる。
 <動作>
 図8は、運転支援装置32の動作の一例を示すフローチャートである。図8では、外部サーバ22に登録された運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点を用いて、運転者にヒヤリ地点の存在を報知する動作の一例を示している。ここで用いられる運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点は、自車両が過去に外部サーバ22に登録した運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点だけでなく、他車両が過去に外部サーバ22に登録した運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点も含まれる。
 ステップS31において、報知部31は、自車両がヒヤリ地点に近づいているか否かを判断する。具体的には、報知部31は、自車位置判断部16が判断した自車位置と、情報保持部9に登録されているヒヤリ地点とに基づいて、自車両がヒヤリ地点に近づいているか否かを判断する。自車両がヒヤリ地点に近づいている場合は、ステップS32に移行する。一方、自車両がヒヤリ地点に近づいていない場合は、処理を終了する。
 ステップS32において、報知部31は、運転者にヒヤリ地点の存在を報知する。すなわち、報知部31は、自車両がヒヤリ地点に近づいていることを報知する。例えば、表示装置27に表示された地図上にヒヤリ地点が分かるように表示してもよく、音声出力装置28からヒヤリ地点が近づいている旨を音声で報知してもよい。
 以上のことから、本実施の形態2によれば、運転者ヒヤリ情報と同乗者ヒヤリ情報とを区別し、それぞれの情報にヒヤリ地点を対応付けて情報保持部9および外部サーバ22に登録している。情報保持部9に登録されている運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点は、外部サーバ22に登録されている運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点と同期されているため、情報保持部9には最新の運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点が登録される。そして、情報保持部9に登録された運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点とに基づいて、自車両がヒヤリ地点に近づくと当該ヒヤリ地点の存在を報知する。このようにすることによって、運転者に対して適切な運転支援を行うことが可能となる。
 なお、報知部31は、同乗者ヒヤリ情報のみが対応付けられたヒヤリ地点の存在を報知する際、運転者ヒヤリ情報が対応付けられたヒヤリ地点の存在を報知する際よりも強調して報知してもよい。例えば、ヒヤリ地点を強調して表示したり、報知する際の音量を大きくしたりしてもよい。この場合、車両内に運転者のみが存在している場合において、同乗者のみがヒヤリとした地点を報知することは運転者にとって非常に有用である。
 以上で説明した運転支援装置は、車載用ナビゲーション装置、すなわちカーナビゲーション装置だけでなく、車両に搭載可能なPND(Portable Navigation Device)、および車両の外部に設けられるサーバなどを適宜に組み合わせてシステムとして構築されるナビゲーション装置あるいはナビゲーション装置以外の装置にも適用することができる。この場合、運転支援装置の各機能あるいは各構成要素は、上記システムを構築する各機能に分散して配置される。
 具体的には、一例として、運転支援装置の機能をサーバに配置することができる。例えば、図9に示すように、ユーザ側は、表示装置27、音声出力装置28、および入力装置29を備える。第1サーバ33は、地図情報取得部10、車両情報取得部11、交通情報取得部12、自車位置情報取得部13、乗員情報取得部14、ヒヤリ判断部15、自車位置判断部16、経路案内部3、表示制御部17、音声制御部18、画面表示出力部19、音声出力部20、入力部21、情報送受信部8、および情報保持部9を備える。第2サーバ34は、外部サーバ22に対応している。このような構成とすることによって、運転支援システムを構築することができる。図7に示す運転支援装置32についても同様である。
 また、他の一例として、運転支援装置の機能をサーバおよび携帯通信端末に配置することができる。例えば、図10に示すように、ユーザ側は、表示装置27、音声出力装置28、および入力装置29を備える。携帯通信端末35は、地図情報取得部10、車両情報取得部11、交通情報取得部12、自車位置情報取得部13、乗員情報取得部14、ヒヤリ判断部15、情報送受信部8、および情報保持部9を備える。第1サーバ36は、自車位置判断部16、経路案内部3、表示制御部17、音声制御部18、画面表示出力部19、音声出力部20、および入力部21を備える。このような構成とすることによって、運転支援システムを構築することができる。図7に示す運転支援装置32についても同様である。
 また、上記の実施の形態における動作を実行するソフトウェアを、例えばサーバに組み込んでもよい。このソフトウェアをサーバが実行することにより実現される運転支援方法は、走行中の車両内の運転者がヒヤリとしたことを示す運転者ヒヤリ情報と、車両内の運転者以外の同乗者がヒヤリとしたことを示す同乗者ヒヤリ情報とのそれぞれを、ヒヤリとした地点であるヒヤリ地点と対応付けて収集し、収集した運転者ヒヤリ情報、同乗者ヒヤリ情報、およびヒヤリ地点に基づいて、予め定められた目的地までの経路を案内する。
 このように、上記の実施の形態における動作を実行するソフトウェアをサーバに組み込んで動作させることによって、上記の実施の形態と同様の効果が得られる。
 なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略することが可能である。
 本発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
 1 運転支援装置、2 収集部、3 経路案内部、4 運転支援装置、5 情報取得部、6 制御部、7 ユーザインターフェース部、8 情報送受信部、9 情報保持部、10 地図情報取得部、11 車両情報取得部、12 交通情報取得部、13 自車位置情報取得部、14 乗員情報取得部、15 ヒヤリ判断部、16 自車位置判断部、17 表示制御部、18 音声制御部、19 画面表示出力部、20 音声出力部、21 入力部、22 外部サーバ、23 CPU、24 メモリ、25 記憶装置、26 通信装置、27 表示装置、28 音声出力装置、29 入力装置、30 運転支援装置、31 報知部、32 運転支援装置、33 第1サーバ、34 第2サーバ、35 携帯通信端末、36 第1サーバ、37 第2サーバ。

Claims (15)

  1.  走行中の車両内の運転者がヒヤリとしたことを示す運転者ヒヤリ情報と、前記車両内の前記運転者以外の同乗者がヒヤリとしたことを示す同乗者ヒヤリ情報とのそれぞれを、前記ヒヤリとした地点であるヒヤリ地点と対応付けて収集する収集部と、
     前記収集部が収集した前記運転者ヒヤリ情報、前記同乗者ヒヤリ情報、および前記ヒヤリ地点に基づいて、予め定められた目的地までの経路を案内する経路案内部と、
    を備える、運転支援装置。
  2.  前記運転者および前記同乗者のうちの少なくとも一方がヒヤリとしたか否かを判断するヒヤリ判断部をさらに備え、
     前記ヒヤリ判断部は、前記運転者および前記同乗者の開眼度合の変化、顔の動き、および上半身の動きのうちの少なくとも1つに基づいて前記ヒヤリとしたか否かを判断することを特徴とする、請求項1に記載の運転支援装置。
  3.  前記ヒヤリ判断部は、前記運転者および前記同乗者の開眼度合の変化、顔の動き、および上半身の動きのうちの少なくとも1つが予め定められた閾値以上である場合、前記ヒヤリとしたと判断することを特徴とする、請求項2に記載の運転支援装置。
  4.  前記収集部が収集した前記運転者ヒヤリ情報、前記同乗者ヒヤリ情報、および前記ヒヤリ地点を外部サーバに送信する送信部をさらに備えることを特徴とする、請求項1に記載の運転支援装置。
  5.  前記収集部が収集した前記運転者ヒヤリ情報、前記同乗者ヒヤリ情報、および前記ヒヤリ地点を保持する情報保持部をさらに備えることを特徴とする、請求項1に記載の運転支援装置。
  6.  前記経路案内部は、前記経路上に、前記同乗者ヒヤリ情報のみが対応付けられた前記ヒヤリ地点が存在する場合、当該ヒヤリ地点を回避した経路を案内することを特徴とする、請求項1に記載の運転支援装置。
  7.  前記運転者に前記ヒヤリ地点の存在を報知する報知部をさらに備え、
     前記報知部は、前記経路案内部が案内する前記経路上に、前記運転者ヒヤリ情報が対応付けられた前記ヒヤリ地点が存在する場合、当該ヒヤリ地点の存在を報知することを特徴とする、請求項1に記載の運転支援装置。
  8.  走行中の車両内の運転者がヒヤリとしたことを示す運転者ヒヤリ情報と、前記車両内の前記運転者以外の同乗者がヒヤリとしたことを示す同乗者ヒヤリ情報とのそれぞれを、前記ヒヤリした地点であるヒヤリ地点と対応付けて収集する収集部と、
     前記収集部が収集した前記運転者ヒヤリ情報、前記同乗者ヒヤリ情報、および前記ヒヤリ地点に基づいて、前記ヒヤリ地点の存在を報知する報知部と、
    を備える、運転支援装置。
  9.  前記運転者および前記同乗者のうちの少なくとも一方がヒヤリとしたか否かを判断するヒヤリ判断部をさらに備え、
     前記ヒヤリ判断部は、前記運転者および前記同乗者の開眼度合の変化、顔の動き、および上半身の動きのうちの少なくとも1つに基づいて前記ヒヤリとしたか否かを判断することを特徴とする、請求項8に記載の運転支援装置。
  10.  前記ヒヤリ判断部は、前記運転者および前記同乗者の開眼度合の変化、顔の動き、および上半身の動きのうちの少なくとも1つが予め定められた閾値以上である場合、前記ヒヤリとしたと判断することを特徴とする、請求項9に記載の運転支援装置。
  11.  前記収集部が収集した前記運転者ヒヤリ情報、前記同乗者ヒヤリ情報、および前記ヒヤリ地点を外部サーバに送信する送信部をさらに備えることを特徴とする、請求項8に記載の運転支援装置。
  12.  前記収集部が収集した前記運転者ヒヤリ情報、前記同乗者ヒヤリ情報、および前記ヒヤリ地点を保持する情報保持部をさらに備えることを特徴とする、請求項8に記載の運転支援装置。
  13.  前記報知部は、前記車両が前記ヒヤリ地点に近づいていることを報知することを特徴とする、請求項8に記載の運転支援装置。
  14.  前記報知部は、前記同乗者ヒヤリ情報のみが対応付けられた前記ヒヤリ地点が存在する場合、前記運転者ヒヤリ情報が対応付けられた前記ヒヤリ地点の存在を報知するよりも強調して報知することを特徴とする、請求項8に記載の運転支援装置。
  15.  走行中の車両内の運転者がヒヤリとしたことを示す運転者ヒヤリ情報と、前記車両内の前記運転者以外の同乗者がヒヤリとしたことを示す同乗者ヒヤリ情報とのそれぞれを、前記ヒヤリとした地点であるヒヤリ地点と対応付けて収集し、
     前記収集した前記運転者ヒヤリ情報、前記同乗者ヒヤリ情報、および前記ヒヤリ地点に基づいて、予め定められた目的地までの経路を案内する、運転支援方法。
PCT/JP2017/038144 2017-10-23 2017-10-23 運転支援装置および運転支援方法 WO2019082234A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE112017007950.0T DE112017007950T5 (de) 2017-10-23 2017-10-23 Fahrunterstützungsvorrichtung und Fahrunterstützungsverfahren
PCT/JP2017/038144 WO2019082234A1 (ja) 2017-10-23 2017-10-23 運転支援装置および運転支援方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/038144 WO2019082234A1 (ja) 2017-10-23 2017-10-23 運転支援装置および運転支援方法

Publications (1)

Publication Number Publication Date
WO2019082234A1 true WO2019082234A1 (ja) 2019-05-02

Family

ID=66246333

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/038144 WO2019082234A1 (ja) 2017-10-23 2017-10-23 運転支援装置および運転支援方法

Country Status (2)

Country Link
DE (1) DE112017007950T5 (ja)
WO (1) WO2019082234A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020250082A1 (ja) * 2019-06-14 2020-12-17 株式会社半導体エネルギー研究所 ユーザーの感情に応じた動作を実行する情報処理装置
WO2022244128A1 (ja) * 2021-05-19 2022-11-24 三菱電機株式会社 運転支援情報生成装置、運転支援装置および運転支援情報生成方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005156535A (ja) * 2003-11-04 2005-06-16 Denso Corp 車両用走行支援装置及び車載装置
JP2011028415A (ja) * 2009-07-23 2011-02-10 Daihatsu Motor Co Ltd 運転支援装置
JP2013164664A (ja) * 2012-02-09 2013-08-22 Denso Corp 情報出力装置
JP2017136922A (ja) * 2016-02-02 2017-08-10 富士通テン株式会社 車両制御装置、車載機器制御装置、地図情報生成装置、車両制御方法及び車載機器制御方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005156535A (ja) * 2003-11-04 2005-06-16 Denso Corp 車両用走行支援装置及び車載装置
JP2011028415A (ja) * 2009-07-23 2011-02-10 Daihatsu Motor Co Ltd 運転支援装置
JP2013164664A (ja) * 2012-02-09 2013-08-22 Denso Corp 情報出力装置
JP2017136922A (ja) * 2016-02-02 2017-08-10 富士通テン株式会社 車両制御装置、車載機器制御装置、地図情報生成装置、車両制御方法及び車載機器制御方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020250082A1 (ja) * 2019-06-14 2020-12-17 株式会社半導体エネルギー研究所 ユーザーの感情に応じた動作を実行する情報処理装置
WO2022244128A1 (ja) * 2021-05-19 2022-11-24 三菱電機株式会社 運転支援情報生成装置、運転支援装置および運転支援情報生成方法

Also Published As

Publication number Publication date
DE112017007950T5 (de) 2020-07-09

Similar Documents

Publication Publication Date Title
US20180326998A1 (en) Stop intention determination apparatus and stop intention determination method
JP6241235B2 (ja) 車両用運転支援装置
JP4929933B2 (ja) 渋滞要因判断システム
CN108349503B (zh) 驾驶辅助装置
US10632912B2 (en) Alarm device
JP6253349B2 (ja) 走行支援装置および走行支援方法
JP2016066231A (ja) 衝突防止装置、衝突防止方法、衝突防止プログラムおよび記録媒体
JP7151090B2 (ja) 道路障害特定システムおよび道路障害特定方法
WO2019082234A1 (ja) 運転支援装置および運転支援方法
JP6001792B2 (ja) 運転支援装置および運転支援方法
JP2007122472A (ja) 運転支援システムおよびプログラム
JP2016223995A (ja) ドライバ推定装置、制御方法、プログラム及び記憶媒体
JP6996969B2 (ja) 運転支援装置、及び運転支援方法
JP5628612B2 (ja) 車載情報システム、車載装置、情報端末
JP6203040B2 (ja) 誤発進警報システムおよび障害物検知装置
JP2015007818A (ja) ナビゲーション装置、通信装置、ナビゲーション方法、及びナビゲーションプログラム
JP6326990B2 (ja) 車両用運転支援装置
JP2018067224A (ja) 車載機器
JP2016197474A (ja) 運転支援装置および運転支援方法
US20190143891A1 (en) Alert control apparatus, alert control method, and recording medium
JP2007249612A (ja) 車載報知装置
JP2020085531A (ja) 自動運転装置
JP6201855B2 (ja) 運転支援システム、方法およびプログラム
JP4543893B2 (ja) 周回走行事前検出装置および周回走行事前検出プログラム
JP6949278B2 (ja) 運転支援装置、運転支援システムおよび運転支援方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17929845

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17929845

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP