WO2023017291A1 - 運転支援装置及び運転支援方法 - Google Patents

運転支援装置及び運転支援方法 Download PDF

Info

Publication number
WO2023017291A1
WO2023017291A1 PCT/IB2021/000530 IB2021000530W WO2023017291A1 WO 2023017291 A1 WO2023017291 A1 WO 2023017291A1 IB 2021000530 W IB2021000530 W IB 2021000530W WO 2023017291 A1 WO2023017291 A1 WO 2023017291A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
vehicle
message
driving
controller
Prior art date
Application number
PCT/IB2021/000530
Other languages
English (en)
French (fr)
Inventor
草柳佳紀
柳拓良
茂田美友紀
小野沙織
Original Assignee
日産自動車株式会社
ルノー エス. ア. エス.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社, ルノー エス. ア. エス. filed Critical 日産自動車株式会社
Priority to PCT/IB2021/000530 priority Critical patent/WO2023017291A1/ja
Priority to CN202180101467.3A priority patent/CN117794802A/zh
Publication of WO2023017291A1 publication Critical patent/WO2023017291A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/10Interpretation of driver requests or demands
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present invention relates to a driving support device and a driving support method.
  • Patent Document 1 an invention that detects dangerous driving by a user and presents driving characteristics to the user.
  • the system determines whether or not it is dangerous driving. It is up to the user himself whether or not to accept the judgment result. Therefore, driving assistance based on the determination result may not be effective.
  • the present invention has been made in view of the above problems, and its object is to provide a driving assistance device and a driving assistance method that are capable of providing driving assistance that matches the user's senses.
  • the driving support device 1 determines whether or not the vehicle is in an abnormal state based on the data acquired by the sensor, and if it is determined that the vehicle is in an abnormal state, the vehicle A message indicating that the vehicle is in an abnormal state is output to a user on board, and the user's response to the message is acquired via an input device.
  • FIG. 1 is a configuration diagram of a driving assistance device 1 according to an embodiment of the present invention.
  • FIG. 2 shows a conversation between user 51 and robot head 40 .
  • FIG. 3 is an example of a method for determining dangerous driving.
  • FIG. 4 is an example of data stored when the assistance function is performed.
  • FIG. 5 is an example of a message output from the robot head 40.
  • FIG. 6 shows a conversation between user 51 and robot head 40 .
  • FIG. 7 shows a conversation between user 51 and robot head 40 .
  • FIG. 8 is a flow chart for explaining an operation example of the driving assistance device 1 .
  • FIG. 9 is a flow chart for explaining an operation example of the driving support device 1.
  • FIG. FIG. 10 is a flow chart for explaining an operation example of the driving support device 1. As shown in FIG.
  • the driving assistance device 1 includes a sensor 10, a microphone 11, a camera 12, a GPS receiver 13, a switch 14, a controller 20, a robot head 40, a speaker 41, and a display 42. , a steering actuator 43 , an accelerator pedal actuator 44 and a brake actuator 45 .
  • the driving support device 1 is installed in a vehicle with an automatic driving function.
  • the driving support device 1 may be installed in a vehicle capable of switching between automatic driving and manual driving.
  • An example of an automatic driving function is to automatically control steering control, braking force control, driving force control, etc. to assist the user's driving.
  • "user” means a user sitting in the driver's seat of the vehicle.
  • the sensor 10 is used to acquire various data and information.
  • the sensors 10 include sensors that acquire vehicle data and sensors that acquire information outside the vehicle. Examples of vehicle data are speed, acceleration, steering angle, brake hydraulic pressure, and accelerator opening. Sensors that acquire these data include a speed sensor, an acceleration sensor, a steering angle sensor, a gyro sensor, a brake oil pressure sensor, an accelerator opening sensor, and the like.
  • Examples of information external to the vehicle include objects (pedestrians, bicycles, motorcycles, other vehicles, etc.) existing around the vehicle (self-vehicle), traffic lights, lane markings, signs, pedestrian crossings, and intersections.
  • Sensors that acquire this information include laser range finders, radars, lidars, cameras 12, sonars, and the like.
  • the sensor 10 and the camera 12 are separated for convenience of explanation, but the camera 12 is a kind of the sensor 10 .
  • Data and information acquired by the sensor 10 are output to the controller 20 .
  • the microphone 11 acquires the user's voice data. Audio data acquired by the microphone 11 is output to the controller 20 .
  • the camera 12 has an imaging device such as a CCD (charge-coupled device) or a CMOS (complementary metal oxide semiconductor).
  • the installation location of the camera 12 is not particularly limited, as an example, the camera 12 is installed in the front, side, and rear of the vehicle. Camera 12 images the surroundings of the vehicle. Image data captured by the camera 12 is output to the controller 20 .
  • the camera 12 is also installed inside the vehicle. For example, the camera 12 is installed near the driver's seat and captures an image of the user's face. Face image data captured by the camera 12 is output to the controller 20 .
  • the GPS receiver 13 detects the position information of the vehicle on the ground by receiving radio waves from satellites.
  • the vehicle position information detected by the GPS receiver 13 includes latitude information and longitude information.
  • the GPS receiver 13 outputs the detected vehicle position information to the controller 20 .
  • the method of detecting the position information of the vehicle is not limited to the GPS receiver 13 .
  • a vehicle's position may be estimated using a method called odometry.
  • Odometry is a method of estimating the position of a vehicle by obtaining the amount and direction of movement of the vehicle according to the rotation angle and rotation angular velocity of the vehicle.
  • a GNSS receiver may be used instead of the GPS receiver 13 .
  • the switch 14 is used when the user uses the support function. If the user presses switch 14, the assist function is activated.
  • the "support functions" in this embodiment include around view monitor (hereinafter referred to as AVM), automatic parking, side down view monitor, steering support, emergency stop braking, emergency avoidance steering, lane departure prevention, blind spot warning, AVM and a combination of ultrasonic sensors, and the like. Since these support functions are well known, detailed description thereof will be omitted.
  • the switch 14 may be a physical switch or a virtual switch. A virtual switch is, for example, a switch displayed on the display 42 .
  • Some of the assistance functions mentioned above are also autonomous driving functions. That is, the support function of this embodiment also includes the automatic driving function. Autonomous driving functions include ACC (Adaptive Cruise Control) and constant speed control.
  • the controller 20 is a general-purpose microcomputer equipped with a CPU (central processing unit), memory, and input/output unit.
  • a computer program for functioning as the driving support device 1 is installed in the microcomputer.
  • the microcomputer functions as a plurality of information processing circuits included in the driving assistance device 1.
  • FIG. Here, an example of realizing a plurality of information processing circuits provided in the driving assistance device 1 by software is shown, but of course, dedicated hardware for executing each information processing described below is prepared to configure the information processing circuit. It is also possible to Also, a plurality of information processing circuits may be configured by individual hardware.
  • the controller 20 includes, as an example of a plurality of information processing circuits, a dangerous situation determination unit 21, a responsibility determination unit 22, a message creation unit 23, an utterance acquisition unit 24, an utterance analysis unit 25, a parameter change unit 26, a user A determination unit 27 , a position detection unit 28 , a support function selection unit 32 , a proposal unit 33 , and a support function execution unit 34 are provided.
  • the robot head 40 is an ornament imitating the head of a robot.
  • the robot head 40 is installed to enhance affinity between the user and the vehicle.
  • the robot head 40 has a speaker function and an information processing function.
  • dangerous situation determination unit 21 responsibility determination unit 22, message creation unit 23, speech acquisition unit 24, speech analysis unit 25, parameter change unit 26, user determination unit 27, position detection unit 28, the support function selection unit 32, the proposal unit 33, and the support function execution unit 34 will be described in detail.
  • the scene shown in FIG. 2 is a scene in which the user 51 is having a conversation with the robot head 40. Conversations are indicated at 60-63.
  • Reference numerals 60 and 62 indicate the utterances of the robot head 40 .
  • Reference numerals 61 and 63 indicate user 51's utterances.
  • the conversation flow is in the order 60, 61, 62, 63.
  • Reference numeral 52 indicates a preceding vehicle.
  • Reference numerals 60 to 63 are all described as voice, but are not limited to this.
  • symbols 60, 62 may be displayed on display 42 as characters.
  • Reference numerals 61 and 63 may indicate information selected by the user 51 from a plurality of options. In this case, multiple options are displayed on the display 42 . First, the conditions for outputting "What happened?" indicated by reference numeral 60 will be described. Installation of the robot head 40 is not essential. A virtual robot head may be displayed on the display 42 .
  • the dangerous situation determination unit 21 uses the data acquired from the sensor 10 to determine whether or not the driving of the user 51 was dangerous. An example of the determination method will be described with reference to FIG. The scenes shown in FIG. 3 are classified into parking, narrow road, approaching preceding vehicle, lane departure, merging or changing lanes, right turn, and left turn. In "parking”, if the distance to the obstacle is 15 cm or less, or if the number of turns in the front-rear direction is 5 or more, the dangerous situation determination unit 21 determines that the driving of the user 51 was dangerous. The distance to obstacles is detected by the lidar. The number of turns is detected by a steering angle sensor.
  • the dangerous situation determination unit 21 determines that the driving of the user 51 was dangerous.
  • the Japanese traffic rules traffic on the left side
  • “Left” or “right” can be read appropriately according to the traffic regulations of each country.
  • the dangerous situation determination unit 21 determines that the driving of the user 51 was dangerous. .
  • the speed of the own vehicle is detected by a speed sensor.
  • the distance to the preceding vehicle is detected by the lidar.
  • the dangerous situation determination unit 21 determines that the driving of the user 51 was dangerous.
  • a camera 12 detects the distance to the marking line.
  • the dangerous situation determination unit 21 determines that the driving of the user 51 was dangerous.
  • the distance to the rear side vehicle is detected by the lidar.
  • the steering direction is detected by a steering angle sensor.
  • the dangerous situation determination unit 21 determines that the driving of the user 51 was dangerous.
  • the TTC with the oncoming vehicle traveling straight is calculated using the speed of the oncoming vehicle traveling straight and the distance to the oncoming vehicle traveling straight.
  • the dangerous situation determination unit 21 determines that the driving of the user 51 was dangerous.
  • a signal indicating the determination result is sent to the responsibility determination unit 22 .
  • the responsibility determination unit 22 determines who is responsible for the dangerous driving. In the scene of FIG. 3, it is determined that the user 51 is responsible for dangerous driving. In this case, a signal indicating the determination result is sent to the message creation unit 23 .
  • the message creating section 23 creates a message indicated by reference numeral 60 .
  • the message creating unit 23 outputs the created message to the robot head 40 .
  • a message 60 is output by voice as shown in FIG.
  • FIG. 2 in response to the question "What happened?", the user 51 replies "It was a little dangerous! This answer is an affirmative answer.
  • a "positive answer” here means an answer by which the user 51 acknowledges that his or her driving was dangerous.
  • the voice response of the user 51 is output to the speech acquisition unit 24 via the microphone 11 .
  • the speech acquisition unit 24 outputs voice data of the user 51 to the speech analysis unit 25 .
  • the speech analysis unit 25 analyzes voice data of the user 51 .
  • a well-known technique is used for the speech analysis method.
  • the utterance analysis unit 25 determines whether or not the answer of the user 51 is affirmative based on the analysis result.
  • a signal indicating the determination result is output to the message creating unit 23 .
  • the message creating unit 23 creates a message indicated by reference numeral 62 (Do you want to support us next time?). Message 62 is created because user 51 answered in the affirmative. As shown in FIG.
  • a “positive answer” as used herein is an answer that accepts the support function.
  • This answer 63 is also analyzed by the utterance analysis unit 25 in the same manner as the answer 61 . Then, it is determined whether or not the answer of the user 51 is affirmative.
  • a signal indicating the determination result is output to the user database 31 .
  • a user database 31 is stored in the storage device 30 .
  • the storage device 30 is composed of an HDD (Hard Disk Drive), an SSD (Solid State Drive), and the like.
  • the position detection unit 28 uses the data acquired from the GPS receiver 13 to detect the position (place) of the vehicle at that time.
  • the detected position information is stored in the user database 31 .
  • the "support function" in the present embodiment is implemented when the user 51 drives next time after the exchanges of codes 60-63.
  • the camera 12 images the face of the user 51 .
  • Face image data captured by the camera 12 is output to the user determination section 27 .
  • the user determination unit 27 compares face image data acquired from the camera 12 with face image data pre-stored in the user database 31 to identify the user who has boarded the vehicle. In this embodiment, the user who got on board is identified as user 51 .
  • the reason for specifying is to provide support suitable for the user. There are cases where one vehicle is shared by multiple users. In this case, it is necessary to identify the user who has boarded the vehicle in order to provide assistance suitable for the user. If the assistance is provided without specifying the user, the user may feel uncomfortable.
  • the support function selection unit 32 selects support suitable for the scene from a plurality of support functions. As shown in FIG. 3, when the scene is "parking”, AVM or automatic parking is selected from multiple assistance functions. Note that AVM and automatic parking may be selected. If the scene is a "narrow road”, side down view monitor or steering assistance is selected from among the assistance functions. If the scene is "approaching preceding vehicle”, emergency stop braking or emergency avoidance steering is selected from a plurality of assistance functions. If the scene is "Lane Departure”, lane departure prevention is selected from among multiple assistance functions. If the scene is "merging or lane change”, blind spot warning or steering assistance is selected among multiple assistance functions. If the scene is a "right turn”, emergency stop braking is selected from among multiple assistance functions. If the scene is a "left turn”, the combination of AVM and ultrasonic sensor is selected from among multiple assist functions.
  • the support unit 33 determines that the vehicle is in the parking lot A based on the position information acquired from the position detection unit 28 .
  • the user 51 consented to the assistance function.
  • the consent result is stored in the user database 31.
  • FIG. The support function selection unit 32 selects a support function to be proposed to the user 51 by referring to the user database 31 . Assume that automatic parking is selected here.
  • the support function selection unit 32 outputs the selection result to the proposal unit 33 .
  • the proposal unit 33 confirms with the user 51 whether or not to implement the support function.
  • the reason for the reconfirmation is to enhance the relationship of trust between the user 51 and the vehicle.
  • This confirmation may be performed by voice through the speaker 41 or by displaying characters on the display 42 .
  • the user 51 uses the switch 14 to respond to this confirmation. If the user 51 presses the switch 14, he consents to the assistance function.
  • the proposal unit 33 Upon receiving the signal indicating that the switch 14 is on, the proposal unit 33 outputs a command for executing the support function to the support function execution unit 34 .
  • the support function execution unit 34 that has received the command controls the steering actuator 43 , the accelerator pedal actuator 44 and the brake actuator 45 . This allows automatic parking.
  • the data at that time is recorded in the user database 31.
  • the data to be recorded are the user name, date and time, location, scene, and assistance function performed, as shown in FIG.
  • the message creation unit 23 creates messages 60 and 62 and outputs them to the robot head 40, this is not the only option. Such messages may be pre-composed.
  • the message created in advance may be stored in the storage device 30 .
  • the message creation unit 23 can output an appropriate message to the robot head 40 .
  • An example of a pre-written message is shown in FIG.
  • the messages selected by the message creation unit 23 are "What happened?", "What happened”, "What happened?", "What did you do?", " What did you do?” is mentioned.
  • These message examples 1 are intended to make the user 51 indirectly accept responsibility.
  • message example 2 in FIG. 5 is intended to prompt the user 51 to give a specific answer.
  • Message example 2 includes, as shown in FIG. 5, "Which is the fault?"
  • the scene shown in FIG. 6 is a scene in which the user 51 is having a conversation with the robot head 40 .
  • Conversations are indicated by reference numerals 70-73.
  • Reference numerals 70 and 72 indicate the utterances of the robot head 40 .
  • Reference numerals 71 and 73 indicate utterances of the user 51 .
  • the flow of conversation is in the order 70, 71, 72, 73. Conditions for outputting "Are you scared?"
  • a signal indicating the determination result is sent to the responsibility determination unit 22 .
  • the responsibility determination unit 22 determines who is responsible for the dangerous driving. Here, it is determined that responsibility for dangerous driving lies with automatic driving (vehicle side).
  • a signal indicating the determination result is sent to the message creation unit 23 .
  • the message creating section 23 creates a message indicated by reference numeral 70 .
  • the message creating unit 23 outputs the created message to the robot head 40 .
  • a message 70 is output by voice as shown in FIG. As shown in FIG.
  • the message creating unit 23 creates a message indicated by reference numeral 72 (do you want to make it longer from the next time?). Message 72 is created because user 51 answered in the affirmative. As shown in FIG. 6, the user 51 responds "Yes! to the question "Would you like to extend the next time?" (reference numeral 73). This answer is an affirmative answer.
  • the "affirmative answer” here is an answer for changing the parameters of the support function (automatic driving function).
  • the answer 73 is analyzed by the utterance analysis unit 25 . Then, it is determined whether or not the answer of the user 51 is affirmative. A signal indicating the determination result is output to the parameter changing unit 26 .
  • the parameter changing unit 26 changes the inter-vehicle distance to be longer than that during the previous automatic driving.
  • the changed parameters are output to the support function execution unit 34 .
  • the support function execution unit 34 controls the inter-vehicle distance based on the changed parameters. As a result, it is possible to perform driving assistance that matches the user's senses.
  • the messages 70 and 72 may also be created in advance, similar to the messages 60 and 62.
  • the messages selected by the message creating unit 23 are "Did you feel dangerous?", “Was it dangerous driving?” ?” can be mentioned.
  • Other messages include “Did you brake late?”, “Were you too close?”, “Was the preceding vehicle too close?”, “Have you stepped on the accelerator too much?” Was the steering too slow/too fast?)?”, “Did you lean too far to the right/left?”
  • the cause of the occurrence of a dangerous situation is not limited to the user's 51 driving or automatic driving. For example, it may be caused by a user driving another vehicle, an automatic driving of another vehicle, a pedestrian, or the like.
  • the scene shown in FIG. 7 is a scene in which a pedestrian 53 jumps out and the situation becomes dangerous.
  • Reference numeral 80 indicates the utterance of the robot head 40 .
  • Reference numeral 81 indicates the utterance of the user 51 .
  • the flow of conversation is in the order of numerals 80,81.
  • the message creation unit 23 creates a message 80 (Are you okay?) and outputs it to the robot head 40 .
  • step S101 If the ignition is on (YES in step S101), the process proceeds to step S103. "Ignition on” means that the vehicle is powered on.
  • steps S103 and S105 the dangerous situation determination unit 21 uses the data acquired from the sensor 10 to determine whether or not a dangerous situation has occurred. If a dangerous situation occurs (YES in step S105), the process proceeds to step S107.
  • step S ⁇ b>107 the responsibility determination unit 22 estimates the cause of the occurrence of the dangerous situation based on the data acquired from the sensor 10 . For example, if the dangerous situation shown in FIG. 3 occurs due to the driving of the user 51, it is estimated that the user 51 is responsible for the dangerous driving (YES in step S113). When the dangerous situation shown in FIG.
  • a message 80 is output (see FIG. 7).
  • message 60 is output (see FIG. 2).
  • the process proceeds to step S ⁇ b>117 , and the speech acquisition unit 24 acquires the user's 51 answer via the microphone 11 . If it is determined that the user's 51 answer is affirmative (YES in step S119), a message 62 for proposing a support function is output (see FIG. 2). If it is determined that the answer from user 51 is negative (NO in step S119), a message is output to the effect that user 51 is responsible for dangerous driving.
  • a message 70 is output (see FIG. 6).
  • the process proceeds to step S ⁇ b>129 , and the speech acquisition unit 24 acquires the user's 51 answer via the microphone 11 . If it is determined that the user's 51 answer is affirmative (YES in step S131), the parameter change unit 26 reflects the user's 51 desire in the control details when automatic operation is performed next time (step S133). ). Specifically, the parameter changing unit 26 changes parameters related to the automatic driving function. As an example of parameter change, the inter-vehicle distance is changed to be longer. If it is determined that the user's 51 answer is negative (NO in step S131), the parameters are not changed. The processing of steps S103 to S135 is repeated until the ignition is turned off.
  • step S203 the proposal unit 33 acquires position information from the position detection unit 28 .
  • step S205 the proposal unit 33 determines whether or not the current vehicle location is the location where the support function was previously proposed based on the position information. The “place where the support function was proposed last time” is called “place A”. If the vehicle's current location is location A (YES in step S205), the support function selection unit 32 refers to the user database 31 and proposes a support function to the user 51 (step S207). If the user 51 approves the support function (YES in step S209), the support function execution unit 34 executes the support function (step S211).
  • step S213 If the user 51 does not accept the support function (NO in step S209), the support function execution unit 34 does not execute the support function (step S213).
  • step S215 When the vehicle passes the place A (YES in step S215), data at that time is recorded in the user database 31 (step S217). The processing of steps S203 to S217 is repeated until the ignition is turned off.
  • the driving assistance device 1 includes a sensor 10 that acquires data inside and outside the vehicle, and a controller 20 .
  • Controller 20 determines whether the vehicle is in an abnormal state based on the data acquired by sensor 10 .
  • the controller 20 determines that the vehicle is in an abnormal state, it outputs a message indicating that the vehicle is in an abnormal state to the user 51 riding in the vehicle.
  • the controller 20 acquires the user's 51 reply to the message via the input device.
  • An example of an input device is microphone 11 .
  • the vehicle is in an abnormal state means a situation where there is a possibility of a vehicle collision or accident. It suffices to determine the “possibility of vehicle collision or accident” based only on the data acquired by the sensor 10 . It does not matter whether the driving subject is the user 51 or the automatic driving function. However, as will be described later, the driving entity may be taken into consideration.
  • the answer of the user 51 relates to feelings of anxiety or danger about the state of the vehicle.
  • the controller 20 determines that the user's 51 response to the message indicates anxiety or danger, it suggests using a support function to support the user 51 .
  • An example of a response indicating anxiety or danger is message 61 shown in FIG. This makes it possible to perform driving assistance that matches the feeling of the user 51 .
  • the controller 20 estimates the cause of the abnormal state based on the data acquired by the sensor 10. When the controller 20 presumes that the cause is caused by the driving of the user 51, it outputs a message confirming responsibility to the user 51.
  • FIG. An example of a message confirming responsibility is "Which responsibility?" shown in FIG. If the controller 20 determines that the user's 51 response to the message is an admission of responsibility, then the controller 20 offers to use assistance functions to assist the user 51 . This makes it possible to perform driving assistance that matches the feeling of the user 51 . Also, by allowing the user 51 to accept responsibility, it is possible to make the relationship between the user 51 and the vehicle favorable.
  • the messages include those confirming responsibility for the user 51, those regarding the state of the vehicle, those confirming the feelings of the user 51, or those confirming the safety of the user 51.
  • An example of the "message for confirming responsibility to user 51" is "Which responsibility?" shown in FIG.
  • An example of a "vehicle status message” is "Was the brake slow?” shown in FIG.
  • An example of the "message confirming the feelings of the user 51" is "Are you scared?" shown in FIG.
  • An example of the "message for confirming the safety of user 51” is "Did you feel dangerous?" shown in FIG.
  • An example of a message confirming responsibility to the user 51 is a message confirming to the user 51 what happened in or around the vehicle (see FIG. 5).
  • the controller 20 determines that the user 51's response to the message confirming responsibility does not admit responsibility, it outputs a message to the effect that the user 51 is responsible. This can provide the user 51 with an opportunity to change his or her way of thinking.
  • the controller 20 estimates the cause of the abnormal state based on the data acquired by the sensor 10. When the controller 20 presumes that the cause is due to the automatic driving function, it outputs a message asking whether the user 51 feels uneasy.
  • An example of the "message for confirming whether the user 51 felt uneasy" is "Are you scared?" shown in FIG. This makes it possible to confirm whether or not the user 51 feels uneasy about automatic driving.
  • the controller 20 determines that the user's 51 response to the message confirming anxiety indicates that the user is feeling anxious
  • the controller 20 changes the parameter settings for the automatic driving function. Specifically, the controller 20 changes the parameters of the automatic driving function to the safe side.
  • An example of a parameter change is increasing the inter-vehicle distance. This makes it possible to perform driving assistance that matches the feeling of the user 51 . It will also increase confidence in automated driving.
  • Processing circuitry includes programmed processing devices, such as processing devices that include electrical circuitry. Processing circuitry also includes devices such as application specific integrated circuits (ASICs) and circuit components arranged to perform the described functions.
  • ASICs application specific integrated circuits

Abstract

運転支援装置(1)は、車両の内部及び外部のデータを取得するセンサ(10)と、コントローラ(20)とを備える。コントローラ(20)は、センサ(10)によつて取得されたデータに基づいて車両が異常な状態にあるか否かを判定し、車両が異常な状態にあると判定した場合、車両に乗車しているユーザに対して車両が異常な状態にあることを示すメツセージを出力し、メツセージに対するユーザの回答をマイク(11)を介して取得する。

Description

運転支援装置及び運転支援方法
 本発明は、運転支援装置及び運転支援方法に関する。
 従来より、ユーザによる危険運転を検出し、運転特性をユーザに提示する発明が知られている(特許文献1)。
特許第6480143号
 しかしながら、特許文献1に記載された発明において、システムが危険運転か否かを判定する。その判定結果を認めるか否かはユーザ自身に委ねられる。したがってその判定結果に基づく運転支援は効果的ではない場合がある。
 本発明は、上記問題に鑑みて成されたものであり、その目的は、ユーザの感覚に合った運転支援を行うことが可能な運転支援装置及び運転支援方法を提供することである。
 本発明の一態様に係る運転支援装置1は、センサによって取得されたデータに基づいて車両が異常な状態にあるか否かを判定し、車両が異常な状態にあると判定した場合、車両に乗車しているユーザに対して車両が異常な状態にあることを示すメッセージを出力し、メッセージに対するユーザの回答を入力装置を介して取得する。
 本発明によれば、ユーザの感覚に合った運転支援を行うことが可能となる。
図1は、本発明の実施形態に係る運転支援装置1の構成図である。 図2は、ユーザ51とロボットヘッド40との会話を示す。 図3は、危険運転の判定方法の一例である。 図4は、支援機能が実施されたときに記憶されるデータの一例である。 図5は、ロボットヘッド40から出力されるメッセージの一例である。 図6は、ユーザ51とロボットヘッド40との会話を示す。 図7は、ユーザ51とロボットヘッド40との会話を示す。 図8は、運転支援装置1の一動作例を説明するフローチャートである。 図9は、運転支援装置1の一動作例を説明するフローチャートである。 図10は、運転支援装置1の一動作例を説明するフローチャートである。
 以下、本発明の実施形態について、図面を参照して説明する。図面の記載において同一部分には同一符号を付して説明を省略する。
 図1を参照して運転支援装置1の構成例を説明する。図1に示すように、運転支援装置1は、センサ10と、マイク11と、カメラ12と、GPS受信機13と、スイッチ14と、コントローラ20と、ロボットヘッド40と、スピーカ41と、ディスプレイ42と、ステアリングアクチュエータ43と、アクセルペダルアクチュエータ44と、ブレーキアクチュエータ45を備える。
 運転支援装置1は自動運転機能を有する車両に搭載される。運転支援装置1は自動運転と手動運転とを切り替えることが可能な車両に搭載されてもよい。自動運転機能の一例は、操舵制御、制動力制御、駆動力制御などを自動的に制御してユーザの運転を支援するものである。本実施形態において「ユーザ」とは、車両の運転席に座っているユーザを意味する。
 センサ10は、様々なデータ及び情報を取得するために用いられる。センサ10には、車両のデータを取得するセンサと、車両の外部の情報を取得するセンサが含まれる。車両のデータの一例は、速度、加速度、舵角、ブレーキ油圧、アクセル開度である。これらのデータを取得するセンサとして、速度センサ、加速度センサ、舵角センサ、ジャイロセンサ、ブレーキ油圧センサ、アクセル開度センサなどが挙げられる。
 車両の外部の情報の一例は、車両(自車両)の周囲に存在する物体(歩行者、自転車、バイク、他車両など)、信号機、区画線、標識、横断歩道、交差点などである。これらの情報を取得するセンサとして、レーザレンジファインダ、レーダ、ライダ、カメラ12、ソナーなどが挙げられる。本実施形態では、説明の都合上、センサ10とカメラ12を分けているが、カメラ12はセンサ10の一種である。センサ10によって取得されたデータ及び情報はコントローラ20に出力される。
 マイク11はユーザの音声データを取得する。マイク11によって取得された音声データはコントローラ20に出力される。
 カメラ12はCCD(charge−coupled device)、CMOS(complementary metal oxide semiconductor)などの撮像素子を有する。カメラ12の設置場所は特に限定されないが、一例としてカメラ12は車両の前方、側方、後方に設置される。カメラ12は車両の周囲を撮像する。カメラ12によって撮像された画像データはコントローラ20に出力される。また本実施形態において、カメラ12は車両の内部にも設置される。例えば、カメラ12は運転席付近に設置され、ユーザの顔を撮像する。カメラ12によって撮像された顔画像データはコントローラ20に出力される。
 GPS受信機13は人工衛星からの電波を受信することにより、地上における車両の位置情報を検出する。GPS受信機13が検出する車両の位置情報には、緯度情報、及び経度情報が含まれる。GPS受信機13は、検出した車両の位置情報をコントローラ20に出力する。なお、車両の位置情報を検出する方法は、GPS受信機13に限定されない。例えば、車両の位置はオドメトリと呼ばれる方法を用いて推定されてもよい。オドメトリとは、車両の回転角、回転角速度に応じて車両の移動量及び移動方向を求めることにより、車両の位置を推定する方法である。なおGPS受信機13の代わりにGNSS受信機が用いられてもよい。
 スイッチ14は、ユーザが支援機能を使用する際に用いられる。ユーザがスイッチ14を押せば支援機能が作動する。本実施形態における「支援機能」には、アラウンドビューモニタ(以下AVMと称する)、自動駐車、サイドダウンビューモニタ、操舵支援、緊急停止ブレーキ、緊急回避操舵、車線逸脱防止、ブラインドスポットワーニング、AVMと超音波センサの組み合わせ、などが含まれる。これらの支援機能は、周知であるため詳細な説明は省略する。スイッチ14は、物理的なスイッチでもよく、仮想的なスイッチでもよい。仮想的なスイッチとは、例えば、ディスプレイ42に表示されるスイッチである。上述の支援機能の一部は自動運転機能でもある。すなわち、本実施形態の支援機能には自動運転機能も含まれる。自動運転機能にはACC(Adaptive Cruise Control)、速度一定制御などが含まれる。
 コントローラ20は、CPU(中央処理装置)、メモリ、及び入出力部を備える汎用のマイクロコンピュータである。マイクロコンピュータには、運転支援装置1として機能させるためのコンピュータプログラムがインストールされている。コンピュータプログラムを実行することにより、マイクロコンピュータは運転支援装置1が備える複数の情報処理回路として機能する。なおここでは、ソフトウェアによって運転支援装置1が備える複数の情報処理回路を実現する例を示すが、もちろん以下に示す各情報処理を実行するための専用のハードウェアを用意して情報処理回路を構成することも可能である。また複数の情報処理回路を個別のハードウェアにより構成してもよい。コントローラ20は、複数の情報処理回路の一例として、危険状況判定部21と、責任判定部22と、メッセージ作成部23と、発話取得部24と、発話解析部25、パラメータ変更部26と、ユーザ判定部27と、位置検出部28と、支援機能選択部32と、提案部33と、支援機能実施部34を備える。
 ロボットヘッド40はロボットの頭を模した置物である。ロボットヘッド40はユーザと車両との親和性を高めるために設置される。ロボットヘッド40はスピーカ機能、情報処理機能を備える。
 次に図2~7を参照して、危険状況判定部21、責任判定部22、メッセージ作成部23、発話取得部24、発話解析部25、パラメータ変更部26、ユーザ判定部27、位置検出部28、支援機能選択部32、提案部33、支援機能実施部34の詳細について説明する。
 図2に示すシーンは、ユーザ51がロボットヘッド40と会話をしているシーンである。会話は、符号60~63で示される。符号60、62はロボットヘッド40の発話を示す。符号61、63はユーザ51の発話を示す。会話の流れは、符号60、61、62、63の順である。符号52は、先行車両を示す。符号60~63はすべて音声として説明するが、これに限定されない。例えば符号60、62は文字としてディスプレイ42に表示されてもよい。また符号61、63は複数の選択肢からユーザ51が選択した情報を示すものであってもよい。この場合、複数の選択肢はディスプレイ42に表示される。最初に、符号60に示す「何かあった?」が出力されるための条件を説明する。なお、ロボットヘッド40の設置は必須ではない。ディスプレイ42に仮想のロボットヘッドが表示されてもよい。
 危険状況判定部21は、センサ10から取得したデータを用いてユーザ51の運転が危険だったか否かを判定する。判定方法の一例について図3を参照して説明する。図3に示すシーンは、駐車、狭路、先行車両への接近、車線逸脱、合流または車線変更、右折、左折に分類される。「駐車」において、障害物との距離が15cm以下、または、前後方向への切り返し回数が5回以上である場合、危険状況判定部21はユーザ51の運転が危険だったと判定する。障害物との距離はライダによって検出される。切り返し回数は舵角センサによって検出される。「狭路」において、左側面の障害物との距離が15cm以下である場合、危険状況判定部21はユーザ51の運転が危険だったと判定する。ここでは日本の交通規則(左側通行)を基準とする。「左」または「右」については、各国の交通規則にしたがって、適宜読み替えることが可能である。
 「先行車両への接近」について、自車両の速度が15km/h以上、かつ、先行車両との車間距離が5m以下である場合、危険状況判定部21はユーザ51の運転が危険だったと判定する。自車両の速度は速度センサによって検出される。先行車両との車間距離はライダによって検出される。「車線逸脱」について、左右どちらか一方の区画線との距離が5cm以下である場合、危険状況判定部21はユーザ51の運転が危険だったと判定する。区画線との距離はカメラ12によって検出される。「合流または車線変更」について、後側方車両との距離が5m以下、かつ、その方向へ操舵した場合、危険状況判定部21はユーザ51の運転が危険だったと判定する。後側方車両との距離はライダによって検出される。操舵方向は舵角センサによって検出される。「右折」について、対向直進車とのTTC(Time To Collision)が所定値以下である場合、危険状況判定部21はユーザ51の運転が危険だったと判定する。対向直進車とのTTCは、対向直進車の速度及び対向直進車までの距離を用いて算出される。「左折」について、左側面の障害物との距離が15cm以下である場合、危険状況判定部21はユーザ51の運転が危険だったと判定する。
 危険状況判定部21によってユーザ51の運転が危険だったと判定された場合、判定結果を示す信号が責任判定部22に送信される。この信号を受信した責任判定部22は、危険運転の責任が誰にあるのか判定する。図3のシーンにおいて、危険運転の責任はユーザ51にある、と判定される。この場合、判定結果を示す信号がメッセージ作成部23に送信される。この信号を受信したメッセージ作成部23は、符号60に示すメッセージを作成する。メッセージ作成部23は、作成されたメッセージをロボットヘッド40に出力する。これにより、図2に示すようにメッセージ60が音声で出力される。図2に示すように「何かあった?」という問いかけに対し、ユーザ51は「ちょっと危なかった!」と回答する(符号61)。この回答は、肯定的な回答である。ここでいう「肯定的な回答」とは、ユーザ51が自身の運転が危険だったことを認める回答を意味する。
 ユーザ51の音声による回答は、マイク11を介して発話取得部24に出力される。発話取得部24はユーザ51の音声データを発話解析部25に出力する。発話解析部25は、ユーザ51の音声データを解析する。音声解析方法には周知の技術が用いられる。発話解析部25は解析結果に基づいて、ユーザ51の回答が肯定的であるか否かを判定する。判定結果を示す信号はメッセージ作成部23に出力される。この信号を受信したメッセージ作成部23は、符号62に示すメッセージ(では次回から支援しますか?)を作成する。メッセージ62は、ユーザ51の回答が肯定的な回答だったことに起因して作成される。図2に示すように「では次回から支援しますか?」という問いかけに対し、ユーザ51は「お願い!」と回答する(符号63)。この回答は、肯定的な回答である。ここでいう「肯定的な回答」とは、支援機能を承諾する回答である。この回答63も、回答61と同様に発話解析部25によって解析される。そして、ユーザ51の回答が肯定的であるか否かが判定される。判定結果を示す信号はユーザデータベース31に出力される。ユーザデータベース31は記憶装置30に格納されている。記憶装置30はHDD(Hard Disk Drive)、SSD(Solid State Drive)などから構成される。
 ユーザ51の運転が危険だったと判定された場合、位置検出部28はGPS受信機13から取得したデータを用いて、そのときの車両の位置(場所)を検出する。検出された位置情報は、ユーザデータベース31に記憶される。
 本実施形態における「支援機能」は、符号60~63のやり取りがあった後、次回、ユーザ51が運転するときに実施される。ユーザ51が乗車したとき、カメラ12はユーザ51の顔を撮像する。カメラ12によって撮像された顔画像データはユーザ判定部27に出力される。ユーザ判定部27は、カメラ12から取得した顔画像データと、ユーザデータベース31に予め記憶されている顔画像データとを比較して、乗車したユーザを特定する。本実施形態では乗車したユーザは、ユーザ51であると特定される。特定する理由は、ユーザに適した支援を行うためである。1台の車両を複数のユーザで共有するケースがある。この場合、ユーザに適した支援を行うためには乗車したユーザを特定する必要がある。ユーザを特定せずに支援が行われた場合、ユーザは違和感を感じるおそれがある。
 支援機能選択部32は、複数の支援機能の中からシーンに適した支援を選択する。図3に示すように、シーンが「駐車」である場合、複数の支援機能からAVMまたは自動駐車が選択される。なお、AVMかつ自動駐車が選択されてもよい。シーンが「狭路」である場合、複数の支援機能の中からサイドダウンビューモニタまたは操舵支援が選択される。シーンが「先行車両への接近」である場合、複数の支援機能の中から緊急停止ブレーキまたは緊急回避操舵が選択される。シーンが「車線逸脱」である場合、複数の支援機能の中から車線逸脱防止が選択される。シーンが「合流または車線変更」である場合、複数の支援機能の中からブラインドスポットワーニングまたは操舵支援が選択される。シーンが「右折」である場合、複数の支援機能の中から緊急停止ブレーキが選択される。シーンが「左折」である場合、複数の支援機能の中からAVMと超音波センサの組み合わせが選択される。
 ここで、シーンが「駐車」であるときの支援について説明する。前回、ユーザ51の運転が危険だったと判定されたときの場所を駐車場Aとよぶ。この駐車場Aに、再度ユーザ51が向かったとする。提案部33は、位置検出部28から取得した位置情報に基づいて、車両が駐車場Aに居ると判定する。前回のやり取り(符号60~63のやり取り)において、ユーザ51は支援機能を承諾している。承諾結果はユーザデータベース31に記憶されている。支援機能選択部32は、ユーザデータベース31を参照して、ユーザ51に提案する支援機能を選択する。ここでは自動駐車が選択されたとする。支援機能選択部32は選択結果を提案部33に出力する。提案部33はユーザ51に対して支援機能を実施するか否かを確認する。再度確認する理由は、ユーザ51と車両との信頼関係を高めるためである。この確認は、スピーカ41を介した音声で行われてもよく、ディスプレイ42に文字を表示することにより行われてもよい。この確認に対し、ユーザ51はスイッチ14を用いて回答する。ユーザ51がスイッチ14を押せば支援機能を承諾したことになる。スイッチ14がオンであることを示す信号を受信した提案部33は、支援機能を実施するための指令を支援機能実施部34に出力する。指令を受けた支援機能実施部34は、ステアリングアクチュエータ43、アクセルペダルアクチュエータ44、ブレーキアクチュエータ45を制御する。これにより自動駐車が行われる。
 支援機能が実施されたとき、そのときのデータがユーザデータベース31に記録される。記録されるデータは、図4に示すように、ユーザ名、日時、場所、シーン、実施された支援機能である。
 メッセージ作成部23は、メッセージ60、62を作成してロボットヘッド40に出力する、と説明したが、これに限定されない。このようなメッセージは予め作成されていてもよい。予め作成されたメッセージは記憶装置30に記憶されていればよい。メッセージ作成部23は記憶装置30を参照することにより、適切なメッセージをロボットヘッド40に出力することが可能になる。予め作成されたメッセージの例を図5に示す。危険運転の責任がユーザ51にある場合、メッセージ作成部23が選択するメッセージとして、「何があった?」、「何が起こった」、「どうした?」、「何かした?」、「何したの?」が挙げられる。これらのメッセージ例1は、ユーザ51に対して遠回しに責任を認めさせることを目的としている。これに対して図5のメッセージ例2は、ユーザ51に対して具体的に回答を促すことを目的としている。メッセージ例2として、図5に示すように「どっちが悪い?」、「どっちの責任」が挙げられる。
 上述では、ユーザ51の運転が危険だったと判定された場合の例である。ここで、車両を運転するのはユーザ51だけではない。車両は自動運転機能を有するため、ユーザ51が介在しない運転(自動運転)も行われる。通常、自動運転は危険な運転にならないように設計されている。しかし、予期せぬ原因により、自動運転に何らかの異常が発生する可能性がある。ここでいう「異常」とは正常ではないことを意味する。「異常」とは自動運転が本来備える機能を発揮できなくなる故障のみならず、故障には至らない不具合及び故障の前兆を含む概念である。自動運転に異常が発生した場合、図3の判定例に示した危険な状況になる可能性がある。自動運転に異常が発生した場合の会話例を図6を参照して説明する。図6に示すシーンは、ユーザ51がロボットヘッド40と会話をしているシーンである。会話は、符号70~73で示される。符号70、72はロボットヘッド40の発話を示す。符号71、73はユーザ51の発話を示す。会話の流れは、符号70、71、72、73の順である。符号70に示す「怖かった?」が出力されるための条件を説明する。
 危険状況判定部21によって自動運転に異常が発生したと判定された場合、判定結果を示す信号が責任判定部22に送信される。この信号を受信した責任判定部22は、危険運転の責任が誰にあるのか判定する。ここでは危険運転の責任は自動運転(車両側)にある、と判定される。判定結果を示す信号がメッセージ作成部23に送信される。この信号を受信したメッセージ作成部23は、符号70に示すメッセージを作成する。メッセージ作成部23は、作成されたメッセージをロボットヘッド40に出力する。これにより、図6に示すようにメッセージ70が音声で出力される。図6に示すように「怖かった?」という問いかけに対し、ユーザ51は「車間距離が短い!」と回答する(符号71)。この回答は、肯定的な回答である。ここでいう「肯定的な回答」とは、ユーザ51が自動運転が危険だったことを認める回答を意味する。ユーザ51の回答は、上述と同じ方法で解析される。解析結果に基づいて、メッセージ作成部23は、符号72に示すメッセージ(では次回から長くしますか?)を作成する。メッセージ72は、ユーザ51の回答が肯定的な回答だったことに起因して作成される。図6に示すように「では次回から長くしますか?」という問いかけに対し、ユーザ51は「そうして!」と回答する(符号73)。この回答は、肯定的な回答である。ここでいう「肯定的な回答」とは、支援機能(自動運転機能)のパラメータを変更するための回答である。回答73は発話解析部25によって解析される。そして、ユーザ51の回答が肯定的であるか否かが判定される。判定結果を示す信号はパラメータ変更部26に出力される。次回、自動運転が実施されるとき、パラメータ変更部26は車間距離が前回の自動運転時と比較して長くなるように変更する。変更されたパラメータは支援機能実施部34に出力される。支援機能実施部34は、変更されたパラメータに基づいて車間距離を制御する。これにより、ユーザの感覚に合った運転支援を行うことが可能となる。
 メッセージ70、72もメッセージ60、62と同様に、予め作成されていてもよい。危険運転の責任が自動運転(車両側)にある場合、メッセージ作成部23が選択するメッセージとして、図5に示すように「危険と感じた?」、「危険運転だった?」、「怖かった?」が挙げられる。その他のメッセージとして、「ブレーキが遅かった?」、「車間距離が短すぎた?」、「先行車両が近かった?」、「アクセルを踏みすぎた?」、「早すぎた?」、「遅すぎた?」、「ハンドルが遅かった/早すぎた?)?」、「右/左に寄りすぎた?」、「ふらふらした?」、「カクカクした?」が挙げられる。
 危険な状況が発生する原因は、ユーザ51の運転または自動運転に限定されない。例えば、他車両のユーザの運転、他車両の自動運転、歩行者などが原因になる可能性がある。図7に示すシーンは、歩行者53の飛び出しによって危険な状況になったシーンである。符号80はロボットヘッド40の発話を示す。符号81はユーザ51の発話を示す。会話の流れは、符号80、81の順である。歩行者53の飛び出しによって危険な状況になった場合、メッセージ作成部23は、符号80に示すメッセージ(大丈夫だった?)を作成してロボットヘッド40に出力する。
 次に、図8~9のフローチャートを参照して、運転支援装置1の一動作例を説明する。
 イグニッションがオンである場合(ステップS101でYES)、処理はステップS103に進む。「イグニッションがオン」とは、車両の電源がオンであることを意味する。ステップS103、105において、危険状況判定部21はセンサ10から取得したデータを用いて危険な状況が発生したか否かを判定する。危険な状況が発生した場合(ステップS105でYES)、処理はステップS107に進む。ステップS107において、責任判定部22はセンサ10から取得したデータに基づいて危険な状況が発生した原因を推定する。例えば、ユーザ51の運転によって図3に示す危険な状況が発生した場合、危険運転の責任はユーザ51にある、と推定される(ステップS113でYES)。自車両の自動運転機能によって図3に示す危険な状況が発生した場合、危険運転の責任は自動運転(車両側)にある、と推定される(ステップS113でNO)。他車両のユーザの運転、他車両の自動運転機能、または歩行者などによって危険な状況が発生した場合、危険運転の責任は他車両のユーザ、他車両、または歩行者などにある、と推定される(ステップS109でNO)。「歩行者など」には、歩行者、自転車、バイクが含まれる。
 ステップS111において、メッセージ80が出力される(図7参照)。ステップS115において、メッセージ60が出力される(図2参照)。処理はステップS117に進み、発話取得部24はマイク11を介してユーザ51の回答を取得する。ユーザ51の回答が肯定的であると判定された場合(ステップS119でYES)、支援機能を提案するためのメッセージ62が出力される(図2参照)。ユーザ51の回答が否定的であると判定された場合(ステップS119でNO)、危険運転の責任がユーザ51にある旨のメッセージが出力される。
 ステップS127において、メッセージ70が出力される(図6参照)。処理はステップS129に進み、発話取得部24はマイク11を介してユーザ51の回答を取得する。ユーザ51の回答が肯定的であると判定された場合(ステップS131でYES)、パラメータ変更部26は、次回、自動運転が実施されるとき、ユーザ51の希望を制御内容に反映させる(ステップS133)。具体的にはパラメータ変更部26は、自動運転機能に係るパラメータを変更する。パラメータ変更の一例として、車間距離が長くなるように変更される。ユーザ51の回答が否定的であると判定された場合(ステップS131でNO)、パラメータは変更されない。イグニッションがオフされるまで、ステップS103~135の処理は繰り返される。
 次に、図10のフローチャートを参照して、運転支援装置1の一動作例を説明する。
 イグニッションがオンである場合(ステップS201でYES)、処理はステップS203に進む。ステップS203において提案部33は位置検出部28から位置情報を取得する。ステップS205において、提案部33は位置情報に基づいて車両の現在地が、前回、支援機能を提案した場所か否かを判定する。「前回、支援機能を提案した場所」を「場所A」とよぶ。車両の現在地が場所Aである場合(ステップS205でYES)、支援機能選択部32は、ユーザデータベース31を参照して、ユーザ51に支援機能を提案する(ステップS207)。ユーザ51が支援機能を承諾した場合(ステップS209でYES)、支援機能実施部34は支援機能を実施する(ステップS211)。ユーザ51が支援機能を承諾しない場合(ステップS209でNO)、支援機能実施部34は支援機能を実施しない(ステップS213)。車両が場所Aを通過したとき(ステップS215でYES)、そのときのデータがユーザデータベース31に記録される(ステップS217)。イグニッションがオフされるまで、ステップS203~217の処理は繰り返される。
(作用効果)
 以上説明したように、本実施形態に係る運転支援装置1によれば、以下の作用効果が得られる。
運転支援装置1は、車両の内部及び外部のデータを取得するセンサ10と、コントローラ20とを備える。コントローラ20はセンサ10によって取得されたデータに基づいて車両が異常な状態にあるか否かを判定する。コントローラ20は車両が異常な状態にあると判定した場合、車両に乗車しているユーザ51に対して車両が異常な状態にあることを示すメッセージを出力する。コントローラ20はメッセージに対するユーザ51の回答を入力装置を介して取得する。入力装置の一例はマイク11である。ユーザ51の回答に応じた支援を行うことにより、ユーザ51の感覚に合った運転支援を行うことが可能となる。
 「車両が異常な状態にある」とは、車両の衝突または事故の可能性がある状況を意味する。「車両の衝突または事故の可能性」は、センサ10によって取得されたデータのみに基づいて判定されれば足りる。運転する主体が、ユーザ51であるか自動運転機能であるかは問われない。ただし、後述するように運転する主体が考慮されてもよい。
 ユーザ51の回答は、車両の状態に対する不安または危険を示す感情に関するものである。
 コントローラ20は、メッセージに対するユーザ51の回答が不安または危険を示すものであると判定した場合、ユーザ51を支援するための支援機能の利用を提案する。不安または危険を示す回答の一例は、図2に示すメッセージ61である。これによりユーザ51の感覚に合った運転支援を行うことが可能となる。
 コントローラ20はセンサ10によって取得されたデータに基づいて異常な状態が発生した原因を推定する。コントローラ20は原因がユーザ51の運転に起因すると推定した場合、ユーザ51に対して責任を確認するメッセージを出力する。責任を確認するメッセージの一例は図5に示す「どっちの責任?」である。コントローラ20はメッセージに対するユーザ51の回答が責任を認めるものであると判定した場合、ユーザ51を支援するための支援機能の利用を提案する。これによりユーザ51の感覚に合った運転支援を行うことが可能となる。また、ユーザ51自身に責任を認めさせることにより、ユーザ51と車両との関係を好意的なものにすることが可能となる。
 メッセージには、ユーザ51に対して責任を確認するもの、車両の状態に関するもの、ユーザ51の感情を確認するもの、または、ユーザ51の安全を確認するものが含まれる。「ユーザ51に対して責任を確認するメッセージ」の一例は、図5に示す「どっちの責任?」である。「車両の状態に関するメッセージ」の一例は、図5に示す「ブレーキが遅かった?」である。「ユーザ51の感情を確認するメッセージ」の一例は、図5に示す「怖かった?」である。「ユーザ51の安全を確認するメッセージ」の一例は、図5に示す「危険と感じた?」である。
 ユーザ51に対して責任を確認するメッセージの一例は、車両または車両の周囲において何が起きたかをユーザ51に確認するメッセージである(図5参照)。
 コントローラ20は責任を確認するメッセージに対するユーザ51の回答が責任を認めないものであると判定した場合、責任はユーザ51にある旨のメッセージを出力する。これによりユーザ51に対して考え方を改める機会を提供できる。
 コントローラ20はセンサ10によって取得されたデータに基づいて異常な状態が発生した原因を推定する。コントローラ20は原因が自動運転機能に起因すると推定した場合、ユーザ51に対して不安を感じたかを確認するメッセージを出力する。「ユーザ51に対して不安を感じたかを確認するメッセージ」の一例は、図5に示す「怖かった?」である。これにより自動運転に対してユーザ51が不安を感じているか否かを確認することが可能となる。
 コントローラ20は不安を確認するメッセージに対するユーザ51の回答が不安を感じたことを示すものであったと判定した場合、自動運転機能のパラメータの設定を変更する。具体的にはコントローラ20は自動運転機能のパラメータを安全側に変更する。パラメータ変更の一例は、車間距離を長くすることである。これによりユーザ51の感覚に合った運転支援を行うことが可能となる。また自動運転に対する信頼も向上する。
 上述の実施形態に記載される各機能は、1または複数の処理回路により実装され得る。処理回路は、電気回路を含む処理装置等のプログラムされた処理装置を含む。処理回路は、また、記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)や回路部品等の装置を含む。
 上記のように、本発明の実施形態を記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
1 運転支援装置、10 センサ、11 マイク、12 カメラ、13 GPS受信機、14 スイッチ、20 コントローラ、40 ロボットヘッド

Claims (11)

  1.  車両の内部及び外部のデータを取得するセンサと、
     コントローラと、を備え、
     前記コントローラは、
     前記センサによって取得されたデータに基づいて前記車両が異常な状態にあるか否かを判定し、
     前記車両が異常な状態にあると判定した場合、前記車両に乗車しているユーザに対して前記車両が異常な状態にあることを示すメッセージを出力し、
     前記メッセージに対する前記ユーザの回答を入力装置を介して取得する
    ことを特徴とする運転支援装置。
  2.  前記車両が異常な状態にあるとは、前記車両の衝突または事故の可能性がある状況を意味する
    ことを特徴とする請求項1に記載の運転支援装置。
  3.  前記ユーザの回答は、前記車両の状態に対する不安または危険を示す感情に関するものである
    ことを特徴とする請求項1または2に記載の運転支援装置。
  4.  前記コントローラは、前記メッセージに対する前記ユーザの回答が不安または危険を示すものであると判定した場合、前記ユーザを支援するための支援機能の利用を提案する
    ことを特徴とする請求項1~3のいずれか1項に記載の運転支援装置。
  5.  前記コントローラは、
     前記センサによって取得されたデータに基づいて前記異常な状態が発生した原因を推定し、
     前記原因が前記ユーザの運転に起因すると推定した場合、前記ユーザに対して責任を確認するメッセージを出力し、
     前記メッセージに対する前記ユーザの回答が責任を認めるものであると判定した場合、前記ユーザを支援するための支援機能の利用を提案する
    ことを特徴とする請求項4に記載の運転支援装置。
  6.  前記メッセージには、前記ユーザに対して責任を確認するもの、前記車両の状態に関するもの、前記ユーザの感情を確認するもの、または、前記ユーザの安全を確認するものが含まれる
    ことを特徴とする請求項1~5のいずれか1項に記載の運転支援装置。
  7.  前記ユーザに対して責任を確認するメッセージは、前記車両または前記車両の周囲において何が起きたかを前記ユーザに確認するメッセージである
    ことを特徴とする請求項6に記載の運転支援装置。
  8.  前記コントローラは、前記責任を確認するメッセージに対する前記ユーザの回答が前記責任を認めないものであると判定した場合、前記責任は前記ユーザにある旨のメッセージを出力する
    ことを特徴とする請求項6または7に記載の運転支援装置。
  9.  前記コントローラは、
     前記センサによって取得されたデータに基づいて前記異常な状態が発生した原因を推定し、
     前記原因が自動運転機能に起因すると推定した場合、前記ユーザに対して不安を感じたかを確認するメッセージを出力する
    ことを特徴とする請求項1~3のいずれか1項に記載の運転支援装置。
  10.  前記コントローラは、前記不安を確認するメッセージに対する前記ユーザの回答が前記不安を感じたことを示すものであったと判定した場合、前記自動運転機能のパラメータの設定を変更する
    ことを特徴とする請求項9に記載の運転支援装置。
  11.  車両の内部及び外部のデータを取得し、
     取得されたデータに基づいて前記車両が異常な状態にあるか否かを判定し、
     前記車両が異常な状態にあると判定した場合、前記車両に乗車しているユーザに対して前記車両が異常な状態にあることを示すメッセージを出力し、
     前記メッセージに対する前記ユーザの回答を入力装置を介して取得する
    ことを特徴とする運転支援方法。
PCT/IB2021/000530 2021-08-11 2021-08-11 運転支援装置及び運転支援方法 WO2023017291A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/IB2021/000530 WO2023017291A1 (ja) 2021-08-11 2021-08-11 運転支援装置及び運転支援方法
CN202180101467.3A CN117794802A (zh) 2021-08-11 2021-08-11 驾驶辅助装置和驾驶辅助方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/IB2021/000530 WO2023017291A1 (ja) 2021-08-11 2021-08-11 運転支援装置及び運転支援方法

Publications (1)

Publication Number Publication Date
WO2023017291A1 true WO2023017291A1 (ja) 2023-02-16

Family

ID=85199908

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/IB2021/000530 WO2023017291A1 (ja) 2021-08-11 2021-08-11 運転支援装置及び運転支援方法

Country Status (2)

Country Link
CN (1) CN117794802A (ja)
WO (1) WO2023017291A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004291174A (ja) * 2003-03-27 2004-10-21 Denso Corp ロボット、ロボット対話装置及びプログラム
WO2009107185A1 (ja) * 2008-02-25 2009-09-03 パイオニア株式会社 車載ロボット
JP2018144569A (ja) * 2017-03-02 2018-09-20 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム、運転支援システム
JP2018144570A (ja) * 2017-03-02 2018-09-20 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム、運転支援システム
JP2018144568A (ja) * 2017-03-02 2018-09-20 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム、運転支援システム
JP2018147111A (ja) * 2017-03-02 2018-09-20 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム、運転支援システム
JP6480143B2 (ja) 2014-10-09 2019-03-06 株式会社日立製作所 運転特性診断装置、運転特性診断システム、運転特性診断方法
JP2019116185A (ja) * 2017-12-27 2019-07-18 クラリオン株式会社 運転支援装置、及び運転支援方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004291174A (ja) * 2003-03-27 2004-10-21 Denso Corp ロボット、ロボット対話装置及びプログラム
WO2009107185A1 (ja) * 2008-02-25 2009-09-03 パイオニア株式会社 車載ロボット
JP6480143B2 (ja) 2014-10-09 2019-03-06 株式会社日立製作所 運転特性診断装置、運転特性診断システム、運転特性診断方法
JP2018144569A (ja) * 2017-03-02 2018-09-20 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム、運転支援システム
JP2018144570A (ja) * 2017-03-02 2018-09-20 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム、運転支援システム
JP2018144568A (ja) * 2017-03-02 2018-09-20 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム、運転支援システム
JP2018147111A (ja) * 2017-03-02 2018-09-20 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム、運転支援システム
JP2019116185A (ja) * 2017-12-27 2019-07-18 クラリオン株式会社 運転支援装置、及び運転支援方法

Also Published As

Publication number Publication date
CN117794802A (zh) 2024-03-29

Similar Documents

Publication Publication Date Title
US11673569B2 (en) Alert control apparatus and alert control method
CN111361552B (zh) 自动驾驶系统
JP7139717B2 (ja) 車両用通信装置、車両用通信方法、及び制御プログラム
JP6515814B2 (ja) 運転支援装置
JP5987906B2 (ja) 運転支援装置
WO2018186127A1 (ja) 走行支援装置
US10843693B2 (en) System and method for rear collision avoidance
WO2014148025A1 (ja) 走行制御装置
WO2013153660A1 (ja) 運転支援装置
JP7119653B2 (ja) 車両制御装置
JP2019142246A (ja) 車両制御装置
JP7382327B2 (ja) 情報処理装置、移動体、情報処理方法及びプログラム
KR101552017B1 (ko) 성능이 개선된 운전보조시스템 및 그 제어방법
JP2006301842A (ja) 車両の運転支援装置
US11130488B2 (en) Vehicle control device and vehicle control method
US11904856B2 (en) Detection of a rearward approaching emergency vehicle
US11613252B2 (en) Driving assistance system and control method thereof
JP6631569B2 (ja) 運転状態判定装置、運転状態判定方法及び運転状態判定のためのプログラム
JP6648551B2 (ja) 自動運転装置
KR20210157520A (ko) 센서 각도 조절을 활용한 전방 충돌 방지 시스템 및 방법
WO2023017291A1 (ja) 運転支援装置及び運転支援方法
JP5018102B2 (ja) 衝突防止装置
JP6648722B2 (ja) 故障判定装置、方法およびプログラム
JP7441839B2 (ja) 異常検出装置と異常検出方法およびプログラムと情報処理システム
CN116895175A (zh) 驾驶辅助装置及驾驶辅助系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21953025

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023540988

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021953025

Country of ref document: EP

Effective date: 20240311