WO2021039779A1 - 車両制御装置 - Google Patents

車両制御装置 Download PDF

Info

Publication number
WO2021039779A1
WO2021039779A1 PCT/JP2020/031999 JP2020031999W WO2021039779A1 WO 2021039779 A1 WO2021039779 A1 WO 2021039779A1 JP 2020031999 W JP2020031999 W JP 2020031999W WO 2021039779 A1 WO2021039779 A1 WO 2021039779A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
stress
passenger
target
control device
Prior art date
Application number
PCT/JP2020/031999
Other languages
English (en)
French (fr)
Inventor
典子 加藤
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2021039779A1 publication Critical patent/WO2021039779A1/ja
Priority to US17/671,187 priority Critical patent/US20220169284A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0013Planning or execution of driving tasks specially adapted for occupant comfort
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/01Occupants other than the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/22Psychological state; Stress level or workload
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze

Definitions

  • the present disclosure relates to a vehicle control device that can reduce stress such as anxiety of vehicle passengers.
  • AI is an abbreviation for Artificial Intelligence.
  • peripheral targets such as other vehicles and obstacles existing around the vehicle and the attributes of the peripheral targets (that is, the classification of the target).
  • One aspect of the present disclosure is that it is desirable to be able to reduce stress such as anxiety felt by passengers of a traveling vehicle by automatic driving.
  • One aspect of the present disclosure is a vehicle control device, which includes a stress estimation unit, a stress identification unit, and a driving control unit.
  • the stress estimation unit is configured to estimate whether or not the occupant is stressed based on biological information indicating the emotions of the occupant in the autonomously driven vehicle.
  • the stress specifying unit identifies the stress target that is the cause of the stress outside the vehicle based on the information on the direction of the line of sight of the passenger. It is configured as follows.
  • the driving control unit is configured to control the vehicle so as to increase the safety margin regarding the running of the vehicle with respect to the stress target.
  • Passengers of self-driving vehicles may feel stress such as anxiety depending on obstacles such as other vehicles outside the vehicle and the environment such as cliffs near the road.
  • stress such as anxiety depending on obstacles such as other vehicles outside the vehicle and the environment such as cliffs near the road.
  • the stress target outside the vehicle is identified based on the information on the direction of the person's line of sight. Therefore, the stress target can be accurately grasped.
  • the running state of the own vehicle is controlled so that the safety margin regarding the running of the vehicle (that is, the own vehicle) on which the vehicle is boarded is increased, so that the stress of the passenger is reduced. It has a remarkable effect.
  • Explanatory drawing which shows the outline of the vehicle system including the vehicle control device of 1st Embodiment.
  • Explanatory drawing which shows the structure of the vehicle of 1st Embodiment and its passengers.
  • the block diagram which functionally shows the vehicle control device of 1st Embodiment.
  • the flowchart which shows the control process of 1st Embodiment.
  • Explanatory drawing showing the own vehicle and other vehicles subject to stress in front.
  • An explanatory diagram showing a stressed cliff on the side of the road on which the vehicle travels.
  • Explanatory drawing when data is accumulated when there is no peripheral target in 3rd Embodiment.
  • the vehicle system 1 is a system mounted on a vehicle 3 which is an automobile (see, for example, FIG. 2), and includes a vehicle control device 5 described later.
  • the vehicle 3 equipped with the vehicle system 1 may be referred to as a own vehicle (hereinafter, own vehicle) 3.
  • the vehicle system 1 includes a vehicle behavior sensor group 7, an ambient environment sensor group 9, a navigation device 11, a passenger sensor group 13, and a communication device 15.
  • the user operation system 17, the vehicle drive system 19, and the display device 21 may be provided.
  • this vehicle 3 can be driven by the driver's operation (that is, driving that is not automatic driving) and can be driven by automatic driving. That is, it is possible to operate at level 0 and to operate by automatic operation.
  • level 1 to 5 automatic operation is possible, but when referred to as automatic operation in the present disclosure, it means level 2 or higher automatic operation.
  • the level mentioned above includes the standards of the second edition of 2016 set by the American Society of Automotive Engineers of Japan (that is, SAE).
  • the vehicle behavior sensor group 7 is a sensor group that detects the vehicle behavior of the own vehicle 3, and includes a vehicle speed sensor 23, an acceleration sensor 25, a yaw rate sensor 27, and a steering angle sensor 29. You may have it.
  • the vehicle speed sensor 23 detects the speed of the own vehicle 3.
  • the acceleration sensor 25 detects the acceleration in the front-rear direction and the acceleration in the vehicle width direction of the own vehicle 3.
  • the yaw rate sensor 27 detects the yaw rate of the own vehicle 3.
  • the steering angle sensor 29 detects the steering angle of the steering wheel of the own vehicle 3. The detection results of these sensors 23 to 29 are output to the vehicle control device 5.
  • the surrounding environment sensor group 9 is a sensor group that detects the surrounding environment of the own vehicle 3, and may include an external camera 31, a radar 33, and a RiDAR 35.
  • RiDAR is an abbreviation for Laser imaging Direction and Ranging.
  • the front camera 31a for photographing the front of the own vehicle 3 the rear camera 31b for photographing the rear of the own vehicle 3
  • the left and right for photographing the left and right sides of the own vehicle 3
  • a visible light camera, an infrared camera, or the like is used as the vehicle external camera 31.
  • the radar 33 uses millimeter waves or the like as radar waves, and detects the distance to a target (that is, a peripheral target) that is an object that reflects the radar wave, the direction in which the target exists, and the like.
  • RiDAR35 irradiates the surroundings with laser light in a pulsed manner, and detects the distance from the target that reflected the laser light, the direction in which the target exists, and the like based on the reflected light.
  • Various controls are performed based on the information obtained from the ambient environment sensor group 9. For example, a target existing around the own vehicle 3 (for example, on a traveling path) is detected by an external camera 31, a radar 33, or a LiDAR 35, and target information including the position of the detected target is generated. Then, various controls can be performed based on the generated target information and the like.
  • the surrounding environment sensor group 9 can detect information (for example, distance and direction) related to each target even when a plurality of targets are present.
  • the target information including the position of the target may be generated based on the map information stored in the map storage unit 39 described later.
  • the navigation device 11 is a device that provides route guidance based on the current position of the own vehicle 3 and map information, and may include a positioning unit 37 and a map storage unit 39.
  • the positioning unit 37 is a device that generates position information for specifying the current position of the own vehicle 3.
  • the positioning unit 37 includes, for example, a GNSS receiver and a sensor for self-contained navigation such as a gyroscope.
  • GNSS is an abbreviation for Global Navigation Satellite System.
  • Map information is stored in the map storage unit 39.
  • the map information is used for route guidance and the like by the navigation device 11.
  • the passenger sensor group 13 is a sensor group that detects the state of passengers such as the driver and passengers of the own vehicle 3, and may include an external camera 41 and a biological sensor 43.
  • the in-vehicle camera 41 is an in-vehicle camera that captures an image including a face image of a driver or a passenger who is a passenger on the own vehicle 3.
  • the first camera 41a for photographing the driver's face, the second camera 41b for photographing the passenger's face in the passenger seat, and the face of the passenger in the rear seat are used. Examples thereof include a third camera 41c and a fourth camera 41d for photographing.
  • An infrared camera can be used as the in-vehicle camera 41.
  • the in-vehicle camera 41 can photograph a face including an eyeball and detect the direction of the line of sight from, for example, the center position of the pupil of the eyeball.
  • the biosensor 43 is a sensor that detects biometric information indicating the state of the occupant's body (for example, the state of emotion).
  • the biological sensor 43 include various sensors that detect various biological information such as heart rate, pulse rate, sweating amount, electrocardiogram, and electroencephalogram.
  • the presence or absence of stress such as anxiety and disgust can be determined from various biological information. For example, when the pulse rate is equal to or higher than a predetermined value and the amount of sweating is equal to or higher than a predetermined value, it may be estimated that anxiety is felt.
  • the communication device 15 is a device capable of transmitting and receiving data to and from the server 45 via the Internet, for example, by using wireless communication.
  • the user operation system 17 is a device that detects the driver's operation, and may include a user setting unit 47, an accelerator pedal sensor 49, and a brake pedal sensor 51.
  • the user setting unit 47 is a manual switch for setting the vehicle speed, for example, when controlling constant speed running.
  • the accelerator pedal sensor 49 is a sensor that detects the amount of operation of the accelerator pedal by the driver
  • the brake pedal sensor 51 is a sensor that detects the amount of operation of the brake pedal by the driver.
  • the vehicle drive system 19 is an actuator that drives the vehicle 3, and may include a brake drive unit 53, an accelerator drive unit 55, and a steering drive unit 57.
  • the brake drive unit 53 is an actuator for applying a brake, and examples thereof include an actuator such as a solenoid valve for adjusting a brake pressure.
  • the accelerator drive unit 55 is an actuator for accelerating the vehicle 3, and examples thereof include a motor that adjusts the open / closed state of the throttle valve. Further, in the case of an electric vehicle, a motor for rotating the drive wheels can be mentioned.
  • the steering drive unit 57 is an actuator such as a motor that drives the steering wheel.
  • Examples of the display device 21 include a navigation monitor 59 that displays map information and the like obtained from the navigation device 11, a rear guide monitor (that is, BGM) 61 that displays an image captured by the rear camera 31b, and the like.
  • BGM is an abbreviation for Back Guide Monitor.
  • examples thereof include a left door mirror 73a and a right door mirror 73b (that is, a door mirror 73), and a rearview mirror 75 in the vehicle interior.
  • an electronic mirror 85 instead of the left and right door mirrors 73a and 73b and the rear-view mirror 75, an electronic mirror 85 (for example, see FIG. 8) that displays side and rear images by LEDs and the like, and a BGM 61 may be adopted.
  • LED is an abbreviation for Light Emitting Diode.
  • the vehicle control device 5 is mainly composed of a well-known microcomputer (hereinafter, microcomputer) 60 having a well-known CPU 62 and a semiconductor memory 64 such as a RAM 64a, a ROM 64b, and a flash memory 64c.
  • a well-known microcomputer hereinafter, microcomputer 60 having a well-known CPU 62 and a semiconductor memory 64 such as a RAM 64a, a ROM 64b, and a flash memory 64c.
  • Various functions of the vehicle control device 5 are realized by the CPU 62 executing a program stored in a non-transitional substantive recording medium.
  • the semiconductor memory 64 corresponds to a non-transitional substantive recording medium in which a program is stored.
  • the microcomputer 60 of the vehicle control device 5 includes a stress estimation unit 65, a stress identification unit 67, and a driving control unit 69, as functionally shown in FIG.
  • the stress estimation unit 65 is configured to estimate whether or not the occupant is stressed based on biological information indicating the emotions of the occupant boarding the autonomously driven vehicle 3.
  • stress refers to a state in which the mind and body are burdened by the environment.
  • this stress is a negative stress that is not desirable for the passenger.
  • the emotions exhibited by this stress include, for example, so-called negative emotions that are unfavorable to humans, such as anxiety, contempt, disgust, anger, fear, discomfort, tension, and a sense of risk.
  • These emotions can be estimated based on, for example, a facial image obtained by photographing the passenger's face.
  • these emotions can be estimated based on signals obtained by various biological sensors 43 that detect the passenger's state (that is, biological state), that is, biological information indicating the biological state.
  • biological information obtained from the facial image is also a kind of biological information.
  • the biological information one type or two or more types of biological information can be adopted, and when two or more types of biological information are used, it is considered that the accuracy of estimating emotions is improved.
  • a technique for estimating emotions from a face image various known techniques can be adopted.
  • a facial motion coding system developed by Paul Ekman et al. Can be adopted.
  • Japanese Patent No. 4101734 Japanese Patent Application Laid-Open No. 2011-117905, "Method for measuring human comfort and discomfort by face image analysis: 2006/9/9, IPSJ Research Report by Hiroyasu Sakamoto et al.”
  • Technology can be adopted.
  • emotions can be estimated from facial images using commercially available facial expression estimation software.
  • anxiety can be estimated using AI (that is, artificial intelligence) technology, for example, using data obtained by machine learning a large number of facial expressions of anxiety.
  • AI that is, artificial intelligence
  • biosensor 43 that detects biometric information such as pulse, heartbeat, sweating, electrocardiogram, and brain wave
  • the biosensor 43 is based on the information (that is, biometric information). It is also possible to detect negative emotions such as passenger anxiety.
  • Japanese Patent Application Laid-Open No. 2016-52881 discloses a method for detecting anxiety.
  • Japanese Unexamined Patent Publication No. 2019-20786 discloses a method for detecting a sense of risk.
  • Japanese Unexamined Patent Publication No. 2016-7989 and Japanese Unexamined Patent Publication No. 2014-75008 disclose a method for detecting the degree of tension (that is, the degree of tension).
  • the stress identification unit 67 causes the stress outside the own vehicle 3 based on the information of the occupant's line-of-sight direction (for example, from the line-of-sight direction).
  • a stress target S (see, eg, FIG. 2) is identified.
  • the peripheral target can be regarded as the stress target S.
  • a method of detecting the direction of the line of sight a method using a face image obtained by taking a picture of the in-vehicle camera 41 described above can be adopted.
  • the passenger sensor group 13 is equipped with an eye camera (that is, an eye mark recorder)
  • the direction of the line of sight can be detected by the eye camera.
  • This eye camera is a device that irradiates the cornea of the human eye with light and detects the direction of the human line of sight and the position of the eye based on the reflected light.
  • the direction of the line of sight can be detected a plurality of times.
  • the driving control unit 69 controls the vehicle 3 so that the safety margin related to the running of the vehicle 3, that is, the safety margin during the running is increased with respect to the stress target S.
  • the safety margin related to the running of the vehicle 3 is a margin or a margin that is provided to ensure the safety when the vehicle 3 is running.
  • control for increasing the safety margin for example, as described in Japanese Patent Application Laid-Open No. 2019-20786, control for avoiding the stress target S (for example, control for changing the lane), before and after the stress target S, and so on. Controls that increase the left-right spacing can be mentioned.
  • control for increasing the safety margin by adjusting the deceleration timing, deceleration amount, acceleration timing, acceleration amount, etc. to make it difficult to approach the stress target S can be mentioned.
  • This control process is a process that increases the safety margin related to the running of the vehicle 3 according to the stress of the occupant during automatic driving.
  • the safety margin related to the running of the vehicle 3 may be simply referred to as the safety margin of the vehicle 3.
  • step (hereinafter, S) 100 for example, a face image of a passenger is acquired during automatic driving at level 2 or higher.
  • the in-vehicle camera 41 is used to take a face image of the passenger, and the face image is input to the vehicle control device 5.
  • FIG. 2 shows the driver Ta seated in the driver's seat and the passenger Tb seated in the passenger seat as the passenger T.
  • the passenger T is shown.
  • a passenger Tb seated in the passenger seat may be mentioned.
  • the emotion indicating the stress of the passenger T is estimated based on the face image of the passenger T (for example, the passenger Tb).
  • a person's negative emotions such as anxiety, contempt, disgust, anger, fear, discomfort, tension, and risk
  • Performs processing such as calculation.
  • Negative emotions may be estimated based on the signal from the biosensor 43 instead of the face image. That is, negative emotions may be estimated based on the biological information obtained from the biological sensor 43, for example, based on one or more types of biological information. Further, by combining the face image and the signal from the biological sensor 43, negative emotions can be estimated more accurately.
  • S120 it is determined whether or not the passenger T is stressed, that is, whether or not the passenger T is stressed, based on the above-mentioned emotion estimation result. If an affirmative judgment is made here, the process proceeds to S130, while if a negative judgment is made, the process returns to S100. That is, when it is estimated that the passenger T has negative emotions, it is determined that the passenger T is stressed.
  • the direction of the stress target S is estimated based on the information on the direction of the line of sight of the passenger T (for example, from the direction of the line of sight). For example, as shown in FIG. 2, when the direction of the line of sight of the passenger T in the passenger seat is the direction of looking out of the vehicle and the direction of the line of sight is the front left, the stress target S is in front of the left. Presumed that there is.
  • the stress target S is specified based on the number of times of viewing and / or the viewing time of the passenger T with respect to the target in the line of sight of the passenger T.
  • the passenger T may look at the stress target S or the direction of the stress target S many times or stare at the stress target S for a long time. Be done. Therefore, in such a case, it is presumed that there is a stress target (that is, a stressor) S that causes emotions such as anxiety in the direction of the line of sight of the passenger T.
  • a stress target that is, a stressor
  • the number of times of looking in a certain direction that is, the number of times of viewing SK
  • a predetermined determination value within a predetermined time
  • the total time of looking in a certain direction within a predetermined time that is, the viewing time
  • SJ the total time of looking in a certain direction within a predetermined time
  • peripheral target SVs such as obstacles existing around the own vehicle 3
  • JP-A-2019-20786, JP-A-2016-52881, and JP-A-2017-166998 The known techniques described in the above can be adopted.
  • other vehicles that is, other vehicles
  • obstacles such as stationary objects
  • the distance between the own vehicle 3 and the other vehicle in the front-rear direction increases.
  • the steering angle of the own vehicle 3 may be controlled to the right to move the position of the own vehicle 3 to the right so that the distance between the own vehicle 3 and the other vehicle in the vehicle width direction increases.
  • the own vehicle 3 may be controlled so as to avoid another vehicle that is the stress target S.
  • the avoidance is to control so as to avoid the stress target S, for example, another vehicle, that is, to increase the distance from the other vehicle.
  • the vehicle approaches another vehicle once, but eventually overtakes the other vehicle to increase the distance, which is an example of avoidance.
  • the road has two or more lanes on each side and the own vehicle 3 and the other vehicle are traveling in the same lane, change the lane of the own vehicle 3 so as to avoid the other vehicle that is the stress target S. You may go.
  • the speed of the own vehicle 3 may be reduced.
  • the vehicle control device 5 of the first embodiment it is estimated whether or not the passenger T is stressed based on the biological information indicating the emotion of the passenger T, for example, the biological information obtained from the face image. .. Then, when it is estimated that there is stress, the stress target S such as another vehicle outside the own vehicle 3 (that is, outside the vehicle) or the surrounding environment such as a cliff is specified from the direction of the line of sight of the passenger T. Therefore, the stress target S can be accurately grasped.
  • the stress target S such as another vehicle outside the own vehicle 3 (that is, outside the vehicle) or the surrounding environment such as a cliff is specified from the direction of the line of sight of the passenger T. Therefore, the stress target S can be accurately grasped.
  • the running of the own vehicle 3 is controlled so that the safety margin of the own vehicle 3 increases with respect to the stress target S outside the vehicle.
  • the traveling of the own vehicle 3 is controlled so as to avoid the stress target S. Therefore, there is an effect that the stress of the passenger T is reduced.
  • the stress can be reduced. It has a remarkable effect.
  • the stress target S is specified based on the number of times the passenger T has visually recognized and / or the viewing time with respect to the target in the line of sight of the passenger T, so that the stress target outside the vehicle can be accurately obtained. S can be specified.
  • the peripheral target SV when the peripheral target SV is detected by the ambient environment sensor group 9 ahead of the line of sight of the passenger T, the peripheral target SV is regarded as the stress target S, and therefore the stress target.
  • the position of S can be recognized with high accuracy.
  • the vehicle 3 corresponds to an example of a vehicle.
  • the vehicle control device 5 corresponds to an example of the vehicle control device.
  • the stress estimation unit 65 corresponds to an example of the stress estimation unit.
  • the stress specific unit 67 corresponds to an example of the stress specific unit.
  • the operation control unit 69 corresponds to an example of the operation control unit.
  • the ambient environment sensor group 9 corresponds to an example of the detection unit.
  • the vehicle 3 when the line of sight of the passenger T is the display device 21 such as the rearview mirror 75, the door mirrors 73a, 73b, and the BGM61, the vehicle 3 reflected on the display device 21 ahead of the line of sight.
  • the outside object is regarded as the stress target S.
  • the direction in which the line of sight is reflected by the door mirror 73a (for example, the direction of arrow B) is set as the direction of the passenger's line of sight.
  • the direction of arrow B can be obtained if the direction of arrow A is known from the direction of the line of sight of passenger T.
  • the passenger T when the direction of the line of sight of the passenger T (for example, the driver Ta) of the own vehicle 3 is the direction of the other vehicle 81 on the electronic mirror 85 (for example, the direction of the arrow C), the passenger T
  • the direction of the line of sight is the direction in which the other vehicle 81 behind the actual own vehicle 3 is being viewed. That is, the direction is such that the other vehicle 81 behind is viewed from the position of the passenger T (for example, the position of the center of the face).
  • the arrow C direction can be obtained from the face image depending on where the position on the electronic mirror 85 is viewed. Therefore, when the other vehicle 81 is displayed ahead of the line of sight, it can be seen that the image of the other vehicle 81 is being viewed.
  • the second embodiment has the same effect as the first embodiment. Further, in the second embodiment, there is an advantage that the direction of the line of sight can be obtained not only in the direction of the direct line of sight of the passenger T but also when a mirror or a monitor is used.
  • the stress target S is specified from the direction of the line of sight of the passenger T and the peripheral target SV is not detected beyond the line of sight of the passenger T
  • the information on the direction of the line of sight is used in the past.
  • the information on the direction of the line of sight of the passenger T of the other vehicle 81 or the like accumulated when traveling on the same road is used.
  • a specific description will be given.
  • the surrounding environment sensor group 9 cannot detect the peripheral target SV.
  • the passenger T of the vehicle (for example, own vehicle) 3 traveling on the road is in a predetermined direction outside the vehicle (for example, in the direction of arrow D) at a certain position or section of the road. Even if it feels that there is a stress target S, the surrounding environment sensor group 9 may not be able to grasp the stress target S as a peripheral target SV.
  • the communication device 15 of the vehicle 3 is used to provide information on the position or section of the vehicle 3, information that stress is felt at this position or section, and information on the direction of the line of sight of the passenger T. Is transmitted to the server 45 on the cloud using the Internet or the like. Even when such information is received from the other vehicle 81, the server 45 stores the information as a database.
  • the vehicle 3 when the vehicle 3 travels in the above-mentioned position or section by automatic driving and the peripheral target of the stress target S is not detected in the line of sight of the passenger T, the vehicle 3 is stored in the database of the server 45 described above. Based on the past information (that is, the past information), the safety margin of the vehicle 3 can be increased so as to suppress the stress of the occupant T. For example, see S170 in FIG. 4 or the description below.
  • the stress of the passenger T can be appropriately suppressed by reducing the speed of the own vehicle 3 based on the accumulated past information. For example, for a plurality of vehicles (for example, another vehicle 81) that have traveled on the same road in the past, if there is the accumulated past information, the speed of the own vehicle 3 is reduced to reduce the safety margin of the own vehicle 3. Control to increase may be performed. If there is no accumulated past information, the control for increasing the safety margin may not be performed.
  • the third embodiment has the same effect as the first embodiment. Further, in the third embodiment, when the own vehicle 3 travels on the same road as the road on which the other vehicle 81 has traveled in the past, the accumulated data of the other vehicle 81 is used to suitably suppress stress. There is an advantage that the control can be performed.
  • the present disclosure can be applied to vehicles capable of automatic driving at levels 2 to 5.
  • Passengers include drivers, passengers in passenger seats, and passengers in rear seats.
  • the passenger to whom this disclosure applies may or may not be set in advance.
  • the disclosure may be applied to a particular passenger if more than one passenger feels stressed.
  • Peripheral objects subject to stress include other vehicles with unstable driving such as meandering, other vehicles with large or unstable loading conditions, other vehicles with black windows, etc. Other cars with some decorations can be mentioned.
  • the stressed environment includes cliffs where stones and earth and sand are likely to collapse, steep cliffs, and places where trees cover the road.
  • the method of processing in the vehicle control device described in the present disclosure is provided by configuring a processor and memory programmed to perform one or more functions embodied by a computer program. It may be realized by a dedicated computer. Alternatively, the method of processing in the vehicle control device described in the present disclosure may be realized by a dedicated computer provided by configuring the processor with one or more dedicated hardware logic circuits.
  • the processing method in the vehicle control device described in the present disclosure includes a processor and memory programmed to perform one or more functions and a processor composed of one or more hardware logic circuits. It may be realized by one or more dedicated computers configured by the combination of.
  • the computer program may also be stored on a computer-readable non-transitional tangible recording medium as an instruction executed by the computer.
  • the method for realizing the functions of each part included in the vehicle control device does not necessarily include software, and all the functions may be realized by using one or a plurality of hardware. ..
  • a plurality of functions possessed by one component in the embodiment may be realized by a plurality of components, or one function possessed by one component may be realized by a plurality of components. .. Further, a plurality of functions possessed by the plurality of components may be realized by one component, or one function realized by the plurality of components may be realized by one component. Further, a part of the configuration of the above embodiment may be omitted. Further, at least a part of the configuration of the above embodiment may be added or replaced with the configuration of the other above embodiment.
  • a non-transitional entity such as a system having the vehicle control device as a component, a program for operating a computer as the vehicle control device, and a semiconductor memory recording this program.
  • the present disclosure can also be realized in various forms such as a target recording medium and a vehicle control method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Developmental Disabilities (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本開示の1つの局面の車両制御装置(5)は、ストレス推定部(65)とストレス特定部(67)と運転制御部(69)とを備える。ストレス推定部(65)は、自動運転の車両に搭乗している搭乗者の感情を示す生体情報に基づいて、搭乗者にストレスがあるか否かを推定する。ストレス特定部(67)は、搭乗者にストレスがあると推定された場合には、搭乗者の視線の向きから、車両(3)の外におけるストレスの原因であるストレス対象を特定する。運転制御部(69)は、ストレス対象に対して、車両3の安全マージンが増大するように車両(3)を制御する。

Description

車両制御装置 関連出願の相互参照
 本国際出願は、2019年8月30日に日本国特許庁に出願された日本国特許出願第2019-159015号に基づく優先権を主張するものであり、日本国特許出願第2019-159015号の全内容を本国際出願に参照により援用する。
 本開示は、車両の搭乗者の不安等のストレスを軽減できる車両制御装置に関する。
 自動車(以下、車両)の自動運転に関する技術に関して、安全でスムーズな自動運転を実現するために、AI(即ち、人工知能)による画像認識や予測技術等の開発が進められている。なお、AIは、Artificial Intelligenceの略である。
 また、車両の周囲に存在する他車両や障害物等の周辺物標の位置や、周辺物標の属性(即ち、対象の分類)の取得が可能となっている。
 さらに、近年では、自動運転の車両に搭乗する運転者等の感情を考慮して、車両の制御を行う技術も開発されている。例えば、下記特許文献1には、自動運転の車両の走行状態、例えば、加減速量、加減速のタイミング、振動量等に対して、運転者が感じる感情、例えば、不安、リスク感、違和感、緊張度合等を検出し、車両の制御を行う技術が提案されている。
特開2016-52881号公報
 発明者の詳細な検討の結果、上述した従来技術では、前記感情以外の他の要因、例えば、走行中の自車両の周囲を走行している他車両や、自車両の周囲の自然物等の環境条件などに対する不安等のストレスに対応できない可能性があるという課題が見出された。
 本開示の1つの局面は、自動運転にて走行中の車両の搭乗者が感じる不安等のストレスを軽減できることが望ましい。
 本開示の1つの局面は、車両制御装置であって、ストレス推定部と、ストレス特定部と、運転制御部と、を備える。
 ストレス推定部は、自動運転の車両に搭乗している搭乗者の感情を示す生体情報に基づいて、前記搭乗者にストレスがあるか否かを推定するように構成される。
 ストレス特定部は、前記搭乗者に前記ストレスがあると推定された場合には、前記搭乗者の視線の向きの情報に基づいて、前記車両の外における前記ストレスの原因であるストレス対象を特定するように構成される。
 運転制御部は、前記ストレス対象に対して、前記車両の走行に関する安全マージンが増大するように、前記車両を制御するように構成される。
 本開示の1つの局面によれば、下記のように、自動運転にて走行中の車両の搭乗者が感じる不安等のストレスを軽減することができる。
 自動運転の車両の搭乗者は、車外の他車両等の障害物や道路近くの崖等の環境によっては、不安等のストレスを感じることがある。これに対して、本開示の1つの局面では、搭乗者の感情を示す生体情報に基づいて、搭乗者にストレスがあるか否かを推定し、ストレスがあると推定された場合には、搭乗者の視線の向きの情報に基づいて、車外のストレス対象を特定する。従って、ストレス対象を的確に把握することができる。
 そして、そのストレス対象に対して、自身が搭乗する車両(即ち、自車両)の走行に関する安全マージンが増大するように、自車両の走行状態等を制御するので、搭乗者のストレスが軽減するという顕著な効果を奏する。
第1実施形態の車両制御装置を含む車両システムの概略を示す説明図。 第1実施形態の車両及びその搭乗者等の構成を示す説明図。 第1実施形態の車両制御装置を機能的に示すブロック図。 第1実施形態の制御処理を示すフローチャート。 自車と前方のストレス対象の他車を示す説明図。 自車の走行する道路の側方のストレス対象の崖を示す説明図。 第2実施形態におけるミラーに映るストレス対象である他車に対する視線の向きを説明する説明図。 電子ミラーに映るストレス対象である他車に対する視線の向きを説明する説明図。 第3実施形態における周辺物標がない場合にデータが蓄積される場合の説明図。
 以下に、図面を参照しながら、本開示を実施するための例示的な実施形態を説明する。
 [1.第1実施形態]
 [1-1.全体構成]
  まず、本第1実施形態の車両制御装置を備えた車両システムの全体構成について説明する。
 図1に示すように、車両システム1は、自動車である車両3(例えば、図2参照)に搭載されたシステムであり、後述する車両制御装置5を備えている。なお、以下では、車両システム1を搭載した車両3を自車両(以下、自車)3と記すことがある。
 図1に示すように、この車両システム1は、車両制御装置5に加え、車両挙動センサ群7と、周囲環境センサ群9と、ナビゲーション装置11と、搭乗者センサ群13と、通信装置15と、ユーザ操作系17と、車両駆動系19と、表示装置21と、を備えていてもよい。
 また、この車両3は、運転者の操作による運転(即ち、自動運転ではない運転)が可能であるとともに、自動運転による運転が可能である。つまり、レベル0の運転が可能であるとともに、自動運転による運転が可能である。なお、自動運転としては、レベル1~5の自動運転が可能であるが、本開示で自動運転と記す場合には、レベル2以上の自動運転を示す。
 なお、前記レベルとしては、アメリカの「自動車技術会」(即ち、SAE)が示した2016年の第2版の基準が挙げられる。
 [1-2.各構成]
 次に、車両システム1の各構成について説明する。
 <車両挙動センサ群>
 図1に示すように、車両挙動センサ群7は、自車3の車両挙動を検出するセンサ群であり、車速センサ23と、加速度センサ25と、ヨーレートセンサ27と、操舵角センサ29と、を備えていてもよい。
 車速センサ23は、自車3の速度を検出する。加速度センサ25は、自車3の前後方向の加速度及び車幅方向の加速度を検出する。ヨーレートセンサ27は、自車3のヨーレートを検出する。操舵角センサ29は、自車3のステアリングホイールの操舵角を検出する。これらのセンサ23~29の検出結果は、車両制御装置5に出力される。
 <周囲環境センサ群>
  周囲環境センサ群9は、自車3の周囲の環境を検出するセンサ群であり、車外用カメラ31と、レーダ33と、RiDAR35と、を備えていてもよい。なお、RiDARは、Laser imaging Direction and Rangingの略である。
 車外用カメラ31としては、図2に示すように、自車3の前方を撮影する前方カメラ31a、自車3の後方を撮影する後方カメラ31b、自車3の左右の側方を撮影する左右の側方カメラ31c、31dが挙げられる。なお、車外用カメラ31としては、可視光カメラや赤外線カメラ等が用いられる。
 レーダ33は、ミリ波などをレーダ波として使用し、レーダ波を反射した物体である物標(即ち、周辺物標)との距離や、その物標が存在する方向等を検出する。
 RiDAR35は、レーザ光をパルス状に周囲に照射し、その反射光に基づいて、レーザ光を反射した物標との距離や、その物標が存在する方向等を検出する。
 なお、周囲環境センサ群9から得られる情報に基づいて、各種の制御が実施される。例えば、自車3の周囲(例えば、走行経路上)に存在する物標を、車外用カメラ31やレーダ33やLiDAR35で検知し、検知した物標の位置を含む物標情報等を生成する。そして、生成した物標情報等に基づいて各種の制御を行うことができる。なお、周辺環境センサ群9は、物標が複数存在する場合でも、各物標に関する情報(例えば、距離や方向)の検出が可能である。なお、後述する地図記憶部39に記憶された地図情報に基づいて、物標の位置を含む物標情報を生成してもよい。
 <ナビゲーション装置>
 ナビゲーション装置11は、自車3の現在位置と地図情報とに基づいて経路案内を実施する装置であり、測位部37と地図記憶部39とを備えていてもよい。
 測位部37は、自車3の現在位置を特定するための位置情報を生成する装置である。この測位部37は、例えば、GNSS受信機と、ジャイロスコープ等の自立航法用のセンサとを備えている。なお、GNSSは、Global Navigation Satellite Systemの略である。
 地図記憶部39には、地図情報が記憶されている。地図情報はナビゲーション装置11による経路案内等に用いられる。
 <搭乗者センサ群>
 搭乗者センサ群13は、自車3の運転者や同乗者等の搭乗者の状態等を検出するセンサ群であり、車外用カメラ41と生体センサ43とを備えていてもよい。
 車内用カメラ41は、自車3に搭乗する搭乗者である運転者や同乗者の顔画像を含む画像を撮影する車室内カメラである。この車内用カメラ41としては、図2に示すように、運転者の顔を撮影する第1カメラ41a、助手席の同乗者の顔を撮影する第2カメラ41b、後部座席の同乗者の顔を撮影する第3カメラ41c及び第4カメラ41dが挙げられる。
 この車内用カメラ41としては、赤外線カメラを採用できる。この車内用カメラ41によって、眼球を含む顔を撮影し、例えば眼球の瞳孔の中心位置から視線の向きを検出することができる。
 生体センサ43は、搭乗者の生体の状態(例えば、感情の状態)を示す生体情報を検出するセンサである。この生体センサ43としては、心拍数、脈拍数、発汗量、心電図、脳波などの各種の生体情報を検出する各種のセンサが挙げられる。なお、後述するように、各種の生体情報から不安や嫌悪などのストレスの有無を判定することができる。例えば脈拍数が所定値以上で発汗量が所定値以上の場合には不安を感じていると推定してもよい。
 <通信装置>
 通信装置15は、無線を利用して、例えばインターネットを介してサーバ45との間で、データの送受信ができる装置である。
 <ユーザ操作系>
 ユーザ操作系17は、運転者の操作を検出する装置であり、ユーザ設定部47と、アクセルペダルセンサ49と、ブレーキペダルセンサ51と、を備えていてもよい。
 ユーザ設定部47は、例えば定速走行の制御を行う場合に、車速を設定するマニュアルスイッチである。
 アクセルペダルセンサ49は、運転者によるアクセルペダルの操作量を検出するセンサであり、ブレーキペダルセンサ51は、運転者によるブレーキペダルの操作量を検出するセンサである。
 <車両駆動系>
 車両駆動系19は、車両3を駆動させるアクチュエータであり、ブレーキ駆動部53と、アクセル駆動部55と、ステアリング駆動部57と、を備えていてもよい。
 ブレーキ駆動部53は、ブレーキをかけるためのアクチュエータであり、例えば、ブレーキ圧を調整する電磁弁等のアクチュエータが挙げられる。
 アクセル駆動部55は、車両3を加速するためのアクチュエータであり、例えば、スロットルバルブの開閉状態を調節するモータが挙げられる。また、電気自動車の場合には、駆動輪を回転させるモータが挙げられる。
 ステアリング駆動部57は、ステアリングホイールを駆動するモータ等のアクチュエータである。
 <表示装置>
 表示装置21としては、ナビゲーション装置11から得られる地図情報等を表示するナビ用モニタ59や、後方カメラ31bで撮影された映像を表示する後方ガイドモニタ(即ち、BGM)61などが挙げられる。なお、BGMは、Back Guide Monitorの略である。
 また、他の表示装置21としては、図2に示すように、左側のドアミラー73aと右側のドアミラー73b(即ち、ドアミラー73)や、車室内のバックミラー75が挙げられる。また、左右のドアミラー73a、73bやバックミラー75に代えて、側方や後方の映像をLED等によって表示する電子ミラー85(例えば、図8参照)や、BGM61を採用してもよい。なお、LEDは、Light Emitting Diodeの略である。
 [1-3.車両制御装置]
 次に、車両制御装置5について説明する。
 前記図1に示すように、車両制御装置5は、周知のCPU62と、RAM64a、ROM64b、フラッシュメモリ64c等の半導体メモリ64と、を有する周知のマイクロコンピュータ(以下、マイコン)60を中心に構成される。車両制御装置5の各種の機能は、CPU62が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、半導体メモリ64が、プログラムを格納した非遷移的実体的記録媒体に該当する。
 車両制御装置5のマイコン60は、図3に機能的に示すように、ストレス推定部65とストレス特定部67と運転制御部69とを備えている。
 ストレス推定部65は、自動運転の車両3に搭乗している搭乗者の感情を示す生体情報に基づいて、搭乗者にストレスがあるか否かを推定するように構成されている。
 ここで、ストレスとは、環境によって心や体に負担がかかっている状態を示している。つまり、このストレスとは、搭乗者にとって好ましくない否定的なストレスである。このストレスが示す感情としては、例えば、不安、軽蔑、嫌悪、怒り、恐怖、不快、緊張、リスク感など、人にとって好ましくないいわゆる負の感情が挙げられる。
 これらの感情は、例えば搭乗者の顔を撮影して得られた顔画像に基づいて推定することができる。また、これらの感情は、搭乗者の状態(即ち、生体状態)を検出する各種の生体センサ43によって得られた信号、即ち、生体状態を示す生体情報に基づいて推定することができる。そして、顔画像や顔画像以外の生体情報に基づいて、上述した感情が推定された場合には、ストレスがあると推定することができる。なお、顔画像から得られる生体の情報も生体情報の一種である。なお、生体情報としては、1種又は2種以上の生体情報を採用でき、2種以上の生体情報を用いる場合には、感情を推定する精度が向上すると考えられる。
 顔画像から感情を推定する技術としては、各種の公知の技術を採用できる。例えば、Paul Ekmanらによって開発された顔面動作符号化システムなどを採用できる。例えば、特許第4101734号公報、特開2011-117905号公報、「顔画像解析による人間の快・不快の計測手法:2006/9/9、坂本博康等による情報処理学会研究報告」等に開示の技術を採用できる。また、市販の表情推定ソフトなどによって、顔画像から感情を推定できる。
 また、AI(即ち、人工知能)技術を用いて、例えば多数の不安の表情を機械学習させたデータを用いて、不安を推定することができる。
 なお、顔画像を用いて感情を推定する技術に関しては、例えば、「感情推定技術、https://www.nikkei.com/article/DGXMZO07441910Q6A920C1X90000/」、「表情筋の動きの数値化技術、https://ligare.news/story/aishin_its2018/2/」等のように、インターネット上でも多数の技術が開示されている。
 また、例えば、脈拍、心拍、発汗、心電、脳波などの生体情報を検出する生体センサ43を備えている場合には、それらの生体センサ43からの情報(即ち、生体情報)に基づいて、搭乗者の不安等の負の感情を検出することもできる。
 例えば、特開2016-52881号公報には、不安を検出する方法が開示されている。特開2019-20786号公報には、リスク感を検出する方法が開示されている。特開2016-7989号公報や特開2014-75008号公報には、緊張度合(即ち、緊張の程度)を検出する方法が開示されている。
 ストレス特定部67は、搭乗者にストレスがあると推定された場合には、搭乗者の視線の向きの情報に基づいて(例えば、視線の向きから)、自車3の外におけるストレスの原因であるストレス対象S(例えば、図2参照)を特定する。例えば、視線の先に周辺物標が検出されたときには、その周辺物標をストレス対象Sとみなすことができる。
 視線の向きを検出する方法としては、上述した車内用カメラ41の撮影によって得られた顔画像を利用した方法を採用できる。また、搭乗者センサ群13として、アイカメラ(即ち、アイマークレコーダ)を備えている場合には、アイカメラによって視線の向きを検出できる。このアイカメラは、人の目の角膜に光を照射し、その反射光に基づいて、人の視線方向や目の位置を検出する装置である。なお、視線の向きは複数回検出することができる。
 顔画像を用いて搭乗者の視線の向きを検出する技術は、例えば、特開2014-7500号公報、特開2012-38106号公報等に開示されている。
 なお、顔画像を用いて視線の向きを検出する技術に関しては、例えば「http://moprv.topaz.ne.jp/carrot/oshimag/2001.03/ywata.pdf」、「https://www.eyemark.jp/application-library/driving/」等のように、インターネット上でも多数の技術が開示されている。
 運転制御部69は、ストレス対象Sに対して、車両3の走行に関する安全マージン、即ち、走行の際の安全マージンが増大するように、車両3を制御する。
 ここで、車両3の走行に関する安全マージンとは、車両3が走行する際に、安全性を確保するために持たされている余裕やゆとりのことである。この安全マージンが増加する制御については、例えば、特開2019-20786号公報に記載のように、ストレス対象Sを回避する制御(例えば、車線を変更する制御)や、ストレス対象Sとの前後や左右の間隔を増加させる制御などが挙げられる。例えば、減速タイミング、減速量、加速タイミング、加速量などを調節して、ストレス対象Sに接近し難くするようにして、安全マージンを増大する制御が挙げられる。
 [1-4.制御処理]
 次に、車両制御装置5にて実施される制御処理について説明する。
 この制御処理は、自動運転の際に、搭乗者のストレスに応じて車両3の走行に関する安全マージンを増加させる処理である。なお、以下では、車両3の走行に関する安全マージンを、単に車両3の安全マージンと記すこともある。
 図4に示すように、ステップ(以下、S)100では、例えば、レベル2以上の自動運転の際に、搭乗者の顔画像を取得する。例えば、車内用カメラ41を用いて、搭乗者の顔画像を撮影し、その顔画像を車両制御装置5に入力する。
 なお、図2では、搭乗者Tとして、運転席に着座する運転者Taと助手席に着座する同乗者Tbを示しているが、以下では、説明の簡易化のために、搭乗者Tの例として助手席に着座する同乗者Tbを例に挙げることがある。
 続くS110では、前記搭乗者T(例えば、同乗者Tb)の顔画像に基づいて、搭乗者Tのストレスを示す感情を推定する。ここでは、上述した公知の技術を用いて、人の負の感情である、例えば、不安、軽蔑、嫌悪、怒り、恐怖、不快、緊張、リスク感などのうち、少なくとも1種を推定するための演算等の処理を行う。
 なお、顔画像ではなく、生体センサ43からの信号に基づいて、負の感情を推定してもよい。つまり、生体センサ43から得られる生体情報に基づいて、例えば、1種又は2種以上の生体情報に基づいて、負の感情を推定してもよい。また、顔画像と生体センサ43からの信号を組み合わせることにより、一層精度良く負の感情を推定できる。
 続くS120では、上述した感情の推定結果に基づいて、搭乗者Tがストレスを感じているか否か、即ち搭乗者Tにストレスがあるか否かを判定する。ここで肯定判断されるとS130に進み、一方否定判断されるとS100に戻る。つまり、搭乗者Tに負の感情があると推定された場合には、搭乗者Tにストレスがあると判定する。
 S130では、搭乗者Tに負の感情があると推定され、よってストレスがあると判定されたので、上述した公知の技術を用いて、ストレスがあると判定された搭乗者Tの顔画像に基づいて、搭乗者Tの視線の向きを推定する。
 続くS140では、搭乗者Tの視線の向きの情報に基づいて(例えば、視線の向きから)、ストレス対象Sの方向を推定する。例えば、図2に示すように、助手席の搭乗者Tの視線の向きが車外を見ている向きであり、且つ、視線の向きが左前方である場合には、その左前方にストレス対象Sがあると推定する。
 ところで、通常は、搭乗者Tの視線は一定していないので、視線の向きがストレス対象Sの方向を指しているかどうかを把握することは容易ではない。そこで、ここでは、搭乗者Tの視線の先の対象に対する、搭乗者Tの視認回数及び/又は視認時間に基づいて、ストレス対象Sを特定するようにする。
 つまり、搭乗者Tがストレス対象Sに対して不安等のストレスがある場合には、搭乗者Tはそのストレス対象Sやストレス対象Sのある方向を何度も見たり、長時間見つめることが考えられる。そこで、そのような場合には、搭乗者Tの視線の方向に、不安等の感情の原因であるストレス対象(即ち、ストレッサー)Sがあると推定する。
 例えば、所定時間内において、ある方向を見た回数(即ち、視認回数SK)が所定の判定値以上である場合、または、所定時間内において、ある方向を見た合計の時間(即ち、視認時間SJ)が所定の判定値以上である場合には、その見た方向にある何らかの対象がストレス対象Sであると推定する。なお、視認回数及び視認時間の両条件を満たす場合には、推定精度が一層向上するので望ましい。
 従って、このS140では、上述した視認回数及び/又は視認時間の条件が満たされた場合には、搭乗者Tの視線の向く方向が、ストレス対象Sが存在する方向であると推定する。
 続くS150では、ストレス対象Sの方向に、周辺物標(例えば、図2のSV参照)を検出したか否かを判定する。ここで肯定判断されるとS160に進み、一方否定判断されるとS170に進み。
 なお、自車3の周囲に存在する障害物等の周辺物標SVを検出する方法としては、例えば、特開2019-20786号公報、特開2016-52881号公報、特開2017-166998号公報等に記載の公知の技術を採用できる。例えば、周囲環境センサ群9の車外用カメラ31、レーダ33、RiDAR35等を用いて、自車3の周囲に存在する他の車両(即ち、他車)や静止物等の障害物などを、周辺物標SVとして検出することができる。
 S160では、ストレス対象Sの方向に周辺物標SVが検出されたので、その周辺物標SVをストレス対象Sとみなして、周辺物標SVに対して自車3の安全マージンが増大する制御を行って、一旦本処理を終了する。
 例えば、図2に示すように、自車3の左前方にストレス対象Sに該当する周辺物標SVである他車が存在する場合には、自車3と他車との前後方向の距離(即ち、車間距離)が増加するように、自車3の速度を低下させてもよい。或いは、自車3と他車との車幅方向の間隔が増加するように、自車3の操舵角を右方向に制御して自車3の位置を右側に移動させてもよい。
 つまり、ストレス対象Sである他車を回避するように自車3を制御してもよい。ここで回避とは、ストレス対象Sである例えば他車を避けるように、即ち他車との距離を開けるように制御することである。なお、追い越しの場合には、一旦、他車に接近するが、最終的に他車を追い越して距離をあけるので、回避の一例である。
 また、図5に示すように、同じ車線において、自車3の前方にストレス対象Sである他車、例えば大きな建設機械を積載している他車が走行している場合には、自車3を減速して車間距離を大きくしてもよい。逆に、自車3の後方にストレス対象Sである他車が走行している場合には、自車3を増速して車間距離を大きくしてもよい。
 さらに、道路が片側2車線以上であり、自車3と他車とが同じ車線を走行している場合には、ストレス対象Sである他車を回避するように、自車3の車線変更を行ってもよい。
 また、図6に示すように、ストレス対象Sが他車ではなく、道路の周囲の危険な崖などである場合には、その崖等から遠ざかるように、自車3が走行する進路を変更してもよい。
 一方、S170では、ストレス対象Sの方向に周辺物標SVが検出されないので、ストレス対象Sが存在する可能性のある方向に対して、自車3の安全マージンが増大する制御を行って、一旦本処理を終了する。
 つまり、推定されたストレス対象Sの方向に、ストレス対象Sがあると予想し、その予想したストレス対象Sに対して、自車3の安全マージンが増加する制御を行うことができる。
 例えば、自車3の前方にストレス対象Sがあると予想される場合には、自車3の速度を低下させる制御を行ってもよい。
 なお、実際にストレス対象Sが検出された場合に限らず、ストレス対象Sを検出できずにストレス対象Sを予想した場合も、ストレス対象Sを特定したと考えることができる。
 [1-5.効果]
 上記第1実施形態では、以下の効果を得ることができる。
 (1a)本第1実施形態の車両制御装置5では、搭乗者Tの感情を示す生体情報、例えば顔画像から得られる生体情報に基づいて、搭乗者Tにストレスがあるか否かを推定する。そして、ストレスがあると推定された場合には、搭乗者Tの視線の向きから、自車3の外(即ち、車外)の他車や崖等の周囲環境などのストレス対象Sを特定する。従って、ストレス対象Sを的確に把握することができる。
 そして、その車外のストレス対象Sに対して、自車3の安全マージンが増大するように自車3の走行等を制御する。例えば、ストレス対象Sを回避するように自車3の走行を制御する。よって、搭乗者Tのストレスが軽減するという効果がある。
 このように、本第1実施形態では、自動運転にて走行中の車両3の搭乗者Tが、車外のストレス対象Sによって不安等のストレスを感じた場合でも、そのストレスを軽減することができるという顕著な効果を奏する。
 (1b)本第1実施形態では、搭乗者Tの視線の先の対象に対する、搭乗者Tの視認回数及び/又は視認時間に基づいて、ストレス対象Sを特定するので、的確に車外のストレス対象Sを特定することができる。
 (1c)本第1実施形態では、搭乗者Tの視線の先に、周囲環境センサ群9によって周辺物標SVが検出されたときには、その周辺物標SVをストレス対象Sとみなすので、ストレス対象Sの位置を精度良く認識することができる。
 そのため、そのストレス対象Sに対して、自車3の安全マージンが増大する制御を好適に行うことができる。
 (1d)本第1実施形態では、ストレスを感じた搭乗者Tの視線の先に、即ちストレス対象Sが存在する可能性のある方向に、周辺物標SVが検出されない場合でも、ストレス対象Sが存在する可能性のある方向に対して、自車3の安全マージンが増大する制御を行うことができる。そのため、搭乗者Tのストレスが軽減するという効果がある。
 [1-6.文言の対応関係]
 本第1実施形態と本開示との関係において、車両3が、車両の一例に相当する。車両制御装置5が、車両制御装置の一例に相当する。ストレス推定部65が、ストレス推定部の一例に相当する。ストレス特定部67が、ストレス特定部の一例に相当する。運転制御部69が、運転制御部の一例に相当する。周囲環境センサ群9が、検出部の一例に相当する。
 [2.第2実施形態]
 第2実施形態は、基本的な構成は第1実施形態と同様であるため、以下では主として第1実施形態との相違点について説明する。なお、第1実施形態と同じ符号は、同一構成を示すものであって、先行する説明を参照する。
 本第2実施形態では、搭乗者Tの視線の向きを推定する方法に特徴があるので、この特徴について説明する。
 本第2実施形態では、搭乗者Tの視線の先が、ルームミラー75、ドアミラー73a、73b、BGM61等の表示装置21である場合には、視線の先の表示装置21に映る自車3の外の物体をストレス対象Sとみなす。以下、具体的に説明する。
 例えば、図7に示すように、自車3の搭乗者T(例えば、運転者Ta)の視線の向きが、左のドアミラー73aの方向(例えば、矢印A方向)である場合には、通常、ドアミラー73aを見ている訳ではなく、ドアミラー73aに映る左後方の物体(例えば、他車81)を見ている。
 従って、この場合には、視線の向きがドアミラー73aにて反射した向き(例えば、矢印B方向)を、搭乗者の視線の向きとする。
 なお、ドアミラー73の鏡の角度は予め分かっているので、搭乗者Tの視線の向きから矢印A方向が分かれば、矢印B方向を求めることができる。
 また、図8に示すように、自車3のダッシュボード83に、例えば自車3の後方を撮影した映像を表示する電子ミラー85が配置されている場合にも、視線の先の電子ミラー85に映る車外の物体(例えば、他車81)をストレス対象Sとみなす。
 詳しくは、自車3の搭乗者T(例えば、運転者Ta)の視線の向きが、電子ミラー85上の他車81の方向(例えば、矢印C方向)である場合には、搭乗者Tの視線の向きを、実際の自車3の後方の他車81を見ている向きとする。つまり、搭乗者Tの位置(例えば、顔の中心の位置)から後方の他車81を見ている向きとする。
 なお、矢印C方向は、顔画像から電子ミラー85上のどこの位置を見ているかによって求めることができる。従って、視線の先に他車81が表示されている場合には、他車81の画像を見ていることが分かる。
 本第2実施形態は、第1実施形態と同様な効果を奏する。また、本第2実施形態では、搭乗者Tの直接の視線の向きに限らず、ミラーやモニタを利用した場合でも、視線の向きを求めることができるという利点がある。
 [3.第3実施形態]
 第3実施形態は、基本的な構成は第1実施形態と同様であるため、以下では主として第1実施形態との相違点について説明する。なお、第1実施形態と同じ符号は、同一構成を示すものであって、先行する説明を参照する。
 本第3実施形態では、搭乗者Tの視線の向きからストレス対象Sを特定する場合に、搭乗者Tの視線の先に周辺物標SVが検出されないときには、視線の向きの情報として、過去に同じ道路を走行した際に蓄積された他車81等の搭乗者Tの視線の向きの情報を用いる。以下、具体的に説明する。
 例えば、搭乗者Tが、視線の向きの先の車外の環境に対して不安等のストレスを感じた場合でも、周囲環境センサ群9によって周辺物標SVを検出できないことが考えられる。
 例えば、図9に示すように、道路を走行中の車両(例えば、自車)3の搭乗者Tが、道路のある位置又は区間にて、車外の所定の方向(例えば、矢印D方向)にストレス対象Sがあると感じた場合でも、周囲環境センサ群9では、そのストレス対象Sを周辺物標SVとして把握できないことがある。
 このような場合には、車両3の通信装置15を用いて、車両3の位置又は区間の情報と、この位置や区間でストレスを感じたという情報と、搭乗者Tの視線の向きの情報とを、インターネット等を用いて、クラウド上のサーバ45に送信する。サーバ45は、このような情報を、他車81から受信した場合にも、その情報をデータベースとして蓄積する。
 従って、自動運転で車両3が前記位置や区間を走行する場合に、搭乗者Tの視線の先にストレス対象Sの周辺物標が検出されないときには、その車両3は上述したサーバ45のデータベースに蓄積された過去の情報(即ち、過去情報)に基づいて、搭乗者Tのストレスを抑制するように、車両3の安全マージンが増大する制御を行うことができる。例えば、前記図4のS170の又は以下の説明参照。
 例えば、自車3が前記位置や区間を走行する場合には、前記蓄積された過去の情報に基づいて、自車3の速度を低下させることにより、適切に搭乗者Tのストレスを抑制できる。例えば、過去に同じ道路を走行した複数の車両(例えば、他車81)について、前記蓄積された過去の情報がある場合には、自車3の速度を低下させて自車3の安全マージンを増大させる制御を行ってもよい。なお、前記蓄積された過去の情報がない場合には、安全マージンを増加させる制御を行わないようにしてもよい。
 本第3実施形態は、第1実施形態と同様な効果を奏する。また、本第3実施形態では、自車3が過去に他車81が走行した道路と同じ道路を走行する場合には、蓄積された他車81のデータを使用して、好適にストレスを抑制する制御を行うことができるという利点がある。
 [4.他の実施形態]
 以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
 (4a)本開示は、レベル2~5の自動運転が可能な車両に適用することができる。
 (4b)搭乗者としては、運転者、助手席の同乗者、後部座席の同乗者が挙げられる。本開示を適用する搭乗者は、予め設定してもよいが設定しなくともよい。複数の搭乗者がストレスを感じる場合には、特定の搭乗者に対して本開示を適用することができる。
 (4c)ストレス対象の周辺物標としては、蛇行運転等の運転が不安定な他車、積載物が大きく又は積載状態が不安定な他車、窓等が黒くされている他車、違和感のある装飾等がある他車などが挙げられる。また、ストレス対象の環境としては、石や土砂等の崩落の恐れがありそうな崖、切り立った崖、樹木が道路に覆い被さったような場所等が挙げられる。
 (4d)本開示に記載の車両制御装置での処理の手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の車両制御装置での処理の手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。
 もしくは、本開示に記載の車両制御装置での処理の手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。
 また、車両制御装置に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。
 (4e)前記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。
 (4f)また、上述した車両制御装置の他、当該車両制御装置を構成要素とするシステム、当該車両制御装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実体的記録媒体、車両制御方法など、種々の形態で本開示を実現することもできる。
 

Claims (6)

  1.  自動運転の車両(3)に搭乗している搭乗者の感情を示す生体情報に基づいて、前記搭乗者にストレスがあるか否かを推定するように構成されたストレス推定部(65、110、S120)と、
     前記搭乗者に前記ストレスがあると推定された場合には、前記搭乗者の視線の向きの情報に基づいて、前記車両の外における前記ストレスの原因であるストレス対象を特定するように構成されたストレス特定部(67、S140、S150)と、
     前記ストレス対象に対して、前記車両の走行に関する安全マージンが増大するように、前記車両を制御するように構成された運転制御部(69、S160、S170)と、
     を備えた車両制御装置。
  2.  請求項1に記載の車両制御装置であって、
     前記ストレス対象を回避するように、前記車両を制御するように構成された、
     車両制御装置。
  3.  請求項1または請求項2に記載の車両制御装置であって、
     前記搭乗者の視線の先の対象に対する、前記搭乗者の視認回数及び/又は視認時間に基づいて、前記ストレス対象を特定するように構成された、
     車両制御装置。
  4.  請求項1から請求項3までのいずれか1項に記載の車両制御装置であって、
     前記搭乗者の視線の先が、少なくとも、ルームミラー(75)、ドアミラー(73a、73b)、電子ミラー(85)、後方ガイドモニタ(61)のいずれかを含む表示装置(21)である場合には、
     前記視線の先の、前記表示装置に映る前記車両の外の物体を、前記ストレス対象とみなすように構成された、
     車両制御装置。
  5.  請求項1から請求項4までのいずれか1項に記載の車両制御装置であって、
     前記車両が、自身の周囲に存在する周辺物標を検出する検出部(9)を備えている場合に、
     前記搭乗者の視線の先に、前記検出部によって前記周辺物標が検出されたときには、当該視線の先に検出された前記周辺物標を前記ストレス対象とみなすように構成された、
     車両制御装置。
  6.  請求項1から請求項4までのいずれか1項に記載の車両制御装置であって、
     前記ストレスがあると推定された場合の前記搭乗者の視線の向きの情報として、前記車両外のサーバに蓄積された、同じ場所を過去に走行した複数の前記車両の各搭乗者について前記ストレスがあると推定された場合の視線の向きの情報を用いるように構成された、
     車両制御装置。
PCT/JP2020/031999 2019-08-30 2020-08-25 車両制御装置 WO2021039779A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/671,187 US20220169284A1 (en) 2019-08-30 2022-02-14 Vehicle control device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019159015A JP7226197B2 (ja) 2019-08-30 2019-08-30 車両制御装置
JP2019-159015 2019-08-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/671,187 Continuation US20220169284A1 (en) 2019-08-30 2022-02-14 Vehicle control device

Publications (1)

Publication Number Publication Date
WO2021039779A1 true WO2021039779A1 (ja) 2021-03-04

Family

ID=74685888

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/031999 WO2021039779A1 (ja) 2019-08-30 2020-08-25 車両制御装置

Country Status (3)

Country Link
US (1) US20220169284A1 (ja)
JP (1) JP7226197B2 (ja)
WO (1) WO2021039779A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2606018A (en) * 2021-04-23 2022-10-26 Daimler Ag Emotion recognition for artificially-intelligent system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7449468B2 (ja) 2020-04-01 2024-03-14 トヨタ自動車株式会社 集電端子
JP7323248B2 (ja) * 2021-07-21 2023-08-08 株式会社ライフクエスト ストレス判定装置、ストレス判定方法、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017156854A (ja) * 2016-02-29 2017-09-07 Kddi株式会社 感情分類によって文脈意味の理解精度を高める発話意味分析プログラム、装置及び方法
JP2019079085A (ja) * 2017-10-19 2019-05-23 アイシン精機株式会社 運転支援装置
JP2019109138A (ja) * 2017-12-19 2019-07-04 日本精機株式会社 表示装置、表示方法及び表示プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3848554B2 (ja) 2001-10-11 2006-11-22 株式会社日立製作所 危険情報集配信装置、警報発生装置、車両危険情報送信装置および経路探索装置
US8384534B2 (en) * 2010-01-14 2013-02-26 Toyota Motor Engineering & Manufacturing North America, Inc. Combining driver and environment sensing for vehicular safety systems
WO2018230530A1 (ja) * 2017-06-16 2018-12-20 本田技研工業株式会社 車両制御システム、車両制御方法、およびプログラム
JP6986699B2 (ja) * 2017-07-04 2021-12-22 パナソニックIpマネジメント株式会社 表示制御システム、表示システム、移動体、表示制御方法及びプログラム
JP7474160B2 (ja) 2020-09-14 2024-04-24 株式会社Subaru 情報処理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017156854A (ja) * 2016-02-29 2017-09-07 Kddi株式会社 感情分類によって文脈意味の理解精度を高める発話意味分析プログラム、装置及び方法
JP2019079085A (ja) * 2017-10-19 2019-05-23 アイシン精機株式会社 運転支援装置
JP2019109138A (ja) * 2017-12-19 2019-07-04 日本精機株式会社 表示装置、表示方法及び表示プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2606018A (en) * 2021-04-23 2022-10-26 Daimler Ag Emotion recognition for artificially-intelligent system

Also Published As

Publication number Publication date
JP2021037795A (ja) 2021-03-11
US20220169284A1 (en) 2022-06-02
JP7226197B2 (ja) 2023-02-21

Similar Documents

Publication Publication Date Title
WO2021039779A1 (ja) 車両制御装置
WO2018186127A1 (ja) 走行支援装置
CN111361552B (zh) 自动驾驶系统
JP6342856B2 (ja) 車両制御装置
CN104943695B (zh) 驾驶员意图评估装置
CN109835346B (zh) 驾驶建议装置和驾驶建议方法
US10338583B2 (en) Driving assistance device
US20230054024A1 (en) Information processing apparatus, information processing system, information processing method, and information processing program
US20190283774A1 (en) Travel control apparatus, vehicle, travel control system, travel control method, and storage medium
US20200064834A1 (en) Operation switching support device and operation switching support method
US20190061761A1 (en) Vehicle control apparatus
WO2020100585A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
US11414068B2 (en) Apparatus and method for controlling autonomous driving
CN110015300B (zh) 车辆用控制装置
JP7116540B2 (ja) 運転アドバイス装置及び運転アドバイス方法
JP2020032786A (ja) 停車支援装置
JP7157671B2 (ja) 車両制御装置及び車両
WO2022202032A1 (ja) 自動運転制御装置、自動運転制御プログラム、提示制御装置及び提示制御プログラム
US20200269847A1 (en) In-vehicle information processing device, inter-vehicle information processing system, and information processing system
WO2018168050A1 (ja) 集中度判定装置、集中度判定方法及び集中度判定のためのプログラム
US11897496B2 (en) Vehicle warning system
JP2020157820A (ja) 車両の制御装置、車両の制御方法及びプログラム
JP2020032781A (ja) 停車支援装置
US20240132117A1 (en) Presentation control device, and automated drive control device
WO2022270205A1 (ja) ドライバの顔認証装置及び顔認証プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20858661

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20858661

Country of ref document: EP

Kind code of ref document: A1