WO2017199563A1 - 運転支援装置 - Google Patents

運転支援装置 Download PDF

Info

Publication number
WO2017199563A1
WO2017199563A1 PCT/JP2017/010269 JP2017010269W WO2017199563A1 WO 2017199563 A1 WO2017199563 A1 WO 2017199563A1 JP 2017010269 W JP2017010269 W JP 2017010269W WO 2017199563 A1 WO2017199563 A1 WO 2017199563A1
Authority
WO
WIPO (PCT)
Prior art keywords
driver
unit
sleepiness
level
vehicle
Prior art date
Application number
PCT/JP2017/010269
Other languages
English (en)
French (fr)
Inventor
秀明 山口
Original Assignee
アイシン精機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アイシン精機株式会社 filed Critical アイシン精機株式会社
Priority to US16/302,307 priority Critical patent/US10748405B2/en
Publication of WO2017199563A1 publication Critical patent/WO2017199563A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • B60K28/066Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver actuating a signalling device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3484Personalized, e.g. from learned user behaviour or user-defined profiles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0827Inactivity or incapacity of driver due to sleepiness

Definitions

  • Embodiments of the present invention relate to a driving support device.
  • JP 2010-186276 A Japanese Patent Application Laid-Open No. 2014-13496
  • one of the problems of the present invention is to provide a driving support device that maintains the effect of eliminating the drowsiness of the driver.
  • the driving support device includes an acquisition unit that acquires the degree of drowsiness of the driver who is driving the vehicle based on the input information about the driver, and the degree of drowsiness acquired by the acquisition unit is a predetermined threshold value. Based on the time interval at which the above occurs, a calculation unit that calculates a predicted effect disappearance time that indicates a predicted time when sleepiness is not eliminated even when a stimulus is given to the driver, and an estimated effect disappearance time calculated by the calculation unit And a control unit that changes the control performed on the driver as the time becomes shorter. Therefore, for example, by changing the process to be executed according to the predicted effect disappearance time, the time until the effect of the process on the driver disappears can be extended.
  • the control unit outputs a candidate for a resting place where the vehicle can stop within the range in which the vehicle can travel within the predicted loss of effect time calculated by the calculation unit. Therefore, for example, in order to present a resting place corresponding to the predicted effect disappearance time, it is possible to improve the possibility that the driver takes a rest.
  • the acquisition unit acquires the degree of sleepiness when the degree of sleepiness calculated from the driver's captured image captured by the imaging device is greater than a predetermined threshold. Therefore, for example, by calculating the effect disappearance prediction time according to the degree of sleepiness according to the driver's imaging result, the accuracy of control based on the effect disappearance prediction time can be improved.
  • the acquisition unit acquires operation information indicating that a predetermined operation unit provided in the vehicle has been operated, and the calculation unit operates the operation unit with the operation information. Based on the determined time interval, a predicted effect disappearance time indicating a predicted time when sleepiness is not eliminated even when the driver is stimulated is calculated. Therefore, for example, by calculating the effect disappearance prediction time based on the driver's own operation, it is possible to improve the accuracy of the control based on the effect disappearance prediction time.
  • the driving support apparatus of the embodiment varies the predetermined threshold according to the predicted effect disappearance time calculated by the calculation unit. Therefore, for example, since the threshold is set according to the degree of sleepiness of the driver, it is possible to extend the time until the effect of the processing on the driver disappears.
  • FIG. 1 is a perspective view illustrating a state in which a part of a passenger compartment of a vehicle according to the embodiment is seen through.
  • FIG. 2 is a diagram illustrating an example of an arrangement of the imaging device and the arousal stimulus output device according to the embodiment.
  • FIG. 3 is a block diagram illustrating an example of a configuration of the snooze driving prevention system according to the embodiment.
  • FIG. 4 is a block diagram illustrating a functional configuration of the ECU according to the embodiment.
  • FIG. 5 is a diagram illustrating a process management database in which processes to be executed according to the detection result of the three-dimensional face model according to the embodiment are associated.
  • FIG. 6 is a diagram illustrating a process management database in which processes to be executed in accordance with operation results based on operation information according to the embodiment are associated.
  • FIG. 7 is a diagram illustrating the timing at which a conventional arousal stimulus is applied.
  • FIG. 8 is a diagram illustrating an example of a break place candidate specified by the guide place specifying unit of the embodiment.
  • FIG. 9 is a diagram exemplifying a timing and a support level at which an arousal stimulus is given by the ECU according to the embodiment.
  • FIG. 10 is a flowchart illustrating a procedure of the dozing driving prevention process in the ECU according to the embodiment.
  • the vehicle 1 may be, for example, an automobile (an internal combustion engine automobile) using an internal combustion engine (engine, not shown) as a drive source, or an electric motor (motor, not shown) as a drive source.
  • the vehicle may be a vehicle (electric vehicle, fuel cell vehicle, etc.) or a vehicle (hybrid vehicle) using both of them as drive sources.
  • the vehicle 1 can be mounted with various transmissions, and various devices (systems, components, etc.) necessary for driving the internal combustion engine and the electric motor.
  • the method, number, layout, and the like of the device related to driving of the wheels 3 in the vehicle 1 can be variously set.
  • the vehicle body 2 of the vehicle 1 constitutes a passenger compartment 2a in which a driver (not shown) gets.
  • a steering section 4 and the like are provided in the passenger compartment 2a so as to face the driver's seat 2b as a passenger.
  • the steering unit 4 is a steering wheel that protrudes from a dashboard (instrument panel) 12.
  • the vehicle 1 is a four-wheeled vehicle (four-wheeled vehicle), and has two left and right front wheels 3F and two left and right rear wheels 3R. Furthermore, in the present embodiment, these four wheels 3 are configured so that any of them can be steered (turnable).
  • a monitor device 11 is provided in the vehicle width direction of the dashboard 12 in the passenger compartment 2a, that is, in the center in the left-right direction.
  • the monitor device 11 is provided with a display device 8 and an audio output device 9.
  • the display device 8 is, for example, an LCD (liquid crystal display), an OELD (organic electroluminescent display), or the like.
  • the audio output device 9 is, for example, a speaker.
  • the display device 8 is covered with a transparent operation input unit 10 such as a touch panel. The occupant can visually recognize an image displayed on the display screen of the display device 8 via the operation input unit 10. The occupant can execute an operation input by touching, pushing, or moving the operation input unit 10 with a finger or the like at a position corresponding to the image displayed on the display screen of the display device.
  • an imaging device 201 is installed in the handle column 202.
  • the imaging device 201 is, for example, a CCD (Charge Coupled Device) camera or the like.
  • the imaging device 201 is adjusted in view angle and posture so that the face of the driver 302 sitting on the seat portion of the seat 2b is positioned at the center of the field of view.
  • the imaging device 201 sequentially captures the face of the driver 302 and sequentially outputs image data regarding images obtained by the capturing.
  • a wakeful stimulus output device 310a is provided in the pillow portion 2d of the seat.
  • the arousal stimulus output device 310a outputs to the driver 302 a wake-up stimulus for awakening the driver 302 based on stimulus data described later.
  • examples of the arousal stimulus include an olfactory stimulus, an auditory stimulus, a tactile stimulus, and a visual stimulus, but are not limited thereto.
  • a massage device 310b is provided in the seat back portion 2c.
  • the massage device 310b massages the driver 302 by vibrating the lower part of the backrest 2c that is in contact with the waist of the driver 302 based on the stimulation data.
  • the arousal stimulus output device 310a and the massage device 310b are examples of a stimulus output unit.
  • positioning of the arousal stimulus output apparatus 310a and the massage apparatus 310b is not limited to these, What is necessary is just to arrange
  • the steering unit 4 is provided with an operation button 203 for notifying that the driver has become sleepy.
  • the driver presses the operation button 203 according to the degree of sleepiness.
  • FIG. 3 is a block diagram illustrating an example of the configuration of the snooze driving prevention system 100 according to the present embodiment.
  • the monitor device 11, the steering system 13, the GPS 16, etc., the brake system 18, the steering angle sensor 19, the accelerator sensor 20, the shift sensor 21, wheels A speed sensor 22 and the like are electrically connected via an in-vehicle network 23 as an electric communication line.
  • the in-vehicle network 23 is configured as a CAN (Controller Area Network), for example.
  • the ECU 14 can control the steering system 13 including the actuator 13a, the brake system 18 including the actuator 18a, and the like by sending a control signal through the in-vehicle network 23. Further, the ECU 14 transmits the detection results of the torque sensor 13b, the brake sensor 18b, the rudder angle sensor 19, the GPS 16, the shift sensor 21, the wheel speed sensor 22, and the like, the operation signal of the operation input unit, and the like via the in-vehicle network 23. Can receive.
  • the ECU 14 is an example of a driving support device.
  • the ECU 14 includes, for example, a CPU 14a (Central Processing Unit), a ROM 14b (Read Only Memory), a RAM 14c (Random Access Memory), a display control unit 14d, an audio control unit 14e, an SSD 14f (Solid State Drive, a flash memory, etc.). ing.
  • the CPU 14a controls the entire vehicle 1.
  • the CPU 14a can read a program installed and stored in a non-volatile storage device such as the ROM 14b and execute arithmetic processing according to the program.
  • the RAM 14c temporarily stores various types of data used in computations by the CPU 14a.
  • the display control unit 14d performs, for example, composition of image data displayed on the display device 8 among the arithmetic processing in the ECU 14.
  • the voice control unit 14 e mainly executes processing of voice data output from the voice output device 9 among the calculation processes in the ECU 14.
  • the SSD 14f is a rewritable nonvolatile storage unit that can store data even when the ECU 14 is powered off.
  • the CPU 14a, the ROM 14b, the RAM 14c, and the like can be integrated in the same package.
  • the ECU 14 may have a configuration in which another logical operation processor, a logic circuit, or the like such as a DSP (Digital Signal Processor) is used instead of the CPU 14a.
  • an HDD Hard Disk Drive
  • the SSD 14f and the HDD may be provided separately from the ECU 14.
  • FIG. 4 is a block diagram showing a functional configuration of the ECU 14 of the present embodiment.
  • the SSD 14f stores a three-dimensional face model database 401 and a process management database 402.
  • the ECU 14 includes an input unit 403, a collation unit 404, an acquisition unit 405, a determination unit 406, a calculation unit 407, and a control unit 408.
  • These configurations are realized by the CPU 14a executing a program stored in the SSD 14f.
  • these configurations may be realized by hardware such as an electronic circuit.
  • the input unit 403 inputs information on the driver from the outside.
  • the input unit 403 inputs image data obtained by capturing an image of the driver with the imaging device 201 as information about the driver. Furthermore, the input unit 403 inputs operation information indicating whether or not the operation button 203 of the steering unit 4 has been pressed as information regarding the driver.
  • the 3D face model database 401 stores a 3D face model that is a statistical face shape model.
  • the average three-dimensional face shape of the subject, the positions of the facial parts such as the subject's eyes, mouth, and nose, and the change information of the subject's eye shape are registered.
  • CLM Consstrained Local Model
  • AAM Active Appearance Model
  • ASM Active Shape Model
  • change information is further registered.
  • the change information is data in which a step change in the shape of the driver's eyes associated with a change in the facial expression or movement of the driver is associated with a shape parameter for each step.
  • a change state a state where the face is faceless and the front is open and the eyes are open is a standard state, and each step such as a gradual change of the eye shape from the standard state until the eyes are closed.
  • the state is associated with the shape parameter and registered in the 3D face model.
  • the collation unit 404 extracts facial features of a plurality of subjects and feature points of facial parts such as eyes and mouths from the acquired captured images, and configures a two-dimensional captured image of the driver and a three-dimensional face model. Adapt to 3D face structure data. That is, the matching unit 404 performs model fitting and model tracking. As a result, the collation unit 404 identifies (estimates) the direction of the driver's face, and further searches for and identifies (estimates) the eye position on the three-dimensional face model. Furthermore, the collation unit 404 detects the driver's face direction and the driver's eye position specified (estimated), and specifies the eye opening degree that is the distance between the driver's upper and lower eyelids.
  • the acquisition unit 405 of the present embodiment acquires the driver's sleepiness level (sleepiness level) from the 3D face model collated by the collation unit 404 and the degree of eye opening of the 3D face model. Any method may be used as the drowsiness level determination method based on the three-dimensional face model, regardless of a known method.
  • the acquisition unit 405 of the present embodiment acquires the driver's sleepiness level based on the operation information input by the input unit 403.
  • the operation information is information indicating whether or not the operation button 203 that is pressed when the driver becomes sleepy has been pressed. For this reason, the acquisition unit 405 determines the drowsiness level of the driver based on the operation information.
  • the operation button 203 is provided with a “sleepy” button, and the acquisition unit 405 determines the sleepiness level according to the type of the pressed button. It is possible to do. For example, when the “sleepy” button is pressed, the sleepiness level 3 is determined.
  • the buttons that can be pressed are not limited to “sleepy” buttons, and a plurality of types of buttons such as “sleepy” and “slightly sleepy” buttons may be provided.
  • the process management database 402 is a database that manages processes to be performed when drowsiness is detected.
  • the process management database 402 of this embodiment manages a process corresponding to the detection result of the three-dimensional face model and a process corresponding to the operation information.
  • FIG. 5 is a diagram illustrating a process management database in which processes to be executed in accordance with the detection result of the three-dimensional face model of the present embodiment are associated. As shown in FIG. 5, the effect disappearance prediction time, the support level, the arousal stimulus, and the break induction are stored in association with each other.
  • the predicted effect disappearance time is predicted that the driver's drowsiness due to the arousal stimulus will not be eliminated, in other words, the effect due to the arousal stimulus will be lost even if the driver is repeatedly given the arousal stimulus.
  • the drowsiness level acquired by the acquisition unit 405 is calculated by the calculation unit 407 based on a time interval when a predetermined threshold (for example, drowsiness level 3 or drowsiness level 2) is detected.
  • the control executed by the control unit 408 is varied as the effect disappearance prediction time becomes shorter.
  • the control to be executed is determined as a support level, an arousal stimulus, and a break induction.
  • the support level, the arousal stimulus, and the break induction are stored in association with the effect disappearance time. Thereby, the control according to the effect disappearance prediction time can be realized.
  • the support level indicates the degree of control executed by the control unit 408.
  • the support level is set to increase as the effect disappearance prediction time becomes shorter.
  • the awakening stimulus As the awakening stimulus, the awakening stimulus to be given to the driver is determined, and the timing and the intensity are associated with each other. Timing shows the timing which gives a wake-up stimulus. For example, “when sleepiness level 3 appears” indicates the timing when sleepiness level 3 is detected from the three-dimensional face model. “Immediately” indicates that an arousal stimulus is always applied. The intensity indicates the intensity that gives the driver a wakeful stimulus.
  • the rest guidance information for guiding the driver to the resting place of the vehicle 1 is defined, and a message and a recommended resting place are associated with each other.
  • the message is set for each support level, in other words, for each estimated effect disappearance time.
  • the recommended rest area information necessary for presenting the rest area to the driver is determined based on the current vehicle 1 and the support level. As A%, for example, 50% is set, and as B%, for example, 20% to 30% is set. In the present embodiment, a plurality of candidates that are rest places within the range are presented.
  • FIG. 6 is a diagram illustrating a process management database in which processes to be executed in accordance with operation results based on operation information according to the present embodiment are associated.
  • FIG. 6 stores the effect disappearance prediction time, the support level, the arousal stimulus, and the break induction in association with each other.
  • the timing at which the arousal stimulus is applied is different from FIG. In the example shown in FIG. 5, it is the timing when a predetermined drowsiness level is detected in the three-dimensional face model that is the tracking result of the driver's face, whereas in the example shown in FIG. There is a difference in the timing of pressing. In other words, when the predetermined operation button 203 is pressed, the wakefulness stimulus is given when the drowsiness level 3 appears. In addition, when the support level 3 is reached, it is applied at regular time intervals regardless of whether the operation button 203 is pressed, and when the support level 4 is reached, a wake-up stimulus is always applied.
  • the determination unit 406 determines whether the drowsiness level is equal to or higher than a predetermined threshold.
  • the predetermined threshold is varied according to the support level (in other words, the effect prediction time). For example, when detecting the drowsiness level from the three-dimensional face model, the determination unit 406 uses the drowsiness level 3 as a threshold in the support levels 1 and 2, and uses the drowsiness level 2 as a threshold in the support level 3.
  • the driver is still awake at the support levels 1 and 2, so it is only necessary to detect the drowsiness level 3.
  • the drowsiness level 2 is detected at an earlier stage, in other words, drowsiness level 2. Then, when a drowsiness level serving as a threshold is detected, control is performed to maintain the awake state.
  • the determination unit 406 uses the sleepiness level 3 as a threshold regardless of the support level. That is, the timing at which the operation button 203 is pressed is determined as the drowsiness level is 3 or more.
  • the calculating unit 407 calculates the expected effect disappearance time based on the time interval from when the determining unit 406 detects the drowsiness level equal to or higher than the predetermined threshold value until the detection of the drowsiness level equal to or higher than the predetermined threshold value this time.
  • Expression (1) is an expression for calculating the effect disappearance prediction time Tmax.
  • Tmax ⁇ 1 ⁇ time interval + ⁇ 1 (1)
  • the parameters ⁇ 1 and ⁇ 1 are parameters stored in the SSD 14f and are determined according to the embodiment. Furthermore, the parameters ⁇ 1 and ⁇ 1 may be adjusted according to the driver's measurement results so far. That is, the ECU 14 measures the transition of the sleepiness level of the driver so far and stores it in the SSD 14. Then, the ECU 14 adjusts the parameters ⁇ 1 and ⁇ 1 so as to match the transition of the measured sleepiness level. Thereby, the calculation precision of the effect disappearance prediction time Tmax according to the sleepiness level detected this time can be improved.
  • the present embodiment is not limited to the method of calculating the effect disappearance prediction time Tmax by the above-described equation (1), and the effect disappearance prediction time Tmax may be calculated using another equation.
  • a method of calculating the effect disappearance prediction time Tmax using the following formula (2) is conceivable.
  • Tmax ⁇ 2 ⁇ time interval + ⁇ 3 ⁇ drowsiness level detected this time + ⁇ 2 (2)
  • the parameters ⁇ 2, ⁇ 3 and ⁇ 2 are parameters stored in the SSD 14f and are determined according to the embodiment.
  • the parameters ⁇ 2, ⁇ 3, and ⁇ 2 may also be adjusted according to the driver's measurement results.
  • the control unit 408 includes a stimulation unit 411, a guidance location specifying unit 412, and an output control unit 413, and sets a support level based on the predicted effect disappearance time calculated by the calculation unit 407. Then, the stimulation unit 411, the guidance location specifying unit 412, and the output control unit 413 perform control according to the set support level. In other words, each configuration of the control unit 408 changes the control performed on the driver as the effect disappearance prediction time becomes shorter.
  • FIG. 7 is a diagram illustrating the timing at which a conventional arousal stimulus is applied.
  • a sleepiness level 3 when a sleepiness level 3 is detected, an arousal stimulus is applied.
  • the time interval in which the drowsiness level 3 is detected is shortened until the drowsiness level 4 is detected.
  • the drowsiness level 4 indicates drowsiness that makes it difficult for the driver to awaken, in other words, makes it difficult for the driver to drive even if the arousal stimulus is applied.
  • the effect disappearance time from the first detection of sleepiness level 3 to the detection of sleepiness level 4 is 19.5 min.
  • control unit 408 of the present embodiment sets the support level according to the calculated effect disappearance prediction time, and performs the control according to the support level so that the effect disappearance time becomes longer. Take control.
  • the stimulating unit 411 gives the driver a wake-up stimulus with the intensity associated with the support level at a timing associated with the support level set according to the effect disappearance prediction time.
  • the stimulating unit 411 according to the present embodiment can give an arousal stimulus to the driver by controlling the arousal stimulus output device 310a and the massage device 310b.
  • the guidance location identifying unit 412 identifies a rest location candidate for guiding the vehicle 1 based on the recommended rest location associated with the support level and the current position of the vehicle 1 acquired by the GPS 16.
  • the guidance location specifying unit 412 calculates the distance that the vehicle 1 can move by the estimated loss of effect time Tmax ⁇ A% (for example, 50%) ⁇ the average speed of the vehicle 1. And the guidance location specific
  • the guidance location specifying unit 412 calculates the distance that the vehicle 1 can move by the estimated effect disappearance time Tmax ⁇ B% (for example, 20 to 30%) ⁇ the average speed of the vehicle 1. After that, it is the same as support level 1.
  • FIG. 8 is a diagram illustrating an example of a break place candidate specified by the guide place specifying unit 412 of this embodiment.
  • the guidance location specifying unit 412 sets the estimated distance of effect Tmax ⁇ A% (for example, 50%) ⁇ movable distance 801 calculated by the average speed of the vehicle 1.
  • the first SA, the first PA, and the second SA that are present are specified as the rest place candidates.
  • the guidance location specifying unit 412 includes the first SA existing at the movable distance 802 calculated by the estimated effect disappearance time Tmax ⁇ B% (for example, 20 to 30%) ⁇ the average speed of the vehicle 1. Is identified as a candidate for a resting place.
  • the output control unit 413 outputs a message associated with the support level set according to the predicted effect disappearance time from the voice output device 9.
  • the output control unit 413 outputs the rest place candidates specified by the guidance place specifying unit 412 to the display device 8.
  • the message may be output at any timing, or at a timing when a wakeful stimulus is applied. As another example, it may be output at regular intervals, or the frequency of output may be varied according to the support level.
  • the rest place candidates may be continuously displayed on the display device 8 or may be displayed alternately with a map or the like. As a method for displaying a candidate for a rest place, a distance to the rest place candidate and the rest place may be displayed in characters, or a rest place may be displayed on a map.
  • FIG. 9 is a diagram exemplifying the timing and the support level at which the awakening stimulus is applied by the ECU 14 of the present embodiment.
  • the example shown in FIG. 9 is an example of detecting a drowsiness level from a three-dimensional face model. Then, as shown in FIG. 5, in support levels 1 and 2, a wake-up stimulus is applied at the timing when sleepiness level 3 is detected, and in support level 3, at the timing when sleepiness level 2 is detected. Awakening stimulus is applied.
  • the control unit 408 causes the stimulation unit 411 to weaken the driver's arousal stimulus at the timing when the drowsiness level 3 is detected.
  • the output control unit 413 performs output control such as “Let's refresh at an early break”. Further, a place that can be reached within 50% of the estimated effect disappearance time Tmax is guided as a rest place candidate.
  • the control unit 408 determines whether or not to change the support level based on the time interval at which the sleepiness level 3 is detected in the support levels 1 and 2. In the example shown in FIG. 9, the control unit 408 switches to the support level 2 when the effect disappearance prediction time Tmax calculated based on the time interval 901 becomes smaller than the threshold T1 (see FIG. 5).
  • the control unit 408 gives a strong arousal stimulus to the driver at the timing when the drowsiness level 3 is detected in the support level 2, and the output control unit 413 displays the “wakefulness support effect”. Is difficult to obtain. Let ’s take a break. ” Further, the output control unit 413 guides a place where the user can reach within 20 to 30% of the estimated effect disappearance time Tmax as a rest place candidate.
  • control unit 408 switches to the support level 3 when the effect disappearance prediction time Tmax calculated based on the time interval 902 becomes smaller than the threshold T2 (see FIG. 5).
  • the control unit 408 gives a strong arousal stimulus to the driver at the timing when the drowsiness level 2 is detected in the support level 3, and the output control unit 413 displays the “wakefulness support effect”. "I can't expect. Please take a break right away.” Further, the output control unit 413 guides the nearest rest place. Moreover, you may specify the period when the awakening support effect is acquired.
  • control unit 408 determines that the predicted effect disappearance time Tmax calculated based on the time interval 903 until the drowsiness level 3 is detected after the drowsiness level 2 is detected is the threshold T3 ( When it becomes smaller than that shown in FIG.
  • control unit 408 continuously applies the arousal stimulus with a strong intensity, and the output control unit 413 performs output control such that “It is in a dangerous state. .
  • the control unit 408 may perform automatic deceleration and stop control of the vehicle 1 as necessary.
  • the effect disappearance time from the first detection of drowsiness level 3 to the detection of drowsiness level 4 is 47.6 min.
  • the effect disappearance prediction time it is possible to extend the time until the effect of the arousal stimulus is lost as compared with the conventional case.
  • arousal stimulus when the drowsiness level is equal to or higher than a predetermined threshold, an arousal stimulus is applied, and the predicted effect disappearance time is calculated at this timing. Then, a support level is set according to the predicted effect disappearance time. And according to a support level, while giving the arousal stimulus and the stimulus intensity, the rest place can be displayed at an appropriate timing.
  • FIG. 10 is a flowchart showing a procedure of the above-described processing in the ECU 14 of the present embodiment.
  • control unit 408 performs initial setting of the support level (S1001).
  • support level 1 is set as the initial setting.
  • the input unit 403 inputs image data captured by the imaging apparatus 201 and operation information indicating whether or not the operation button 203 has been pressed (S1002).
  • the collation unit 404 determines whether or not the driver's face has been collated from the input image data (S1003).
  • the acquisition unit 405 acquires the driver's sleepiness level from the driver's three-dimensional face model identified from the image data (S1004).
  • the acquisition unit 405 acquires the driver's sleepiness level from the operation information (S1005).
  • sleepiness level 3 is detected at the timing when the operation button 203 is pressed.
  • the determination unit 406 determines whether or not the acquired sleepiness level is equal to or higher than a predetermined threshold corresponding to the support level (S1006).
  • the sleepiness level 3 is a threshold value.
  • the threshold varies depending on whether or not the sleepiness level is acquired from the three-dimensional face model.
  • the sleepiness level 2 is a threshold
  • the sleepiness level 3 is a threshold.
  • the stimulation unit 411 gives the driver a wake-up stimulus corresponding to the support level (S1007).
  • the stimulation unit 411 gives the awakening stimulus at regular time intervals regardless of the detection of the drowsiness level.
  • the calculation unit 407 determines whether or not there is a time interval from when a sleepiness level equal to or higher than the previous threshold is detected to when a sleepiness level equal to or higher than the current threshold is detected (S1008).
  • S1008 When there is no time interval, in other words, when this is the first time that a drowsiness level equal to or greater than the threshold has been detected (S1008: No), the processing is performed again from S1003.
  • the arousal stimulus is applied at the timing when the drowsiness level equal to or higher than the threshold is detected. For this reason, the time interval at which the drowsiness level equal to or higher than the threshold is detected can also be referred to as the time interval for applying the arousal stimulus.
  • the calculation unit 407 calculates the expected effect disappearance time based on the time interval (S1009).
  • control unit 408 sets a support level based on the calculated effect disappearance prediction time (S1010).
  • control unit 408 next sets a threshold value (timing for giving a wake-up stimulus) and an intensity associated with the support level in order to give a wake-up stimulus (S1011).
  • the guidance location specifying unit 412 calculates the distance that the vehicle 1 can move based on the predicted effect disappearance time, and specifies the rest location candidates that exist within the distance (S1012).
  • the output control unit 413 outputs the specified rest place candidate to the display device 8 and outputs a message corresponding to the support level (S1013).
  • control unit 408 determines whether or not the support level is 3 or less (S1014). When it is determined that the support level is 3 or less (S1014: Yes), the processing is performed again from S1003.
  • the control unit 408 when it is determined that the support level is greater than 3 (the support level is 4) (S1014: No), the control unit 408 always applies a strong stimulus and the output control unit 413 takes a break. Is output, and the control unit 408 performs stop control of the vehicle 1 as necessary (S1015).
  • the effect disappearance prediction time is calculated, and the process to be executed is varied according to the difference in the effect disappearance prediction time. For example, it is possible to reduce the sensory gap in the necessity of the driver to select the time interval break by adding strength to the rest guidance content according to the predicted effect disappearance time.
  • the persuasiveness of the necessity of a break can be improved by changing the message or break location output by the output control unit 413 according to the effect disappearance prediction time. This improves the possibility that the driver will select a break.
  • operator's sense can be shown by changing the candidate of the rest place to show according to the effect loss prediction time. Thereby, the possibility of selecting a break can be increased.
  • the estimated time for effect disappearance is calculated, and the processing to be executed according to the predicted effect disappearance time is varied to extend the time until the effect of the processing (for example, arousal stimulus) on the driver disappears.
  • the appropriate stimulus intensity and the timing for applying the stimulus can be adjusted according to the degree of sleepiness of the driver, the effect of eliminating the sleepiness can be enhanced and the troublesomeness of the stimulus application can be reduced.

Abstract

実施形態の運転支援装置は、入力された運転者に関する情報に基づいて、車両を運転している運転者の眠気の度合いを取得する取得部と、取得部が取得した眠気の度合いが所定の閾値以上となった時の時間間隔に基づいて、運転者に刺激を与えても眠気が解消しなくなる予測時間を示した効果消失予測時間を算出する算出部と、算出部が算出した効果消失予測時間が短くなるに従って、運転者に対して行う制御を異ならせる制御部と、を備える。

Description

運転支援装置
 本発明の実施形態は、運転支援装置に関する。
 従来から、運転者の眠気の度合いを検出し、検出された眠気の度合いに応じて、運転者に対して刺激を与える技術が提案されている。そして、運転者に対して刺激を与えることで、運転者を覚醒させることができる。
特開2010-186276号公報 特開2014-13496号公報
 しかしながら、従来技術においては、眠気が発生した際に刺激の付与を繰り返すと、運転者の眠気解消効果が弱くなる傾向になる。
 そこで、本発明の課題の一つは、運転者の眠気解消効果を持続させる運転支援装置を提供する。
 実施形態の運転支援装置は、入力された運転者に関する情報に基づいて、車両を運転している運転者の眠気の度合いを取得する取得部と、取得部が取得した眠気の度合いが所定の閾値以上となった時の時間間隔に基づいて、運転者に刺激を与えても眠気が解消しなくなる予測時間を示した効果消失予測時間を算出する算出部と、算出部が算出した効果消失予測時間が短くなるに従って、運転者に対して行う制御を異ならせる制御部と、を備える。よって、例えば、効果消失予測時間に応じた実行する処理を異ならせることで、運転者に対する処理の効果が消失するまでの時間を延長させることができる。
 また、実施形態の運転支援装置は、制御部は、算出部が算出した効果消失予測時間内で車両が走行可能な範囲内で、車両が停止可能な休憩場所の候補を出力する。よって、例えば、効果消失予測時間に応じた休憩場所を提示するため、運転者が休憩する可能性を向上させることができる。
 また、実施形態の運転支援装置は、取得部は、撮像装置で撮像された運転者の撮像画像から算出された眠気の度合いが所定の閾値より大きくなった場合の、眠気の度合いを取得する。よって、例えば、運転者の撮像結果に応じた眠気の度合いに応じて、効果消失予測時間を算出することで、当該効果消失予測時間に基づいた制御の精度を向上させることができる。
 また、実施形態の運転支援装置は、取得部は、車両に設けられた、所定の操作部が操作されたことを示した操作情報を取得し、算出部は、操作情報で操作部が操作された時間間隔に基づいて、運転者に刺激を与えても眠気が解消しなくなる予測時間を示した効果消失予測時間を算出する。よって、例えば、運転者自らの操作に基づいた、効果消失予測時間を算出することで、当該効果消失予測時間に基づいた制御の精度を向上させることができる。
 また、実施形態の運転支援装置は、算出部が算出した効果消失予測時間に応じて、所定の閾値を異ならせる。よって、例えば、運転者の眠気の度合いに応じて閾値が設定されるため、運転者に対する処理の効果が消失するまでの時間を延長させることができる。
図1は、実施形態にかかる車両の車室の一部が透視された状態が示された斜視図である。 図2は、実施形態にかかる撮像装置及び覚醒刺激出力装置の配置の一例を示す図である。 図3は、実施形態にかかる居眠り運転防止システムの構成の一例を示すブロック図である。 図4は、実施形態のECUの機能的構成を示すブロック図である。 図5は、実施形態の3次元顔モデルの検出結果に応じて実行する処理を対応付けた処理管理データベースを例示した図である。 図6は、実施形態の操作情報による操作結果に応じて実行する処理を対応付けた処理管理データベースを例示した図である。 図7は、従来の覚醒刺激を付与していたタイミングを例示した図である。 図8は、実施形態の案内場所特定部が特定した休憩場所の候補を例示した図である。 図9は、実施形態のECUによる覚醒刺激を付与するタイミングと支援レベルを例示した図である。 図10は、実施形態のECUにおける居眠り運転防止処理の手順を示すフローチャートである。
 以下、本実施形態の運転支援装置を車両1に搭載した例をあげて説明する。
 本実施形態では、車両1は、例えば、内燃機関(エンジン、図示されず)を駆動源とする自動車(内燃機関自動車)であってもよいし、電動機(モータ、図示されず)を駆動源とする自動車(電気自動車、燃料電池自動車等)であってもよいし、それらの双方を駆動源とする自動車(ハイブリッド自動車)であってもよい。また、車両1は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置(システム、部品等)を搭載することができる。また、車両1における車輪3の駆動に関わる装置の方式や、数、レイアウト等は、種々に設定することができる。
 図1に示されるように、車両1の車体2は、運転者(不図示)が乗車する車室2aを構成している。車室2a内には、乗員としての運転者の座席2bに臨む状態で、操舵部4等が設けられている。本実施形態では、一例として、操舵部4は、ダッシュボード(インストルメントパネル)12から突出したステアリングホイールである。
 また、図1に示されるように、本実施形態では、一例として、車両1は、四輪車(四輪自動車)であり、左右二つの前輪3Fと、左右二つの後輪3Rとを有する。さらに、本実施形態では、これら四つの車輪3は、いずれも操舵されうるように(転舵可能に)構成されている。
 また、車室2a内のダッシュボード12の車幅方向すなわち左右方向の中央部には、モニタ装置11が設けられている。モニタ装置11には、表示装置8や音声出力装置9が設けられている。表示装置8は、例えば、LCD(liquid crystal display)や、OELD(organic electroluminescent display)等である。音声出力装置9は、例えば、スピーカである。また、表示装置8は、例えば、タッチパネル等、透明な操作入力部10で覆われている。乗員は、操作入力部10を介して表示装置8の表示画面に表示される画像を視認することができる。また、乗員は、表示装置の表示画面に表示される画像に対応した位置において手指等で操作入力部10を触れたり押したり動かしたりして操作することで、操作入力を実行することができる。
 また、図2に示すように、ハンドルコラム202には、撮像装置201が設置されている。この撮像装置201は、例えば、CCD(Charge Coupled Device)カメラ等である。撮像装置201は、座席2bの座部に着座する運転者302の顔が、視野中心に位置するように、視野角及び姿勢が調整されている。この撮像装置201は、運転者302の顔を順次撮影し、撮影により得た画像についての画像データを順次出力する。
 また、図2に示すように、座席の枕部2dには、覚醒刺激出力装置310aが設けられている。覚醒刺激出力装置310aは、運転者302に対して、運転者302を覚醒させるための覚醒刺激を後述する刺激データに基づいて出力する。ここで、覚醒刺激としては、嗅覚刺激、聴覚刺激、触覚刺激、視覚刺激等があげられるが、これらに限定されるものではない。
 座席の背もたれ部2cには、マッサージ装置310bが設けられている。マッサージ装置310bは、運転者302の腰部に当たる背もたれ部2cの下部を刺激データに基づいて振動させて、運転者302に対してマッサージを行うものである。覚醒刺激出力装置310aとマッサージ装置310bは、刺激出力部の一例である。
 なお、覚醒刺激出力装置310a、マッサージ装置310bの配置はこれらに限定されるものではなく、運転者302に各刺激を付与可能な位置に配置されていればよい。
 さらに、操舵部4には、運転者が眠くなったことを通知するための操作ボタン203が設けられている。運転者は、眠気の度合いに応じて操作ボタン203を押下する。
 次に、本実施形態にかかる車両1における運転支援装置を有する居眠り運転防止システムについて説明する。図3は、本実施形態にかかる居眠り運転防止システム100の構成の一例を示すブロック図である。図3に例示されるように、居眠り運転防止システム100では、ECU14や、モニタ装置11、操舵システム13、GPS16等の他、ブレーキシステム18、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22等が、電気通信回線としての車内ネットワーク23を介して電気的に接続されている。車内ネットワーク23は、例えば、CAN(Controller Area Network)として構成されている。ECU14は、車内ネットワーク23を通じて制御信号を送ることで、アクチュエータ13aを含む操舵システム13、アクチュエータ18aを含むブレーキシステム18等を制御することができる。また、ECU14は、車内ネットワーク23を介して、トルクセンサ13b、ブレーキセンサ18b、舵角センサ19、GPS16、シフトセンサ21、車輪速センサ22等の検出結果や、操作入力部等の操作信号等を、受け取ることができる。ここで、ECU14は、運転支援装置の一例である。
 ECU14は、例えば、CPU14a(Central Processing Unit)や、ROM14b(Read Only Memory)、RAM14c(Random Access Memory)、表示制御部14d、音声制御部14e、SSD14f(Solid State Drive、フラッシュメモリ)等を有している。CPU14aは、車両1全体の制御を行う。CPU14aは、ROM14b等の不揮発性の記憶装置にインストールされ記憶されたプログラムを読み出し、当該プログラムにしたがって演算処理を実行できる。RAM14cは、CPU14aでの演算で用いられる各種のデータを一時的に記憶する。また、表示制御部14dは、ECU14での演算処理のうち、表示装置8で表示される画像データの合成等を実行する。また、音声制御部14eは、ECU14での演算処理のうち、主として、音声出力装置9で出力される音声データの処理を実行する。また、SSD14fは、書き換え可能な不揮発性の記憶部であって、ECU14の電源がオフされた場合にあってもデータを記憶することができる。なお、CPU14aや、ROM14b、RAM14c等は、同一パッケージ内に集積されうる。また、ECU14は、CPU14aに替えて、DSP(Digital Signal Processor)等の他の論理演算プロセッサや論理回路等が用いられる構成であってもよい。また、SSD14fに替えてHDD(Hard Disk Drive)が設けられてもよいし、SSD14fやHDDは、ECU14とは別に設けられてもよい。
 なお、上述した各種センサやアクチュエータの構成や、配置、電気的な接続形態等は、一例であって、種々に設定(変更)することができる。
 図4は、本実施形態のECU14の機能的構成を示すブロック図である。図4に示されるように、SSD14fには、3次元顔モデルデータベース401と、処理管理データベース402と、が記憶されている。ECU14は、入力部403と、照合部404と、取得部405と、判定部406と、算出部407と、制御部408と、を備える。これら構成は、SSD14fに格納されているプログラムをCPU14aが実行することで実現されるが、これらの構成を電子回路等のハードウェアで実現するように構成しても良い。
 入力部403は、外部から運転者に関する情報を入力する。本実施形態では、入力部403は、運転者に関する情報として、撮像装置201で運転者が撮像された画像データを入力する。さらに、入力部403は、運転者に関する情報として、操舵部4の操作ボタン203が押下されたか否かを示した操作情報を入力する。
 3次元顔モデルデータベース401は、統計的顔形状モデルである3次元顔モデルを記憶している。3次元顔モデルは、平均的な被験者の三次元顔形状と、被験者の目や口、鼻等の顔部品の位置と、被験者の目の形状の変化情報とが登録されている。三次元顔モデルは、一例として、CLM(Constrained Local Model),AAM(Active Appearance Model),ASM(Active Shape Model)を用いることができるが、これらに限定されるものではない。
 三次元顔モデルには、さらに、変化情報が登録されている。変化情報は、運転者の顔の表情や動作の変化に伴う運転者の目の形状の段階的な変化と、段階ごとの形状パラメータとが対応付けられたデータである。具体的には、変化状態として、顔が無表情で正面を向いて目が開いている状態を標準の状態とし、標準の状態から目を閉じるまでの目の形状の段階的な変化等の各状態が形状パラメータと対応付けられて三次元顔モデルに登録されている。
 照合部404は、取得した撮像画像から、複数人の被験者の顔形状、目や口等の顔部品の特徴点を抽出し、運転者の二次元の撮像画像と、三次元顔モデルを構成する三次元顔構造データに適合させる。すなわち、照合部404は、モデルフィッティングとモデルのトラッキングを行う。これにより、照合部404は、運転者の顔の向きを特定(推定)し、さらに、三次元顔モデル上での目の位置の検索を行い特定(推定)することになる。さらには、照合部404は、特定(推定)された運転者の顔の向きと運転者の目の位置を検出し、運転者の上下瞼間の距離である開眼度等を特定している。
 本実施形態の取得部405は、照合部404により照合された3次元顔モデルと、当該3次元顔モデルの開眼度等と、から、運転者の眠気レベル(眠気の度合い)を取得する。3次元顔モデルに基づく眠気レベルの判定手法は、周知の手法を問わず、どのような手法を用いても良い。
 本実施形態の取得部405は、入力部403により入力された操作情報に基づいて、運転者の眠気レベルを取得する。操作情報は、運転者が眠くなった場合に押下される操作ボタン203が押下されたか否かを示した情報である。このため、取得部405は、操作情報に基づいて、運転者の眠気レベルを判定する。操作ボタン203の押下による眠気レベルの判定手法としては、例えば、操作ボタン203には、「眠い」ボタンが設けられており、取得部405は、押下されるボタンの種類に応じて眠気レベルを判定することが考えられる。例えば、「眠い」ボタンが押下された場合に、眠気レベル3と判定する。なお、本実施形態は、押下可能なボタンを「眠い」ボタンに制限するものではなく、「眠い」、「少し眠い」ボタン等、複数種類のボタンが設けられていても良い。
 本実施形態では、眠気レベルを取得するために、画像データから生成された3次元顔モデルと、操作情報と、を用いた例について説明するが、これらの情報に制限するものではなく、運転者に関する情報を用いていれば良い。
 処理管理データベース402は、眠気が検出された場合に行う処理を管理するデータベースとする。本実施形態の処理管理データベース402は、3次元顔モデルの検出結果に対応する処理と、操作情報に対応する処理と、を管理している。
 図5は、本実施形態の3次元顔モデルの検出結果に応じて実行する処理を対応付けた処理管理データベースを例示した図である。図5に示されるように、効果消失予測時間と、支援レベルと、覚醒刺激と、休憩誘導と、を対応付けて記憶している。
 効果消失予測時間は、運転者に対して覚醒刺激の付与を繰り返している場合であっても、当該覚醒刺激による運転者の眠気が解消しなくなる、換言すれば覚醒刺激による効果が消失すると予測される時間を表している。本実施形態においては、取得部405が取得した眠気レベルが所定の閾値(例えば眠気レベル3や、眠気レベル2)が検出された時の時間間隔に基づいて、算出部407により算出される。
 本実施形態では、効果消失予測時間が短くなるに従って、制御部408が実行する制御を異ならせる。図5において、実行する制御は、支援レベルと、覚醒刺激と、休憩誘導と、して定められている。そして、支援レベルと、覚醒刺激と、休憩誘導と、を効果消失時間と対応付けて記憶している。これにより効果消失予測時間に応じた制御を実現できる。
 支援レベルは、制御部408が実行する制御の度合いを示している。本実施形態では、効果消失予測時間が短くなるに従って支援レベルが大きくなるように設定されている。
 覚醒刺激は、運転者に対して付与する覚醒刺激が定められており、タイミングと、強度と、が対応付けられている。タイミングは、覚醒刺激を付与するタイミングを示している。例えば、「眠気レベル3出現時」は、3次元顔モデルから眠気レベル3が検出されたタイミングを示している。「即時」は、常に覚醒刺激を付与していることを示している。強度は、運転者に対して覚醒刺激を付与する強度を示している。
 休憩誘導は、運転者に対して車両1の休憩場所まで案内するための情報が定められており、メッセージと、推奨休憩地と、が対応付けられている。メッセージは、支援レベル、換言すれば効果消失予測時間毎に設定されている。推奨休憩地は、現在の車両1と支援レベルとに基づいて、運転者に対して休憩地を提示するために必要な情報が定められている。A%としては、例えば50%が定められ、B%としては、例えば20%~30%が定められている。そして、本実施形態においては、当該範囲内の休憩場所となる候補が複数提示される。
 図6は、本実施形態の操作情報による操作結果に応じて実行する処理を対応付けた処理管理データベースを例示した図である。図6は、図5と同様に、効果消失予測時間と、支援レベルと、覚醒刺激と、休憩誘導と、を対応付けて記憶している。図5とは、覚醒刺激を付与するタイミングが異なる。図5に示される例では、運転者の顔のトラッキング結果である3次元顔モデルで所定の眠気レベルが検出されたタイミングであるのに対して、図6に示される例では、操作ボタン203が押下されたタイミングという違いがある。換言すれば、所定の操作ボタン203が押下されたタイミングを、眠気レベル3の出現時として、覚醒刺激を付与する。また、支援レベル3になった場合には、操作ボタン203の押下にかかわらず、規定時間間隔で付与し、支援レベル4になった場合には、常に覚醒刺激を付与する。
 判定部406は、眠気レベルが所定の閾値以上となったか否かを判定する。所定の閾値は、支援レベル(換言すれば効果予測時間)に応じて異ならせる。例えば、3次元顔モデルから眠気レベルを検出する場合、判定部406は、支援レベル1~2においては、眠気レベル3を閾値として用い、支援レベル3においては、眠気レベル2を閾値として用いる。
 つまり、本実施形態では、支援レベル1~2においては、運転者はまだ覚醒している状態のため、眠気レベル3を検出すれば良く、支援レベル3においては、運転者は覚醒するのが難しくなりつつあるため、より早い段階、換言すれば眠気レベル2を検出する。そして、閾値となる眠気レベルが検出された時に、覚醒状態を維持させるような制御を行う。
 例えば、操作情報から眠気レベルを検出する場合、判定部406は、支援レベルにかかわらず、眠気レベル3を閾値として用いる。つまり、操作ボタン203が押下されたタイミングを、眠気レベルが眠気レベル3以上になったものとして判定する。
 算出部407は、判定部406が前回所定の閾値以上の眠気レベルを検出してから、今回所定の閾値以上の眠気レベルを検出するまでの時間間隔に基づいて、効果消失予測時間を算出する。式(1)は、効果消失予測時間Tmaxを算出するための式とする。
 Tmax=α1×時間間隔+β1…(1)
 パラメータα1及びβ1は、SSD14fに記憶されたパラメータであって、実施態様に応じて定められる。さらに、パラメータα1及びβ1は、今までの運転者の計測結果に応じて調整されても良い。つまり、ECU14が、今までの運転者の眠気レベルの遷移を計測し、SSD14に保存する。そして、ECU14は、計測された眠気レベルの遷移に合うように、パラメータα1及びβ1を調整する。これにより、今回検出された眠気レベルに応じた効果消失予測時間Tmaxの算出精度を向上させることができる。
 また、本実施形態は、上述した式(1)で効果消失予測時間Tmaxを算出する手法に制限するものではなく、他の式を用いて効果消失予測時間Tmaxを算出してもよい。変形例としては、下記の式(2)を用いて効果消失予測時間Tmaxを算出する手法が考えられる。
 Tmax=α2×時間間隔+α3×今回検出された眠気レベル+β2…(2)
 パラメータα2、α3及びβ2は、SSD14fに記憶されたパラメータであって、実施態様に応じて定められる。また、パラメータα2、α3及びβ2も、運転者の計測結果に応じて調整されても良い。
 制御部408は、刺激部411と、案内場所特定部412と、出力制御部413と、を備え、算出部407で算出された効果消失予測時間に基づいて、支援レベルを設定する。そして、刺激部411、案内場所特定部412、及び出力制御部413は、設定された支援レベルに応じた制御を行う。換言すれば、制御部408の各構成は、効果消失予測時間が短くなるに従って、運転者に対して行う制御を異ならせる。
 ところで、従来は、眠気レベルが所定の閾値以上となった場合に覚醒刺激を付与していた。図7は、従来の覚醒刺激を付与していたタイミングを例示した図である。図7に示される例では、眠気レベル3が検出された場合に、覚醒刺激を付与している。図7に示される例では、眠気レベル3が検出される時間間隔が短くなっていき、眠気レベル4が検出されるまでを示している。眠気レベル4は、覚醒刺激を付与しても、運転手が覚醒するのが難しくなる、換言すれば運転手が運転するのが難しくなる程度の眠気を示している。図7で示される例では、最初に眠気レベル3が検出されてから眠気レベル4が検出されるまでの、効果消失時間が19.5minとなる。
 これに対して、本実施形態の制御部408は、算出された効果消失予測時間に応じて支援レベルを設定し、当該支援レベルに応じて制御を行うことで、効果消失時間が長くなるように制御を行う。
 刺激部411は、効果消失予測時間に応じて設定された支援レベルと対応付けられたタイミングで、当該支援レベルと対応付けられた強度による覚醒刺激を、運転者に付与する。本実施形態の刺激部411は、覚醒刺激出力装置310a及びマッサージ装置310bを制御することで、運転者に対して覚醒刺激を与えることができる。
 案内場所特定部412は、当該支援レベルと対応付けられた推奨休憩地と、GPS16が取得した車両1の現在位置と、に基づいて、車両1を案内するための休憩場所の候補を特定する。
 例えば支援レベル1の場合、案内場所特定部412は、効果消失予測時間Tmax×A%(例えば50%)×車両1の平均速度で、車両1が移動可能な距離を算出する。そして、案内場所特定部412は、現在の車両1が現在進んでいる経路で、当該車両1の現在位置から移動可能な距離内に存在する休憩可能な場所を、休憩場所の候補として特定する。
 例えば支援レベル2の場合、案内場所特定部412は、効果消失予測時間Tmax×B%(例えば20~30%)×車両1の平均速度で、車両1が移動可能な距離を算出する。その後は、支援レベル1と同様とする。
 図8は、本実施形態の案内場所特定部412が特定した休憩場所の候補を例示した図である。
 図8に示されるように、案内場所特定部412は、支援レベル1の場合、効果消失予測時間Tmax×A%(例えば50%)×車両1の平均速度で算出された移動可能な距離801に存在する第1SA、第1PA、第2SAを休憩場所の候補として特定する。一方、案内場所特定部412は、支援レベル2の場合、効果消失予測時間Tmax×B%(例えば20~30%)×車両1の平均速度で算出された移動可能な距離802に存在する第1SAを休憩場所の候補として特定する。
 出力制御部413は、効果消失予測時間に応じて設定された支援レベルと対応付けられたメッセージを、音声出力装置9から出力する。
 さらに、出力制御部413は、案内場所特定部412で特定された休憩場所の候補を、表示装置8に出力する。
 メッセージの出力は、どのようなタイミングでも良く、覚醒刺激を付与するタイミングでも良い。他の例としては、一定期間ごとに出力しても良いし、支援レベルに応じて出力する頻度を異ならせても良い。また、休憩場所の候補は、表示装置8に表示し続けても良いし、地図等と交互に表示しても良い。休憩場所の候補の表示手法としては、休憩場所の候補と休憩場所までの距離を文字で表示しても良いし、地図上に休憩場所を表示しても良い。
 図9は、本実施形態のECU14による覚醒刺激を付与するタイミングと支援レベルを例示した図である。図9に示される例は、3次元顔モデルから眠気レベルを検出する例とする。そして、図5で示されているように、支援レベル1~2においては、眠気レベル3が検出されたタイミングで覚醒刺激を付与し、支援レベル3においては、眠気レベル2が検出されたタイミングで覚醒刺激を付与する。
 そして、制御部408は、効果消失予測時間Tmaxが閾値T1以上で、支援レベル1の場合に、眠気レベル3が検出されたタイミングで、刺激部411が、運転者に対して、覚醒刺激を弱で付与すると共に、出力制御部413が、「早めの休憩でリフレッシュしましょう。」と出力制御する。さらに、効果消失予測時間Tmaxの50%の時間内にたどり着ける場所を、休憩場所の候補として案内する。
 そして、制御部408は、支援レベル1~2においては、眠気レベル3が検出された時間間隔に基づいて、支援レベルを変更するか否かを判定する。図9に示される例では、制御部408は、時間間隔901に基づいて算出された効果消失予測時間Tmaxが、閾値T1(図5参照)より小さくなった時に、支援レベル2に切り替える。
 制御部408は、支援レベル2において、眠気レベル3が検出されたタイミングで、刺激部411が、運転者に対して、覚醒刺激を強で付与すると共に、出力制御部413が、「覚醒支援効果が得られ難くなっています。休憩しましょう。」と出力制御する。さらに、出力制御部413が、効果消失予測時間Tmaxの20~30%の時間内にたどり着ける場所を、休憩場所の候補として案内する。
 また、制御部408は、時間間隔902に基づいて算出された効果消失予測時間Tmaxが、閾値T2(図5参照)より小さくなった時に、支援レベル3に切り替える。
 制御部408は、支援レベル3において、眠気レベル2が検出されたタイミングで、刺激部411が、運転者に対して、覚醒刺激を強で付与すると共に、出力制御部413が、「覚醒支援効果が期待できません。すぐに休憩して下さい。」と出力制御する。さらに、出力制御部413が、最も近い休憩場所を案内する。また、覚醒支援効果が得られる期間を明示しても良い。
 さらに、制御部408は、支援レベル3の時に、眠気レベル2が検出された後、眠気レベル3が検出されるまでの時間間隔903に基づいて算出された効果消失予測時間Tmaxが、閾値T3(図5参照)より小さくなった時に、支援レベル4に切り替える。
 制御部408は、支援レベル4において、刺激部411が、常に覚醒刺激を強で付与し続けると共に、出力制御部413が、「危険な状態です。すぐに停車して下さい。」と出力制御する。必要に応じて、制御部408が、車両1の自動減速、停車制御を行っても良い。
 図9で示される例では、最初に眠気レベル3が検出されてから眠気レベル4が検出されるまでの、効果消失時間が47.6minとなる。本実施形態では、支援レベル、換言すれば効果消失予測時間に応じて、刺激付与の強度やタイミングを異ならせることで、従来と比べて覚醒刺激の効果がなくなるまでの時間を延ばすことができる。
 本実施形態では、眠気レベルが所定の閾値以上の場合に覚醒刺激を付与し、当該タイミングで、効果消失予測時間を算出した。そして、効果消失予測時間に応じて支援レベルを設定する。そして支援レベルに応じて、覚醒刺激を付与するタイミング、及び刺激強度が定められると共に、休憩場所を適切なタイミングで表示できる。
 次に、本実施形態のECU14における居眠り運転防止処理について説明する。図10は、本実施形態のECU14における上述した処理の手順を示すフローチャートである。
 図10に示されるように、制御部408は、支援レベルの初期設定を行う(S1001)。本実施形態では、初期設定として、支援レベル1を設定する。
 次に、入力部403は、撮像装置201で撮像された画像データや、操作ボタン203を押下されたか否かを示した操作情報を入力する(S1002)。
 次に、照合部404は、入力された画像データから、運転者の顔を照合できたか否かを判定する(S1003)。
 運転者の顔を照合できたと判定した場合(S1003:Yes)、取得部405は、画像データから特定された運転者の3次元顔モデルから、運転者の眠気レベルを取得する(S1004)。
 一方、運転者の顔を照合できなかったと判定した場合(S1003:No)、取得部405は、操作情報から、運転者の眠気レベルを取得する(S1005)。本実施形態では、操作ボタン203が押下されたタイミングで眠気レベル3が検出されたものとみなす。
 判定部406は、取得された眠気レベルが、支援レベルに対応する所定の閾値以上となったか否かを判定する(S1006)。なお、本実施形態では、支援レベル1~2の場合には、眠気レベル3が閾値となる。また、支援レベル3の場合には、3次元顔モデルから眠気レベルを取得したか否かに応じて、閾値が異なる。3次元顔モデルから眠気レベルを取得した場合には、眠気レベル2が閾値となり、操作情報から眠気レベルを取得した場合には、眠気レベル3が閾値となる。判定部406は、支援レベルに対応する所定の閾値以上ではないと判定された場合(S1006:No)、S1003から再び処理を行う。
 一方、判定部406は、支援レベルに対応する所定の閾値以上であると判定した場合(S1006:Yes)、刺激部411は、支援レベルに対応する覚醒刺激を、運転者に付与する(S1007)。但し、刺激部411は、支援レベル3であって、操作情報に基づいて眠気レベルを検出している場合には、眠気レベルの検出によらず、規定時間間隔毎に覚醒刺激を付与する。
 そして、算出部407は、前回閾値以上の眠気レベルが検出されてから、今回閾値以上の眠気レベルが検出されるまでの時間間隔が存在するか否かを判定する(S1008)。時間間隔が存在しない、換言すれば閾値以上の眠気レベルが検出されたのが今回初めての場合(S1008:No)、S1003から再び処理を行う。なお、本実施形態では、支援レベル1~2においては、閾値以上の眠気レベルが検出されたタイミングで、覚醒刺激を付与している。このため、閾値以上の眠気レベルが検出される時間間隔は、覚醒刺激を付与する時間間隔とも称することができる。
 一方、算出部407が、時間間隔が存在すると判定した場合(S1008:Yes)、時間間隔に基づいて効果消失予測時間を算出する(S1009)。
 そして、制御部408が、算出された効果消失予測時間に基づいて、支援レベルを設定する(S1010)。
 そして、制御部408が、次に覚醒刺激を付与するために、支援レベルと対応付けられた閾値(覚醒刺激を与えるタイミング)と、強度とを設定する(S1011)。
 さらに、案内場所特定部412は、効果消失予測時間に基づいて車両1が移動可能な距離を算出し、当該距離内に存在する休憩場所の候補を特定する(S1012)。
 そして、出力制御部413が、特定された休憩場所の候補を表示装置8に出力すると共に、支援レベルに対応するメッセージを出力する(S1013)。
 その後、制御部408は、支援レベルが3以下であるか否かを判定する(S1014)。支援レベルが3以下であると判定された場合(S1014:Yes)、S1003から再び処理を行う。
 一方、制御部408は、支援レベルが3より大きい(支援レベルが4である)と判定された場合(S1014:No)、刺激部411が常に強刺激を付与すると共に、出力制御部413が休憩の警告メッセージの出力し、必要に応じて制御部408が車両1の停止制御を行う(S1015)。
 以上説明したとおり、上述した実施形態によれば、効果消失予測時間を算出し、当該効果消失予測時間の違いに応じて、実行する処理を異ならせた。例えば、効果消失予測時間に応じて、休憩誘導内容に強弱を付けることで運転者の時隔値休憩の選択必要性の感覚的ギャップを低減することができる。出力制御部413により出力されるメッセージや休憩場所を効果消失予測時間に応じて変更することで、休憩の必要性の説得力を向上させることができる。これにより、運転者が休憩を選択する可能性が向上する。
 従来、刺激を付与した場合に、刺激により眠気が解消するため、運転者が休憩を選択しなくなる可能性もあった。本実施形態では、効果消失予測時間に応じて、提示する休憩場所の候補を変更することで、運転者の感覚に合った休憩場所を提示できる。これにより休憩を選択する可能性を上昇させることができる。
 本実施形態では、効果消失予測時間を算出して、当該効果消失予測時間に応じて実行する処理を異ならせることで、運転者に対する処理(例えば覚醒刺激)の効果が消失するまでの時間の延長につながる適切な支援を実現できる。
 つまり、運転者の眠気の度合いに応じて適切な刺激強度、及び刺激付与するタイミングを調整できるため、眠気を解消する効果を高めると共に、刺激付与の煩わしさを低減できる。
 本発明の実施形態を説明したが、この実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態やその変形は、発明の範囲や要旨に含まれるとともに、請求の範囲に記載された発明とその均等の範囲に含まれる。

Claims (5)

  1.  入力された運転者に関する情報に基づいて、車両を運転している運転者の眠気の度合いを取得する取得部と、
     前記取得部が取得した前記眠気の度合いが所定の閾値以上となった時の時間間隔に基づいて、前記運転者に刺激を与えても眠気が解消しなくなる予測時間を示した効果消失予測時間を算出する算出部と、
     前記算出部が算出した前記効果消失予測時間が短くなるに従って、前記運転者に対して行う制御を異ならせる制御部と、
     を備える運転支援装置。
  2.  前記制御部は、前記算出部が算出した前記効果消失予測時間内で前記車両が走行可能な範囲内で、前記車両が停止可能な休憩場所の候補を出力する、
     請求項1に記載の運転支援装置。
  3.  前記取得部は、撮像装置で撮像された前記運転者の撮像画像から算出された前記眠気の度合いが前記所定の閾値より大きくなった場合の、前記眠気の度合いを取得する、
     請求項1に記載の運転支援装置。
  4.  前記取得部は、前記車両に設けられた、所定の操作部が操作されたことを示した操作情報を取得し、
     前記算出部は、前記操作情報で前記操作部が操作された時間間隔に基づいて、前記運転者に刺激を与えても眠気が解消しなくなる予測時間を示した効果消失予測時間を算出する、
     請求項1又は2に記載の運転支援装置。
  5.  前記算出部が算出した前記効果消失予測時間に応じて、前記所定の閾値を異ならせる、
     請求項1乃至4のいずれか一つに記載の運転支援装置。
     
PCT/JP2017/010269 2016-05-20 2017-03-14 運転支援装置 WO2017199563A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/302,307 US10748405B2 (en) 2016-05-20 2017-03-14 Driving assistance device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-101146 2016-05-20
JP2016101146A JP6701951B2 (ja) 2016-05-20 2016-05-20 運転支援装置

Publications (1)

Publication Number Publication Date
WO2017199563A1 true WO2017199563A1 (ja) 2017-11-23

Family

ID=60325151

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/010269 WO2017199563A1 (ja) 2016-05-20 2017-03-14 運転支援装置

Country Status (3)

Country Link
US (1) US10748405B2 (ja)
JP (1) JP6701951B2 (ja)
WO (1) WO2017199563A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108944670A (zh) * 2018-07-11 2018-12-07 钧捷智能(深圳)有限公司 一种汽车用自适应疲劳驾驶系统

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7243101B2 (ja) * 2018-09-25 2023-03-22 トヨタ自動車株式会社 サーバ、車両および充電器案内方法
WO2021166706A1 (ja) * 2020-02-21 2021-08-26 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、プログラム
JP2022024853A (ja) * 2020-07-28 2022-02-09 トヨタ自動車株式会社 対話装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0991569A (ja) * 1995-09-25 1997-04-04 Mitsubishi Electric Corp 覚醒低下警報装置
JP2014075059A (ja) * 2012-10-04 2014-04-24 Denso Corp 運転支援装置、および運転支援方法
WO2014141454A1 (ja) * 2013-03-15 2014-09-18 株式会社日立製作所 眠気度判定装置
JP2015095141A (ja) * 2013-11-13 2015-05-18 株式会社デンソー 車両状況通知システム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6661345B1 (en) * 1999-10-22 2003-12-09 The Johns Hopkins University Alertness monitoring system
JP2005173929A (ja) * 2003-12-10 2005-06-30 Denso Corp 覚醒度判定装置
JP4400624B2 (ja) * 2007-01-24 2010-01-20 トヨタ自動車株式会社 居眠り防止装置及び方法
JP4375420B2 (ja) * 2007-03-26 2009-12-02 株式会社デンソー 眠気警報装置、及びプログラム
JP5228970B2 (ja) 2009-02-11 2013-07-03 株式会社デンソー 居眠り防止装置
EP2557549B1 (en) * 2010-04-05 2022-10-12 Toyota Jidosha Kabushiki Kaisha Biological body state assessment device
KR20130050113A (ko) * 2011-11-07 2013-05-15 현대자동차주식회사 위험단계별 경고기능을 갖는 차량 운행보조 시스템 및 그 방법
JP2014013496A (ja) 2012-07-04 2014-01-23 Denso Corp 運転支援装置及びプログラム
US8952819B2 (en) * 2013-01-31 2015-02-10 Lytx, Inc. Direct observation event triggering of drowsiness
US9135803B1 (en) * 2014-04-17 2015-09-15 State Farm Mutual Automobile Insurance Company Advanced vehicle operator intelligence system
JP6191633B2 (ja) * 2015-02-20 2017-09-06 トヨタ自動車株式会社 運転支援装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0991569A (ja) * 1995-09-25 1997-04-04 Mitsubishi Electric Corp 覚醒低下警報装置
JP2014075059A (ja) * 2012-10-04 2014-04-24 Denso Corp 運転支援装置、および運転支援方法
WO2014141454A1 (ja) * 2013-03-15 2014-09-18 株式会社日立製作所 眠気度判定装置
JP2015095141A (ja) * 2013-11-13 2015-05-18 株式会社デンソー 車両状況通知システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108944670A (zh) * 2018-07-11 2018-12-07 钧捷智能(深圳)有限公司 一种汽车用自适应疲劳驾驶系统

Also Published As

Publication number Publication date
JP6701951B2 (ja) 2020-05-27
JP2017207997A (ja) 2017-11-24
US10748405B2 (en) 2020-08-18
US20190295400A1 (en) 2019-09-26

Similar Documents

Publication Publication Date Title
US11377094B2 (en) System and method for responding to driver behavior
US10875536B2 (en) Coordinated vehicle response system and method for driver behavior
WO2017199563A1 (ja) 運転支援装置
WO2014149657A1 (en) Coordinated vehicle response system and method for driver behavior
AU2012218054A1 (en) System and method for responding to driver behavior
JP2008070965A (ja) 車両制御装置および車両制御方法
JP2008068665A (ja) 車両制御装置および車両制御方法
US11430231B2 (en) Emotion estimation device and emotion estimation method
JP2005253590A (ja) 運転支援装置
JP2016115119A (ja) 開閉眼判定装置、及び開閉眼判定方法
US11383640B2 (en) Techniques for automatically reducing annoyance levels of drivers when using driver monitoring systems
JP2019012501A (ja) 運転支援装置、運転支援方法、および運転支援プログラム
JP2018013812A (ja) ドライバ状態誘導装置、及びドライバ状態誘導プログラム
JP6589599B2 (ja) 休憩誘導装置
CN111469849A (zh) 车辆控制装置和车辆
JP2018160151A (ja) 運転支援装置

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17798998

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17798998

Country of ref document: EP

Kind code of ref document: A1