WO2020100584A1 - 情報処理装置、および情報処理方法、並びにプログラム - Google Patents

情報処理装置、および情報処理方法、並びにプログラム Download PDF

Info

Publication number
WO2020100584A1
WO2020100584A1 PCT/JP2019/042491 JP2019042491W WO2020100584A1 WO 2020100584 A1 WO2020100584 A1 WO 2020100584A1 JP 2019042491 W JP2019042491 W JP 2019042491W WO 2020100584 A1 WO2020100584 A1 WO 2020100584A1
Authority
WO
WIPO (PCT)
Prior art keywords
driver
vehicle
physical condition
unit
vital data
Prior art date
Application number
PCT/JP2019/042491
Other languages
English (en)
French (fr)
Inventor
正紘 田森
智弘 有門
竜也 小枝
康文 小川
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201980072371.1A priority Critical patent/CN113168772B/zh
Priority to JP2020555994A priority patent/JP7424305B2/ja
Priority to EP19885826.8A priority patent/EP3882884A4/en
Priority to US17/291,618 priority patent/US20210387640A1/en
Publication of WO2020100584A1 publication Critical patent/WO2020100584A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/007Emergency override
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6893Cars
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7282Event detection, e.g. detecting unique waveforms indicative of a medical condition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0025Planning or execution of driving tasks specially adapted for specific operations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0051Handover processes from occupants to vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0059Estimation of the risk associated with autonomous or manual driving, e.g. situation too complex, sensor failure or driver incapacity
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/20Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
    • G08G1/205Indicating the location of the monitored vehicles as destination, e.g. accidents, stolen, rental
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0827Inactivity or incapacity of driver due to sleepiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/043Identity of occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle

Definitions

  • the present disclosure relates to an information processing device, an information processing method, and a program, and more particularly, to an information processing device and a information processing device that detect a physical condition abnormality during driving of a driver and can realize safety-conscious processing.
  • a method and a program are particularly, to an information processing device and a information processing device that detect a physical condition abnormality during driving of a driver and can realize safety-conscious processing.
  • the present disclosure has been made in view of such circumstances, and particularly, to obtain vital data to enable appropriate driving control in consideration of safety when physical condition abnormality occurs. Is.
  • An information processing device is a vital data acquisition unit that acquires vital data of a driver of a vehicle, and based on the vital data, a determination result that the driver has an abnormal physical condition.
  • the information processing apparatus includes an abnormal situation processing unit that controls the vehicle to a safe state according to the automatic driving level.
  • the information processing method and the program according to one aspect of the present disclosure correspond to an information processing device.
  • vital data of a driver of a vehicle is acquired, and based on the vital data, when a determination result that the driver has an abnormal physical condition is acquired, an automatic driving level is set. Accordingly, the vehicle is controlled to a safe state.
  • the vehicle of the present disclosure detects the vital data of the driver, and considers the safety of the driver and passengers, surrounding vehicles, and passers-by, etc., based on whether or not the driver has an abnormal physical condition. Perform operation control.
  • the driver's vital data includes, for example, presence / absence of line-of-sight detection, heartbeat, pulse, body surface pulse wave, and body temperature.
  • the presence / absence of the line-of-sight detection can be obtained by imaging the range V near the face of the driver H with the camera Cam provided at the upper part of the steering wheel and at the position facing the driver H. Then, it is determined whether or not the pupil detected based on the position of the driver's pupil in the captured image is not open, and the line of sight continues in a predetermined direction for a predetermined time. To be done. However, if there is no change in the direction of the line of sight for a certain period of time, it is expected that the user may lose consciousness. It is determined by whether or not the user is gazing.
  • the camera Cam has not only a so-called image sensor but also a ToF (Time of Flight) sensor.
  • the headlight of an oncoming vehicle at night exposes the entire face to strong light, for example, the image of the entire face causes whiteout to form the face.
  • Each organ may not be recognized.
  • the camera Cam has a configuration in which an image sensor and a ToF sensor are provided, and that the image by the image sensor and the distance image by the ToF sensor can be used according to the situation. Further, by combining an image sensor and a ToF sensor, robustness may be improved or processing time may be shortened.
  • the driver's heartbeat, pulse, and body temperature may be directly detected by the wearable device B worn by the driver H in FIG.
  • the body surface pulse wave may be detected by the sensor C that is attached to the seat and is in contact with the back of the driver.
  • a microwave sensor may be used to measure the driver in a non-contact manner.
  • the microwave sensor is a sensor that uses the characteristic that the human body surface vibrates minutely due to the movement of the cardiopulmonary system.
  • the driver is irradiated with microwaves of 24.125 GHz, and the reflected microwaves are measured.
  • Heartbeat (pulse) is detected by utilizing the Doppler effect caused by minute vibrations on the human body surface.
  • body temperature may be detected by a temperature sensor.
  • vital data may be biometric information other than line-of-sight detection, heartbeat, pulse, body surface pulse wave, and body temperature, as long as it is data that can confirm the physical condition of the driver.
  • the vehicle of the present disclosure is premised to be driven by automatic driving, and driving control is performed according to the automatic driving level.
  • the automatic driving level classifies the level of automatic driving, and is classified into levels 0 to 5, for example.
  • Level 0 is an automatic driving level in which the driver performs all driving operations, and is not substantially automatic driving.
  • Level 1 is an automatic driving level in which one of a driving operation related to acceleration / deceleration and a steering operation is controlled.
  • Level 2 is an automatic driving level in which the driving operation related to acceleration / deceleration and the driving operation related to steering operation are controlled in cooperation among the driving operations.
  • Level 3 is an automatic driving level in which all driving operations are controlled, for example, at a specific place such as a highway. However, in Level 3, it is premised that the driver performs an emergency driving operation.
  • Level 4 is an automatic driving level at which all driving operations are controlled, including in an emergency, at a specific place such as a highway.
  • ⁇ Level 5 is an automatic driving level in which all driving operations are controlled in all situations, which is the so-called fully automatic driving level.
  • the technology for realizing the level 0 to 2 automatic driving level is generally called the driving support technology because the driver mainly performs the driving operation.
  • the technology for achieving Level 3 to Level 5 automatic driving is generally called automatic driving technology because it is a technology that does not require the driver to mainly perform driving operation in a specific place.
  • the operation control according to the present disclosure determines whether or not there is a physical condition abnormality based on the driver's vital data, and realizes safety-conscious operation control according to the automatic driving level.
  • the vehicle C1 when it is detected that the physical condition of the driver is abnormal based on vital data in a traveling state as shown by the vehicle C1 in FIG.
  • the value is 5
  • the vehicle is in a fully automatic operation, so that the vehicle C1 conveys the driver to the medical institution M as indicated by an arrow A.
  • the vehicle C1 reaches the confluence with the emergency vehicle CA. , Transport the driver. Then, the emergency vehicle CA (ambulance crew, doctor, etc.) treats the driver of the vehicle C1 as needed and transports it to the medical institution M.
  • the emergency vehicle CA ambulance crew, doctor, etc.
  • the vehicle C1 transports the driver to the medical institution M as in the case of the automatic driving level 5 when the automatic driving is possible and the driver does not need to be changed. ..
  • the automatic driving level is level 4, it is necessary to change the driver, but when there is no changing driver, for example, as shown in the left part of FIG. 3, the vehicle is traveling in the traveling lane L1.
  • Vehicle C2 is stopped at a safe place on the road shoulder L2, as indicated by a vehicle C2 'on the right side of FIG.
  • an emergency vehicle is arranged at this stop position, the emergency vehicle CA goes to the stop position, and after the emergency vehicle CA (for example, an ambulance member or a doctor) treats a driver who is in a physical condition, a medical institution is provided. Transport to M.
  • the automatic driving level is level 4
  • the environment is such that automatic driving cannot be performed, and the driver needs to be changed, and the change is possible
  • the changed driver drives the vehicle C2 ′. Then, the driver with the abnormal physical condition is transported to the confluence with the medical institution M and the emergency vehicle CA.
  • the changed driver drives the vehicle C12 ′ as in the case of the automatic driving level 4. Then, the driver having an abnormal physical condition is transported to a confluence with the medical institution M or the emergency vehicle CA.
  • the changed driver drives the vehicle and joins with the medical institution M or the emergency vehicle CA as in the case of the automatic driving level 3 or 4. Transport the driver to.
  • the driver's vital data is acquired to detect the presence or absence of physical condition abnormalities, and if physical condition abnormalities are detected, safety-conscious processing should be realized by operation control according to the automatic driving level. Is possible.
  • the transportation system 1 of FIG. 4 is composed of vehicles 11-1 to 11-n, a notification receiver terminal 12, a medical worker terminal 13, and a network 14.
  • the vehicles 11-1 to 11-n, the notification receiver terminal 12, and the medical care worker terminal 13 are configured to be able to communicate with each other via the network 14.
  • Vehicles 11-1 to 11-n are vehicles that are driven at various automatic driving levels 0 to 5. When it is not necessary to distinguish between the vehicles 11-1 to 11-n, the vehicles 11-1 to 11-n are simply referred to as the vehicle 11, and the other configurations are also referred to in the same manner.
  • the vehicle 11 When the driver gets on the vehicle 11, the vehicle 11 identifies the driver and determines whether or not the driver's line of sight is detected and vital data to determine whether or not the physical condition is abnormal. When the vehicle 11 determines that there is a physical condition abnormality based on the driver's vital data, the vehicle 11 receives the position information, the vital data, and the information identifying the driver as well as the information for reporting the physical condition abnormality of the driver. The person terminal 12 is notified.
  • the vital data includes all of the driver's line-of-sight detection, heartbeat, pulse, body surface pulse wave, and body temperature, but in the following, line-of-sight detection will be described as data independent of vital data. That is, hereinafter, the term “vital data” does not include the information on the gaze detection result, but indicates the heartbeat, the pulse, the body surface pulse wave, and the body temperature.
  • the information identifying the driver may be any information as long as it is information that can identify an individual driver. More specifically, the information identifying the driver may be biometric information such as the driver's face image, fingerprint, or retina pattern, or the driver's name or age may be registered based on the biometric information. When stored in association with the personal information, the personal information itself may be used.
  • the vehicle 11 is based on the position information, vital data, and information identifying the driver, and the medical institution information (including the position information) transmitted from the medical service provider terminal 13 via the notification receiver terminal 12. Alternatively, the position information of the confluence point with the emergency vehicle is acquired, and the process in consideration of safety according to the automatic driving level is realized.
  • the notification receiver terminal 12 is a terminal operated by a notification receiver that receives a notification of a physical condition abnormality of the driver, and receives the notification of the physical condition abnormality of the driver and is also transmitted together with the positional information and vital data. And obtain information identifying the driver.
  • the notification receiver is, for example, an operator or the like in the transportation system.
  • the notification receiver terminal 12 transmits the received position information, vital data, and information identifying the driver to the medical professional terminal 13.
  • the notification receiver terminal 12 is a position of a medical institution capable of performing necessary treatment for a driver with an abnormal physical condition, which is transmitted from the medical staff terminal 13 based on the position information, vital data and information identifying the driver. Information about whether or not an emergency vehicle is needed is acquired together with the information.
  • the report receiver terminal 12 When the medical caretaker terminal 13 requests an emergency vehicle to be arranged, the report receiver terminal 12 operates on the basis of the position information of the vehicle 11 driven by the driver with an abnormal physical condition and the position information of the specified medical institution. An appropriate confluence point of the vehicle 11 and the emergency vehicle in consideration of the route for transporting the person to the medical institution is specified. Then, the notification receiver terminal 12 transmits the information of the confluence point with the emergency vehicle to the vehicle 11 together with the information of the medical institution capable of performing the necessary treatment for the driver with the physical condition abnormality, and the emergency vehicle to the confluence point. Arrange for an express train.
  • the notification receiver terminal 12 transmits to the vehicle 11 the position information of the medical institution that can perform the necessary treatment for the driver with an abnormal physical condition when the medical worker terminal 13 does not request the arrangement of the emergency vehicle.
  • the driver needs to be changed in the vehicle 11, but when there is a request for an emergency vehicle from the vehicle 11, such as when there is no driver to change, the notification receiver terminal 12 causes the vehicle 11 to stop. Arrange an emergency vehicle to rush to the site.
  • the medical staff terminal 13 is a terminal operated by the medical staff, and acquires vital data and information identifying the driver transmitted from the notification receiver terminal 12, and based on the information identifying the driver. , Search for the chart of the driver who became ill.
  • the medical staff includes, for example, medical personnel such as doctors, dentists, pharmacists, and nurses. Based on vital data, medical record information, and the like, medical care required for a driver with an abnormal physical condition. The person who can judge the specific treatment.
  • the medical staff terminal 13 presents it to the medical staff together with vital data, and performs necessary treatment for the driver with physical condition abnormality, identification of a medical institution capable of the treatment, and Request medical personnel to judge whether or not an emergency vehicle is needed.
  • the medical staff determines the necessary treatment for the driver who is sick, identifies the corresponding treatment and the medical institution that can perform the treatment, and determines the necessity of the emergency vehicle. To do.
  • the medical staff operates the medical staff terminal 13 to cause the notification receiver terminal 12 to transmit the position information of the specified medical institution and the information about the necessity of the emergency vehicle.
  • the medical institution that holds the chart may be a hospital or the like where the driver with an abnormal physical condition is involved. If possible, even if it is a little far, it may be preferentially specified as the medical institution of the destination.
  • the medical worker terminal 13 provides the medical worker with necessary medical treatment, identification of a medical institution capable of performing the treatment, and an emergency vehicle based on vital data. Request the decision of whether or not.
  • the vehicle 11, the notification receiver terminal 12, and the medical care worker terminal 13 are configured to be able to talk with each other.
  • the medical staff when it is possible to make a call, the medical staff must comprehensively perform the necessary medical treatment based on the medical record information (when there is the driver's medical record information), vital data, and the contents of the call.
  • the medical institution By determining, the medical institution can be specified and the necessity of the emergency vehicle can be determined.
  • the medical staff terminal 13 may be provided with an agent function for proposing necessary treatment to a driver who is in an abnormal physical condition.
  • the agent function of the medical staff terminal 13 comprehensively provides the necessary medical care.
  • the necessity of the medical institution or the emergency vehicle may be proposed by determining the specific medical treatment and the medical institution that can perform the medical treatment.
  • FIG. 5 is a block diagram showing a configuration example of a schematic function of the vehicle control system 100 of the vehicle 11 to which the present technology can be applied.
  • vehicle 11 provided with the vehicle control system 100 from other vehicles, it is referred to as a vehicle or a vehicle.
  • the vehicle control system 100 includes an input unit 101, a data acquisition unit 102, a communication unit 103, an in-vehicle device 104, an output control unit 105, an output unit 106, a drive system control unit 107, a drive system system 108, a body system control unit 109, and a body.
  • the system 110, the storage unit 111, and the automatic operation control unit 112 are provided.
  • the communication network 121 is, for example, an in-vehicle communication network or a bus compliant with any standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), or FlexRay (registered trademark). Become. In addition, each part of the vehicle control system 100 may be directly connected without going through the communication network 121.
  • CAN Controller Area Network
  • LIN Local Interconnect Network
  • LAN Local Area Network
  • FlexRay registered trademark
  • the input unit 101 includes a device used by the passenger to input various data and instructions.
  • the input unit 101 includes an operation device such as a touch panel, a button, a microphone, a switch, and a lever, and an operation device that can be input by a method other than a manual operation such as voice or gesture.
  • the input unit 101 may be a remote control device that uses infrared rays or other radio waves, or an externally connected device such as a mobile device or a wearable device that corresponds to the operation of the vehicle control system 100.
  • the input unit 101 generates an input signal based on the data and instructions input by the passenger, and supplies the input signal to each unit of the vehicle control system 100.
  • the data acquisition unit 102 includes various sensors that acquire data used for processing of the vehicle control system 100, and supplies the acquired data to each unit of the vehicle control system 100.
  • the data acquisition unit 102 includes various sensors for detecting the state of the own vehicle and the like.
  • the data acquisition unit 102 includes a gyro sensor, an acceleration sensor, an inertial measurement unit (IMU), an accelerator pedal operation amount, a brake pedal operation amount, a steering wheel steering angle, and an engine speed. It is provided with a sensor or the like for detecting the number of rotations of the motor or the rotation speed of the wheels.
  • IMU inertial measurement unit
  • the data acquisition unit 102 includes various sensors for detecting information outside the vehicle.
  • the data acquisition unit 102 includes an imaging device such as a ToF (Time Of Flight) camera, a stereo camera, a monocular camera, an infrared camera, and other cameras.
  • the data acquisition unit 102 includes an environment sensor for detecting weather or weather, and an ambient information detection sensor for detecting an object around the vehicle.
  • the environment sensor includes, for example, a raindrop sensor, a fog sensor, a sunshine sensor, a snow sensor, and the like.
  • the ambient information detection sensor includes, for example, an ultrasonic sensor, a radar, a LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging), a sonar, and the like.
  • the data acquisition unit 102 includes various sensors for detecting the current position of the vehicle.
  • the data acquisition unit 102 includes a GNSS receiver that receives a GNSS signal from a GNSS (Global Navigation Satellite System) satellite, an RTK (Real Time Kinematic) -GPS (Global Positioning System), a network RTK, and the like.
  • the data acquisition unit 102 includes various sensors for detecting information inside the vehicle.
  • the data acquisition unit 102 includes an imaging device (ToF (Time Of Flight) camera, a stereo camera, a monocular camera, an infrared camera, and other cameras) that captures an image of the driver, a living body of the driver. It is provided with a biosensor for detecting information, a microphone for collecting voice in the vehicle interior, and the like.
  • the biometric sensor is provided on, for example, a seat surface or a steering wheel, and detects biometric information of an occupant sitting on a seat or a driver who holds the steering wheel.
  • the communication unit 103 communicates with the in-vehicle device 104 and various devices outside the vehicle, a server, a base station, etc., and transmits data supplied from each unit of the vehicle control system 100 or receives received data from the vehicle control system. It is supplied to each part of 100.
  • the communication protocol supported by the communication unit 103 is not particularly limited, and the communication unit 103 can support a plurality of types of communication protocols.
  • the communication unit 103 wirelessly communicates with the in-vehicle device 104 by a wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), WUSB (Wireless USB), or the like. Also, for example, the communication unit 103 uses a USB (Universal Serial Bus), HDMI (High-Definition Multimedia Interface), or MHL (Mobile High-definition) via a connection terminal (and a cable, if necessary) not shown. Link) or the like to perform wired communication with the in-vehicle device 104.
  • USB Universal Serial Bus
  • HDMI High-Definition Multimedia Interface
  • MHL Mobile High-definition
  • the communication unit 103 communicates with a device (for example, an application server or a control server) existing on an external network (for example, the Internet, a cloud network, or a network unique to a business operator) via a base station or an access point. Communicate.
  • a device for example, an application server or a control server
  • an external network for example, the Internet, a cloud network, or a network unique to a business operator
  • the communication unit 103 uses a P2P (PeerToPeer) technology to communicate with a terminal (for example, a pedestrian or a shop terminal, or an MTC (MachineType Communication) terminal) that exists near the vehicle.
  • the communication unit 103 may communicate between the vehicle and the vehicle, vehicle-to-infrastructure communication, vehicle-to-home communication, and vehicle-to-pedestrian communication.
  • the communication unit 103 includes a beacon receiving unit, receives radio waves or electromagnetic waves transmitted from a wireless station installed on the road, and obtains information such as the current position, traffic congestion, traffic regulation, and required time. To do. Further, the communication unit 103 is controlled by an E-call 204 (FIG. 8) described later to interlock with the operating state of a sensor that detects a collision of an airbag or the like, with the occurrence position (GPS coordinate) of the accident occurring, It is on an external network and is sent to a center (for example, the report receiver terminal 12) that contacts police or hospitals.
  • a center for example, the report receiver terminal 12
  • the in-vehicle device 104 includes, for example, a mobile device or a wearable device that the passenger has, an information device that is carried in or attached to the vehicle, a navigation device that searches for a route to an arbitrary destination, and the like.
  • the output control unit 105 controls the output of various information to the passengers of the own vehicle or the outside of the vehicle.
  • the output control unit 105 generates an output signal including at least one of visual information (for example, image data) and auditory information (for example, audio data), and supplies the output signal to the output unit 106 to output the output signal.
  • the output of visual information and auditory information from 106 is controlled.
  • the output control unit 105 synthesizes image data captured by different imaging devices of the data acquisition unit 102 to generate a bird's-eye view image or a panoramic image, and outputs an output signal including the generated image. It is supplied to the output unit 106.
  • the output control unit 105 generates voice data including a warning sound or a warning message for a danger such as collision, contact, or entry into a dangerous zone, and outputs an output signal including the generated voice data to the output unit 106.
  • Supply for example, the output control unit 105 generates voice data including a warning sound or a warning message for a danger such as collision,
  • the output unit 106 includes a device capable of outputting visual information or auditory information to a passenger of the vehicle or outside the vehicle.
  • the output unit 106 includes a display device (including the information display unit 252 (FIG. 8)), an instrument panel, an audio speaker, headphones, a wearable device such as a glasses-type display worn by a passenger, a projector, a lamp, and the like. ..
  • the display device included in the output unit 106 is, for example, in addition to a device having a normal display, a head-up display (HUD), a transmissive display, a device having an AR (Augmented Reality) display function, or the like in the driver's visual field. It may be a device that displays visual information.
  • HUD head-up display
  • AR Augmented Reality
  • the output unit 106 has a configuration having a feedback function for promoting awakening when the driver's line of sight cannot be detected and a side-looking drive or a drowsy drive is predicted.
  • the configuration having a feedback function includes, for example, a device (information display unit 252 (FIG. 8) and the like) that displays visual information in the driver's visual field, a speaker 253 (FIG. 8) that outputs sound, a microphone and a speaker, and the like.
  • a mechanism that wakes you up by a conversation agent using a dialogue agent for example, asks you for your name and date of birth, makes you respond, and whether the response is correct or not
  • a mechanism that vibrates the seat belt A mechanism for vibrating the steering wheel, a mechanism for vibrating the seat, and a stimulating odor generating unit 251 (FIG. 8) for generating a stimulating odor.
  • the drive system control unit 107 controls the drive system system 108 by generating various control signals and supplying them to the drive system system 108. Further, the drive system control unit 107 supplies a control signal to each unit other than the drive system system 108 as necessary to notify the control state of the drive system system 108 and the like.
  • the drive system 108 includes various devices related to the drive system of the vehicle.
  • the drive system system 108 includes a drive force generation device for generating a drive force of an internal combustion engine or a drive motor, a drive force transmission mechanism for transmitting the drive force to wheels, a steering mechanism for adjusting a steering angle, It is equipped with a braking device that generates a braking force, an ABS (Antilock Brake System), an ESC (Electronic Stability Control), an electric power steering device, and the like.
  • the body system control unit 109 controls the body system 110 by generating various control signals and supplying them to the body system 110. Further, the body system control unit 109 supplies a control signal to each unit other than the body system system 110 as necessary to notify the control state of the body system system 110 and the like.
  • the body system 110 includes various body-related devices mounted on the vehicle body.
  • the body system 110 includes a keyless entry system, a smart key system, a power window device, a power seat, a steering wheel, an air conditioner, and various lamps (for example, headlights, backlights, brake lights, blinkers, fog lights, etc.). And so on.
  • the storage unit 111 includes, for example, a magnetic storage device such as a ROM (Read Only Memory), a RAM (Random Access Memory), and an HDD (Hard Disc Drive), a semiconductor storage device, an optical storage device, and a magneto-optical storage device. ..
  • the storage unit 111 stores various programs and data used by each unit of the vehicle control system 100.
  • the storage unit 111 stores map data such as a three-dimensional high-precision map such as a dynamic map, a global map having a lower accuracy than the high-precision map and covering a wide area, and a local map including information around the vehicle.
  • Map data such as a three-dimensional high-precision map such as a dynamic map, a global map having a lower accuracy than the high-precision map and covering a wide area, and a local map including information around the vehicle.
  • the automatic driving control unit 112 performs control related to autonomous driving such as autonomous driving or driving support. Specifically, for example, the automatic driving control unit 112 may perform collision avoidance or impact mitigation of the own vehicle, follow-up traveling based on inter-vehicle distance, vehicle speed maintenance traveling, collision warning of the own vehicle, lane departure warning of the own vehicle, or the like. Coordinated control for the purpose of realizing the functions of ADAS (Advanced Driver Assistance System) including Further, for example, the automatic driving control unit 112 performs cooperative control for the purpose of autonomous driving that autonomously travels without depending on the operation of the driver.
  • the automatic driving control unit 112 includes a detection unit 131, a self-position estimation unit 132, a situation analysis unit 133, a planning unit 134, and an operation control unit 135.
  • the detection unit 131 detects various kinds of information necessary for controlling automatic driving.
  • the detection unit 131 includes a vehicle exterior information detection unit 141, a vehicle interior information detection unit 142, and a vehicle state detection unit 143.
  • the outside-vehicle information detection unit 141 performs detection processing of information outside the own vehicle based on data or signals from each unit of the vehicle control system 100.
  • the vehicle exterior information detection unit 141 performs detection processing, recognition processing, and tracking processing of an object around the vehicle, and detection processing of a distance to the object.
  • Objects to be detected include vehicles, people, obstacles, structures, roads, traffic lights, traffic signs, road markings, and the like.
  • the vehicle exterior information detection unit 141 performs detection processing of the environment around the vehicle.
  • the surrounding environment to be detected includes, for example, weather, temperature, humidity, brightness, and road surface condition.
  • the outside-vehicle information detection unit 141 uses the data indicating the result of the detection process as the self-position estimation unit 132, the map analysis unit 151 of the situation analysis unit 133, the traffic rule recognition unit 152, the situation recognition unit 153, and the operation control unit 135. It is supplied to the emergency avoidance unit 171 or the like.
  • the in-vehicle information detection unit 142 performs in-vehicle information detection processing based on data or signals from each unit of the vehicle control system 100.
  • the in-vehicle information detection unit 142 performs driver authentication processing and recognition processing, driver state detection processing, passenger detection processing, and in-vehicle environment detection processing.
  • the driver's state to be detected includes, for example, physical condition, arousal level, concentration level, fatigue level, line-of-sight direction, and the like.
  • the environment inside the vehicle to be detected includes, for example, temperature, humidity, brightness, odor, and the like.
  • the in-vehicle information detection unit 142 supplies the data indicating the result of the detection processing to the situation recognition unit 153 of the situation analysis unit 133, the emergency situation avoidance unit 171 of the operation control unit 135, and the like.
  • the vehicle state detection unit 143 performs detection processing of the state of the vehicle based on data or signals from each unit of the vehicle control system 100.
  • the state of the vehicle to be detected includes, for example, speed, acceleration, steering angle, presence / absence of abnormality, content of driving operation, position and inclination of power seat, state of door lock, and other in-vehicle devices. State etc. are included.
  • the vehicle state detection unit 143 supplies the data indicating the result of the detection process to the situation recognition unit 153 of the situation analysis unit 133, the emergency situation avoidance unit 171 of the operation control unit 135, and the like.
  • the self-position estimating unit 132 estimates the position and attitude of the own vehicle based on data or signals from each unit of the vehicle control system 100 such as the vehicle exterior information detecting unit 141 and the situation recognizing unit 153 of the situation analyzing unit 133. Perform processing.
  • the self-position estimation unit 132 also generates a local map (hereinafter, referred to as a self-position estimation map) used for estimating the self-position, if necessary.
  • the self-position estimation map is, for example, a high-precision map using a technology such as SLAM (Simultaneous Localization and Mapping).
  • the self-position estimation unit 132 supplies data indicating the result of the estimation process to the map analysis unit 151, the traffic rule recognition unit 152, the situation recognition unit 153, and the like of the situation analysis unit 133. Further, the self-position estimation unit 132 stores the self-position estimation map in the storage unit 111.
  • the situation analysis unit 133 analyzes the situation of the vehicle and surroundings.
  • the situation analysis unit 133 includes a map analysis unit 151, a traffic rule recognition unit 152, a situation recognition unit 153, and a situation prediction unit 154.
  • the map analysis unit 151 uses data or signals from each unit of the vehicle control system 100, such as the self-position estimation unit 132 and the vehicle exterior information detection unit 141, as necessary, and stores various maps stored in the storage unit 111. Performs analysis processing and builds a map containing information necessary for automatic driving processing.
  • the map analysis unit 151 uses the constructed map as a traffic rule recognition unit 152, a situation recognition unit 153, a situation prediction unit 154, a route planning unit 161, a behavior planning unit 162, and a motion planning unit 163 of the planning unit 134. Supply to.
  • the traffic rule recognition unit 152 determines the traffic rules around the vehicle based on data or signals from the vehicle position control unit 100 such as the self-position estimation unit 132, the vehicle exterior information detection unit 141, and the map analysis unit 151. Perform recognition processing. By this recognition processing, for example, the position and state of the signal around the own vehicle, the content of traffic regulation around the own vehicle, the lane in which the vehicle can travel, and the like are recognized.
  • the traffic rule recognition unit 152 supplies data indicating the result of the recognition process to the situation prediction unit 154 and the like.
  • the situation recognition unit 153 converts data or signals from the vehicle position control unit 100 such as the self-position estimation unit 132, the vehicle exterior information detection unit 141, the vehicle interior information detection unit 142, the vehicle state detection unit 143, and the map analysis unit 151. Based on this, recognition processing of the situation regarding the own vehicle is performed. For example, the situation recognition unit 153 performs recognition processing of the situation of the own vehicle, the situation around the own vehicle, the situation of the driver of the own vehicle, and the like. The situation recognition unit 153 also generates a local map (hereinafter, referred to as a situation recognition map) used for recognizing the situation around the own vehicle, as necessary.
  • the situation recognition map is, for example, an occupancy grid map (Occupancy Grid Map).
  • the situation of the subject vehicle to be recognized includes, for example, the position, posture, movement (for example, speed, acceleration, moving direction, etc.) of the subject vehicle, and the presence / absence and content of an abnormality.
  • the situation around the subject vehicle to be recognized is, for example, the type and position of a stationary object in the surroundings, the type and position of a moving object in the surroundings, position and movement (for example, speed, acceleration, moving direction, etc.), and surrounding roads.
  • the configuration and the condition of the road surface, and the surrounding weather, temperature, humidity, and brightness are included.
  • the state of the driver to be recognized includes, for example, physical condition, arousal level, concentration level, fatigue level, movement of the line of sight (line of sight), driving operation, and the like.
  • the situation recognition unit 153 supplies data indicating the result of the recognition process (including a situation recognition map, if necessary) to the self-position estimation unit 132, the situation prediction unit 154, and the like.
  • the situation recognition unit 153 also stores the situation recognition map in the storage unit 111.
  • the situation predicting unit 154 performs a process of predicting the situation regarding the own vehicle based on data or signals from each unit of the vehicle control system 100 such as the map analyzing unit 151, the traffic rule recognizing unit 152, and the situation recognizing unit 153.
  • the situation prediction unit 154 performs a prediction process of the situation of the own vehicle, the situation around the own vehicle, the situation of the driver, and the like.
  • the situation of the subject vehicle to be predicted includes, for example, the behavior of the subject vehicle, the occurrence of an abnormality, and the mileage that can be traveled.
  • the situation around the subject vehicle to be predicted includes, for example, the behavior of a moving object around the subject vehicle, a change in the signal state, and a change in the environment such as the weather.
  • the driver's situation to be predicted includes, for example, the driver's behavior and physical condition.
  • the situation prediction unit 154 together with the data from the traffic rule recognition unit 152 and the situation recognition unit 153, data indicating the result of the prediction process, the route planning unit 161, the action planning unit 162, and the operation planning unit 163 of the planning unit 134. Etc.
  • the route planning unit 161 plans a route to a destination based on data or signals from each part of the vehicle control system 100 such as the map analysis unit 151 and the situation prediction unit 154. For example, the route planning unit 161 sets a route from the current position to the designated destination based on the global map. Further, for example, the route planning unit 161 appropriately changes the route based on traffic jams, accidents, traffic restrictions, construction conditions, and the physical condition of the driver. The route planning unit 161 supplies data indicating the planned route to the action planning unit 162 and the like.
  • the action planning unit 162 safely operates the route planned by the route planning unit 161 within the planned time on the basis of data or signals from each unit of the vehicle control system 100 such as the map analysis unit 151 and the situation prediction unit 154. Plan your vehicle's behavior to drive. For example, the action planning unit 162 makes a plan such as start, stop, traveling direction (for example, forward, backward, left turn, right turn, direction change, etc.), lane, traveling speed, and overtaking. The action planning unit 162 supplies data indicating the planned action of the own vehicle to the action planning unit 163 and the like.
  • the operation planning unit 163 operates the vehicle to realize the action planned by the action planning unit 162, based on the data or the signals from each unit of the vehicle control system 100 such as the map analysis unit 151 and the situation prediction unit 154. Plan.
  • the operation planning unit 163 makes a plan such as acceleration, deceleration, and traveling track.
  • the operation planning unit 163 supplies data indicating the planned operation of the own vehicle to the acceleration / deceleration control unit 172, the direction control unit 173, and the like of the operation control unit 135.
  • the operation control unit 135 controls the operation of the own vehicle.
  • the operation control unit 135 includes an emergency avoidance unit 171, an acceleration / deceleration control unit 172, and a direction control unit 173.
  • the emergency avoidance unit 171 is based on the detection results of the vehicle exterior information detection unit 141, the vehicle interior information detection unit 142, and the vehicle state detection unit 143, and collides, touches, enters a dangerous zone, the driver's abnormality, and the vehicle Performs detection processing for emergencies such as abnormalities.
  • the emergency avoidance unit 171 plans the operation of the own vehicle for avoiding an emergency such as a sudden stop or a sharp turn.
  • the emergency avoidance unit 171 supplies data indicating the planned operation of the own vehicle to the acceleration / deceleration control unit 172, the direction control unit 173, and the like.
  • the acceleration / deceleration control unit 172 performs acceleration / deceleration control for realizing the operation of the vehicle planned by the operation planning unit 163 or the emergency situation avoiding unit 171. For example, the acceleration / deceleration control unit 172 calculates the control target value of the driving force generation device or the braking device for realizing the planned acceleration, deceleration, or sudden stop, and drives the control command indicating the calculated control target value. It is supplied to the system control unit 107.
  • the direction control unit 173 performs direction control for realizing the operation of the vehicle planned by the operation planning unit 163 or the emergency avoidance unit 171. For example, the direction control unit 173 calculates the control target value of the steering mechanism for realizing the planned traveling track or steep turn by the operation planning unit 163 or the emergency situation avoidance unit 171 and performs control indicating the calculated control target value. The command is supplied to the drive system control unit 107.
  • the notification receiver terminal 12 in FIG. 6 includes a control unit 181, a communication unit 182, a display unit 183, a voice call unit 184, and a vital data transmission / reception management unit 185.
  • the control unit 181 includes a processor, a memory, and the like, and controls the entire operation of the notification receiver terminal 12.
  • the communication unit 182 includes an Ethernet board and the like, and exchanges data and programs with the vehicle 11 and the medical worker terminal 13 via the network 14 in FIG. 4 to realize mutual communication.
  • the display unit 183 includes an LCD (Liquid Crystal Display), an organic EL (Electro Luminescence), and the like, and is controlled by the control unit 181 to display various information. Further, the display unit 183 is configured by a touch panel or the like, receives an operation input of the notification recipient, and outputs a signal corresponding to the operation input to the control unit 181.
  • LCD Liquid Crystal Display
  • organic EL Electro Luminescence
  • the voice call unit 184 is composed of, for example, a microphone and a speaker, receives an input of a call voice issued by the notification receiver, converts the call voice into a predetermined signal, and transmits the predetermined signal to the vehicle 11 or the medical professional terminal 13 via the communication unit 182. To send. In addition, the voice call unit 184 converts a predetermined signal related to the call voice transmitted from the vehicle 11 or the medical professional terminal 13 via the communication unit 182 into a voice signal and outputs it as a voice from a speaker, Make the recipient hear the message. With such an operation, the voice call unit 184 realizes a call between the notification receiver, the driver or fellow passenger of the vehicle 11, and the medical staff who operates the medical staff terminal 13.
  • the vital data transmission / reception management unit 185 receives the vital data transmitted via the communication unit 182 when the vehicle 11 reports a physical condition abnormality of the driver, and receives the received vital data from the medical staff terminal. Send to 13. At this time, the vital data includes information that identifies the driver in which the physical condition abnormality has been detected, and position information of the vehicle 11. Therefore, the vital data transmission / reception management unit 185 transmits vital data to the medical worker terminal 13 together with the information identifying the driver and the position information of the vehicle 11.
  • the information receiver terminal 12 is provided with information from the medical staff terminal 13 about medical institutions capable of medical treatment required by the driver who is experiencing physical condition abnormality, and whether or not an emergency vehicle is required. Information will be sent.
  • control unit 181 functions as, for example, an agent, controls the communication unit 182, receives information (including position information) of a medical institution capable of medical treatment, and transmits the information to the vehicle 11. Further, when it is determined that the emergency vehicle needs to be arranged based on the information on the necessity of the emergency vehicle, the control unit 181 functions as an agent to enable the position information of the vehicle 11 and medical treatment.
  • the position information of the confluence point together with the information of the medical institution capable of medical treatment by identifying the position of the confluence point of the appropriate emergency vehicle and the vehicle 11 in consideration of the transportation route from the position information of the medical institution. Is transmitted to the vehicle 11.
  • the medical professional terminal 13 in FIG. 7 includes a control unit 191, a communication unit 192, a display unit 193, a voice call unit 194, and a medical chart management unit 195.
  • the control unit 191 includes a processor, a memory, and the like, and controls the overall operation of the medical staff terminal 13.
  • the communication unit 192 is composed of an Ethernet board or the like, and exchanges data and programs with the vehicle 11 and the notification receiver terminal 12 via the network 14 of FIG. 4 to realize mutual communication.
  • the display unit 193 includes an LCD (Liquid Crystal Display), an organic EL (Electro Luminescence), and the like, and is controlled by the control unit 181 to display various information. Further, the display unit 193 is configured by a touch panel or the like, receives an operation input of a medical professional, and outputs a signal corresponding to the operation input to the control unit 191.
  • LCD Liquid Crystal Display
  • organic EL Electro Luminescence
  • the voice call unit 194 includes, for example, a microphone and a speaker, receives a call voice input by a medical professional, converts the call voice into a predetermined signal, and transmits the predetermined signal to the vehicle 11 or the notification receiver terminal 12 via the communication unit 182. To send. Further, the voice call unit 194 converts a predetermined signal relating to the call voice transmitted from the vehicle 11 or the notification receiver terminal 12 via the communication unit 192 into a voice signal and outputs it as a voice from the speaker. Have a medical staff listen. By such an operation, the voice call unit 194 realizes a call between the medical staff, the driver or fellow passenger of the vehicle 11, and the notification receiver who operates the notification receiver terminal 12.
  • the chart management unit 195 receives the vital data transmitted via the communication unit 192 when the vehicle 11 notifies the driver of a physical condition abnormality.
  • the vital data includes information that identifies the driver in which the physical condition abnormality has been detected, and position information of the vehicle 11. Therefore, the chart management unit 195 searches the electronic data of the chart that is stored in advance based on the information that identifies the driver with the physical condition abnormality.
  • the chart management unit 195 detects the chart of the driver whose physical condition is abnormal, the chart management unit 195 outputs information about the detected chart to the control unit 191 and causes the display unit 193 to display the information.
  • the medical staff determines the necessary medical treatment for the driver who is sick, and identifies the appropriate medical treatment based on the positional relationship between the medical treatment capable of the treatment and the positional information of the vehicle 11. , The necessity of the emergency vehicle is determined, the display unit 193 including the touch panel is operated, and necessary information is input.
  • the control unit 191 controls the communication unit 192 to transmit the information about the medical institution and the information about the necessity of the emergency vehicle, which are input to the display unit 193, to the vehicle 11 via the notification receiver terminal 12. To do.
  • control unit 191 may function as an agent, and determines a necessary treatment for a driver who has an abnormal physical condition on behalf of a medical worker and specifies a medical institution that can perform the treatment. At the same time, the necessity of an emergency vehicle may be determined and suggested. Further, the control unit 191 may function as an agent in place of the doctor, and may transmit the determination result as it is to the vehicle 11 via the notification receiver terminal 12.
  • FIG. 8 is a configuration example of a function that implements the vehicle control system 100 described with reference to FIG. 5, detects a physical condition abnormality based on line-of-sight detection and vital data, and realizes driving control in consideration of safety.
  • the example of composition which extracted a part of example of composition of vehicle control system 100 which shows is shown.
  • the data acquisition unit 102 includes an in-vehicle sensor 231 for detecting a line of sight and a vital data acquisition sensor 232 for detecting a heartbeat, a pulse, a body surface pulse wave, and a body temperature.
  • the in-vehicle sensor 231 here specifically corresponds to the camera Cam having the functions of the image sensor and the ToF sensor (ToF camera) described with reference to FIG.
  • the in-vehicle sensor 231 acquires an image near the face of the driver H from the image acquired by the image sensor or the distance image acquired by the ToF sensor, and the in-vehicle sensor of the detection unit 131 in the automatic driving control unit 112. It is output to the information detection unit 142.
  • the in-vehicle information detection unit 142 extracts information (feature amount information) in the image that identifies the driver based on the face image, and detects the line of sight of the driver H based on the position of the pupil in the image.
  • the presence / absence (including whether or not the line of sight is gazing in a predetermined direction for a predetermined time or more) is determined and output to the situation recognition unit 153 of the situation analysis unit 133.
  • the vital data acquisition sensor 232 has a configuration corresponding to, for example, the wearable device B of FIG. 1, detects the heartbeat, pulse, body surface pulse wave, and body temperature of the driver H and automatically outputs the detection result. It is output to the in-vehicle information detection unit 142 of the detection unit 131 in the operation control unit 112.
  • the in-vehicle information detection unit 142 outputs biodata including information on the driver's heartbeat, pulse, body surface pulse wave, and body temperature to the situation recognition unit 153 of the situation analysis unit 133.
  • the vital data acquisition sensor 232 is, for example, a microwave sensor, detects the driver's heartbeat without contact, and outputs the detection result to the in-vehicle information detection unit 142 of the detection unit 131 in the automatic driving control unit 112.
  • the situation recognition unit 153 detects an abnormal physical condition of the driver according to the detected information for identifying the driver, and vital data such as line-of-sight detection, heartbeat, pulse, body surface pulse wave, and body temperature, and the detection result.
  • the operation control according to is realized.
  • the situation recognition unit 153 includes an in-vehicle environment recognition unit 201, a feedback control unit 202, an abnormal situation processing unit 203, and an E-call control unit (E-call) 204.
  • the in-vehicle environment recognition unit 201 determines whether or not the line of sight is supplied from the in-vehicle information detection unit 142 of the detection unit 131, vital data such as heartbeat, pulse, body surface pulse wave, and body temperature according to the automatic driving level. Based on the in-vehicle information consisting of, it is determined whether or not the physical condition of the driver in the vehicle is abnormal.
  • the in-vehicle environment recognition unit 201 may be able to determine by machine learning or the like whether or not the driver has an abnormal physical condition based on vital data. For example, even if a model for making a judgment is provided using an index for judging whether or not a physical condition is abnormal from the presence or absence of line-of-sight detection and vital data such as body temperature, heartbeat, pulse, and body surface pulse wave. Good. Such a model can be realized using an arbitrary machine learning technique such as GWAS (Genome-Wide Association Study), deep learning, SVM (Support Vector Machine), or the like.
  • GWAS Gene-Wide Association Study
  • SVM Serial Vector Machine
  • the in-vehicle environment recognition unit 201 controls the communication unit 103 to transmit the vital data to a specialized medical institution or the like capable of determining whether or not the physical condition abnormality has occurred, and based on the determination result of the specialized medical institution or the like. Alternatively, it may be determined whether or not the physical condition of the driver is abnormal.
  • the communication section 103 is controlled to transmit vital data in real time to a specialized medical institution and then the exchange of obtaining the determination result is repeated, a time lag may occur in the determination, or the determination result may be that the communication state is poor. There is a fear that it will not be possible.
  • the in-vehicle environment recognition unit 201 may use the determination result of whether or not the physical condition of the driver is abnormal based on machine learning and the determination result of the specialized medical institution together.
  • the in-vehicle environment recognition unit 201 always determines by itself whether or not the physical condition of the driver is abnormal. However, when the communication state is good, the judgment result of the highly reliable specialized medical institution is used, and the communication state is abnormal. When it becomes, you may make it use the judgment result of oneself.
  • the in-vehicle environment recognition unit 201 determines the occurrence of the physical condition abnormality of the driver based on the vital data by itself. The occurrence may be determined.
  • the in-vehicle environment recognition unit 201 outputs the determination result to the situation prediction unit 154 and the feedback control unit 202.
  • the automatic driving level is level 4 or 5
  • the automatic driving can be continued even if the driver is looking aside or taking a drowsiness.
  • Vital data such as heartbeat, pulse rate, body surface pulse wave, and body temperature are detected without performing line-of-sight detection for determining driving, and if there is no abnormality, the determination result is supplied to the situation prediction unit 154.
  • the situation prediction unit 154 predicts that the situation will not change, and therefore changes or the like is added to the operation plan executed by the planning unit 134. Without doing anything, continue the current automatic operation.
  • the level of automatic driving is levels 4 and 5
  • the automatic driving level is level 3 or less, the automatic driving cannot be continued in the inattentive driving or the drowsy driving, so that the inattentive driving or the drowsy driving can be determined in addition to the vital data.
  • the presence / absence of physical condition abnormality is determined including the gaze detection result.
  • the in-vehicle environment recognition unit 201 cannot detect the line of sight acquired by the in-vehicle sensor 231 from the detection unit 131 (for example, there is no change in the line-of-sight direction for a predetermined time or more, or the pupil is open). ) State, and whether or not there is an abnormality in the heartbeat, pulse, body surface pulse wave, and body temperature that are vital data detected by the vital data acquisition sensor 232, the physical condition abnormality of the driver The presence or absence of
  • the in-vehicle environment recognition unit 201 determines whether or not there is an abnormality in the driver based on the vital data such as the line-of-sight detection, heartbeat, pulse, body surface pulse wave, and body temperature thus supplied from the detection unit 131.
  • the feedback control unit 202 is once controlled to give feedback that prompts the driver to wake up.
  • the eye gaze direction does not change, or an abnormality such as a pupil open state is a side-looking operation, or .
  • an abnormality such as a pupil open state is a side-looking operation, or .
  • the driver is dozing. In this way, when the physical condition is abnormal such as looking aside or drowsy, it can be resolved by awakening.
  • the feedback control unit 202 causes the output unit 106, via the output control unit 105, to provide feedback to the driver based on the determination result supplied from the in-vehicle environment recognition unit 201 to urge the driver to wake up.
  • the feedback control unit 202 controls the stimulating odor generating unit 251 of the output unit 106 via the output control unit 105 to generate an irritating odor and to stimulate the driver's sense of smell. Give feedback to wake up with.
  • the feedback control unit 202 controls the information display unit 252 of the output unit 106 via the output control unit 105 to present image information (including text, moving images, etc.) that prompts awakening, and Give feedback to encourage awakening.
  • image information including text, moving images, etc.
  • the feedback control unit 202 controls the speaker 253 of the output unit 106 via the output control unit 105 to output a voice and give feedback so as to prompt the driver to wake up.
  • the feedback control unit 202 also functions as a voice agent to ask a driver a question and give a feedback to the driver so as to wake up the consciousness.
  • the feedback control unit 202 functions as a voice agent to ask the driver to ask and answer the driver's name and date of birth, and to present whether or not the response is appropriate. Give feedback to encourage awakening by realizing.
  • the feedback control unit 202 gives feedback so as to urge the driver to awaken by at least one of the stimulating odor generation unit 251, the information display unit 252, the speaker 253, and the dialogue by the voice agent function.
  • More specific other feedback configurations include, for example, a HUD (Head Up Display) that displays information that prompts the driver to wake up, a configuration that vibrates the seat belt, a configuration that vibrates the steering wheel, and a vibration of the seat.
  • the configuration is included.
  • the in-vehicle environment recognition unit 201 determines the information indicating that the driver is in a physical condition as a determination result. Is output to the abnormal situation processing unit 203.
  • the abnormal condition processing unit 203 When the abnormal condition processing unit 203 is notified that the physical condition of the driver is abnormal, the abnormal condition processing unit 203 realizes a process considering safety according to the automatic driving level.
  • the abnormal situation processing unit 203 controls the communication unit 103 so that the position information of the vehicle 11 acquired by the self-position estimation unit 132 ( The information receiver terminal 12 is caused to transmit information indicating that the physical condition is abnormal to the driver together with the self position), the vital data of the driver, and the information for identifying the driver.
  • the notification receiver terminal 12 receives the position information of the vehicle 11, vital data, and information identifying the driver together with the notification indicating that the driver is in a physical condition.
  • the notification receiver terminal 12 transmits the position information of the vehicle 11, vital data, and information for identifying the driver to the medical staff terminal 13.
  • the medical staff terminal 13 When the medical staff terminal 13 receives the position information of the vehicle 11, vital data, and information identifying the driver, the medical operator terminal 13 searches for a medical record stored in advance based on the information identifying the driver.
  • the medical worker terminal 13 When the chart of the driver with an abnormal physical condition can be retrieved, the medical worker terminal 13 presents the information and vital data of the retrieved medical chart to the medical operator to provide medical information necessary for the driver with an abnormal physical condition. It is requested to determine the appropriate treatment and identify the medical institution that can perform the treatment.
  • the medical staff terminal 13 When the medical record of the driver with physical condition cannot be retrieved, the medical staff terminal 13 presents vital data to the medical staff to judge the medical treatment necessary for the driver with physical condition and to take measures. Request the identification of possible medical institutions.
  • the medical professional determines the medical treatment required for the driver with an abnormal physical condition, identifies the medical institution that can perform the treatment, and determines the necessity of rescue by the emergency vehicle. , The judgment result is input to the medical worker terminal 13.
  • the vehicle 11, the notification receiver terminal 12, and the medical care worker terminal 13 are in a state in which they can communicate with each other, the driver or fellow passenger of the vehicle 11, the notification receiver, and the medical care worker can talk. If it is, call.
  • the medical staff can obtain more information by calling, he / she can also consider the contents of the call and judge the necessary medical treatment for the driver who is sick.
  • the abnormal situation processing unit 203 receives a request from the driver of the vehicle 11 or a passenger through the communication unit 103, or based on vital data, stops the heartbeat or the pulse, the body surface pulse wave. If you can confirm that there is a large amount of bleeding based on the image near the face that is information for identifying the driver's abnormality, body temperature abnormality, and driver, regardless of whether there is input information from a medical professional , Makes an emergency call to the police, emergency medical institutions, etc. through the call receiver terminal 12.
  • the medical staff terminal 13 sends to the notification receiver terminal 12 the information about the medical institution that can be treated and the information about the necessity of rescue by the emergency vehicle, which is input by the medical staff.
  • the agent function may be configured in the person terminal 13 by machine learning using vital data, medical record information, and call contents, and may be realized by the agent function.
  • the agent function determines the necessary medical treatment for the driver with physical condition abnormalities based on the medical chart information (when the medical chart is searched), vital data, and call contents, and It is also possible to identify a possible medical institution and to propose or judge the necessity of rescue by an emergency vehicle.
  • the proposal result and the judgment result by the agent function are transmitted to the notification receiver terminal 12 as the information of the medical institution which can be treated and the information of the necessity of the rescue by the emergency vehicle, which is input by the medical staff. You can
  • the notification receiver terminal 12 receives information on medical institutions that can be treated and information on whether or not transportation by an emergency vehicle is necessary.
  • the notification receiver terminal 12 specifies the position information of the medical institution based on the information of the medical institution which can be treated and transmits it to the vehicle 11 when the rescue by the emergency vehicle is unnecessary.
  • the report receiver terminal 12 arranges the emergency vehicle and identifies the position information of the medical institution on the basis of the information of the medical institution that can treat the emergency vehicle.
  • the optimal confluence point with the emergency vehicle in consideration of the transportation route is specified by collating with the position information of 11.
  • the notification receiver terminal 12 transmits the position information of the medical institution and the position information of the optimum confluence point of the identified emergency vehicle to the vehicle 11.
  • the abnormal situation processing unit 203 of the vehicle 11 controls the communication unit 103 to transmit the position information of the medical institution transmitted from the notification receiver terminal 12 (and the position information of the optimum confluence point with the emergency vehicle). To get. Then, the abnormal situation processing unit 203, when the information indicating the occurrence of the physical condition abnormality of the driver and the position information of the medical institution (or the optimum confluence point with the emergency vehicle are included, the optimum confluence with the emergency vehicle). The information including the position information of the point) is output to the situation prediction unit 154.
  • the situation prediction unit 154 determines that the physical condition of the driver is abnormal based on the information indicating that the physical condition of the driver is abnormal and the position information of the medical institution (and the optimum meeting point with the emergency vehicle). It predicts that the transportation to the medical institution is required, and outputs a command according to the prediction result to the operation planning unit 163 of the planning unit 134.
  • the situation prediction unit 154 predicts the possibility that the driver is in physical condition abnormality and sends a command to the operation of the planning unit 134 to realize driving control based on the prediction result.
  • the operation planning unit 163 of the planning unit 134 plans an operation for realizing operation control according to the automatic driving level. ..
  • the operation planning unit 163 is fully automatic when the automatic driving level is level 5, and therefore the position information of the medical institution (when there is position information of the confluence point with the emergency vehicle, the emergency Plan the operation plan for transportation toward the location information of the confluence point with the vehicle).
  • the operation planning unit 163 supplies the planned operation plan to the vehicle control unit 211 of the operation control unit 135.
  • the vehicle control unit 211 controls the acceleration / deceleration control unit 172 and the direction control unit 173 to control the operation of the vehicle 11 according to the operation plan, and moves the vehicle 11 to a medical institution or a confluence point with an emergency vehicle. ..
  • the automatic driving level is Level 4
  • a driver is required depending on the driving position and environment, so the processing differs depending on whether or not it is necessary to change the driver.
  • the operation planning unit 163 determines that the position information of the medical institution or the emergency.
  • the position information of the confluence point with the vehicle is presented on the information display unit 252 of the output unit 106, and the information prompting the alternate driver to drive is presented.
  • the replaced driver drives the vehicle 11 and moves to a medical institution or a confluence with an emergency vehicle.
  • the abnormal situation processing unit 203 controls the communication unit 103 to request the report receiver terminal 12 to rescue the driver by an emergency vehicle because the driver cannot be changed.
  • the notification receiver terminal 12 transmits the position information of the vehicle 11 to the emergency vehicle and instructs the emergency vehicle to head to the site where the vehicle 11 is stopped.
  • the driver with an abnormal physical condition is transported by the emergency vehicle after waiting for the arrival of the emergency vehicle.
  • the abnormal situation processing unit 203 notifies the notification receiver terminal 12 of the physical condition abnormality of the driver. Before doing so, a command for processing to stop the vehicle 11 in a safe place is transmitted to the operation planning unit 134 via the situation prediction unit 154.
  • the operation planning unit 163 stops the vehicle 11 at a safe place.
  • the subsequent processing is the same as when the automatic operation level is level 4.
  • the operation planning unit 134 is caused to transmit a command to turn on the hazard lamp and stop the vehicle 11 on the traveling lane via the situation prediction unit 154. ..
  • the operation planning unit 163 turns on the hazard lamp and stops the vehicle 11 on the traveling lane.
  • the subsequent processing is the same as when the automatic operation level is level 4.
  • the E-call control unit 204 acquires the self-position information from the self-position estimation unit 132 and the communication unit 103. Control center to notify the police or hospital of the occurrence of the accident, and notify the center of the emergency notification indicating the occurrence of the accident including the information of the own position.
  • the abnormal situation processing unit 203 makes an emergency call at the same time that the E-call control unit 204 also notifies the occurrence of an accident, two emergency calls may be made in one accident. .. In such a case, it is desirable to include identification information that can recognize that the two emergency calls are the same emergency call issued from the same vehicle 11.
  • the receiving center must be the same emergency call transmitted from the same vehicle 11 based on the identification information included in the emergency call. Can be confirmed.
  • abnormal situation processing unit 203 and the E-call control unit 204 may cooperate with each other to send only the alert issued by either one to the center.
  • step S ⁇ b> 11 the vehicle interior information detection unit 142 outputs the detection results of the vehicle interior sensor 231 of the data acquisition unit 102 and the vital data acquisition sensor 232 to the vehicle interior environment recognition unit 201 of the situation recognition unit 153 as vehicle interior information.
  • the vehicle interior sensor 231 of the data acquisition unit 102 captures an image around the driver's face and outputs the captured image to the vehicle interior information detection unit 142 of the detection unit 131.
  • the in-vehicle information detecting unit 142 detects the driver's line of sight based on the position of the driver's pupil in the captured image, and the in-vehicle environment recognizing unit 201 in the situation recognizing unit 153 as in-vehicle information together with the image around the face. Output to.
  • the vehicle interior information detection unit 142 determines the position of the driver's pupil based on, for example, either the image captured by the image sensor of the vehicle interior sensor 231 or the distance image captured by the ToF sensor.
  • the driver's line of sight is detected according to the position of the pupil and the time of gazing.
  • the in-vehicle information detection unit 142 detects the line of sight from the image captured by the image sensor of the in-vehicle sensor 231, for example, in a bright environment in the daytime, and in a dark environment such as at night or in a bad weather, the ToF sensor detects the line of sight.
  • the line of sight may be detected based on the captured distance image.
  • the vital data acquisition sensor 232 includes, for example, the wearable device B of FIG. 1, a microwave sensor, a temperature sensor, and the like, and acquires the driver's heartbeat, pulse, body surface pulse wave, and body temperature as vital data.
  • the in-vehicle information detection unit 142 of the detection unit 131 To the in-vehicle information detection unit 142 of the detection unit 131.
  • the in-vehicle information detection unit 142 outputs the detection result of vital data such as heartbeat, pulse, body surface pulse wave, and body temperature to the in-vehicle environment recognition unit 201 of the situation recognition unit 153 as in-vehicle information.
  • step S12 the in-vehicle environment recognizing unit 201 of the situation recognizing unit 153 in the situation analyzing unit 133 determines the driver based on the in-vehicle information including the visual line detection result, the heartbeat, the pulse, the body surface pulse wave, and the body temperature.
  • the abnormality determination processing is executed to determine whether or not there is an abnormality in the physical condition of the driver.
  • step S13 the in-vehicle environment recognition unit 201 determines whether or not the physical condition abnormality of the driver has occurred based on the processing result of the driver abnormality determination processing.
  • step S13 If it is determined in step S13 that the physical condition of the driver is abnormal, the process proceeds to step S14. If it is determined that the physical condition is not abnormal, the process of step S14 is skipped.
  • step S14 the in-vehicle environment recognition unit 201 instructs the abnormal situation processing unit 203 to execute the abnormal situation process.
  • step S15 the abnormal situation processing unit 203 executes the abnormal situation process and executes the operation control in the state where the physical condition abnormality occurs in the driver. Details of the abnormal situation process will be described later with reference to the flowcharts of FIGS. 11 to 15.
  • step S16 the vehicle interior environment recognition unit 201 determines whether or not the automatic driving is ended. If the automatic driving is not ended, the process returns to step S11, and the subsequent processes are repeated. Then, in step S16, when it is determined that the automatic operation is ended, the process is ended.
  • the driver's line of sight and vital data are detected as in-vehicle information, and based on the in-vehicle information, the presence / absence of a physical condition abnormality of the driver is determined. Is executed, and operation control is performed in consideration of safety.
  • the in-vehicle environment recognition unit 201 identifies the driver based on the image around the face in the acquired in-vehicle information.
  • the driver information may be personal information registered in advance in association with the face image, or may be not only the face image but also biometric information itself such as a fingerprint or a retina pattern.
  • step S52 the in-vehicle environment recognizing unit 201 determines whether the automatic driving level is either level 4 or level 5, and if the automatic driving level is level 4 or level 5, the process proceeds. , And proceeds to step S53.
  • step S53 the in-vehicle environment recognition unit 201 acquires vital data such as the driver's heartbeat, pulse, body surface pulse wave, and body temperature from the acquired in-vehicle information.
  • step S54 the in-vehicle environment recognition unit 201 determines whether the acquired vital data is normal.
  • the determination here may be such that the in-vehicle environment recognition unit 201 makes an independent determination based on vital data by an agent realized by machine learning, or sends the vital data to a specialized medical institution.
  • the judgment result of the specialized medical institution may be referred to, or both judgment results may be used together.
  • step S54 if there is no abnormality in vital data, the process proceeds to step S55.
  • step S55 the in-vehicle environment recognition unit 201 notifies the driver that there is no physical condition abnormality.
  • step S54 If the vital data is abnormal in step S54, the process proceeds to step S56.
  • step S56 the in-vehicle environment recognition unit 201 notifies the driver that the physical condition is abnormal.
  • step S52 if the automatic operation level is neither level 4 nor level 5, that is, if the level is 0 to 3, the process proceeds to step S57.
  • step S57 the in-vehicle environment recognizing unit 201 reads out the line-of-sight detection result from the in-vehicle information, and determines whether or not the line-of-sight is detected.
  • the line-of-sight is detected in step S57, it is considered that the driver's physical condition is not abnormal, and the process proceeds to step S55.
  • step S57 if the line of sight is not detected, that is, if the driver is looking aside or driving dozing, and some abnormality is suspected in the physical condition of the driver, the process proceeds to step S58.
  • step S58 the in-vehicle environment recognition unit 201 instructs the feedback control unit 202 to provide feedback to the driver.
  • the feedback control unit 202 allows the driver to look aside through the output control unit 105 by at least one of the stimulating odor generating unit 251, the information display unit 252, the speaker 253, and the voice agent function of the output unit 106. Give feedback to wake you up when you cannot detect your line of sight such as driving or dozing.
  • step S59 the in-vehicle environment recognition unit 201 again acquires the in-vehicle information, and determines whether or not the driver's awakening is promoted by the feedback and the line of sight is detected.
  • step S59 If it is determined in step S59 that the line of sight can be detected, it is determined that the physical condition of the driver is not abnormal, and the process proceeds to step S55.
  • step S59 when it is determined that the state in which the line of sight cannot be detected continues, the process proceeds to step S60.
  • step S60 the vehicle interior environment recognition unit 201 acquires vital data such as the driver's heartbeat, pulse, body surface pulse wave, and body temperature in the vehicle interior information.
  • step S61 the in-vehicle environment recognition unit 201 determines whether or not the vital data has an abnormality. In step S61, if there is an abnormality in the heartbeat, pulse, body surface pulse wave, body temperature, etc., which are vital data, it is considered that there is an abnormality in the physical condition of the driver, and the process proceeds to step S56.
  • step S61 if there is no abnormality in the vital data, the in-vehicle environment recognition unit 201 proceeds to step S62.
  • step S62 the in-vehicle environment recognition unit 201 determines whether or not the series of steps S58 to S62 has been repeated N times. If the feedback has not been repeated N times, the process returns to step S58. That is, when the vital data is normal and the line of sight is not detected, the feedback is repeated by repeating the processes of steps S58 to S61 until the line of sight is detected. In the situation where the series of processes of steps S58 to S62 is repeated, the state in which the line of sight cannot be detected continues even though the feedback is repeatedly applied, but the state where the vital data is normal continues. Is the situation.
  • the automatic driving level is level 4 or 5
  • the driver when the automatic driving level is 0 to 3, the driver is present and the physical condition of the driver is abnormal when the driver is not looking aside or taking a drowsiness, that is, when the line of sight is detected.
  • the driver looks aside or drowsily that is, when the line of sight is not detected, feedback is applied to wake up the driver, but when the line of sight is detected by feedback.
  • the physical condition of the driver has not occurred.
  • the automatic driving level is level 4 or 5
  • the automatic driving level is levels 0 to 3
  • a driver and a sideways driving or a drowsy driving is performed, and feedback is given.
  • the line of sight is not detected due to awakening and the vital data is abnormal, the line of sight is not detected, but even if repeated feedback is applied, the state where there is no abnormality in the vital data is repeated N times. Also, it is considered that the physical condition of the driver is abnormal.
  • the abnormal situation process is executed when it is determined by the driver abnormality determination process that the physical condition is abnormal.
  • step S71 the abnormal situation processing unit 203 confirms the current automatic operation level.
  • step S72 the abnormal situation processing unit 203 determines whether or not the current automatic operation level is level 5.
  • step S72 If the automatic operation level is level 5 in step S72, the process proceeds to step S73.
  • step S73 the abnormal situation processing unit 203 executes the automatic driving level 5 corresponding processing to control the driving of the vehicle 11.
  • the automatic operation level 5 corresponding process will be described later in detail with reference to the flowchart of FIG.
  • step S73 If the automatic luck level is not level 5 in step S73, the process proceeds to step S74.
  • step S74 the abnormal situation processing unit 203 determines whether or not the current automatic operation level is level 4.
  • step S74 if the automatic operation level is level 4, the process proceeds to step S75.
  • step S75 the abnormal situation processing unit 203 executes the automatic driving level 4 corresponding processing to control the driving of the vehicle 11.
  • the automatic operation level 4 corresponding process will be described later in detail with reference to the flowchart of FIG.
  • step S74 If the automatic luck level is not level 4 in step S74, the process proceeds to step S76.
  • step S76 the abnormal situation processing unit 203 determines whether or not the current automatic operation level is level 3.
  • step S76 If the automatic operation level is level 3 in step S76, the process proceeds to step S77.
  • step S77 the abnormal situation processing unit 203 executes the automatic driving level 3 corresponding process to control the driving of the vehicle 11.
  • the automatic operation level 3 corresponding process will be described in detail later with reference to the flowchart of FIG.
  • step S76 if the automatic driver's level is not level 3, that is, if the automatic driving level is not levels 3 to 5, it is considered to be level 2 or lower, and the process proceeds to step S78.
  • step S78 the abnormal situation processing unit 203 executes an emergency stop support process to control the operation of the vehicle 11. Details of the emergency stop support process will be described later with reference to the flowchart of FIG. 15.
  • the automatic driving level is levels 5 to 3
  • the automatic driving level 5 corresponding processing, the automatic driving level 4 corresponding processing, and the automatic driving level 3 corresponding processing are performed, and the automatic driving level is 0 to 2 respectively. If so, emergency stop support processing is performed. That is, the abnormal situation process is performed according to the automatic driving level, and the process for realizing the driving control in consideration of safety is performed for the driver, the passenger, the surrounding vehicles and passers-by.
  • step S91 the abnormal situation processing unit 203 of the vehicle 11 controls the communication unit 103 to transmit the notification indicating that the physical condition of the driver is abnormal to the notification receiver terminal 12.
  • step S121 the control unit 181 controls the communication unit 182, and has the vehicle 11 send a notification indicating that the physical condition abnormality of the driver has occurred? Whether or not it is determined is repeated, and similar processing is repeated until it is transmitted.
  • step S121 when a notification indicating that the physical condition of the driver has occurred is transmitted, the process proceeds to step S122.
  • the abnormal situation processing unit 203 controls the communication unit 103 to provide information for identifying the driver including the driver's face image, position information of the vehicle 11, and vital data. It transmits to the information receiver terminal 12.
  • step S122 the control unit 181 controls the vital data transmission / reception management unit 185, and the driver's face transmitted from the vehicle 11 via the communication unit 182.
  • Information for identifying the driver including the image and vital data including the position information of the vehicle 11 are received.
  • step S123 the control unit 181 controls the vital data transmission / reception management unit 185 to identify the driver including the driver's face image transmitted from the vehicle 11 via the communication unit 182, and the vehicle 11
  • the vital data including the position information of the above is transmitted to the medical worker terminal 13.
  • the medical chart management unit 195 controls the communication unit 192 to vitalize information including information for identifying the driver from the notification receiver terminal 12 and position information of the vehicle 11. It is determined whether or not the data has been transmitted, and the same processing is repeated until the data is transmitted.
  • step S151 when vital data including the information identifying the driver and the position information of the vehicle 11 is transmitted, the process proceeds to step S152.
  • step S152 the medical record management unit 195 receives the vital data including the information for identifying the driver and the position information of the vehicle 11, and searches the medical record based on the information for identifying the driver among them to obtain the physical condition. It is determined whether the chart of the abnormal driver is registered in advance.
  • step S152 if the chart of the driver with an abnormal physical condition is registered, the process proceeds to step S153.
  • step S153 the control unit 191 presents the transmitted vital data to the display unit 193 together with the information on the registered medical chart.
  • step S152 if the medical record is not registered in step S152, the process proceeds to step S154.
  • step S154 the control unit 191 presents the transmitted vital data on the display unit 193.
  • the display unit 193 displays the information of the vital data of the driver in which the physical condition abnormality has occurred, and if there is a medical record, the information of the medical record is also displayed. It is possible to determine the treatment to be performed on the driver who has a physical condition abnormality.
  • the abnormal situation processing unit 203 determines that at least one of the driver and the passenger is the notification receiver of the notification receiver terminal 12 and the medical staff based on the in-vehicle information. It is determined whether or not it is possible to make a call with the medical staff of the terminal 13.
  • the abnormal situation processing unit 203 determines, for example, whether or not there is a consciousness enough to make a call, based on the image of the driver or the passenger and the vital data detected by various sensors of the data acquisition unit 102, or , It is determined whether or not the call is possible based on whether or not an appropriate response can be made to the inquiry.
  • step S93 If it is determined in step S93 that the call is possible, the process proceeds to step S94.
  • step S94 the abnormal situation processing unit 203 controls the communication unit 103 to request a connection for realizing a call with the notification receiver terminal 12 and the medical service provider terminal 13, and establish a communication state in which the call is possible. Establish.
  • the abnormal situation processing unit 203 makes a state in which it is possible to accept the input of the call voice of the driver or the fellow passenger inputted by the microphone in the data acquisition unit 102.
  • the abnormal situation processing unit 203 makes the speaker 253 of the output unit 106 ready to output the call voice transmitted from the notification receiver terminal 12 and the medical service provider terminal 13.
  • step S124 the control unit 181 controls the communication unit 182 to determine whether or not a call is possible in the vehicle 11 and there is a connection request for realizing the call. To do.
  • step S124 if the vehicle 11 can make a call and there is a connection request for realizing the call, the process proceeds to step S125.
  • step S125 the control unit 181 controls the communication unit 182 to establish communication for realizing a call with the vehicle 11, and controls the voice call unit 184 to input the voice of the notification receiver.
  • the vehicle 11 and the medical staff terminal 13 can output voice.
  • the notification receiver who operates the notification receiver terminal 12 can talk with the driver of the vehicle 11 or a passenger.
  • step S155 the control unit 191 controls the communication unit 192 to determine whether or not a call is possible in the vehicle 11 and whether or not there is a connection request for realizing the call. judge.
  • step S155 the control unit 191 proceeds to step S156 when it is possible to make a call in the vehicle 11 and there is a connection request for realizing the call.
  • step S156 the control unit 191 controls the communication unit 192 to establish communication for realizing a call with the vehicle 11, and controls the voice call unit 194 to input the voice of the medical staff.
  • the voice from the vehicle 11 and the notification receiver terminal 12 can be output.
  • the medical staff who operates the medical staff terminal 13 can talk with the driver of the vehicle 11, a passenger, and the notification receiver.
  • a call can be established between the driver and passengers of the vehicle 11, the notification receiver who operates the notification receiver terminal 12, and the medical staff who operates the medical staff terminal 13.
  • a call cannot be made among the driver and passengers in the vehicle 11, the notification receiver, and the medical staff.
  • the call receiver may be allowed to call the medical staff, or the call to the vehicle 11 may be enabled. Then, at the spot of the vehicle 11, a passerby other than the driver or the fellow passenger may get into the inside of the vehicle 11 and make a call. In other words, the situation may be such that a call can be made regardless of whether the driver or fellow passenger can call.
  • step S95 the abnormal situation processing unit 203 of the vehicle 11 determines whether or not it is necessary to make an emergency call to the police or medical institution based on the in-vehicle information supplied from the data acquisition unit 102 and the utterance content of the driver or fellow passenger. To determine.
  • step S95 If it is determined in step S95 that an emergency call is necessary or that the driver or passenger has requested an emergency call, the process proceeds to step S96.
  • step S96 the abnormal situation processing unit 203 controls the communication unit 103 to send the emergency notification to the notification receiver terminal 12.
  • step S126 the control unit 181 controls the communication unit 182 to determine whether or not an emergency notification has been transmitted from the vehicle 11. Then, in step S126, when the emergency notification is transmitted, the process proceeds to step S127.
  • step S127 the control unit 181 controls the communication unit 182 to receive the emergency call transmitted from the vehicle 11 and transfer the emergency call to the medical professional terminal 13. At this time, the control unit 181 may control the communication unit 182 as necessary to make an emergency call to other facilities such as the police and emergency medical facilities.
  • step S157 the control unit 191 controls the communication unit 192 to determine whether or not the emergency notification is transmitted from the vehicle 11 via the notification receiver terminal 12. Then, in step S157, when the emergency notification is transmitted, the process proceeds to step S158.
  • step S158 the control unit 191 controls the communication unit 192 to receive the emergency notification transmitted from the vehicle 11 via the notification receiver terminal 12.
  • the control unit 191 also presents, on the display unit 193, information indicating that the emergency notification has been transmitted from the vehicle 11.
  • the medical staff who operates the medical staff terminal 13 can recognize that the emergency call is being transmitted from the vehicle 11 as information.
  • the medical staff based on the vital data presented on the display unit 193 of the medical staff terminal 13, the information of the medical chart (when the medical chart is searched for), and the presence or absence of the emergency call. Then, the action for the driver in which the physical condition abnormality occurs is determined, and the determination result is input by operating the touch panel or the like of the display unit 193.
  • the information entered here is information on whether or not rescue by an emergency vehicle is necessary and information on medical institutions required for treatment. By inputting only the required treatment, a medical institution capable of treatment may be searched from the position information of the vehicle 11.
  • steps S95, S126, and S157 when it is considered that there is no emergency notification, the processing of steps S96, S127, and S158 is skipped, and there is no emergency notification.
  • control unit 191 of the medical staff terminal 13 is provided with an agent function in place of the medical staff so that the medical information required such as medical record information, vital data, and information on whether or not an emergency call is made.
  • the treatment may be determined, the medical institution that can be treated may be specified, and the necessity of rescue by an emergency vehicle may be determined.
  • the agent function for determining medical treatment is, for example, a machine that uses information such as medical record information, vital data, and whether or not there is an emergency call, and information such as corresponding treatment or whether or not there is emergency vehicle rescue. You may make it implement
  • step S159 the control unit 191 needs rescue by the emergency vehicle depending on whether or not the medical staff operates the touch panel of the display unit 193 to instruct the rescue by the emergency vehicle or by the judgment result of the agent function. Or not.
  • step S159 if emergency vehicle rescue is required, the process proceeds to step S160.
  • step S160 the control unit 191 controls the communication unit 192 to cause the notification receiver terminal 12 to transmit information requesting rescue of an emergency vehicle and information about a medical institution required for treatment.
  • step S159 If it is determined in step S159 that rescue by an emergency vehicle is not necessary, the process proceeds to step S161.
  • step S161 the control unit 191 controls the communication unit 192 to transmit the information of the medical institution required for the treatment to the notification receiver terminal 12.
  • step S128 the control unit 181 of the notification receiver terminal 12 controls the communication unit 192 to send information of the medical institution transmitted from the medical staff terminal 13 (emergency vehicle rescue is required). If you receive information (including information instructing emergency vehicle rescue).
  • step S129 the control unit 181 determines whether or not rescue by an emergency vehicle is necessary.
  • step S129 if emergency vehicle rescue is required, the process proceeds to step S130.
  • step S130 the control unit 181 determines the position of the medical institution based on the information of the designated medical institution and the position information of the vehicle 11 from the position of the vehicle 11 and the emergency vehicle in consideration of the transportation route to the medical institution. Identify the confluence point.
  • step S131 the control unit 181 controls the communication unit 182 to transmit the information of the designated medical institution and the position information of the confluence point with the emergency vehicle to the vehicle 11. At this time, the control unit 181 controls the communication unit 182 to rescue the driver who has a physical condition abnormality at the confluence and arranges the emergency vehicle so as to head to the designated medical institution.
  • step S129 if it is not necessary to rescue the emergency vehicle, the process proceeds to step S132.
  • step S132 the control unit 181 controls the communication unit 182 to transmit the information on the designated medical institution to the vehicle 11.
  • the abnormal situation processing unit 203 controls the communication unit 103 to receive the information of the medical institution transmitted from the notification receiver terminal 12 and also to rescue the emergency vehicle. Is necessary, that is, whether or not the position information of the confluence point with the emergency vehicle is included.
  • step S97 if there is position information of the confluence point with the emergency vehicle and rescue by the emergency vehicle is necessary, the process proceeds to step S98.
  • step S98 the abnormal situation processing unit 203 acquires information about a medical institution for medically treating a driver who has an abnormal physical condition and information about a confluence point with an emergency vehicle.
  • step S99 the abnormal situation processing unit 203 controls the information display unit 252 to present the information of the medical institution for medically treating the driver in which the physical condition abnormality has occurred, and to join the emergency vehicle.
  • the vehicle 11 is moved toward the point.
  • the abnormal situation processing unit 203 outputs the position information of the confluence point with the emergency vehicle to the situation prediction unit 154.
  • the situation prediction unit 154 predicts that the vehicle 11 should be moved to the position information of the confluence point based on the position information of the confluence point with the emergency vehicle, and causes the planning unit 134 to move toward the confluence point. Output the command to instruct.
  • the operation planning unit 163 plans the operation so as to move toward the confluence point according to the command supplied from the situation prediction unit 154, and outputs it to the operation control unit 135.
  • the vehicle control unit 211 controls the drive system control unit 107 to move the vehicle 11 toward the confluence point by the acceleration / deceleration control unit 172 and the direction control unit 173, and the drive system system. 108 is operated.
  • step S97 if there is no position information of the confluence point with the emergency vehicle and rescue by the emergency vehicle is not necessary, the process proceeds to step S100.
  • step S100 the abnormal situation processing unit 203 acquires information on a medical institution for medically treating the driver who has experienced a physical condition abnormality.
  • step S101 the abnormal situation processing unit 203 controls the information display unit 252 to present the information of the medical institution for medically treating the driver in which the physical condition abnormality has occurred, and to the medical institution.
  • the vehicle 11 is moved.
  • the information indicating that the physical condition abnormality has occurred is the information for identifying the driver and the vital information. Reported with data.
  • the medical staff records the medical information based on the information specifying the driver. Will be searched. Then, based on the vital data and the information on the medical record (when the medical record is searched), appropriate treatment is judged for the driver with the physical condition abnormality, and it becomes possible to specify a medical institution that can be treated. ..
  • the driver and passengers are in a state where they can talk to the report receiver and medical staff, in addition to vital data and medical record information, the physical condition based on more detailed information can be obtained by the call. It is possible to appropriately determine the measures to be taken for the abnormal driver.
  • the notification receiver or the medical staff may be able to issue an emergency notification from the notification receiver terminal 12 or the medical staff terminal 13.
  • the notification receiver terminal 12 identifies the confluence point of the emergency vehicle and the vehicle 11 in consideration of the transportation route to the medical institution. Then, the emergency vehicle is arranged so as to rush to the confluence point, the positional information of the confluence point is transmitted to the vehicle 11, and the vehicle 11 is moved to the confluence point.
  • the notification receiver terminal 12 and the medical care worker terminal 13 may be provided with an agent function to be fully automated.
  • the flowchart of FIG. 13 differs from the flowchart of FIG. 12 in the processing of steps S175, S183 and S184, and the processing of steps S210 and S213.
  • step S175 the abnormal situation processing unit 203 determines whether or not the driver needs to be changed and the driver can be changed or not.
  • automatic driving level 4 In the case of automatic driving level 4, automatic driving is possible when automatic driving is satisfied and no driver change is required, but driving is not performed when automatic driving is not satisfied. You need to switch to a possible driver.
  • Whether a driver needs to be replaced and whether or not the driver can be replaced may be the presence or absence of a driver's declaration, or if there is no passenger or if a passenger is present. Even if there is an error, if some kind of failure occurs and the response is impossible, the abnormal situation processing unit 203 may consider that the change is impossible.
  • step S175 If it is determined in step S175 that the driver needs to be changed and can be changed, or if the driver need not be changed, the process proceeds to step S176.
  • the processing after step S176 is the same as the processing after step S95 in FIG.
  • step S176 the driver needs to be changed, but if the driver cannot be changed, it is considered that the automatic driving cannot be continued, and the process proceeds to step S183.
  • step S183 the abnormal situation processing unit 203 stops the vehicle 11 at a safe place.
  • the abnormal situation processing unit 203 notifies the situation prediction unit 154 of information indicating that the driver needs to be changed, but the driver cannot be changed.
  • the situation prediction unit 154 predicts that automatic driving cannot be continued and notifies the planning unit 134 of a command for instructing the vehicle 11 to stop at a safe place.
  • the operation planning unit 163 plans an operation so as to stop at a safe place according to the command supplied from the situation prediction unit 154, and outputs it to the operation control unit 135.
  • the vehicle control unit 211 controls the drive system control unit 107 to stop the vehicle 11 at a safe place by using the acceleration / deceleration control unit 172 and the direction control unit 173, and the drive system system 108. To operate.
  • step S184 the abnormal situation processing unit 203 controls the communication unit 103 to transmit a notification requesting rescue by an emergency vehicle to the site to the notification receiver terminal 12.
  • the vehicle 11 waits for rescue by an emergency vehicle while stopped at a safe position.
  • step S210 the control unit 181 controls the communication unit 182 to determine whether or not rescue by an emergency vehicle is requested up to the site. That is, it is determined whether or not the rescue by the emergency vehicle is requested and the rescue to the site where the vehicle 11 is stopped is requested.
  • step S210 if rescue by an emergency vehicle is requested to the scene, the process proceeds to step S213.
  • step S213 the control unit 181 controls the communication unit 182 to arrange the position information of the vehicle 11 and the emergency vehicle to rescue the vehicle until the site where the vehicle 11 is stopped.
  • the emergency vehicle goes to the rescue of the driver whose physical condition is abnormal at the position of the vehicle 11 stopped at the safe position.
  • the automatic driving level is level 4 and the driver needs to be changed, even if the driver cannot be changed, the vehicle 11 is stopped at a safe place and an abnormal physical condition occurs. After the driver is rescued by an emergency vehicle, he is taken to a medical institution where the necessary treatment can be taken.
  • step S180 the abnormal situation processing unit 203 controls the information display unit 252 to provide information on a medical institution for medically treating the driver in which the physical condition abnormality has occurred, together with the emergency vehicle.
  • the merging point is presented, and information that urges the changed driver to drive the vehicle 11 to move toward the merging point with the emergency vehicle is presented.
  • the replaced driver drives the vehicle 11 and moves toward the confluence with the emergency vehicle.
  • the driver with the physical condition abnormality rescued by the emergency vehicle is transported to a medical institution, and necessary treatment is given to the driver with the physical condition abnormality.
  • step S182 the abnormal situation processing unit 203 controls the information display unit 252 to present the information of the medical institution for performing the medical treatment for the driver in which the physical condition abnormality has occurred, and changed. Information that prompts the driver to drive the vehicle 11 to move to the medical institution is presented. With this presentation, the replaced driver drives the vehicle 11 to move it to the medical institution. Then, in the medical institution, necessary measures are taken for the driver who has a physical condition abnormality.
  • the automatic driving level is level 4
  • the driver needs to be changed, and the driver cannot change, the driver and passengers who are physically sick and the surrounding vehicles. It is possible to realize driving control that appropriately considers safety for passengers and passersby.
  • step S251 before the processing of step S252 for notifying that the physical condition abnormality of the driver has occurred, the abnormal situation processing unit 203 causes the vehicle 11 The point is to stop the car in a safe place.
  • the automatic driving level is level 3
  • the subsequent processing is the same as the processing when the automatic operation level is level 4 described with reference to the flowchart in FIG.
  • the vehicle 11 is stopped at a safe place, and the driver having the physical condition abnormality is transported to a medical institution where necessary treatment can be performed.
  • step S331 the abnormal situation processing unit 203 decelerates and stops the vehicle 11 while lighting the hazard lamp.
  • the automatic driving level is level 0 to 2
  • the hazard lamp is turned on and the vehicle is stopped while decelerating.
  • the subsequent processing is the same as the processing when the automatic operation level is level 4 described with reference to the flowchart in FIG.
  • step S336 it is possible to change the driver, not to determine whether the driver needs to be changed and can be changed, or whether the driving change is unnecessary. Is determined. Then, if it is possible to change the driver in step S336, the process proceeds to step S337, and the changed driver drives the vehicle 11 to move the vehicle 11 to a confluence or a medical institution. If it is impossible to change the driver in step S336, the process proceeds to step S344, and the emergency vehicle is arranged to the spot where the vehicle 11 is stopped.
  • the vehicle 11 is stopped while being decelerated by turning on the hazard lamp on the traveling lane, and the driver who has suffered from physical condition is the alternate driver.
  • the vehicle 11 transfers the vehicle to a medical institution or a confluence point, or an emergency vehicle transfers the medical institution to the medical institution.
  • Example of executing by software can be executed not only by hardware but also by software.
  • a program that constitutes the software can perform various functions by installing a computer in which dedicated hardware is installed or various programs. It is installed from a recording medium into a possible general-purpose computer or the like.
  • FIG. 16 shows a configuration example of a general-purpose computer.
  • This computer has a built-in CPU (Central Processing Unit) 1001.
  • An input / output interface 1005 is connected to the CPU 1001 via a bus 1004.
  • a ROM (Read Only Memory) 1002 and a RAM (Random Access Memory) 1003 are connected to the bus 1004.
  • the input / output interface 1005 includes an input unit 1006 formed of an input device such as a keyboard and a mouse for a user to input operation commands, an output unit 1007 for outputting a processing operation screen and an image of a processing result to a display device, programs and various data.
  • a storage unit 1008 including a hard disk drive for storing the data, a LAN (Local Area Network) adapter, and the like are connected to a communication unit 1009 that executes communication processing via a network typified by the Internet. Also, magnetic disks (including flexible disks), optical disks (including CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc)), magneto-optical disks (including MD (Mini Disc)), or semiconductors.
  • a drive 1010 for reading and writing data is connected to a removable recording medium 1011 such as a memory.
  • the CPU 1001 is read from a program stored in the ROM 1002 or a removable recording medium 1011 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, installed in the storage unit 1008, and loaded from the storage unit 1008 to the RAM 1003. Executes various processes according to the program.
  • the RAM 1003 also appropriately stores data necessary for the CPU 1001 to execute various processes.
  • the CPU 1001 loads the program stored in the storage unit 1008 into the RAM 1003 via the input / output interface 1005 and the bus 1004 and executes the program, thereby performing the above-described series of operations. Is processed.
  • the program executed by the computer (CPU 1001) can be provided, for example, by recording it on a removable recording medium 1011 as a package medium or the like.
  • the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the storage unit 1008 via the input / output interface 1005 by mounting the removable recording medium 1011 in the drive 1010. Further, the program can be received by the communication unit 1009 via a wired or wireless transmission medium and installed in the storage unit 1008. In addition, the program can be installed in advance in the ROM 1002 or the storage unit 1008.
  • the program executed by the computer may be a program in which processing is performed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
  • the CPU 1001 in FIG. 16 realizes the function of the automatic driving control unit 112 in FIG. Further, the storage unit 1008 in FIG. 16 realizes the storage unit 111 in FIG.
  • the system means a set of a plurality of constituent elements (devices, modules (parts), etc.), and it does not matter whether or not all constituent elements are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and one device housing a plurality of modules in one housing are all systems. ..
  • the present disclosure may have a configuration of cloud computing in which one function is shared by a plurality of devices via a network and jointly processes.
  • each step described in the above-mentioned flowchart can be executed by one device or shared by a plurality of devices.
  • one step includes a plurality of processes
  • the plurality of processes included in the one step can be executed by one device or shared by a plurality of devices.
  • a vital data acquisition unit that acquires vital data of the driver of the vehicle, And an abnormal situation processing unit that controls the vehicle to a safe state according to the automatic driving level when the determination result that the driver is experiencing physical condition abnormality is acquired based on the vital data.
  • Information processing device ⁇ 2> The information processing device according to ⁇ 1>, further including a physical condition abnormality determination unit that determines whether or not the driver is generating an abnormal physical condition based on the vital data.
  • a communication unit that transmits the vital data, Based on the vital data, further comprising an acquisition unit for acquiring a determination result that the driver is experiencing physical condition abnormality, The information processing apparatus according to claim 2, wherein the physical condition abnormality determination unit determines whether or not the driver has an abnormal physical condition according to the acquired determination result.
  • the communication unit transmits the vital data to a specialized medical institution that determines whether or not the physical condition abnormality has occurred, based on the vital data
  • the acquisition unit by the specialized medical institution, acquires the determination result of the occurrence of the physical condition abnormality based on the vital data
  • the physical condition abnormality determination unit determines whether or not the driver is generating physical condition abnormality according to the determination result of the presence or absence of the physical condition abnormality based on the vital data by the specialized medical institution.
  • ⁇ 6> When the automatic driving level is Level 4 or Level 5, the physical condition abnormality determination unit determines whether or not the driver is causing physical condition abnormality based on the vital data
  • the abnormal situation processing unit causes the vital condition processing unit to perform The driver, which transmits the notification indicating that the driver is causing an abnormal physical condition together with the data, and which is causing the abnormal physical condition based on the vital data, which is transmitted in response to the notification.
  • the information processing device wherein the vehicle is controlled to be in a safe state by receiving information of a medical institution that can perform treatment to be performed on the vehicle and operating the vehicle so as to move to the medical institution. apparatus.
  • the abnormal situation processing unit based on the vital data transmitted in response to the notification, information of a medical institution capable of performing a treatment to be performed on the driver causing the physical condition abnormality, and Receiving the information indicating the necessity of rescue by the emergency vehicle and, when the rescue by the emergency vehicle is required, operating the vehicle so as to move to a confluence with the emergency vehicle,
  • the information processing apparatus according to ⁇ 7>, wherein the information processing apparatus controls the computer to a safe state.
  • the abnormal situation processing unit transmits, together with the vital data and information for identifying the driver, a notification indicating that the driver is in an abnormal physical condition, and is transmitted in response to the notification.
  • the information processing device Based on the vital data and the information of the medical chart searched by the information identifying the driver, the information of the medical institution that can perform the treatment to be applied to the driver who is causing the physical condition abnormality is displayed.
  • the information processing device wherein the vehicle is controlled to be in a safe state by operating the vehicle so as to receive and move to the medical institution.
  • the automatic driving level is level 4
  • the information processing device according to ⁇ 7>.
  • the abnormal situation processing unit operates the vehicle so as to stop at a safe place, or operates the vehicle so as to stop at the safe place and stops the vehicle.
  • the information processing apparatus according to ⁇ 7>, wherein the vehicle is controlled to a safe state by requesting rescue by an emergency vehicle at the specified position.
  • the abnormal situation processing unit determines whether the driver is in the safe place.
  • the abnormal situation processing unit controls the vehicle to a safe state by requesting rescue by an emergency vehicle at a position where the vehicle has stopped.
  • the abnormal situation processing unit turns on the hazard lamp. After operating the vehicle so that it lights up and stops while decelerating, the vital data is sent together with a notification indicating that the driver is experiencing physical condition abnormality, and is sent in response to the notification.
  • the information processing device Based on the vital data, it receives the information of the medical institution that can perform the treatment to be performed on the driver causing the physical condition abnormality, and presents the information prompting the user to move to the medical institution.
  • the information processing device which controls the vehicle to a safe state.
  • the abnormal situation processing unit controls the vehicle to a safe state by requesting rescue by an emergency vehicle at a position where the vehicle has stopped.
  • the physical condition abnormality determination unit causes the driver to cause an abnormal physical condition based on the vital data.
  • the information processing apparatus according to any one of ⁇ 2> to ⁇ 5>, which determines whether or not there is.
  • the physical condition abnormality determination unit applies feedback that urges the driver to wake up, and when the driver's line-of-sight cannot be detected, the vital data is added to the vital data.
  • the information processing apparatus according to ⁇ 16>, which determines whether or not the driver is causing a physical condition abnormality based on the determination.
  • the physical condition abnormality determination unit The information processing apparatus according to ⁇ 17>, wherein the feedback is repeated, and it is determined whether the driver has an abnormal physical condition based on whether the feedback is repeated a predetermined number of times.
  • Vital data acquisition processing for acquiring vital data of the driver of the vehicle, And an abnormal situation process for controlling the vehicle to a safe state according to the automatic driving level when the driver obtains a judgment result that the physical condition is abnormal based on the vital data.
  • a vital data acquisition unit that acquires vital data of a vehicle driver, Based on the vital data, when the driver obtains a determination result that the physical condition is abnormal, a computer as an abnormal situation processing unit that controls the vehicle to a safe state according to the automatic driving level.
  • a program that makes a function.
  • 11 vehicles, 12 notification receiver terminals, 13 medical staff terminals 100 vehicle control system, 102 data acquisition section, 112 automatic operation control section, 133 status analysis section, 134 planning section, 135 operation control section, 153 status recognition section, 154 status prediction unit, 172 acceleration / deceleration control unit, 173 direction control unit, 185 vital data transmission / reception management unit, 195 medical record management unit, 201 vehicle environment recognition unit, 202 feedback control unit, 203 abnormal situation processing unit, 204 E-call, 211 vehicle control unit, 231 in-vehicle sensor, 232 vital data acquisition sensor, 251, irritating odor generating unit, 252 information display unit, 253 speaker

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Databases & Information Systems (AREA)
  • Educational Technology (AREA)
  • Social Psychology (AREA)
  • Combustion & Propulsion (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Chemical & Material Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)

Abstract

本開示は、運転者の運転中の体調異常を検出して、安全に配慮した処理を実現できるようにする情報処理装置、および情報処理方法、並びにプログラムに関する。 車両の運転者のバイタルデータを取得し、取得したバイタルデータに基づいて、運転者が体調異常を発生させているとの判定結果を取得した場合、自動運転レベルに応じて車両を安全な状態に制御する。本開示は、車載システムに適用することができる。

Description

情報処理装置、および情報処理方法、並びにプログラム
 本開示は、情報処理装置、および情報処理方法、並びにプログラムに関し、特に、運転者の運転中の体調異常を検出して、安全に配慮した処理を実現できるようにした情報処理装置、および情報処理方法、並びにプログラムに関する。
 車両を運転する運転者の生体情報であるバイタルデータをヘルプネットセンタに送信し、ヘルプネットセンタにおいて運転者の体調を監視する技術が提案されている(特許文献1参照)。
特開2013-171569号公報
 しかしながら、特許文献1の技術においては、運転者が指先をセンサに当接することで生体情報が読み取られるものであり、運転者が意識的に指先を当接しなければバイタルデータは検出されず、ヘルプネットセンタにも送信されない。
 このため、運転者が運転中に突然意識を失うような状態となったときには、バイタルデータ(生体情報)がヘルプネットセンタに送信されないので、意識失うような体調異常が発生しても安全に配慮した適切な運転制御を実現することはできない。
 本開示は、このような状況に鑑みてなされたものであり、特に、バイタルデータを取得して、体調異常が生じるようなときに、安全に配慮した適切な運転制御を実現できるようにするものである。
 本開示の一側面の情報処理装置は、車両の運転者のバイタルデータを取得するバイタルデータ取得部と、前記バイタルデータに基づいて、前記運転者が体調異常を発生させているとの判定結果を取得した場合、自動運転レベルに応じて前記車両を安全な状態に制御する異常事態処理部とを備えた情報処理装置である。
 本開示の一側面の情報処理方法、およびプログラムは、情報処理装置に対応する。
 本開示の一側面においては、車両の運転者のバイタルデータが取得され、前記バイタルデータに基づいて、前記運転者が体調異常を発生させているとの判定結果を取得した場合、自動運転レベルに応じて前記車両が安全な状態に制御される。
視線を検出する構成を説明する図である。 運転者の体調異常が発生するときに運転者が医療機関に搬送される例を説明する図である。 運転者の体調異常が発生するときに安全な場所に停止させる例を説明する図である。 本開示の交通システムの構成例を説明するブロック図である。 本開示の車両制御システムの構成例を説明するブロック図である。 本開示の通報受信者端末の構成例を説明するブロック図である。 本開示の医療業務者端末の構成例を説明するブロック図である。 図5における安全運転制御を実現する構成を抜粋した構成例を説明するブロック図である。 自動運転制御処理を説明するフローチャートである。 運転異常者判定処理を説明するフローチャートである。 異常事態処理を説明するフローチャートである。 自動運転レベル5対応処理を説明するフローチャートである。 自動運転レベル4対応処理を説明するフローチャートである。 自動運転レベル3対応処理を説明するフローチャートである。 緊急停止サポート処理を説明するフローチャートである。 汎用のコンピュータの構成例を説明する図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
 1.本開示の概要
 2.本開示の交通システムの構成例
 3.本開示の車両を制御する車両制御システムの構成例
 4.本開示の通報受信者端末の構成例
 5.本開示の医療業務者端末の構成例
 6.バイタルデータに基づいて体調異常を検出し、安全を考慮した運転制御を実現する自動運転制御部の構成例
 7.自動運転制御処理
 8.運転者異常判定処理
 9.異常事態処理
 10.自動運転レベル5対応処理
 11.自動運転レベル4対応処理
 12.自動運転レベル3対応処理
 13.緊急停止サポート処理
 14.ソフトウェアにより実行させる例
 <<1.本開示の概要>>
 <バイタルデータの検出>
 本開示の概要について説明する。
 本開示の車両は、運転者のバイタルデータを検出し、運転者が体調異常を発生させているか否かに基づいて、運転者および同乗者、周辺の車両、並びに通行人等の安全を考慮した運転制御を行う。
 運転者のバイタルデータは、例えば、視線検出の有無、心拍、脈拍、体表脈波および体温等である。
 視線検出の有無は、例えば、図1で示されるように、ステアリングの上部であって、運転者Hに対向する位置に設けられたカメラCamにより、運転者Hの顔の付近の範囲Vを撮像し、撮像した画像における運転者の瞳の位置に基づいて検出される瞳孔が開いていない状態で、かつ、視線が所定の方向に対して所定の時間だけ継続した状態であるか否かにより判定される。ただし、所定時間以上視線方向に変化がない場合、意識を失っていることも予想されるので、視線検出の有無は、検出される瞳の瞳孔の状態になども考慮の上、適切な時間だけ凝視しているか否かにより判定される。
 カメラCamは、いわゆるイメージセンサのみならず、ToF(Time of Flight)センサを併用した構成であることが望ましい。
 より詳細には、イメージセンサにより得られる画像の場合、夜間における対向車のヘッドライトにより顔全体が強い光にさらされることで、例えば、顔全体の画像が白飛びを起すことにより顔を構成する各器官が認識できない恐れがある。
 これに対して、ToFセンサにより得られる距離画像の場合、カメラCamから顔の表面の各位置までの距離の情報が求められることにより、顔の表面の凹凸を認識することができるので、顔の表面の凹凸の情報に基づいて、顔を構成する各器官を認識することができる。
 このような理由から、カメラCamは、イメージセンサとToFセンサとを、それぞれ設ける構成とし、状況に応じてイメージセンサによる画像とToFセンサにより距離画像とを使い分けられる構成であることが望ましい。また、イメージセンサとToFセンサとを組み合わせる事でロバスト性を向上させたり、処理時間を短縮できるようにしても良い。
 ここで、心拍、脈拍、体温は、例えば、図1の運転者Hが腕に装着するようなウェアラブルデバイスBにより直接運転者の心拍、脈拍、および体温を検出するようにしてもよい。また、体表脈波は、シートに装着され、運転者の背中に当接するセンサCにより検出されるようにしてもよい。
 さらに、心拍や脈拍については、例えば、マイクロ波センサを用いて、運転者に対して非接触に測定するようにしてもよい。マイクロ波センサは、心肺の動きで人間の体表面が微細に振動する特性を利用したセンサであり、例えば、24.125GHzのマイクロ波を運転者に照射し、反射するマイクロ波を測定し、測定結果から人間の体表面の微細な振動により生じるドップラー効果を利用して心拍(脈拍)を検出する。
 また、体温については、温感センサにより検出するようにしてもよい。
 尚、バイタルデータについては、運転者の体調を確認することが可能なデータであれば、視線検出、心拍、脈拍、体表脈波および体温以外の生体情報であってもよい。
 <自動運転レベルに応じた運転制御>
 本開示の車両は、自動運転により運転がなされることが前提であり、自動運転レベルに応じた運転制御がなされる。
 ここで、自動運転レベルとは、自動運転のレベルを分類するものであり、例えば、レベル0乃至5までに分類される。
 レベル0は、運転操作の全てを運転者が行う自動運転レベルであり、実質的に自動運転ではない。
 レベル1は、運転操作のうち、加減速に係る運転操作、およびステアリング操作に係る運転操作のうちのいずれかが制御される自動運転レベルである。
 レベル2は、運転操作のうち、加減速に係る運転操作、およびステアリング操作に係る運転操作が連携して制御される自動運転レベルである。
 レベル3は、例えば、高速道路などの特定の場所において、全ての運転操作が制御される自動運転レベルである。ただし、レベル3においては、緊急時の運転操作は運転者によりなされることが前提となる。
 レベル4は、例えば、高速道路などの特定の場所において、緊急時を含めて、全ての運転操作が制御される自動運転レベルである。
 レベル5は、あらゆる状況において、全ての運転操作が制御される自動運転レベルであり、いわゆる完全自動運転となるレベルである。
 上述したように、レベル0乃至2の自動運転レベルを実現する技術については、運転者が主として運転操作を行う技術であるので、一般に運転支援技術と称される。
 これに対して、レベル3乃至5の自動運転レベルを実現する技術については、特定の場所では運転者が主として運転操作を行う必要がなくなる技術であるので、一般に自動運転技術と称される。
 本開示の運転制御は、運転者のバイタルデータ言基づいて、体調異常の有無を判定し、自動運転レベルに応じて、安全を配慮した運転制御を実現するものである。
 より具体的には、例えば、図2の車両C1で示されるように走行している状態でバイタルデータに基づいて、運転者の体調異常が発生していることが検出される場合、自動運転レベル5であるときには、完全自動運転であるので、矢印Aで示されるように、車両C1が運転者を医療機関Mまで搬送する。
 また、運転者の体調異常が重篤であり、緊急車両による救護が必要である場合、自動運転レベル5であるときには、矢印Bで示されるように、車両C1が緊急車両CAとの合流地点まで、運転者を搬送する。そして、緊急車両CA(の救急隊員や医師等)が、車両C1の運転者に対して必要に応じて治療を施して、医療機関Mに搬送する。
 さらに、自動運転レベル4である場合については、自動運転が可能であり、運転者の交代が必要でないときには、自動運転レベル5である場合と同様に車両C1が医療機関Mまで運転者を搬送する。
 さらに、自動運転レベルがレベル4である場合、運転者の交代が必要であるが、交代の運転者が存在しないときには、例えば、図3の左部で示されるように、走行車線L1を走行中の車両C2が、図3の右部の車両C2’で示されるように、路肩L2の安全な場所に停車させる。そして、この停車位置に緊急車両が手配されて、緊急車両CAが停車位置まで出向き、緊急車両CA(の救急隊員や医師等)が体調異常の運転者に対して処置を行った後、医療機関Mまで搬送する。
 ここで、自動運転レベルがレベル4であって、自動運転ができない環境であり、運転者の交代が必要であって、交代が可能であるときには、交代した運転者が、車両C2’を運転して、医療機関Mや緊急車両CAとの合流地点へと体調異常の運転者を搬送する。
 また、自動運転レベル3である場合については、運転者が運転できない状況において自動運転を継続できない。そこで、運転者の体調異常の発生が検出されると、図2で示されるように、走行車線L1を走行している車両C2は、車両C2’で示されるように、路肩L2の安全な場所に停車させ、緊急車両CAの搬送を待つ。
 ここで、自動運転ができない環境であり、運転者の交代が必要であって、交代が可能であるときには、自動運転レベル4のときと同様に、交代した運転者が、車両C12’を運転して、医療機関Mや緊急車両CAとの合流地点へと体調異常の運転者を搬送する。
 さらに、自動運転レベル0乃至2の場合については、運転者の体調の異常が検出されると、安全な場所を特定することができないが、ハザードランプを点灯させて、走行車線上に停止させ、緊急車両CAの搬送を待つ。
 ここでも、運転者の交代が可能である場合については、自動運転レベル3や4のときと同様に、交代した運転者が、車両を運転して、医療機関Mや緊急車両CAとの合流地点へと運転者を搬送する。
 このように運転者のバイタルデータを取得して、体調異常の有無を検出し、体調異常が検出される場合には、自動運転レベルに応じた運転制御により、安全を考慮した処理を実現することが可能となる。
 <<2.本開示の交通システムの構成例>>
 次に、図4を参照して、本開示の運転者のバイタルデータを取得して、体調異常が生じたときに、安全に配慮した適切な運転制御を実現できるようにする交通システムの構成例について説明する。
 図4の交通システム1は、車両11-1乃至11-n、通報受信者端末12、医療業務者端末13、およびネットワーク14より構成される。車両11-1乃至11-n、通報受信者端末12、および医療業務者端末13は、ネットワーク14を介して、相互に通信可能な構成とされている。
 車両11-1乃至11-nは、自動運転レベル0乃至5の様々な自動運転レベルで運転される車両である。尚、車両11-1乃至11-nを特に区別する必要がない場合、単に、車両11と称するものとし、その他の構成についても同様に称する。
 車両11は、運転者が搭乗すると、運転者を識別すると共に、運転者の視線検出の有無やバイタルデータを取得して、体調異常の有無を判定する。車両11は、運転者のバイタルデータに基づいて、体調異常があると判定するとき、位置情報、バイタルデータ、および運転者を特定する情報と共に、運転者の体調の異常を通報する情報を通報受信者端末12に対して通報する。
 尚、バイタルデータは、運転者の視線検出、心拍、脈拍、体表脈波および体温をいずれも含むものであるが、以降においては、視線検出は、バイタルデータとは独立したデータとして説明する。すなわち、以降においては、バイタルデータといった場合、視線検出結果の情報は含まず、心拍、脈拍、体表脈波、および体温を示す。また、運転者を特定する情報とは、運転者個人を特定できる情報であれば、いずれの情報であってもよい。より具体的には、運転者を特定する情報は、例えば、運転者の顔画像、指紋、網膜パターンなどの生体情報でもよいし、生体情報に基づいて、運転者の氏名や年齢などの登録された個人情報と対応付けて記憶されているときには、その個人情報そのものであってもよい。
 車両11は、位置情報、バイタルデータ、および運転者を特定する情報に基づいて、通報受信者端末12を介して、医療業務者端末13より送信されてくる医療機関の情報(位置情報を含む)、または、緊急車両との合流地点の位置情報を取得して、自動運転レベルに応じた安全を考慮した処理を実現する。
 通報受信者端末12は、運転者の体調異常の通報を受け付ける通報受信者により操作される端末であり、運転者の体調異常の通報を受信すると共に、併せて送信されてくる位置情報、バイタルデータおよび運転者を特定する情報を取得する。通報受信者は、例えば、交通システムにおけるオペレータ等である。
 通報受信者端末12は、受信した位置情報、バイタルデータおよび運転者を特定する情報を、医療業務者端末13に送信する。
 通報受信者端末12は、位置情報、バイタルデータおよび運転者を特定する情報に基づいて、医療業務者端末13より送信されてくる、体調異常の運転者に必要な処置が可能な医療機関の位置情報と共に、緊急車両の要否の情報を取得する。
 通報受信者端末12は、医療業務者端末13より緊急車両の手配が要求される場合、体調異常の運転者が運転する車両11の位置情報と、特定された医療機関の位置情報とから、運転者を医療機関に搬送するためのルートを考慮した適切な車両11と緊急車両との合流地点を特定する。そして、通報受信者端末12は、体調異常の運転者に必要な処置が可能な医療機関の情報と共に、緊急車両との合流地点の情報を車両11に送信すると共に、救急車両を合流地点へと急行するように手配する。
 また、通報受信者端末12は、医療業務者端末13より緊急車両の手配が要求されない場合、体調異常の運転者に必要な処置が可能な医療機関の位置情報を車両11に送信する。ただし、この場合、車両11において運転者の交代が必要であるが、交代する運転手がいないなど、車両11からの緊急車両の要請があるときには、通報受信者端末12は、車両11が停車している現場へと急行するように緊急車両を手配する。
 医療業務者端末13は、医療業務者により操作される端末であり、通報受信者端末12より送信されてくるバイタルデータと運転者を特定する情報を取得し、運転者を特定する情報に基づいて、体調異常となった運転者のカルテを検索する。
 医療業務者とは、例えば、医師、歯科医師、薬剤師、および看護師等の医療関係者などであり、バイタルデータ、およびカルテの情報等から、体調異常の運転者に対して必要とされる医療的な処置を判断できる人物である。
 医療業務者端末13は、運転者のカルテが検索できた場合、バイタルデータと共に医療業務者に提示し、体調異常の運転者に対して必要な処置、その処置が可能な医療機関の特定、および緊急車両の要否等の判断を医療業務者に要請する。
 医療業務者は、この要請に応じて、体調異常の運転者に対して必要な処置を判断し、対応する処置と、その処置が可能な医療機関を特定すると共に、緊急車両の要否を判断する。
 そして、医療業務者は、医療業務者端末13を操作して、特定した医療機関の位置情報、および緊急車両の要否の情報を通報受信者端末12に送信させる。
 体調異常の運転者のカルテの情報がある場合、そのカルテを保持する医療機関が、体調異常の運転者の掛かりつけの病院等である可能性があるので、現状の体調異常の運転者の処置が可能であれば、少し遠い場合でも優先的に搬送先の医療機関として特定するようにしてもよい。
 また、医療業務者端末13は、運転者のカルテがない場合、バイタルデータに基づいて、医療業務者に対して、必要な医療的な処置、その処置が可能な医療機関の特定、および緊急車両の要否の判断を要請する。
 さらに、車両11、通報受信者端末12、および医療業務者端末13は、相互に通話可能な構成とされている。
 従って、一連の処理において、車両11の運転者または同乗者のいずれかが通話が可能である場合には、通報受信者および医療業務者との相互の通話を実現する。
 従って、通話が可能である場合については、医療業務者は、カルテの情報(運転者のカルテの情報がある場合)、バイタルデータ、および、通話内容に基づいて、総合的に必要な医療的処置を判断することにより、医療機関を特定し、緊急車両の要否を判断することができる。
 このような通信機能により、体調異常となっている運転者に対して、より適切な処置を判断することが可能となる。
 また、医療業務者端末13は、体調異常となっている運転者に対して、必要な処置を提案するエージェント機能を備えるようにしてもよい。
 すなわち、カルテの情報(運転者のカルテの情報がある場合)、バイタルデータ、および、通話内容(通話可能な場合)に基づいて、医療業務者端末13のエージェント機能が、総合的に必要な医療的な処置と、その処置が可能な医療機関を判断することにより、医療機関や緊急車両の要否を提案できるようにしてもよい。
 このような一連の交通システムにより、車両11を運転する運転者が、運転中に体調異常に陥るような状況になっても、安全を考慮した適切な運転制御を実現することが可能となる。
 <<3.本開示の車両を制御する車両制御システムの構成例>>
 次に、図5のブロック図を参照して、本開示の車両の車両制御システムについて説明する。
 図5は、本技術が適用され得る車両11の車両制御システム100の概略的な機能の構成例を示すブロック図である。
 なお、以下、車両制御システム100が設けられている車両11を他の車両と区別する場合、自車又は自車両と称する。
 車両制御システム100は、入力部101、データ取得部102、通信部103、車内機器104、出力制御部105、出力部106、駆動系制御部107、駆動系システム108、ボディ系制御部109、ボディ系システム110、記憶部111、及び、自動運転制御部112を備える。入力部101、データ取得部102、通信部103、出力制御部105、駆動系制御部107、ボディ系制御部109、記憶部111、及び、自動運転制御部112は、通信ネットワーク121を介して、相互に接続されている。通信ネットワーク121は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、又は、FlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークやバス等からなる。なお、車両制御システム100の各部は、通信ネットワーク121を介さずに、直接接続される場合もある。
 なお、以下、車両制御システム100の各部が、通信ネットワーク121を介して通信を行う場合、通信ネットワーク121の記載を省略するものとする。例えば、入力部101と自動運転制御部112が、通信ネットワーク121を介して通信を行う場合、単に入力部101と自動運転制御部112が通信を行うと記載する。
 入力部101は、搭乗者が各種のデータや指示等の入力に用いる装置を備える。例えば、入力部101は、タッチパネル、ボタン、マイクロフォン、スイッチ、及び、レバー等の操作デバイス、並びに、音声やジェスチャ等により手動操作以外の方法で入力可能な操作デバイス等を備える。また、例えば、入力部101は、赤外線若しくはその他の電波を利用したリモートコントロール装置、又は、車両制御システム100の操作に対応したモバイル機器若しくはウェアラブル機器等の外部接続機器であってもよい。入力部101は、搭乗者により入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム100の各部に供給する。
 データ取得部102は、車両制御システム100の処理に用いるデータを取得する各種のセンサ等を備え、取得したデータを、車両制御システム100の各部に供給する。
 例えば、データ取得部102は、自車の状態等を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ジャイロセンサ、加速度センサ、慣性計測装置(IMU)、及び、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数、モータ回転数、若しくは、車輪の回転速度等を検出するためのセンサ等を備える。
 また、例えば、データ取得部102は、自車の外部の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ、及び、その他のカメラ等の撮像装置を備える。また、例えば、データ取得部102は、天候又は気象等を検出するための環境センサ、及び、自車の周囲の物体を検出するための周囲情報検出センサを備える。環境センサは、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ等からなる。周囲情報検出センサは、例えば、超音波センサ、レーダ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等からなる。
 さらに、例えば、データ取得部102は、自車の現在位置を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、GNSS(Global Navigation Satellite System)衛星からのGNSS信号を受信するGNSS受信機、RTK(Real Time Kinematic)-GPS(Global Positioning System)、ネットワークRTK等を備える。
 また、例えば、データ取得部102は、車内の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、運転者を撮像する撮像装置(ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ、及び、その他のカメラ等)、運転者の生体情報を検出する生体センサ、及び、車室内の音声を集音するマイクロフォン等を備える。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座っている搭乗者又はステアリングホイールを握っている運転者の生体情報を検出する。
 通信部103は、車内機器104、並びに、車外の様々な機器、サーバ、基地局等と通信を行い、車両制御システム100の各部から供給されるデータを送信したり、受信したデータを車両制御システム100の各部に供給したりする。なお、通信部103がサポートする通信プロトコルは、特に限定されるものではなく、また、通信部103が、複数の種類の通信プロトコルをサポートすることも可能である。
 例えば、通信部103は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)、又は、WUSB(Wireless USB)等により、車内機器104と無線通信を行う。また、例えば、通信部103は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)、又は、MHL(Mobile High-definition Link)等により、車内機器104と有線通信を行う。
 さらに、例えば、通信部103は、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)との通信を行う。また、例えば、通信部103は、P2P(Peer To Peer)技術を用いて、自車の近傍に存在する端末(例えば、歩行者若しくは店舗の端末、又は、MTC(Machine Type Communication)端末)との通信を行う。さらに、例えば、通信部103は、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、自車と家との間(Vehicle to Home)の通信、及び、歩車間(Vehicle to Pedestrian)通信等のV2X通信を行う。また、例えば、通信部103は、ビーコン受信部を備え、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行規制又は所要時間等の情報を取得する。さらに、通信部103は、後述するE-call204(図8)により制御されて、エアバッグ等の衝突を検出するセンサの動作状態に連動して、事故が発生した発生位置(GPS座標)を、外部ネットワーク上にあり、警察や病院等に連絡するセンタ(例えば、通報受信者端末12)に送信する。
 車内機器104は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、自車に搬入され若しくは取り付けられる情報機器、及び、任意の目的地までの経路探索を行うナビゲーション装置等を含む。
 出力制御部105は、自車の搭乗者又は車外に対する各種の情報の出力を制御する。例えば、出力制御部105は、視覚情報(例えば、画像データ)及び聴覚情報(例えば、音声データ)のうちの少なくとも1つを含む出力信号を生成し、出力部106に供給することにより、出力部106からの視覚情報及び聴覚情報の出力を制御する。具体的には、例えば、出力制御部105は、データ取得部102の異なる撮像装置により撮像された画像データを合成して、俯瞰画像又はパノラマ画像等を生成し、生成した画像を含む出力信号を出力部106に供給する。また、例えば、出力制御部105は、衝突、接触、危険地帯への進入等の危険に対する警告音又は警告メッセージ等を含む音声データを生成し、生成した音声データを含む出力信号を出力部106に供給する。
 出力部106は、自車の搭乗者又は車外に対して、視覚情報又は聴覚情報を出力することが可能な装置を備える。例えば、出力部106は、表示装置(情報表示部252(図8)を含む)、インストルメントパネル、オーディオスピーカ、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ、ランプ等を備える。出力部106が備える表示装置は、通常のディスプレイを有する装置以外にも、例えば、ヘッドアップディスプレイ(HUD)、透過型ディスプレイ、AR(Augmented Reality)表示機能を有する装置等の運転者の視野内に視覚情報を表示する装置であってもよい。また、出力部106は、運転者の視線が検出できず、脇見運転や居眠り運転などが予測されるとき、覚醒を促すためのフィードバック機能を有する構成を備えている。フィードバック機能を有する構成は、例えば、運転者の視野内に視覚情報を表示する装置(情報表示部252(図8)等)の他、音声を出力するスピーカ253(図8)、マイクロフォンとスピーカ等を使って対話エージェントによる運転者との会話(例えば、氏名や生年月日を質問し、応答させ、応答内容が正解であるか否かの会話)により覚醒を促す機構、シートベルトを振動させる機構、ステアリングを振動させる機構、シートを振動させる機構、および刺激臭を発生させる刺激臭発生部251(図8)等である。
 駆動系制御部107は、各種の制御信号を生成し、駆動系システム108に供給することにより、駆動系システム108の制御を行う。また、駆動系制御部107は、必要に応じて、駆動系システム108以外の各部に制御信号を供給し、駆動系システム108の制御状態の通知等を行う。
 駆動系システム108は、自車の駆動系に関わる各種の装置を備える。例えば、駆動系システム108は、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、舵角を調節するステアリング機構、制動力を発生させる制動装置、ABS(Antilock Brake System)、ESC(Electronic Stability Control)、並びに、電動パワーステアリング装置等を備える。
 ボディ系制御部109は、各種の制御信号を生成し、ボディ系システム110に供給することにより、ボディ系システム110の制御を行う。また、ボディ系制御部109は、必要に応じて、ボディ系システム110以外の各部に制御信号を供給し、ボディ系システム110の制御状態の通知等を行う。
 ボディ系システム110は、車体に装備されたボディ系の各種の装置を備える。例えば、ボディ系システム110は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、パワーシート、ステアリングホイール、空調装置、及び、各種ランプ(例えば、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカ、フォグランプ等)等を備える。
 記憶部111は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、及び、光磁気記憶デバイス等を備える。記憶部111は、車両制御システム100の各部が用いる各種プログラムやデータ等を記憶する。例えば、記憶部111は、ダイナミックマップ等の3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ、及び、自車の周囲の情報を含むローカルマップ等の地図データを記憶する。
 自動運転制御部112は、自律走行又は運転支援等の自動運転に関する制御を行う。具体的には、例えば、自動運転制御部112は、自車の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、自車の衝突警告、又は、自車のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行う。また、例えば、自動運転制御部112は、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行う。自動運転制御部112は、検出部131、自己位置推定部132、状況分析部133、計画部134、及び、動作制御部135を備える。
 検出部131は、自動運転の制御に必要な各種の情報の検出を行う。検出部131は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143を備える。
 車外情報検出部141は、車両制御システム100の各部からのデータ又は信号に基づいて、自車の外部の情報の検出処理を行う。例えば、車外情報検出部141は、自車の周囲の物体の検出処理、認識処理、及び、追跡処理、並びに、物体までの距離の検出処理を行う。検出対象となる物体には、例えば、車両、人、障害物、構造物、道路、信号機、交通標識、道路標示等が含まれる。また、例えば、車外情報検出部141は、自車の周囲の環境の検出処理を行う。検出対象となる周囲の環境には、例えば、天候、気温、湿度、明るさ、及び、路面の状態等が含まれる。車外情報検出部141は、検出処理の結果を示すデータを自己位置推定部132、状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153、並びに、動作制御部135の緊急事態回避部171等に供給する。
 車内情報検出部142は、車両制御システム100の各部からのデータ又は信号に基づいて、車内の情報の検出処理を行う。例えば、車内情報検出部142は、運転者の認証処理及び認識処理、運転者の状態の検出処理、搭乗者の検出処理、及び、車内の環境の検出処理等を行う。検出対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線方向等が含まれる。検出対象となる車内の環境には、例えば、気温、湿度、明るさ、臭い等が含まれる。車内情報検出部142は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
 車両状態検出部143は、車両制御システム100の各部からのデータ又は信号に基づいて、自車の状態の検出処理を行う。検出対象となる自車の状態には、例えば、速度、加速度、舵角、異常の有無及び内容、運転操作の状態、パワーシートの位置及び傾き、ドアロックの状態、並びに、その他の車載機器の状態等が含まれる。車両状態検出部143は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
 自己位置推定部132は、車外情報検出部141、及び、状況分析部133の状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車の位置及び姿勢等の推定処理を行う。また、自己位置推定部132は、必要に応じて、自己位置の推定に用いるローカルマップ(以下、自己位置推定用マップと称する)を生成する。自己位置推定用マップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いた高精度なマップとされる。自己位置推定部132は、推定処理の結果を示すデータを状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153等に供給する。また、自己位置推定部132は、自己位置推定用マップを記憶部111に記憶させる。
 状況分析部133は、自車及び周囲の状況の分析処理を行う。状況分析部133は、マップ解析部151、交通ルール認識部152、状況認識部153、及び、状況予測部154を備える。
 マップ解析部151は、自己位置推定部132及び車外情報検出部141等の車両制御システム100の各部からのデータ又は信号を必要に応じて用いながら、記憶部111に記憶されている各種のマップの解析処理を行い、自動運転の処理に必要な情報を含むマップを構築する。マップ解析部151は、構築したマップを、交通ルール認識部152、状況認識部153、状況予測部154、並びに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
 交通ルール認識部152は、自己位置推定部132、車外情報検出部141、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車の周囲の交通ルールの認識処理を行う。この認識処理により、例えば、自車の周囲の信号の位置及び状態、自車の周囲の交通規制の内容、並びに、走行可能な車線等が認識される。交通ルール認識部152は、認識処理の結果を示すデータを状況予測部154等に供給する。
 状況認識部153は、自己位置推定部132、車外情報検出部141、車内情報検出部142、車両状態検出部143、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車に関する状況の認識処理を行う。例えば、状況認識部153は、自車の状況、自車の周囲の状況、及び、自車の運転者の状況等の認識処理を行う。また、状況認識部153は、必要に応じて、自車の周囲の状況の認識に用いるローカルマップ(以下、状況認識用マップと称する)を生成する。状況認識用マップは、例えば、占有格子地図(Occupancy Grid Map)とされる。
 認識対象となる自車の状況には、例えば、自車の位置、姿勢、動き(例えば、速度、加速度、移動方向等)、並びに、異常の有無及び内容等が含まれる。認識対象となる自車の周囲の状況には、例えば、周囲の静止物体の種類及び位置、周囲の動物体の種類、位置及び動き(例えば、速度、加速度、移動方向等)、周囲の道路の構成及び路面の状態、並びに、周囲の天候、気温、湿度、及び、明るさ等が含まれる。認識対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線(視線方向)の動き、並びに、運転操作等が含まれる。
 状況認識部153は、認識処理の結果を示すデータ(必要に応じて、状況認識用マップを含む)を自己位置推定部132及び状況予測部154等に供給する。また、状況認識部153は、状況認識用マップを記憶部111に記憶させる。
 状況予測部154は、マップ解析部151、交通ルール認識部152及び状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車に関する状況の予測処理を行う。例えば、状況予測部154は、自車の状況、自車の周囲の状況、及び、運転者の状況等の予測処理を行う。
 予測対象となる自車の状況には、例えば、自車の挙動、異常の発生、及び、走行可能距離等が含まれる。予測対象となる自車の周囲の状況には、例えば、自車の周囲の動物体の挙動、信号の状態の変化、及び、天候等の環境の変化等が含まれる。予測対象となる運転者の状況には、例えば、運転者の挙動及び体調等が含まれる。
 状況予測部154は、予測処理の結果を示すデータを、交通ルール認識部152及び状況認識部153からのデータとともに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
 ルート計画部161は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、目的地までのルートを計画する。例えば、ルート計画部161は、グローバルマップに基づいて、現在位置から指定された目的地までのルートを設定する。また、例えば、ルート計画部161は、渋滞、事故、通行規制、工事等の状況、及び、運転者の体調等に基づいて、適宜ルートを変更する。ルート計画部161は、計画したルートを示すデータを行動計画部162等に供給する。
 行動計画部162は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、ルート計画部161により計画されたルートを計画された時間内で安全に走行するための自車の行動を計画する。例えば、行動計画部162は、発進、停止、進行方向(例えば、前進、後退、左折、右折、方向転換等)、走行車線、走行速度、及び、追い越し等の計画を行う。行動計画部162は、計画した自車の行動を示すデータを動作計画部163等に供給する。
 動作計画部163は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、行動計画部162により計画された行動を実現するための自車の動作を計画する。例えば、動作計画部163は、加速、減速、及び、走行軌道等の計画を行う。動作計画部163は、計画した自車の動作を示すデータを、動作制御部135の加減速制御部172及び方向制御部173等に供給する。
 動作制御部135は、自車の動作の制御を行う。動作制御部135は、緊急事態回避部171、加減速制御部172、及び、方向制御部173を備える。
 緊急事態回避部171は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143の検出結果に基づいて、衝突、接触、危険地帯への進入、運転者の異常、車両の異常等の緊急事態の検出処理を行う。緊急事態回避部171は、緊急事態の発生を検出した場合、急停車や急旋回等の緊急事態を回避するための自車の動作を計画する。緊急事態回避部171は、計画した自車の動作を示すデータを加減速制御部172及び方向制御部173等に供給する。
 加減速制御部172は、動作計画部163又は緊急事態回避部171により計画された自車の動作を実現するための加減速制御を行う。例えば、加減速制御部172は、計画された加速、減速、又は、急停車を実現するための駆動力発生装置又は制動装置の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
 方向制御部173は、動作計画部163又は緊急事態回避部171により計画された自車の動作を実現するための方向制御を行う。例えば、方向制御部173は、動作計画部163又は緊急事態回避部171により計画された走行軌道又は急旋回を実現するためのステアリング機構の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
 <<4.本開示の通報受信者端末の構成例>>
 次に、図6のブロック図を参照して、本開示の通報受信者端末の構成例について説明する。
 図6の通報受信者端末12は、制御部181、通信部182、表示部183、音声通話部184、およびバイタルデータ送受信管理部185を備えている。
 制御部181は、プロセッサやメモリなどから構成されており、通報受信者端末12の動作の全体を制御する。
 通信部182は、イーサネットボードなどからなり、図4のネットワーク14を介して車両11、および医療業務者端末13と相互に、データやプログラム等を授受し、相互通信を実現する。
 表示部183は、LCD(Liquid Crystal Display)や有機EL(Electro Luminescence)などより構成され、制御部181により制御されて、各種の情報を表示する。また、表示部183は、タッチパネルなどにより構成されており、通報受信者の操作入力を受け付けて、操作入力に対応した信号を制御部181に出力する。
 音声通話部184は、例えば、マイクロフォンとスピーカにより構成され、通報受信者の発する通話音声の入力を受け付けて、所定の信号に変換して通信部182を介して、車両11や医療業務者端末13に送信させる。また、音声通話部184は、通信部182を介して、車両11や医療業務者端末13より送信されてきた通話音声に係る所定の信号を、音声信号に変換してスピーカより音声として出力し、通報受信者に聴視させる。このような動作により、音声通話部184は、通報受信者と、車両11の運転者や同乗者、および医療業務者端末13を操作する医療業務者との通話を実現させる。
 バイタルデータ送受信管理部185は、車両11より運転者の体調異常の通報がなされる際、通信部182を介して、送信されてくるバイタルデータを受信すると共に、受信したバイタルデータを医療業務者端末13に送信する。この際、バイタルデータには、体調異常が検出された運転者を特定する情報、および車両11の位置情報が含まれている。そこで、バイタルデータ送受信管理部185は、運転者を特定する情報、および車両11の位置情報と共に、バイタルデータを、医療業務者端末13に送信する。
 これに応じて、通報受信者端末12には、医療業務者端末13から、体調異常が発生している運転者に必要とされる医療処置が可能な医療機関の情報、および緊急車両の要否の情報が送信されてくる。
 ここで、制御部181は、例えば、エージェントとして機能して、通信部182を制御して、医療処置が可能な医療機関の情報(位置情報を含む)を受信し、車両11に送信する。また、緊急車両の要否の情報に基づいて、緊急車両の手配が必要であるとみなされた場合、制御部181は、エージェントとして機能することで、車両11の位置情報と、医療処置が可能な医療機関の位置情報とから、搬送ルートを考慮して、適切な緊急車両と車両11との合流地点の位置を特定して、医療処置が可能な医療機関の情報と共に、合流地点の位置情報を車両11に送信する。
 <<5.本開示の医療業務者端末の構成例>>
 次に、図7を参照して、医療業務者端末13の構成例について説明する。
 図7の医療業務者端末13は、制御部191、通信部192、表示部193、音声通話部194、およびカルテ管理部195を備えている。
 制御部191は、プロセッサやメモリなどから構成されており、医療業務者端末13の動作の全体を制御する。
 通信部192は、イーサネットボードなどからなり、図4のネットワーク14を介して車両11、および通報受信者端末12の相互と、データやプログラム等を授受し、相互通信を実現する。
 表示部193は、LCD(Liquid Crystal Display)や有機EL(Electro Luminescence)などより構成され、制御部181により制御されて、各種の情報を表示する。また、表示部193は、タッチパネルなどにより構成され、医療業務者の操作入力を受け付けて、操作入力に対応した信号を制御部191に出力する。
 音声通話部194は、例えば、マイクロフォンとスピーカにより構成され、医療業務者の発する通話音声の入力を受け付けて、所定の信号に変換して通信部182を介して、車両11や通報受信者端末12に送信させる。また、音声通話部194は、通信部192を介して、車両11や通報受信者端末12より送信されてきた通話音声に係る所定の信号を、音声信号に変換してスピーカより音声として出力し、医療業務者に聴視させる。このような動作により、音声通話部194は、医療業務者と、車両11の運転者や同乗者、および通報受信者端末12を操作する通報受信者との通話を実現させる。
 カルテ管理部195は、車両11より運転者の体調異常の通報がなされる際、通信部192を介して、送信されてくるバイタルデータを受信する。この際、バイタルデータには、体調異常が検出された運転者を特定する情報、および車両11の位置情報が含まれている。そこで、カルテ管理部195は、体調異常の運転者を特定する情報に基づいて、予め記憶しているカルテの電子データを検索する。カルテ管理部195は、体調異常の運転者のカルテを検出したとき、検出したカルテの情報を制御部191に出力し、表示部193に表示させる。
 医療業務者は、体調異常の運転者に対して必要な医療的な処置を判断し、その処置が可能な医療機関と、車両11の位置情報との位置関係から適切な医療機関を特定すると共に、緊急車両の要否を判定して、タッチパネルからなる表示部193を操作して、必要な情報を入力する。
 制御部191は、表示部193に入力された医療機関の情報と、緊急車両の要否の情報を、通信部192を制御して、通報受信者端末12を介して、車両11に向けて送信する。
 このとき、制御部191は、エージェントとして機能するようにしてもよく、医療業務者に代わって、体調異常の運転者に対して、必要な処置を判定し、処置が可能な医療機関を特定すると共に、緊急車両の要否を判定して、提案するようにしてもよい。また、制御部191は、医師に代わるエージェントとして機能し、判定結果をそのまま通報受信者端末12を介して車両11に送信するようにしてもよい。
 <<6.バイタルデータに基づいて体調異常を検出し、安全を考慮した運転制御を実現する自動運転制御部の構成例>>
 次に、図8のブロック図を参照して、バイタルデータに基づいて体調異常を検出し、体調異常が検出されたときに、安全を考慮した車両11の運転制御を実現する自動運転制御部の構成例について説明する。
 尚、図8は、図5を参照して説明した車両制御システム100を実現する機能の構成例のうち、視線検出やバイタルデータに基づいて体調異常を検出し、安全を考慮した運転制御を実現する車両制御システム100の構成例の一部を抜粋した構成例を示している。
 データ取得部102は、視線を検出するための車内センサ231と、心拍、脈拍、体表脈波、および体温を検出するためのバイタルデータ取得センサ232を備えている。ここでいう車内センサ231は、具体的には、図1を参照して説明したイメージセンサとToFセンサ(ToFカメラ)との機能を備えたカメラCamに対応するものである。
 すなわち、車内センサ231は、イメージセンサにより取得される画像、またはToFセンサにより取得される距離画像より、運転者Hの顔の付近の画像を取得し、自動運転制御部112における検出部131の車内情報検出部142に出力する。車内情報検出部142は、顔の画像に基づいて、運転者を特定する画像における情報(特徴量情報)を抽出すると共に、画像内の瞳の位置等に基づいて、運転者Hの視線検出の有無(視線が所定方向を所定時間以上凝視しているか否かを含む)を判定して状況分析部133の状況認識部153に出力する。
 また、バイタルデータ取得センサ232は、例えば、図1のウェアラブルデバイスBに対応する構成であり、運転者Hの心拍、脈拍、体表脈波、および体温の情報を検出して、検出結果を自動運転制御部112における検出部131の車内情報検出部142に出力する。車内情報検出部142は、運転者の心拍、脈拍、体表脈波、および体温の情報からなるバイオデータを状況分析部133の状況認識部153に出力する。
 さらに、バイタルデータ取得センサ232は、例えば、マイクロ波センサであり、非接触で運転者の心拍を検出し、検出結果を自動運転制御部112における検出部131の車内情報検出部142に出力する。
 状況認識部153は、検出された運転者を特定する情報、並びに、視線検出、心拍、脈拍、体表脈波、および体温等のバイタルデータに応じて運転者の体調異常を検出し、検出結果に応じた運転制御を実現する。状況認識部153は、車内環境認識部201、フィードバック制御部202、異常事態処理部203、およびE-call制御部(E-call)204を備えている。
 車内環境認識部201は、自動運転レベルに応じて、検出部131の車内情報検出部142より供給される視線検出の有無、並びに、心拍、脈拍、体表脈波、および体温等のバイタルデータ等からなる車内情報に基づいて、車内における運転者の体調異常が発生しているか否かを判定する。
 より詳細には、車内環境認識部201は、バイタルデータに基づいて運転者が体調異常を発生しているか否かについて、機械学習等により判断できるようにしてもよい。例えば、視線検出の有無、並びに、体温および心拍、脈拍、体表脈波等のバイタルデータ等から、体調異常が発生しているかを判断する指標を用いて、判定を行うモデルを備えていてもよい。このようなモデルは、例えば、GWAS(Genome-Wide Association Study)や、ディープラーニング、SVM(Support Vector Machine)等、任意の機械学習の技術を用いて実現可能である。
 また、車内環境認識部201は、体調異常の発生の有無の判断が可能な専門医療機関等に、通信部103を制御して、バイタルデータを送信し、専門医療機関等の判断結果に基づいて、運転者の体調異常が発生しているか否かを判定するようにしてもよい。
 ただし、通信部103を制御してリアルタイムでバイタルデータを専門医療機関に送信した後、判断結果を取得するといったやりとりを繰り返すと、判断にタイムラグが発生したり、通信状態が悪いと判断結果が得られない恐れもある。
 そこで、車内環境認識部201は、機械学習に基づいた自らによる運転者の体調異常の発生の有無の判定結果と、専門医療機関による判断結果とを併用するようにしてもよい。
 すなわち、車内環境認識部201は、常に自らで運転者の体調異常の発生を判定するが、通信状態が良好であるときには、信頼性の高い専門医療機関の判断結果を使用し、通信状態が不調となったときには、自らの判定結果を使用するようにしてもよい。
 尚、以降においては、車内環境認識部201が、バイタルデータに基づいて、自らで運転者の体調異常の発生を判定するものとして説明を進めるが、上述したいずれの方法で運転者の体調異常の発生を判定するようにしてもよい。
 また、車内環境認識部201は、判定結果を状況予測部154およびフィードバック制御部202に出力する。
 より具体的には、自動運転レベルがレベル4,5である場合には、脇見運転や居眠り運転であっても自動運転を継続することができるので、車内環境認識部201は、脇見運転や居眠り運転を判定するための視線検出を行わず、心拍、脈拍、体表脈波、および体温等のバイタルデータを検出し、異常が無い場合、その判定結果を状況予測部154に供給する。
 状況予測部154は、異常が無いことを示す判定結果が供給される限り、状況には変化がないことが予測されるので、計画部134が実行している動作計画に対して変更等を加えることをせず、現状の自動運転を継続させる。
 また、自動運転レベルがレベル4,5である場合、バイタルデータによる異常が検出されるときには、直ちに運転者の体調異常が発生しているものとみなされる。
 さらに、自動運転レベルがレベル3以下である場合については、脇見運転や居眠り運転においては、自動運転を継続することができないので、バイタルデータに加えて、脇見運転や居眠り運転を判定することができる視線検出結果を含めて体調異常の有無を判定する。
 より詳細には、車内環境認識部201は、検出部131より車内センサ231により取得される視線検出ができない(例えば、視線方向に所定時間以上変化がない、または瞳孔が開いた状態となっている)状態であるか否か、および、バイタルデータ取得センサ232により検出されるバイタルデータである心拍、脈拍、体表脈波、および体温に異常が有るか否かに基づいて、運転者の体調異常の有無を判定する。
 そして、車内環境認識部201は、このように検出部131より供給される視線検出、心拍、脈拍、体表脈波、および体温等のバイタルデータに基づいて、運転者の異常の有無を判定し、異常があるときには、一旦フィードバック制御部202を制御して運転者に覚醒を促すフィードバックを掛けさせる。
 すなわち、心拍、脈拍、体表脈波、および体温等、いずれにおいても異常がなくても、視線方向が変化しない、または、瞳孔が開いた状態となっている等の異常は、脇見運転、または、居眠り運転等である可能性がある。このように体調異常が、脇見運転や居眠り運転であるような場合には覚醒させれば、解消できる。
 そこで、フィードバック制御部202は、車内環境認識部201より供給される判定結果に基づいて、出力制御部105を介して、出力部106より運転者に対して、覚醒を促すフィードバックを掛けさせる。
 より具体的には、フィードバック制御部202は、出力制御部105を介して、出力部106の刺激臭発生部251を制御して、刺激臭を発生させ、運転者に対して臭覚を刺激することで覚醒を促すフィードバックを掛ける。
 また、フィードバック制御部202は、出力制御部105を介して、出力部106の情報表示部252を制御して、覚醒を促す画像情報(テキストや動画像等を含む)を提示し、運転者の覚醒を促すようにフィードバックを掛ける。
 さらに、フィードバック制御部202は、出力制御部105を介して、出力部106のスピーカ253を制御して、音声を出力し、運転者に対して覚醒を促すようにフィードバックを掛ける。
 また、フィードバック制御部202は、音声エージェントとして機能するようにして、ドライバに質問を投げかけ、答えさせる事によって意識の覚醒を促すようにフィードバックを掛ける。例えば、フィードバック制御部202は、音声エージェントとして機能することにより、ドライバに対して、運転者の氏名や生年月日を質問して答えさせ、応答が適切であるか否かを提示するような対話を実現することにより覚醒を促すようにフィードバックを掛ける。
 フィードバック制御部202は、刺激臭発生部251、情報表示部252、およびスピーカ253、並びに音声エージェント機能による対話のうち、少なくともそのいずれかにより、運転者に対して覚醒を促すようにフィードバックを掛ける。
 尚、フィードバックについては、上述した刺激臭発生部251により発生される刺激臭、情報表示部252による表示される画像、およびスピーカ253より出力される音声、並びに音声エージェント機能による対話のみならず、運転者に覚醒を促せる情報を提示できるものであれば、その他の方法であってもよい。
 より具体的なその他のフィードバックを掛ける構成としては、例えば、運転者に覚醒を促す情報を表示するHUD(Head Up Display)、シートベルトを振動させる構成、ステアリングを振動させる構成、およびシートを振動させる構成などが挙げられる。
 フィードバック制御部202により運転者の覚醒を促すようにフィードバックをかけても、異常な状態が継続した場合には、車内環境認識部201は、運転者が体調異常であることを示す情報を判定結果として異常事態処理部203に出力する。
 異常事態処理部203は、運転者の体調異常が発生していることが通知されると、自動運転レベルに応じて安全を考慮した処理を実現する。
 より具体的には、異常事態処理部203は、自動運転レベルがレベル4,5である場合には、通信部103を制御して、自己位置推定部132より取得される車両11の位置情報(自己位置)、運転者のバイタルデータ、および運転者を識別する情報と共に、運転者に体調異常が発生していることを通報する情報を通報受信者端末12に送信させる。
 これにより、通報受信者端末12は、運転者に体調異常が発生していることを示す通報と共に、車両11の位置情報、バイタルデータ、および運転者を識別する情報を受信する。通報受信者端末12は、車両11の位置情報、バイタルデータ、および運転者を識別する情報を医療業務者端末13に送信する。
 医療業務者端末13は、車両11の位置情報、バイタルデータ、および運転者を識別する情報を受信すると、運転者を識別する情報に基づいて、予め記憶されているカルテを検索する。
 体調異常の運転者のカルテが検索できた場合、医療業務者端末13は、検索されたカルテの情報とバイタルデータを医療業務者に提示して、体調異常の運転者に対して必要な医療的な処置の判定と、処置が可能な医療機関の特定を要請する。
 体調異常の運転者のカルテが検索できない場合、医療業務者端末13は、バイタルデータを医療業務者に提示して、体調異常の運転者に対して必要な医療的な処置の判断と、処置が可能な医療機関の特定を要請する。
 この要請に基づいて医療業務者は、体調異常の運転者に対して必要な医療的な処置を判断し、その処置が可能な医療機関を特定すると共に、緊急車両による救護の要否を判断し、判断結果を医療業務者端末13に入力する。
 ここで、車両11、通報受信者端末12、および医療業務者端末13が相互に通話可能な状態とされるので、車両11の運転者や同乗者、通報受信者、および医療業務者は通話できる状態であれば、通話する。医療業務者は、通話によりさらなる情報を取得できるときには、通話内容も加味して、体調異常の運転者に対して必要な医療的な処置を判断することもできる。
 また、異常事態処理部203は、通信部103を介して、車両11の運転者や同乗者の要請が通知された場合、または、バイタルデータに基づいて、心拍や脈拍の停止、体表脈波の異常、体温異常、運転者を識別するための情報である顔の付近の画像に基づいて大量に出血していることが確認できるような場合、医療業務者からの入力情報の有無にかかわらず、警察や救急医療機関等に対して、通報受信者端末12を介して緊急通報を行う。
 医療業務者端末13は、医療業務者により入力された、処置が可能な医療機関の情報と、緊急車両による救護の要否の情報を通報受信者端末12に送信する。
 尚、医療業務者によりなされる、体調異常の運転者に対して必要な医療的な処置の判断、処置が可能な医療機関の特定、および緊急車両による搬送の要否の判断については、医療業務者端末13において、バイタルデータ、カルテの情報、および通話内容を用いた機械学習によりエージェント機能を構成して、エージェント機能により実現するようにしてもよい。
 このような場合、エージェント機能が、カルテの情報(カルテが検索された場合)、バイタルデータ、および通話内容などから体調異常の運転者に対して必要な医療的な処置を判断し、その処置が可能な医療機関の特定し、さらに、緊急車両による救護の要否を提案したり、判断するようにしてもよい。
 そして、エージェント機能による提案結果や判断結果を、医療業務者により入力された、処置が可能な医療機関の情報、および、緊急車両による救護の要否の情報として通報受信者端末12に送信するようにしてもよい。
 通報受信者端末12は、処置が可能な医療機関の情報と、緊急車両による搬送の要否の情報を受信する。
 ここで、通報受信者端末12は、緊急車両による救護が不要である場合には、処置が可能な医療機関の情報に基づいて、医療機関の位置情報を特定し、車両11に送信する。
 また、通報受信者端末12は、緊急車両による救護が必要である場合には、緊急車両を手配すると共に、処置が可能な医療機関の情報に基づいて、医療機関の位置情報を特定し、車両11の位置情報と照合して、搬送ルートを考慮した緊急車両との最適な合流地点を特定する。そして、通報受信者端末12は、医療機関の位置情報と、特定した緊急車両との最適な合流地点の位置情報を車両11に送信する。
 ここで、車両11の異常事態処理部203は、通信部103を制御して、通報受信者端末12より送信されてくる医療機関の位置情報(および緊急車両との最適な合流地点の位置情報)を取得する。そして、異常事態処理部203は、運転者の体調異常の発生を示す情報と、医療機関の位置情報(または緊急車両との最適な合流地点が含まれているときには、緊急車両との最適な合流地点の位置情報を併せた情報)を状況予測部154に出力する。
 状況予測部154は、運転者の体調異常の発生を示す情報と、医療機関の位置情報(および緊急車両との最適な合流地点)に基づいて、運転者の体調異常が発生していることから医療機関への搬送が必要な状態であることを予測して、予測結果に応じたコマンドを計画部134の動作計画部163に出力する。
 より具体的には、状況予測部154は、運転者に体調異常が発生している可能性を予測し、予測結果に基づいた運転制御を実現するコマンドを計画部134に送信する。
 計画部134の動作計画部163は、状況予測部154より予測結果に基づいた運転制御を実現するコマンドが送信されてくると、自動運転レベルに応じた運転制御を実現するための動作を計画する。
 より具体的には、動作計画部163は、自動運転レベルがレベル5である場合、完全自動運転であるので、医療機関の位置情報(緊急車両との合流地点の位置情報がある場合は、緊急車両との合流地点の位置情報)に向けて、搬送するための動作計画を計画する。
 動作計画部163は、計画した動作計画を動作制御部135の車両制御部211に供給する。
 車両制御部211は、加減速制御部172、および方向制御部173を制御して、動作計画に応じて車両11の動作を制御させ、医療機関、または、緊急車両との合流地点へと移動させる。
 また、自動運転レベルがレベル4である場合、走行する位置や環境に応じて、運転者が必要となるので、運転者の交代が必要で、かつ可能であるか否かにより処理が異なる。
 すなわち、医療機関、または、緊急車両との合流地点へと移動する際に、運転者の交代が必要で、かつ、可能であるときには、動作計画部163は、医療機関の位置情報、または、緊急車両との合流地点の位置情報を出力部106の情報表示部252に提示して、交代する運転者に対して運転を促す情報を提示する。
 この場合、交代した運転者が、車両11を運転して、医療機関、または、緊急車両との合流地点へと移動する。
 また、医療機関、または、緊急車両との合流地点へと移動する際に、運転者の交代が必要ではあるが、交代が可能でないときには、自動運転の継続ができないので、動作計画部163は、安全な場所に車両11を停止させる。
 また、異常事態処理部203は、通信部103を制御して、通報受信者端末12に対して、運転者の交代ができないので、緊急車両による救護を要請する。
 このとき、通報受信者端末12は、緊急車両に対して車両11の位置情報を送信し、車両11が停止している現場に向かうように指示する。
 そして、体調異常の運転者は、緊急車両の到着を待って、緊急車両により搬送される。
 尚、自動運転レベルがレベル4である場合、走行する環境に応じて、運転者の交代が不要であり、自動運転が継続できる場合については、自動運転レベルがレベル5である場合の処理と同様である。
 さらに、自動運転レベルがレベル3である場合、運転者による運転ができないときには、自動運転は継続できないので、異常事態処理部203は、通報受信者端末12に対して、運転者の体調異常を通報する前に、状況予測部154を介して、動作計画部134に対して、安全な場所に車両11を停止させるように処理するためのコマンドを送信させる。
 このコマンドにより、動作計画部163は、安全な場所に車両11を停止させる。
 その後の処理については、自動運転レベルがレベル4である場合と同様である。
 また、自動運転レベルがレベル0乃至2である場合、自動運転そのものが継続できない上、安全な場所を探して停止することもできないので、異常事態処理部203は、通報受信者端末12に対して、運転者の体調異常を通報する前に、状況予測部154を介して、動作計画部134に対して、ハザードランプを点灯させて、走行車線上に車両11を停止させるようにコマンドを送信させる。
 このコマンドにより、動作計画部163は、ハザードランプを点灯させて、走行車線上に車両11を停止させる。
 以降の処理については、自動運転レベルがレベル4である場合と同様である。
 E-call制御部204は、検出部131により衝突事故が発生したときに検出される衝撃等の情報が検出されるとき、自己位置推定部132より自己位置の情報を取得すると共に、通信部103を制御して、警察や病院などへと事故の発生を通知するセンタに対して、自己位置の情報を含めた事故が発生したことを示す緊急通報を通知する。
 尚、上述した異常事態処理部203が緊急通報をすると同時に、E-call制御部204からも事故の発生を通知するようなときには、1つの事故において、2つの緊急通報がなされてしまう恐れがある。このような場合に備え、2つの緊急通報が同一の車両11から発せられた同一の緊急通報であることを認識できる識別情報を含めておくことが望ましい。
 このようにすることで、複数の緊急通報が発報しても、受信するセンタにおいては、緊急通報に含まれる識別情報に基づいて、同一の車両11から送信された同一の緊急通報であることを確認することができる。
 または、異常事態処理部203と、E-call制御部204とが連携して、いずれか一方による発報のみをセンタに送信するようにしてもよい。
 いずれにおいても、結果として、同一の車両11で発生した1つの事故への対応を、複数の緊急通報として複数の機関(警察や医療機関など)で対応してしまうような無駄を抑制することができる。
 <<7.自動運転制御処理>>
 次に、図9のフローチャートを参照して、図8の車両11による自動運転制御処理について説明する。
 ステップS11において、車内情報検出部142は、データ取得部102の車内センサ231、およびバイタルデータ取得センサ232の検出結果を車内情報として、状況認識部153の車内環境認識部201に出力する。
 すなわち、データ取得部102の車内センサ231は、運転者の顔の周辺の画像を撮像し、撮像した画像を検出部131の車内情報検出部142に出力する。車内情報検出部142は、撮像された画像における運転者の瞳の位置に基づいて、運転者の視線を検出して、顔の周辺の画像と共に車内情報として状況認識部153における車内環境認識部201に出力する。
 より詳細には、車内情報検出部142は、例えば、車内センサ231のイメージセンサにより撮像される画像、または、ToFセンサにより撮像される距離画像のいずれかに基づいて、運転者の瞳の位置を検出し、瞳の位置や、注視している時間に応じて運転者の視線を検出する。
 また、車内情報検出部142は、例えば、日中の明るい環境においては、車内センサ231のイメージセンサにより撮像される画像により視線を検出し、夜間や荒天時などの暗い環境においては、ToFセンサにより撮像される距離画像に基づいて視線を検出するようにしてもよい。尚、イメージセンサとToFセンサとを組み合わせる事でロバスト性を向上させたり、処理時間を短縮できるようにしても良い。
 また、バイタルデータ取得センサ232は、例えば、図1のウェアラブルデバイスBやマイクロ波センサや温感センサなどからなり、運転者の心拍、脈拍、体表脈波、および体温をバイタルデータとして取得して、検出部131の車内情報検出部142に出力する。車内情報検出部142は、心拍、脈拍、体表脈波、および体温等のバイタルデータの検出結果を車内情報として状況認識部153の車内環境認識部201に出力する。
 ステップS12において、状況分析部133における状況認識部153の車内環境認識部201は、視線検出結果、心拍、脈拍、体表脈波、および体温などのバイタルデータからなる車内情報に基づいて、運転者異常判定処理を実行して、運転者の体調異常の有無を判定する。
 尚、運転者異常判定処理については、図10のフローチャートを参照して、詳細を後述する。
 ステップS13において、車内環境認識部201は、運転者異常判定処理の処理結果に基づいて、運転者の体調異常が発生しているか否かを判定する。
 ステップS13において、運転者の体調異常が発生しているとみなされた場合、処理は、ステップS14に進む。尚、体調異常が発生してないとみなされた場合、ステップS14の処理は、スキップされる。
 ステップS14において、車内環境認識部201は、異常事態処理部203に対して異常事態処理を実行するように指示する。
 ステップS15において、異常事態処理部203は、異常事態処理を実行し、運転者に体調異常が発生した状態における運転制御を実行する。尚、異常事態処理については、図11乃至図15のフローチャートを参照して、詳細を後述する。
 ステップS16において、車内環境認識部201は、自動運転が終了されるか否かを判定し、自動運転が終了されない場合、処理は、ステップS11に戻り、それ以降の処理が繰り返される。そして、ステップS16において、自動運転が終了されると判定されるとき、処理が終了する。
 以上の一連の処理により、運転者の視線やバイタルデータが車内情報として検出されて、車内情報に基づいて、運転者の体調異常の有無が判定され、体調異常が検出されると、異常事態処理が実行されて、安全に配慮した運転制御がなされる。
 結果として、運転中の運転者が、例えば、意識を失うような体調異常を発生するような緊急事態に陥っても、運転者や同乗者、および、周囲の車両や通行人に対しての安全を配慮した運転制御を実現することが可能となる。
 <<8.運転者異常判定処理>>
 次に、図10のフローチャートを参照して、運転者異常判定処理について説明する。
 ステップS51において、車内環境認識部201は、取得した車内情報のうち、顔周辺の画像に基づいて、運転者を特定する。運転者の情報は、予め顔画像と対応付けて登録された個人情報でもよいし、顔画像のみならず、指紋や網膜パターンなどの生体情報そのものでもよい。
 ステップS52において、車内環境認識部201は、自動運転レベルがレベル4またはレベル5のいずれかであるか否かを判定し、自動運転レベルがレベル4またはレベル5のいずれかである場合、処理は、ステップS53に進む。
 ステップS53において、車内環境認識部201は、取得した車内情報のうち、運転者の心拍、脈拍、体表脈波、および体温等のバイタルデータを取得する。
 ステップS54において、車内環境認識部201は、取得したバイタルデータが正常であるか否かを判定する。ここでの判断は、車内環境認識部201が、機械学習によりで実現されるエージェントにより、バイタルデータに基づいて、独自で判断するようにしてもよいし、バイタルデータを専門医療機関に送信して、専門医療機関の判断結果を参照するようにしてもよいし、双方の判断結果を併用するようにしてもよい。
 ステップS54において、バイタルデータに異常がない場合、処理は、ステップS55に進む。
 ステップS55において、車内環境認識部201は、運転者に体調異常がないことを通知する。
 ステップS54において、バイタルデータに異常がある場合、処理は、ステップS56に進む。
 ステップS56において、車内環境認識部201は、運転者に体調異常があることを通知する。
 また、ステップS52において、自動運転レベルがレベル4およびレベル5のいずれでもない場合、すなわち、レベル0乃至3の場合、処理は、ステップS57に進む。
 ステップS57において、車内環境認識部201は、車内情報のうち、視線検出結果を読み出し、視線検出ができているか否かを判定する。ステップS57において、視線検出ができている場合、運転者の体調異常は発生していないものとみなされて、処理は、ステップS55に進む。
 また、ステップS57において、視線が検出されていない、すなわち、脇見運転や居眠り運転が疑われ、運転者の体調に何らかの異常が疑われる場合、処理は、ステップS58に進む。
 ステップS58において、車内環境認識部201は、フィードバック制御部202に対して、運転者に対するフィードバックを指示する。フィードバック制御部202は、出力制御部105を介して、出力部106の刺激臭発生部251、情報表示部252、およびスピーカ253、並びに、音声エージェント機能の少なくともいずれかにより運転者に対して、脇見運転や居眠り運転等の視線が検出できない状態からの覚醒を促すフィードバックを掛ける。
 ステップS59において、車内環境認識部201は、再び、車内情報を取得し、フィードバックにより運転者の覚醒が促され、視線が検出される状態になったか否かを判定する。
 ステップS59において、視線が検出できる状態になったとみなされた場合、運転者の体調異常は発生していないものとみなされて、処理は、ステップS55に進む。
 一方、ステップS59において、視線検出ができない状態が継続しているとみなされた場合、処理は、ステップS60に進む。
 ステップS60において、車内環境認識部201は、車内情報における運転者の心拍、脈拍、体表脈波、および体温などのバイタルデータを取得する。
 ステップS61において、車内環境認識部201は、バイタルデータに異常が有るか否かを判定する。ステップS61において、バイタルデータである心拍、脈拍、体表脈波、および体温等に異常が有る場合、運転者の体調異常が有るものとみなして、処理は、ステップS56に進む。
 また、ステップS61において、車内環境認識部201は、バイタルデータに異常がない場合、処理は、ステップS62に進む。
 ステップS62において、車内環境認識部201は、ステップS58乃至S62の一連の処理がN回繰り返されたか否かを判定する。フィードバックが、N回繰り返されていない場合、処理は、ステップS58に戻る。すなわち、バイタルデータに異常がなく、視線が検出されない状態であるときには、視線が検出されるまで、ステップS58乃至S61の処理が繰り返されることにより、フィードバックが繰り返される。ステップS58乃至S62の一連の処理が繰り返される状況は、フィードバックが繰り返し掛けられているにも関わらず、視線の検出ができない状態が継続されているが、バイタルデータには異常がない状態が継続している状況である。
 このような場合、バイタルデータには異常がないが、脇見運転や居眠り運転が継続している可能性があるので、バイタルデータからでは判断できない運転者の体調異常が発生しているものとみなし、処理は、ステップS56に進む。
 以上の処理により、自動運転レベルがレベル4または5である場合には、バイタルデータに異常がない限り、運転者の体調異常が発生していないものとみなされる。
 また、自動運転レベルがレベル0乃至3の場合、運転者が存在し、脇見運転や居眠り運転がなされていない状態、すなわち、視線が検出される状態であるときには、運転者の体調異常が発生していないものとみなされる。ここで、脇見運転や居眠り運転がなされている状態、すなわち、視線が検出されない状態であるときには、フィードバックが掛けられて、運転者に対して覚醒が促されるが、フィードバックにより視線が検出されるときも、運転者の体調異常は発生していないものとみなされる。
 さらに、自動運転レベルがレベル4または5の場合、バイタルデータに異常が有るとき、自動運転レベルがレベル0乃至3の場合、運転者が存在し、脇見運転や居眠り運転がなされて、フィードバックが掛けられても覚醒により視線が検出されず、バイタルデータに異常があるとき、視線が検出されないが、繰り返しフィードバックを掛けても、バイタルデータに異常が無い状態がN回繰り返されたとき、これらのいずれにおいても、運転者の体調異常が発生しているものとみなされる。
 <<9.異常事態処理>>
 次に、図11のフローチャートを参照して、異常事態処理について説明する。異常事態処理は、運転者異常判定処理により体調異常が発生しているとみなされるとき、実行される。
 すなわち、ステップS71において、異常事態処理部203は、現在の自動運転レベルを確認する。
 ステップS72において、異常事態処理部203は、現在の自動運転レベルがレベル5であるか否かを判定する。
 ステップS72において、自動運転レベルがレベル5である場合、処理は、ステップS73に進む。
 ステップS73において、異常事態処理部203は、自動運転レベル5対応処理を実行して、車両11の運転を制御する。尚、自動運転レベル5対応処理については、図12のフローチャートを参照して、詳細を後述する。
 ステップS73において、自動運手レベルがレベル5ではない場合、処理は、ステップS74に進む。
 ステップS74において、異常事態処理部203は、現在の自動運転レベルがレベル4であるか否かを判定する。
 ステップS74において、自動運転レベルがレベル4である場合、処理は、ステップS75に進む。
 ステップS75において、異常事態処理部203は、自動運転レベル4対応処理を実行して、車両11の運転を制御する。尚、自動運転レベル4対応処理については、図13のフローチャートを参照して、詳細を後述する。
 ステップS74において、自動運手レベルがレベル4ではない場合、処理は、ステップS76に進む。
 ステップS76において、異常事態処理部203は、現在の自動運転レベルがレベル3であるか否かを判定する。
 ステップS76において、自動運転レベルがレベル3である場合、処理は、ステップS77に進む。
 ステップS77において、異常事態処理部203は、自動運転レベル3対応処理を実行して、車両11の運転を制御する。尚、自動運転レベル3対応処理については、図14のフローチャートを参照して、詳細を後述する。
 ステップS76において、自動運手レベルがレベル3ではない場合、すなわち、自動運転レベルがレベル3乃至5ではない場合、レベル2以下であるとみなされて、処理は、ステップS78に進む。
 ステップS78において、異常事態処理部203は、緊急停止サポート処理を実行して、車両11の運転を制御する。尚、緊急停止サポート処理については、図15のフローチャートを参照して、詳細を後述する。
 以上の処理により、自動運転レベルがレベル5乃至3である場合、それぞれ自動運転レベル5対応処理、自動運転レベル4対応処理、および自動運転レベル3対応処理がなされ、自動運転レベルがレベル0乃至2である場合、緊急停止サポート処理がなされる。すなわち、自動運転レベルに応じた異常事態処理がなされて、運転者、および同乗者、並びに、周辺の車両や通行人等に対して安全を考慮した運転制御を実現するための処理がなされる。
 <<10.自動運転レベル5対応処理>>
 次に、図12のフローチャートを参照して、自動運転レベル5対応処理について説明する。尚、以降の処理については、車両11、通報受信者端末12、および医療業務者端末13からなる図4の交通システム1が連携して行う処理となる。
 すなわち、ステップS91において、車両11の異常事態処理部203は、通信部103を制御して、通報受信者端末12に対して、運転者の体調異常が発生したことを示す通報を送信する。
 これに応じて、通報受信者端末12においては、ステップS121において、制御部181は、通信部182を制御して、車両11より運転者の体調異常が発生したことを示す通知が送信されてきたか否かを判定し、送信されてくるまで、同様の処理を繰り返す。
 そして、ステップS121において、運転者の体調異常が発生したことを示す通知が送信されてくると、処理は、ステップS122に進む。
 また、車両11においては、ステップS92において、異常事態処理部203は、通信部103を制御して、運転者の顔画像を含む運転者を識別する情報、車両11の位置情報、およびバイタルデータを通報受信者端末12に送信する。
 これに応じて、通報受信者端末12においては、ステップS122において、制御部181がバイタルデータ送受信管理部185を制御して、通信部182を介して、車両11より送信されてきた運転者の顔画像を含む運転者を識別する情報、および車両11の位置情報を含むバイタルデータを受信させる。
 ステップS123において、制御部181がバイタルデータ送受信管理部185を制御して、通信部182を介して、車両11より送信されてきた運転者の顔画像を含む運転者を識別する情報、および車両11の位置情報を含むバイタルデータを、医療業務者端末13に送信させる。
 さらに、医療業務者端末13においては、ステップS151において、カルテ管理部195は、通信部192を制御して、通報受信者端末12から運転者を識別する情報、および車両11の位置情報を含むバイタルデータが送信されてきたか否かを判定し、送信されてくるまで、同様の処理を繰り返す。
 ステップS151において、運転者を識別する情報、および車両11の位置情報を含むバイタルデータが送信されてきた場合、処理は、ステップS152に進む。
 ステップS152において、カルテ管理部195は、運転者を識別する情報、および車両11の位置情報を含むバイタルデータを受信し、このうち運転者を識別する情報に基づいて、カルテを検索して、体調異常の運転者のカルテが、予め登録されているか否かを判定する。
 ステップS152において、体調異常の運転者のカルテが登録されている場合、処理は、ステップS153に進む。
 ステップS153において、制御部191は、登録されているカルテの情報と共に、送信されてきたバイタルデータを表示部193に提示する。
 一方、ステップS152において、カルテが登録されていない場合、処理は、ステップS154に進む。
 ステップS154において、制御部191は、送信されてきたバイタルデータを表示部193に提示する。
 これらの処理により、表示部193には体調異常が発生した運転者のバイタルデータの情報が表示され、カルテがある場合には、カルテの情報も併せて表示されることにより、医療業務者は、体調異常が発生した運転者に対して施すべき処置を判断することができる。
 また、車両11においては、ステップS93において、異常事態処理部203は、車内情報に基づいて、運転者、および同乗者の少なくともいずれかが、通報受信者端末12の通報受信者、および医療業務者端末13の医療業務者との通話が可能な状態であるか否かを判定する。
 すなわち、異常事態処理部203は、データ取得部102の各種のセンサにより検出される運転者や同乗者の画像やバイタルデータに基づいて、例えば、通話可能な程度の意識があるか否か、または、問い掛けに対して適切な応答ができるか否かなどに基づいて、通話可能であるか否かを判定する。
 ステップS93において、通話が可能であるとみなされた場合、処理は、ステップS94に進む。
 ステップS94において、異常事態処理部203は、通信部103を制御して、通報受信者端末12、および医療業務者端末13との通話を実現するために接続を要請し、通話可能な通信状態を確立する。
 また、異常事態処理部203は、データ取得部102におけるマイクロフォンにより入力される運転者や同乗者の通話音声の入力を受け付け可能な状態にする。
 さらに、異常事態処理部203は、出力部106のスピーカ253より、通報受信者端末12および医療業務者端末13から送信されてくる通話音声を出力できる状態にする。
 ここで、通報受信者端末12においては、ステップS124において、制御部181が通信部182を制御して、車両11において通話が可能であり、通話を実現するための接続要求がある否かを判定する。ステップS124において、車両11において通話が可能であり、通話を実現するための接続要求がある場合、処理は、ステップS125に進む。
 ステップS125において、制御部181は、通信部182を制御して、車両11との通話を実現させるための通信を確立し、音声通話部184を制御して、通報受信者の発する音声の入力を受け付けられるようにすると共に、車両11や医療業務者端末13からの音声を出力できるようにする。
 この処理により、通報受信者端末12を操作する通報受信者は、車両11の運転者や同乗者との通話が可能となる。
 同様に、医療業務者端末13においては、ステップS155において、制御部191は、通信部192を制御して、車両11において通話が可能であり、通話を実現するための接続要求がある否かを判定する。ステップS155において、制御部191は、車両11において通話が可能であり、通話を実現するための接続要求がある場合、処理は、ステップS156に進む。
 ステップS156において、制御部191は、通信部192を制御して、車両11との通話を実現させるための通信を確立し、音声通話部194を制御して、医療業務者の発する音声の入力を受け付けられるようにすると共に、車両11や通報受信者端末12からの音声を出力できるようにする。この処理により、医療業務者端末13を操作する医療業務者は、車両11の運転者や同乗者、および通報受信者との通話が可能となる。
 これらの一連の処理により、車両11の運転者や同乗者、通報受信者端末12を操作する通報受信者、および医療業務者端末13を操作する医療業務者間の通話が可能な状態となる。
 なお、ステップS93,S124,S155において、通話が可能ではない場合、ステップS194,S125,S156のそれぞれの処理がスキップされる。
 すなわち、この場合、車両11における運転者や同乗者、通報受信者、および医療業務者間の通話はできない。ただし、運転者や同乗者が通話できないような状況であっても、通報受信者と医療業務者間で通話が可能な状態にしてもよいし、車両11との通話が可能な状態にすることで、車両11の現場において、運転者や同乗者以外の通行人が車両11の車内に乗り込んで通話できる状態にしてもよい。すなわち、運転者や同乗者が通話可能であるか否かに関わらず、通話できる状況にしてもよい。
 ステップS95において、車両11の異常事態処理部203は、データ取得部102より供給される車内情報や、運転者や同乗者の発話内容から、警察や医療機関への緊急通報が必要であるか否かを判定する。
 ステップS95において、緊急通報が必要である、または、運転者や同乗者から緊急通報が要請されたと判定される場合、処理は、ステップS96に進む。
 ステップS96において、異常事態処理部203は、通信部103を制御して、緊急通報を通報受信者端末12に送信する。
 これに応じて、通報受信者端末12においては、ステップS126において、制御部181が通信部182を制御して、車両11より緊急通報が送信されてきたか否かを判定する。そして、ステップS126において、緊急通報が送信されてきた場合、処理は、ステップS127に進む。
 ステップS127において、制御部181は、通信部182を制御して、車両11より送信されてきた緊急通報を受信すると共に、医療業務者端末13に転送させる。この際、制御部181は、必要に応じて、通信部182を制御して、警察や救急医療施設など、その他の施設に緊急通報をするようにしてもよい。
 さらに、医療業務者端末13においては、ステップS157において、制御部191が通信部192を制御して、車両11から通報受信者端末12を介して緊急通報が送信されてきたか否かを判定する。そして、ステップS157において、緊急通報が送信されてきた場合、処理は、ステップS158に進む。
 ステップS158において、制御部191は、通信部192を制御して、車両11から通報受信者端末12を介して送信されてきた緊急通報を受信する。この場合、制御部191は、車両11から緊急通報が送信されてきたことを示す情報も併せて表示部193に提示する。
 これにより、医療業務者端末13を操作する医療業務者は、車両11から緊急通報が送信されてきていることも情報として認識することができる。
 すなわち、一連の処理により、医療業務者は、医療業務者端末13の表示部193に提示されているバイタルデータ、カルテの情報(カルテが検索された場合)、および、緊急通報の有無に基づいて、体調異常が発生した運転者に対する処置を判断し、判断結果を表示部193のタッチパネル等を操作して入力する。
 ここで、入力される情報は、緊急車両による救護の要否の情報と、処置に必要とされる医療機関の情報である。必要な処置だけを入力することで、処置が可能な医療機関が、車両11の位置情報から検索されるようにしてもよい。
 尚、ステップS95,S126,S157の処理において、緊急通報がないとみなされた場合、ステップS96,S127,S158の処理がスキップされて、緊急通報がない状態となる。
 また、医療業務者端末13の制御部191が、医療業務者に代わるエージェント機能を備えるようにして、カルテの情報、バイタルデータ、および緊急通報の有無等の情報から、必要とされる医療的な処置を判断し、処置可能な医療機関を特定したり、緊急車両による救護の要否を判断するようにしてもよい。
 尚、医療的な処置を判断するエージェント機能は、例えば、カルテの情報、バイタルデータ、および緊急通報の有無等の情報と、対応する処置や緊急車両による救護の有無等の情報とを用いた機械学習等により実現するようにしてもよい。
 ステップS159において、制御部191は、表示部193のタッチパネルが医療業務者により操作されて、緊急車両による救護が指示されたか否かにより、または、エージェント機能の判断結果により、緊急車両による救護が必要か否かを判定する。
 ステップS159において、緊急車両による救護が必要ではある場合、処理は、ステップS160に進む。
 ステップS160において、制御部191は、通信部192を制御して、緊急車両の救護を要請する情報と、処置に必要とされる医療機関の情報とを通報受信者端末12に送信させる。
 また、ステップS159において、緊急車両による救護が必要ではない場合、処理は、ステップS161に進む。
 ステップS161において、制御部191は、通信部192を制御して、処置に必要とされる医療機関の情報を通報受信者端末12に送信させる。
 これに応じて、ステップS128において、通報受信者端末12の制御部181は、通信部192を制御して、医療業務者端末13より送信されてくる医療機関の情報(緊急車両の救護が必要な場合は、緊急車両の救護を指示する情報を含む)を受信する。
 ステップS129において、制御部181は、緊急車両による救護が必要であるか否かを判定する。
 ステップS129において、緊急車両による救護が必要である場合、処理は、ステップS130に進む。
 ステップS130において、制御部181は、指定された医療機関の情報に基づいた医療機関の位置情報と、車両11の位置情報とから、医療機関への搬送ルートを考慮した車両11と緊急車両との合流地点を特定する。
 ステップS131において、制御部181は、通信部182を制御して、指定された医療機関の情報と、緊急車両との合流地点の位置情報とを車両11に送信する。この際、制御部181は、通信部182を制御して、合流地点において、体調異常が発生した運転者を救護して、指定された医療機関に向かうように緊急車両を手配する。
 一方、ステップS129において、緊急車両の救護が不要である場合、処理は、ステップS132に進む。
 ステップS132において、制御部181は、通信部182を制御して、指定された医療機関の情報を車両11に送信する。
 そして、車両11においては、ステップS97において、異常事態処理部203は、通信部103を制御して、通報受信者端末12より送信されてきた医療機関の情報を受信し、併せて緊急車両による救護が必要であるか否か、すなわち、緊急車両との合流地点の位置情報が含まれているか否かを判定する。
 ステップS97において、緊急車両との合流地点の位置情報があり、緊急車両による救護が必要である場合については、処理は、ステップS98に進む。
 ステップS98において、異常事態処理部203は、体調異常が発生した運転者に対する医療的な処置を施すための医療機関の情報と、緊急車両との合流地点の情報とを取得する。
 ステップS99において、異常事態処理部203は、情報表示部252を制御して、体調異常が発生した運転者に対する医療的な処置を施すための医療機関の情報を提示すると共に、緊急車両との合流地点に向けて車両11を移動させる。
 より詳細には、異常事態処理部203は、緊急車両との合流地点の位置情報を状況予測部154に出力する。
 状況予測部154は、緊急車両との合流地点の位置情報に基づいて、車両11を合流地点の位置情報に移動させることを予測し、計画部134に対して合流地点に向けて移動するように指示するコマンドを出力する。
 計画部134においては、動作計画部163が、状況予測部154より供給されるコマンドに従って、合流地点に向けて移動するように動作を計画し、動作制御部135に出力する。
 動作制御部135においては、車両制御部211が加減速制御部172および方向制御部173により、合流地点に向けて車両11を移動させるように、駆動系制御部107を制御して、駆動系システム108を動作させる。
 また、ステップS97において、緊急車両との合流地点の位置情報がなく、緊急車両による救護が必要ではない場合については、処理は、ステップS100に進む。
 ステップS100において、異常事態処理部203は、体調異常が発生した運転者に対する医療的な処置を施すための医療機関の情報を取得する。
 ステップS101において、異常事態処理部203は、情報表示部252を制御して、体調異常が発生した運転者に対する医療的な処置を施すための医療機関の情報を提示すると共に、医療機関に向けて車両11を移動させる。
 以上の一連の処理により、自動運転レベル5である場合には、運転中に運転者が体調異常を発生させても、体調異常が生じたことを示す情報が、運転者を特定する情報とバイタルデータと共に通報される。また、通報時に送信された運転者を特定する情報とバイタルデータが通報受信者端末12を介して医療業務者端末13に送信されることで、医療業務者により、運転者を特定する情報によるカルテが検索される。そして、バイタルデータとカルテの情報(カルテが検索された場合)に基づいて、体調異常が発生した運転者に対して適切な処置が判断され、処置可能な医療機関を特定することが可能となる。
 また、この際、運転者や同乗者が、通報受信者や医療業務者と通話ができる状態であれば、バイタルデータやカルテの情報に加えて、通話により、さらに詳細な情報に基づいて、体調異常の運転者に対して施すべき処置を適切に判断することができる。
 さらに、運転者や同乗者の要請や、異常事態処理部203の判断により、救急通報を通報受信者端末12に送信することが可能となる。
 尚、運転者や同乗者が通話できない状態であったり、緊急通報が出来ない状態であって、通報受信者や医療業務者がバイタルデータや車内の画像などから緊急通報が必要であると判断する場合は、通報受信者や医療業務者が通報受信者端末12や医療業務者端末13から緊急通報を発報できるようにしてもよい。
 また、医療業務者が緊急車両による救護が必要であると判断した場合については、通報受信者端末12において、医療機関への搬送ルートを考慮して、緊急車両と車両11との合流地点を特定し、合流地点に急行するように緊急車両を手配すると共に、車両11に合流地点の位置情報を送信して、合流地点に移動させる。
 これにより、体調異常が発生した運転者に対して、より迅速な処置を施すことが可能となるので、運転者の体調異常が重篤な状態であるような場合でも、救命率を向上させることが可能となる。
 さらに、バイタルデータやカルテの情報に基づいた、通報受信者や医療業務者による、緊急通報の要否、必要とされる処置内容、処置可能な医療機関の特定、および緊急車両による救護の要否等の判断については、通報受信者端末12や医療業務者端末13にエージェント機能を備えるようにして、完全自動化するようにしてもよい。
 <<11.自動運転レベル4対応処理>>
 次に、図13のフローチャートを参照して、自動運転レベル4対応処理について説明する。尚、図13のフローチャートにおけるステップS171乃至S174,S176乃至S182、ステップS201乃至S209,S211、S212,S214、およびステップS221乃至S231の処理は、図12のステップS91乃至S101、ステップS121乃至S132、およびステップS151乃至S161の処理と同様であるので、その説明は省略する。
 すなわち、図13のフローチャートにおいて、図12のフローチャートと異なる点は、ステップS175,S183,S184の処理、およびステップS210,S213の処理である。
 ステップS175において、異常事態処理部203は、運転者の交代が必要で、かつ、運転者の交代が可能であるか、または、交代が不要であるか否かを判定する。
 自動運転レベル4の場合、自動運転が可能な条件を満たしているときには、自動運転が可能であり、運転者の交代は不要であるが、自動運転が可能な条件を満たしていないときには、運転が可能な運転者に交代させる必要がある。
 そこで、自動運転が可能な条件を満たしていない場合には、交代が必要となるので、運転者の交代が必要で、かつ、交代が可能であるか否か、または、交代が不要であるかが判定される。
 運転者の交代が必要で、かつ、交代が可能であるか否かについては、交代可能な運転者が同乗者による申告の有無であってもよいし、同乗者が存在しないときや、同乗者が存在していても、何らかの障害が発生し、応答が不能であるようなときには、異常事態処理部203が、交代が不能であるものとみなすようにしてもよい。
 ステップS175において、運転者の交代が必要で、かつ、交代が可能である場合、または、運転者の交代が不要である場合については、処理は、ステップS176に進む。尚、ステップS176以降の処理は、図12のステップS95以降の処理と同様である。
 また、ステップS176において、運転者の交代が必要であるが、交代が不可能である場合、自動運転の継続はできないものとみなされて、処理は、ステップS183に進む。
 ステップS183において、異常事態処理部203は、車両11を安全な場所に停止させる。
 より詳細には、異常事態処理部203は、状況予測部154に対して、運転者の交代が必要であるが、運転者の交代が不能であることを示す情報を通知する。この通知に応じて、状況予測部154は、自動運転の継続ができないことを予測して、車両11を安全な場所への停止を指示するコマンドを計画部134に通知する。
 計画部134においては、動作計画部163が、状況予測部154より供給されるコマンドに従って、安全な場所に停止するように動作を計画し、動作制御部135に出力する。
 動作制御部135においては、車両制御部211が加減速制御部172および方向制御部173により、車両11を安全な場所に停止させるように、駆動系制御部107を制御して、駆動系システム108を動作させる。
 ステップS184において、異常事態処理部203は、通信部103を制御して、現場まで緊急車両による救護を要請する通知を通報受信者端末12に送信する。
 この一連の処理により、車両11は、安全な位置に停止した状態で、緊急車両による救護を待つ。
 また、通報受信者端末12においては、ステップS210において、制御部181は、通信部182を制御して、現場まで緊急車両による救護が要請されているか否かを判定する。すなわち、緊急車両による救護が要請され、かつ、車両11が停止している位置である現場までの救護が要請されているか否かが判定される。
 ステップS210において、現場まで緊急車両による救護が要請されている場合、処理は、ステップS213に進む。
 ステップS213において、制御部181は、通信部182を制御して、車両11の位置情報と共に、車両11が停止している現場まで、緊急車両を救護に向かわせるように手配する。
 以上のような処理により、緊急車両は、安全な位置に停止した車両11の位置に体調異常が発生した運転者の救護に向かう。
 これにより、自動運転レベルがレベル4であり、運転者の交代が必要であるが、運転者の交代ができない状態であっても、車両11は安全な場所に停止されて、体調異常を発生した運転者が緊急車両による救護を受けた後、必要とされる処置が可能な医療機関へと搬送される。
 ただし、自動運転レベル4において、運転者の交代が必要で、かつ、運転者の交代が可能であった場合については、自動運転の継続は不能である状態であるので、ステップS180,S182においては、交代した運転者が車両11を運転し、医療機関、または、緊急車両との合流地点に移動させる必要がある。
 このため、ステップS180においては、異常事態処理部203は、情報表示部252を制御して、体調異常が発生した運転者に対する医療的な処置を施すための医療機関の情報と共に、緊急車両との合流地点を提示して、交代した運転者に対して、緊急車両との合流地点に向けて車両11を移動させるように運転することを促す情報を提示する。この提示により、交代した運転者は、車両11を運転して、緊急車両との合流地点に向けて移動する。そして、合流地点において、緊急車両により体調異常が発生した運転者が救護され、医療機関へと搬送されて、体調異常が発生した運転者に必要な処置が施される。
 また、ステップS182においては、異常事態処理部203は、情報表示部252を制御して、体調異常が発生した運転者に対する医療的な処置を施すための医療機関の情報を提示して、交代した運転者に対して、医療機関に向けて車両11を移動させるように運転することを促す情報を提示する。この提示により、交代した運転者は、車両11を運転して、医療機関に向けて移動させる。そして、医療機関において、体調異常が発生した運転者に必要な処置が施される。
 結果として、自動運転レベルがレベル4であって、運転者の交代が必要で、かつ、交代ができない状態であっても、体調異常が発生している運転者および同乗者、並びに、周囲の車両や通行人に対して、適切に安全を配慮した運転制御を実現することが可能となる。
 <<12.自動運転レベル3対応処理>>
 次に、図14のフローチャートを参照して、自動運転レベル3対応処理について説明する。尚、図14のフローチャートにおけるステップS252乃至S264、ステップS281乃至S294、およびステップS311乃至S321の処理は、図13のステップS171乃至S182,S184、ステップS201乃至S214、およびステップS221乃至S231の処理と同様であるので、その説明は省略する。
 すなわち、図14のフローチャートにおいて、図13のフローチャートと異なる点は、ステップS251において、運転者の体調異常が発生したことを通知するステップS252の処理の前に、異常事態処理部203が、車両11を安全な場所に停車させる点である。
 すなわち、自動運転レベルがレベル3である場合については、自動運転をするにあたって、運転者が運転できる状態であることが条件となるので、運転者の体調異常が発生した時点で自動運転ができない状態となるため、最初の処理で車両11を安全な場所に停車させる。
 以降の処理については、図13のフローチャートを参照して説明した自動運転レベルがレベル4である場合の処理と同様である。
 以上の処理により、自動運転レベルがレベル3であっても、車両11は安全な場所に停止されて、体調異常を発生した運転者が、必要とされる処置が可能な医療機関へと搬送される。
 結果として、自動運転レベルがレベル3であっても、適切に安全を配慮した処理が可能となる。
 <<13.緊急停止サポート処理>>
 次に、図15のフローチャートを参照して、緊急停止サポート処理について説明する。尚、図15のフローチャートにおけるステップS332乃至S344、ステップS361乃至S374、およびステップS391乃至S401の処理は、図14のステップS252乃至S264、ステップS281乃至S294、およびステップS311乃至S321の処理と同様であるので、その説明は省略する。
 すなわち、図15のフローチャートにおいて、図14のフローチャートと異なる点は、ステップS331において、異常事態処理部203が、車両11を、ハザードランプを点灯させながら、減速して停車させる点である。
 すなわち、自動運転レベルがレベル0乃至2である場合については、運転者が体調異常であるときには、運転者の体調異常が発生した時点で運転ができない状態となり、さらに、安全な場所を選べないことがあるので、走行車線上であっても、ハザードランプを点灯させて、減速させながら停車させる。
 以降の処理については、図13のフローチャートを参照して説明した自動運転レベルがレベル4である場合の処理と同様である。
 ただし、自動運転レベルがレベル0乃至2の場合、運転者が体調異常を発生させると直ちに運転者の交代が必要となる。このため、ステップS336においては、運転者の交代が必要であり、かつ、交代可能であるか、または、運転の交代が不要か否かが、判定されるのではなく、運転者の交代が可能であるか否かが判定される。そして、ステップS336において、運転者の交代が可能であれば、処理は、ステップS337に進み、交代の運転者が車両11を運転して、合流地点や医療機関へと車両11を移動させる。また、ステップS336において、運転者の交代が不可能であれば、処理は、ステップS344に進み、緊急車両が、車両11が停止している現場まで手配される。
 以上の処理により、自動運転レベルがレベル0乃至2であっても、車両11は走行車線上でハザードランプを点灯させて減速されながら停止され、体調異常を発生した運転者は、交代の運転者による運転で車両11により医療機関もしくは合流地点まで搬送されるか、または、緊急車両により医療機関まで搬送される。
 結果として、自動運転レベルがレベル0乃至2のいずれであっても、体調異常が発生している運転者、および同乗者、並びに、周囲の車両、および通行人に対して、適切に安全を配慮した運転制御を実現することが可能となる。
 <<14.ソフトウェアにより実行させる例>>
 ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のコンピュータなどに、記録媒体からインストールされる。
 図16は、汎用のコンピュータの構成例を示している。このコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタフェース1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。
 入出力インタフェース1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブル記録媒体1011に対してデータを読み書きするドライブ1010が接続されている。
 CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブル記録媒体1011ら読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。
 以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブル記録媒体1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記憶部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記憶部1008にインストールすることができる。その他、プログラムは、ROM1002や記憶部1008に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 尚、図16におけるCPU1001が、図8における自動運転制御部112の機能を実現させる。また、図16における記憶部1008が、図8における記憶部111を実現する。
 また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 なお、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 尚、本開示は、以下のような構成も取ることができる。
<1> 車両の運転者のバイタルデータを取得するバイタルデータ取得部と、
 前記バイタルデータに基づいて、前記運転者が体調異常を発生させているとの判定結果を取得した場合、自動運転レベルに応じて前記車両を安全な状態に制御する異常事態処理部と
 を備えた情報処理装置。
<2> 前記バイタルデータに基づいて、前記運転者が体調異常を発生させているか否かを判定する体調異常判定部をさらに備える
 <1>に記載の情報処理装置。
<3> 前記体調異常判定部は、機械学習により、前記バイタルデータに基づいて、前記運転者が体調異常を発生させているか否かを判定する
 <2>に記載の情報処理装置。
<4> 前記バイタルデータを送信する通信部と、
 前記バイタルデータに基づいて、前記運転者が体調異常を発生させているとの判定結果を取得する取得部とをさらに備え、
 前記体調異常判定部は、取得した判断結果に応じて、前記運転者が体調異常を発生させているか否かを判定する
 請求項2に記載の情報処理装置。
<5> 前記通信部は、前記バイタルデータを、前記バイタルデータに基づいて、前記体調異常の発生の有無を判断する専門医療機関に送信し、
 前記取得部は、前記専門医療機関による、前記バイタルデータに基づいた前記体調異常の発生の有無の判断結果を取得し、
 前記体調異常判定部は、前記専門医療機関による、前記バイタルデータに基づいた前記体調異常の発生の有無の判断結果に応じて、前記運転者が体調異常を発生させているか否かを判定する
 <4>に記載の情報処理装置。
<6> 前記体調異常判定部は、前記自動運転レベルがレベル4またはレベル5である場合、前記バイタルデータに基づいて、前記運転者が体調異常を発生させているか否かを判定する
 <2>に記載の情報処理装置。
<7> 前記自動運転レベルがレベル4またはレベル5である場合、前記バイタルデータに基づいて、前記運転者が体調異常を発生させていると判定されるとき、前記異常事態処理部は、前記バイタルデータと共に前記運転者が体調異常を発生させていることを示す通知を送信すると共に、前記通知に応じて送信されてくる、前記バイタルデータに基づいた、前記体調異常を発生させている前記運転者に施すべき処置が可能な医療機関の情報を受信し、前記医療機関へと移動するように、前記車両を動作させることで、前記車両を安全な状態に制御する
 <2>に記載の情報処理装置。
<8> 前記異常事態処理部は、前記通知に応じて送信されてくる、前記バイタルデータに基づいた、前記体調異常を発生させている前記運転者に施すべき処置が可能な医療機関の情報と、緊急車両による救護の要否を示す情報とを受信し、前記緊急車両による救護が必要なとき、前記緊急車両との合流地点へと移動するように、前記車両を動作させることで、前記車両を安全な状態に制御する
 <7>に記載の情報処理装置。
<9> 前記異常事態処理部は、前記バイタルデータ、および前記運転者を特定する情報と共に前記運転者が体調異常を発生させていることを示す通知を送信すると共に、前記通知に応じて送信されてくる、前記バイタルデータと、前記運転者を特定する情報により検索されたカルテの情報とに基づいた、前記体調異常を発生させている前記運転者に施すべき処置が可能な医療機関の情報を受信し、前記医療機関へと移動するように、前記車両を動作させることで、前記車両を安全な状態に制御する
 <7>に記載の情報処理装置。
<10> 前記自動運転レベルがレベル4である場合、前記バイタルデータに基づいて、前記運転者が体調異常を発生させていると判定されるとき、前記運転者の交代が必要で、かつ、交代が可能である場合、または、前記運転者の交代が不要である場合、前記異常事態処理部は、前記医療機関へと移動するように、前記車両を動作させることで、前記車両を安全な状態に制御する
 <7>に記載の情報処理装置。
<11> 前記自動運転レベルがレベル4である場合、前記バイタルデータに基づいて、前記運転者が体調異常を発生させていると判定され、前記運転者の交代が必要であるが、交代が不可能であるとき、前記異常事態処理部は、安全な場所に停止するように、前記車両を動作させる、または、前記安全な場所に停止するように、前記車両を動作させると共に、前記車両が停止した位置に緊急車両による救護を要請することで、前記車両を安全な状態に制御する
 <7>に記載の情報処理装置。
<12> 前記自動運転レベルがレベル3である場合、前記バイタルデータに基づいて、前記運転者が体調異常を発生させていると判定されるとき、前記異常事態処理部は、前記安全な場所に停止するように、前記車両を動作させた後、前記バイタルデータと共に前記運転者が体調異常を発生させていることを示す通知を送信すると共に、前記通知に応じて送信されてくる、前記バイタルデータに基づいた、前記体調異常を発生させている前記運転者に施すべき処置が可能な医療機関の情報を受信し、前記医療機関へと移動するように促す情報を提示することで、前記車両を安全な状態に制御する
 <2>に記載の情報処理装置。
<13> 前記自動運転レベルがレベル3である場合、前記バイタルデータに基づいて、前記運転者が体調異常を発生させていると判定され、前記運転者の交代が必要であるが、交代が不可能であるとき、前記異常事態処理部は、前記車両が停止した位置に緊急車両による救護を要請することで、前記車両を安全な状態に制御する
 <12>に記載の情報処理装置。
<14> 前記自動運転レベルがレベル0乃至2である場合、前記バイタルデータに基づいて、前記運転者が体調異常を発生させていると判定されるとき、前記異常事態処理部は、ハザードランプを点灯し、減速しながら停止するように、前記車両を動作させた後、前記バイタルデータと共に前記運転者が体調異常を発生させていることを示す通知を送信すると共に、前記通知に応じて送信されてくる、前記バイタルデータに基づいた、前記体調異常を発生させている前記運転者に施すべき処置が可能な医療機関の情報を受信し、前記医療機関へと移動するように促す情報を提示することで、前記車両を安全な状態に制御する
 <2>に記載の情報処理装置。
<15> 前記自動運転レベルがレベル0乃至2である場合、前記バイタルデータに基づいて、前記運転者が体調異常を発生させていると判定され、前記運転者の交代が不可能であるとき、前記異常事態処理部は、前記車両が停止した位置に緊急車両による救護を要請することで、前記車両を安全な状態に制御する
 <14>に記載の情報処理装置。
<16> 前記体調異常判定部は、前記自動運転レベルがレベル0乃至3である場合、前記運転者の視線検出ができないとき、前記バイタルデータに基づいて、前記運転者が体調異常を発生させているか否かを判定する
 <2>乃至<5>のいずれかに記載の情報処理装置。
<17> 前記体調異常判定部は、前記運転者の視線検出ができない場合、前記運転者に対して覚醒を促すフィードバックを掛けて、さらに、前記運転者の視線検出ができないとき、前記バイタルデータに基づいて、前記運転者が体調異常を発生させているか否かを判定する
 <16>に記載の情報処理装置。
<18> 前記運転者の視線検出ができない場合、前記運転者に対して覚醒を促すフィードバックを掛けて、さらに、前記運転者の視線検出ができない状態が継続するとき、前記体調異常判定部は、前記フィードバックを繰り返し、前記フィードバックを所定回数繰り返したか否かにより、前記運転者が体調異常を発生させているか否かを判定する
 <17>に記載の情報処理装置。
<19> 車両の運転者のバイタルデータを取得するバイタルデータ取得処理と、
 前記バイタルデータに基づいて、前記運転者が体調異常を発生させているとの判定結果を取得した場合、自動運転レベルに応じて前記車両を安全な状態に制御する異常事態処理と
 を含む情報処理方法。
<20> 車両の運転者のバイタルデータを取得するバイタルデータ取得部と、
 前記バイタルデータに基づいて、前記運転者が体調異常を発生しているとの判定結果を取得した場合、自動運転レベルに応じて前記車両を安全な状態に制御する異常事態処理部と
 してコンピュータを機能させるプログラム。
 11 車両, 12 通報受信者端末, 13 医療業務者端末, 100 車両制御システム, 102 データ取得部, 112 自動運転制御部, 133 状況分析部, 134 計画部, 135 動作制御部, 153 状況認識部, 154 状況予測部, 172 加減速制御部, 173 方向制御部, 185 バイタルデータ送受信管理部, 195 カルテ管理部, 201 車内環境認識部, 202 フィードバック制御部, 203 異常事態処理部, 204 E-call, 211 車両制御部, 231 車内センサ, 232 バイタルデータ取得センサ, 251 刺激臭発生部, 252 情報表示部, 253 スピーカ

Claims (20)

  1.  車両の運転者のバイタルデータを取得するバイタルデータ取得部と、
     前記バイタルデータに基づいて、前記運転者が体調異常を発生させているとの判定結果を取得した場合、自動運転レベルに応じて前記車両を安全な状態に制御する異常事態処理部と
     を備えた情報処理装置。
  2.  前記バイタルデータに基づいて、前記運転者が体調異常を発生させているか否かを判定する体調異常判定部をさらに備える
     請求項1に記載の情報処理装置。
  3.  前記体調異常判定部は、機械学習により、前記バイタルデータに基づいて、前記運転者が体調異常を発生させているか否かを判定する
     請求項2に記載の情報処理装置。
  4.  前記バイタルデータを送信する通信部と、
     前記バイタルデータに基づいて、前記運転者が体調異常を発生させているとの判定結果を取得する取得部とをさらに備え、
     前記体調異常判定部は、取得した判断結果に応じて、前記運転者が体調異常を発生させているか否かを判定する
     請求項2に記載の情報処理装置。
  5.  前記通信部は、前記バイタルデータを、前記バイタルデータに基づいて、前記体調異常の発生の有無を判断する専門医療機関に送信し、
     前記取得部は、前記専門医療機関による、前記バイタルデータに基づいた前記体調異常の発生の有無の判断結果を取得し、
     前記体調異常判定部は、前記専門医療機関による、前記バイタルデータに基づいた前記体調異常の発生の有無の判断結果に応じて、前記運転者が体調異常を発生させているか否かを判定する
     請求項4に記載の情報処理装置。
  6.  前記体調異常判定部は、前記自動運転レベルがレベル4またはレベル5である場合、前記バイタルデータに基づいて、前記運転者が体調異常を発生させているか否かを判定する
     請求項2に記載の情報処理装置。
  7.  前記自動運転レベルがレベル4またはレベル5である場合、前記バイタルデータに基づいて、前記運転者が体調異常を発生させていると判定されるとき、前記異常事態処理部は、前記バイタルデータと共に前記運転者が体調異常を発生させていることを示す通知を送信すると共に、前記通知に応じて送信されてくる、前記バイタルデータに基づいた、前記体調異常を発生させている前記運転者に施すべき処置が可能な医療機関の情報を受信し、前記医療機関へと移動するように、前記車両を動作させることで、前記車両を安全な状態に制御する
     請求項2に記載の情報処理装置。
  8.  前記異常事態処理部は、前記通知に応じて送信されてくる、前記バイタルデータに基づいた、前記体調異常を発生させている前記運転者に施すべき処置が可能な医療機関の情報と、緊急車両による救護の要否を示す情報とを受信し、前記緊急車両による救護が必要なとき、前記緊急車両との合流地点へと移動するように、前記車両を動作させることで、前記車両を安全な状態に制御する
     請求項7に記載の情報処理装置。
  9.  前記異常事態処理部は、前記バイタルデータ、および前記運転者を特定する情報と共に前記運転者が体調異常を発生させていることを示す通知を送信すると共に、前記通知に応じて送信されてくる、前記バイタルデータと、前記運転者を特定する情報により検索されたカルテの情報とに基づいた、前記体調異常を発生させている前記運転者に施すべき処置が可能な医療機関の情報を受信し、前記医療機関へと移動するように、前記車両を動作させることで、前記車両を安全な状態に制御する
     請求項7に記載の情報処理装置。
  10.  前記自動運転レベルがレベル4である場合、前記バイタルデータに基づいて、前記運転者が体調異常を発生させていると判定されるとき、前記運転者の交代が必要で、かつ、交代が可能である場合、または、前記運転者の交代が不要である場合、前記異常事態処理部は、前記医療機関へと移動するように、前記車両を動作させることで、前記車両を安全な状態に制御する
     請求項7に記載の情報処理装置。
  11.  前記自動運転レベルがレベル4である場合、前記バイタルデータに基づいて、前記運転者が体調異常を発生させていると判定され、前記運転者の交代が必要であるが、交代が不可能であるとき、前記異常事態処理部は、安全な場所に停止するように、前記車両を動作させる、または、前記安全な場所に停止するように、前記車両を動作させると共に、前記車両が停止した位置に緊急車両による救護を要請することで、前記車両を安全な状態に制御する
     請求項7に記載の情報処理装置。
  12.  前記自動運転レベルがレベル3である場合、前記バイタルデータに基づいて、前記運転者が体調異常を発生させていると判定されるとき、前記異常事態処理部は、前記安全な場所に停止するように、前記車両を動作させた後、前記バイタルデータと共に前記運転者が体調異常を発生させていることを示す通知を送信すると共に、前記通知に応じて送信されてくる、前記バイタルデータに基づいた、前記体調異常を発生させている前記運転者に施すべき処置が可能な医療機関の情報を受信し、前記医療機関へと移動するように促す情報を提示することで、前記車両を安全な状態に制御する
     請求項2に記載の情報処理装置。
  13.  前記自動運転レベルがレベル3である場合、前記バイタルデータに基づいて、前記運転者が体調異常を発生させていると判定され、前記運転者の交代が必要であるが、交代が不可能であるとき、前記異常事態処理部は、前記車両が停止した位置に緊急車両による救護を要請することで、前記車両を安全な状態に制御する
     請求項12に記載の情報処理装置。
  14.  前記自動運転レベルがレベル0乃至2である場合、前記バイタルデータに基づいて、前記運転者が体調異常を発生させていると判定されるとき、前記異常事態処理部は、ハザードランプを点灯し、減速しながら停止するように、前記車両を動作させた後、前記バイタルデータと共に前記運転者が体調異常を発生させていることを示す通知を送信すると共に、前記通知に応じて送信されてくる、前記バイタルデータに基づいた、前記体調異常を発生させている前記運転者に施すべき処置が可能な医療機関の情報を受信し、前記医療機関へと移動するように促す情報を提示することで、前記車両を安全な状態に制御する
     請求項2に記載の情報処理装置。
  15.  前記自動運転レベルがレベル0乃至2である場合、前記バイタルデータに基づいて、前記運転者が体調異常を発生させていると判定され、前記運転者の交代が不可能であるとき、前記異常事態処理部は、前記車両が停止した位置に緊急車両による救護を要請することで、前記車両を安全な状態に制御する
     請求項14に記載の情報処理装置。
  16.  前記体調異常判定部は、前記自動運転レベルがレベル0乃至3である場合、前記運転者の視線検出ができないとき、前記バイタルデータに基づいて、前記運転者が体調異常を発生させているか否かを判定する
     請求項2に記載の情報処理装置。
  17.  前記体調異常判定部は、前記運転者の視線検出ができない場合、前記運転者に対して覚醒を促すフィードバックを掛けて、さらに、前記運転者の視線検出ができないとき、前記バイタルデータに基づいて、前記運転者が体調異常を発生させているか否かを判定する
     請求項16に記載の情報処理装置。
  18.  前記運転者の視線検出ができない場合、前記運転者に対して覚醒を促すフィードバックを掛けて、さらに、前記運転者の視線検出ができない状態が継続するとき、前記体調異常判定部は、前記フィードバックを繰り返し、前記フィードバックを所定回数繰り返したか否かにより、前記運転者が体調異常を発生させているか否かを判定する
     請求項17に記載の情報処理装置。
  19.  車両の運転者のバイタルデータを取得するバイタルデータ取得処理と、
     前記バイタルデータに基づいて、前記運転者が体調異常を発生させているとの判定結果を取得した場合、自動運転レベルに応じて前記車両を安全な状態に制御する異常事態処理と
     を含む情報処理方法。
  20.  車両の運転者のバイタルデータを取得するバイタルデータ取得部と、
     前記バイタルデータに基づいて、前記運転者が体調異常を発生しているとの判定結果を取得した場合、自動運転レベルに応じて前記車両を安全な状態に制御する異常事態処理部と
     してコンピュータを機能させるプログラム。
PCT/JP2019/042491 2018-11-13 2019-10-30 情報処理装置、および情報処理方法、並びにプログラム WO2020100584A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201980072371.1A CN113168772B (zh) 2018-11-13 2019-10-30 信息处理装置,信息处理方法和记录介质
JP2020555994A JP7424305B2 (ja) 2018-11-13 2019-10-30 情報処理装置、および情報処理方法、並びにプログラム
EP19885826.8A EP3882884A4 (en) 2018-11-13 2019-10-30 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
US17/291,618 US20210387640A1 (en) 2018-11-13 2019-10-30 Information processing apparatus, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018212727 2018-11-13
JP2018-212727 2018-11-13

Publications (1)

Publication Number Publication Date
WO2020100584A1 true WO2020100584A1 (ja) 2020-05-22

Family

ID=70732053

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/042491 WO2020100584A1 (ja) 2018-11-13 2019-10-30 情報処理装置、および情報処理方法、並びにプログラム

Country Status (5)

Country Link
US (1) US20210387640A1 (ja)
EP (1) EP3882884A4 (ja)
JP (1) JP7424305B2 (ja)
CN (1) CN113168772B (ja)
WO (1) WO2020100584A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022015048A (ja) * 2020-07-08 2022-01-21 三菱ロジスネクスト株式会社 有人無人フォークリフトおよび荷役システム
JP2022030999A (ja) * 2020-08-07 2022-02-18 トヨタ自動車株式会社 サーバ、プログラム及び制御方法
GB2598309A (en) * 2020-08-24 2022-03-02 Continental Automotive Gmbh Method for determining a safety risk level of a driver of a vehicle and vehicle electronic control device for determining a safety risk level
CN114475564A (zh) * 2022-03-01 2022-05-13 清华大学苏州汽车研究院(相城) 一种车辆紧急应对控制方法、系统、车辆及存储介质
JP2022102649A (ja) * 2020-12-25 2022-07-07 株式会社クボタ 作業車両
US11603104B2 (en) 2020-04-13 2023-03-14 Mazda Motor Corporation Driver abnormality determination system, method and computer program
WO2023063186A1 (ja) * 2021-10-12 2023-04-20 株式会社デンソー 車両用装置及び車両用推定方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7243389B2 (ja) * 2019-03-29 2023-03-22 マツダ株式会社 車両走行制御装置
JP7470540B2 (ja) * 2020-03-18 2024-04-18 本田技研工業株式会社 内部機器の異常判定装置、異常判定方法、及びプログラム
CN113743290A (zh) * 2021-08-31 2021-12-03 上海商汤临港智能科技有限公司 用于车辆的向紧急呼叫中心发送信息的方法及装置
CN114179828B (zh) * 2021-12-22 2023-09-26 奇瑞汽车股份有限公司 汽车的控制方法、装置及计算机存储介质
CN114793334B (zh) * 2022-06-21 2022-10-14 广州万协通信息技术有限公司 基于车联网的救援呼叫方法、装置、设备及存储介质
CN115150440A (zh) * 2022-09-06 2022-10-04 深圳位置网科技有限公司 一种智能网联汽车信息交互方法、系统及可读存储介质
CN115626171B (zh) * 2022-12-07 2023-03-21 小米汽车科技有限公司 车辆自动驾驶方法、装置、电子设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004246707A (ja) * 2003-02-14 2004-09-02 Mazda Motor Corp 自動車用健康管理システム、自動車用健康管理方法、及び、自動車用健康管理プログラム
JP2008040787A (ja) * 2006-08-07 2008-02-21 Sense It Smart Corp 疲労管理システム、疲労管理方法、及びプログラム
JP2013171569A (ja) 2012-02-23 2013-09-02 Toyota Motor Corp 車輌用緊急通報装置
WO2017006853A1 (ja) * 2015-07-06 2017-01-12 株式会社デンソー 運転者異常検出装置及び運転者異常検出方法
JP2017157067A (ja) * 2016-03-03 2017-09-07 三菱電機株式会社 自動運転制御装置
WO2017221603A1 (ja) * 2016-06-21 2017-12-28 株式会社デンソー 覚醒維持装置
JP2018073253A (ja) * 2016-11-01 2018-05-10 パナソニックIpマネジメント株式会社 運転手モニタ装置及び運転手モニタ方法

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3687356B2 (ja) * 1998-08-05 2005-08-24 いすゞ自動車株式会社 運行管理装置
JP4372804B2 (ja) 2007-05-09 2009-11-25 トヨタ自動車株式会社 画像処理装置
EP2648618B1 (en) * 2010-12-10 2021-07-14 Joyson Safety Systems Acquisition LLC System for monitoring a vehicle driver
US8725311B1 (en) * 2011-03-14 2014-05-13 American Vehicular Sciences, LLC Driver health and fatigue monitoring system and method
JP2012252632A (ja) * 2011-06-06 2012-12-20 Nippon Seiki Co Ltd 運転者監視装置
JP5724689B2 (ja) * 2011-07-05 2015-05-27 アイシン・エィ・ダブリュ株式会社 ナビゲーションシステム、ナビゲーション方法、及びナビゲーションプログラム
DE102011109564B4 (de) * 2011-08-05 2024-05-02 Mercedes-Benz Group AG Verfahren und Vorrichtung zur Überwachung zumindest eines Fahrzeuginsassen und Verfahren zum Betrieb zumindest einer Assistenzvorrichtung
WO2015198540A1 (ja) * 2014-06-23 2015-12-30 株式会社デンソー ドライバの運転不能状態検出装置
US9262924B2 (en) * 2014-07-09 2016-02-16 Toyota Motor Engineering & Manufacturing North America, Inc. Adapting a warning output based on a driver's view
JP6442942B2 (ja) * 2014-09-11 2018-12-26 株式会社デンソー ドライバ状態判定装置
CN115871715A (zh) * 2014-12-12 2023-03-31 索尼公司 自动驾驶控制设备以及自动驾驶控制方法和程序
WO2016151749A1 (ja) 2015-03-24 2016-09-29 パイオニア株式会社 自動運転支援装置、制御方法、プログラム及び記憶媒体
US10445560B2 (en) * 2015-03-31 2019-10-15 Equos Research Co., Ltd. Pulse wave detection device and pulse wave detection program
JP2016196285A (ja) * 2015-04-03 2016-11-24 株式会社デンソー 走行制御装置及び走行制御方法
JP2017001532A (ja) * 2015-06-10 2017-01-05 富士重工業株式会社 車両の走行制御装置
KR102368812B1 (ko) * 2015-06-29 2022-02-28 엘지전자 주식회사 차량 운전 보조 방법 및 차량
JP6552316B2 (ja) * 2015-07-29 2019-07-31 修一 田山 車輌の自動運転システム
KR101730321B1 (ko) * 2015-08-03 2017-04-27 엘지전자 주식회사 운전자 보조 장치 및 그 제어방법
US9884628B1 (en) * 2015-09-01 2018-02-06 State Farm Mutual Automobile Insurance Company Systems and methods for graduated response to impaired driving
JP6455456B2 (ja) * 2016-02-16 2019-01-23 トヨタ自動車株式会社 車両制御装置
JP6508137B2 (ja) * 2016-06-24 2019-05-08 トヨタ自動車株式会社 車両走行制御装置
JP2018001932A (ja) * 2016-06-30 2018-01-11 トヨタ自動車株式会社 車両制御装置
JP6627684B2 (ja) * 2016-08-03 2020-01-08 オムロン株式会社 運転手状態判定装置、車両制御システム
JP6323511B2 (ja) * 2016-08-26 2018-05-16 マツダ株式会社 運転者体調検知装置及び方法
JP6981743B2 (ja) 2016-09-27 2021-12-17 パイオニア株式会社 情報処理装置、情報処理方法及び情報処理プログラム
CN106491104A (zh) * 2016-10-25 2017-03-15 湖南大学 基于智能穿戴设备的驾驶员状态智能实时监测系统和方法
US10241511B2 (en) * 2016-11-03 2019-03-26 Ford Global Technologies, Llc Emergency evacuation using autonomous driving
JP2018147247A (ja) * 2017-03-06 2018-09-20 オムロン株式会社 運転者身体コンディション回復支援装置、方法およびプログラム
JP6627811B2 (ja) * 2017-03-14 2020-01-08 オムロン株式会社 集中度判定装置、集中度判定方法及び集中度判定のためのプログラム
CN107316436B (zh) * 2017-07-31 2021-06-18 努比亚技术有限公司 危险驾驶状态处理方法、电子设备及存储介质
JP7056164B2 (ja) * 2018-01-18 2022-04-19 マツダ株式会社 ドライバ状態判定装置
CN108464839A (zh) * 2018-03-22 2018-08-31 东华大学 一种基于机器学习的车载疲劳驾驶监测预警系统
US20190391581A1 (en) * 2018-06-26 2019-12-26 Uber Technologies, Inc. Passenger Health Monitoring and Intervention for Autonomous Vehicles

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004246707A (ja) * 2003-02-14 2004-09-02 Mazda Motor Corp 自動車用健康管理システム、自動車用健康管理方法、及び、自動車用健康管理プログラム
JP2008040787A (ja) * 2006-08-07 2008-02-21 Sense It Smart Corp 疲労管理システム、疲労管理方法、及びプログラム
JP2013171569A (ja) 2012-02-23 2013-09-02 Toyota Motor Corp 車輌用緊急通報装置
WO2017006853A1 (ja) * 2015-07-06 2017-01-12 株式会社デンソー 運転者異常検出装置及び運転者異常検出方法
JP2017157067A (ja) * 2016-03-03 2017-09-07 三菱電機株式会社 自動運転制御装置
WO2017221603A1 (ja) * 2016-06-21 2017-12-28 株式会社デンソー 覚醒維持装置
JP2018073253A (ja) * 2016-11-01 2018-05-10 パナソニックIpマネジメント株式会社 運転手モニタ装置及び運転手モニタ方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11603104B2 (en) 2020-04-13 2023-03-14 Mazda Motor Corporation Driver abnormality determination system, method and computer program
JP2022015048A (ja) * 2020-07-08 2022-01-21 三菱ロジスネクスト株式会社 有人無人フォークリフトおよび荷役システム
JP7017294B2 (ja) 2020-07-08 2022-02-08 三菱ロジスネクスト株式会社 有人無人フォークリフトおよび荷役システム
JP2022030999A (ja) * 2020-08-07 2022-02-18 トヨタ自動車株式会社 サーバ、プログラム及び制御方法
GB2598309A (en) * 2020-08-24 2022-03-02 Continental Automotive Gmbh Method for determining a safety risk level of a driver of a vehicle and vehicle electronic control device for determining a safety risk level
GB2598309B (en) * 2020-08-24 2023-08-30 Continental Automotive Tech Gmbh Vehicle electronic control device for determining a safety risk level of a driver of a vehicle
JP2022102649A (ja) * 2020-12-25 2022-07-07 株式会社クボタ 作業車両
JP7476093B2 (ja) 2020-12-25 2024-04-30 株式会社クボタ 作業車両
WO2023063186A1 (ja) * 2021-10-12 2023-04-20 株式会社デンソー 車両用装置及び車両用推定方法
CN114475564A (zh) * 2022-03-01 2022-05-13 清华大学苏州汽车研究院(相城) 一种车辆紧急应对控制方法、系统、车辆及存储介质
CN114475564B (zh) * 2022-03-01 2023-09-26 清华大学苏州汽车研究院(相城) 一种车辆紧急应对控制方法、系统、车辆及存储介质

Also Published As

Publication number Publication date
CN113168772A (zh) 2021-07-23
US20210387640A1 (en) 2021-12-16
JP7424305B2 (ja) 2024-01-30
JPWO2020100584A1 (ja) 2021-11-04
EP3882884A1 (en) 2021-09-22
CN113168772B (zh) 2023-06-02
EP3882884A4 (en) 2022-01-05

Similar Documents

Publication Publication Date Title
JP7424305B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
US11993293B2 (en) Information processing apparatus, moving apparatus, and method, and program
JP7080598B2 (ja) 車両制御装置および車両制御方法
WO2019188398A1 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
US20210155269A1 (en) Information processing device, mobile device, information processing system, method, and program
WO2019151266A1 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
WO2021145131A1 (ja) 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム
JP7431223B2 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
JPWO2019202881A1 (ja) 情報処理装置、移動装置、情報処理システム、および方法、並びにプログラム
WO2020226014A1 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
WO2020100585A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
WO2021049219A1 (ja) 情報処理装置、移動装置、情報処理システム、および方法、並びにプログラム
CN112534487B (zh) 信息处理设备、移动体、信息处理方法和程序
JPWO2020145161A1 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
US11866073B2 (en) Information processing device, information processing system, and information processing method for wearable information terminal for a driver of an automatic driving vehicle
WO2021131474A1 (ja) 情報処理装置、移動装置、情報処理システム、および方法、並びにプログラム
WO2020241292A1 (ja) 信号処理装置、信号処理方法、プログラム、及び、撮像装置
KR102669020B1 (ko) 정보 처리 장치, 이동 장치, 및 방법, 그리고 프로그램
KR20240026212A (ko) 정보 처리 시스템 및 정보 처리 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19885826

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020555994

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019885826

Country of ref document: EP

Effective date: 20210614