WO2024252912A1 - Information processing device, information processing method, and information processing system - Google Patents
Information processing device, information processing method, and information processing system Download PDFInfo
- Publication number
- WO2024252912A1 WO2024252912A1 PCT/JP2024/018588 JP2024018588W WO2024252912A1 WO 2024252912 A1 WO2024252912 A1 WO 2024252912A1 JP 2024018588 W JP2024018588 W JP 2024018588W WO 2024252912 A1 WO2024252912 A1 WO 2024252912A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- reaction
- driver
- unit
- vehicle
- actual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
Definitions
- This technology relates to an information processing device, an information processing method, and an information processing system, and in particular to an information processing device, an information processing method, and an information processing system that can more appropriately determine the driver's cognitive function.
- Patent Document 1 describes a technology that issues a warning to the driver if the driver's gaze is not directed in the correct direction.
- Patent Document 1 cannot accurately assess the driver's cognitive function if the driver looks in the correct direction but does not recognize the danger.
- This technology was developed in light of these circumstances, and makes it possible to more appropriately assess a driver's cognitive function.
- the information processing device includes a reaction prediction unit that predicts the driver's reaction to an event occurring around the driver, a reaction recognition unit that recognizes the driver's actual reaction to the event, a determination unit that compares the actual reaction with a predicted reaction predicted by the reaction prediction unit to determine whether the actual reaction is normal, and an execution unit that executes a predetermined process when it is determined that the actual reaction is not normal.
- an information processing device predicts the driver's reaction to an event occurring around the driver, recognizes the driver's actual reaction to the event, compares the predicted reaction with the actual reaction to determine whether the actual reaction is normal or not, and executes a predetermined process if it is determined that the actual reaction is not normal.
- the information processing system of the second aspect of the present technology has an information processing device including a first sensor used to recognize the internal situation of a vehicle driven by a driver, a reaction prediction unit that predicts the reaction of the driver to an event occurring around the driver, a reaction recognition unit that recognizes the actual reaction of the driver to the event based on sensor data from the first sensor, a determination unit that compares the reaction predicted by the reaction prediction unit with the actual reaction and determines whether the actual reaction is normal or not, and an execution unit that executes a predetermined process if it is determined that the actual reaction is not normal.
- the driver's reaction to an event occurring around the driver is predicted, the driver's actual reaction to the event is recognized, the predicted reaction is compared with the actual reaction to determine whether the actual reaction is normal, and if it is determined that the actual reaction is not normal, a predetermined process is executed.
- the driver's reaction to an event occurring around the driver is predicted, the actual reaction of the driver to the event is recognized based on sensor data from a first sensor used to recognize the internal situation of the vehicle driven by the driver, the predicted reaction is compared with the actual reaction to determine whether the actual reaction is normal, and if it is determined that the actual reaction is not normal, a predetermined process is executed.
- FIG. 1 is a block diagram showing an example of the configuration of a vehicle control system.
- FIG. 2 is a diagram showing an example of a sensing region.
- FIG. 1 illustrates an example of a vehicle control system for determining a driver's cognitive function.
- 1 is a block diagram showing a configuration example of a vehicle control system to which the present technology is applied.
- 4 is a block diagram showing a detailed configuration example of a cognitive function assessment unit.
- FIG. 4 is a flowchart illustrating a first process performed by the vehicle control system.
- 10 is a flowchart illustrating a second process performed by the vehicle control system.
- 10 is a flowchart illustrating a third process performed by the vehicle control system.
- FIG. 1 illustrates an example of a driver's abnormal reaction to a dangerous event.
- FIG. 2 is a block diagram showing an example of the hardware configuration of a computer.
- FIG. 1 is a block diagram showing an example of the configuration of a vehicle control system 11, which is an example of a mobility device control system to which the present technology is applied.
- the vehicle control system 11 is provided in the vehicle 1 and performs processing related to the automated driving of the vehicle 1.
- This automated driving includes driving automation of levels 1 to 5, as well as remote driving and remote assistance of the vehicle 1 by a remote driver.
- the vehicle control system 11 includes a vehicle control ECU (Electronic Control Unit) 21, a communication unit 22, a map information storage unit 23, a location information acquisition unit 24, an external recognition sensor 25, an in-vehicle sensor 26, a vehicle sensor 27, a memory unit 28, a driving automation control unit 29, a DMS (Driver Monitoring System) 30, an HMI (Human Machine Interface) 31, and a vehicle control unit 32.
- vehicle control ECU Electronic Control Unit
- communication unit 22 includes a vehicle control ECU (Electronic Control Unit) 21, a communication unit 22, a map information storage unit 23, a location information acquisition unit 24, an external recognition sensor 25, an in-vehicle sensor 26, a vehicle sensor 27, a memory unit 28, a driving automation control unit 29, a DMS (Driver Monitoring System) 30, an HMI (Human Machine Interface) 31, and a vehicle control unit 32.
- the vehicle control ECU 21, communication unit 22, map information storage unit 23, position information acquisition unit 24, external recognition sensor 25, in-vehicle sensor 26, vehicle sensor 27, memory unit 28, driving automation control unit 29, DMS 30, HMI 31, and vehicle control unit 32 are connected to each other so as to be able to communicate with each other via a communication network 41.
- the communication network 41 is composed of an in-vehicle communication network or bus that complies with digital two-way communication standards such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), FlexRay (registered trademark), and Ethernet (registered trademark).
- the communication network 41 may be used differently depending on the type of data being transmitted.
- CAN may be applied to data related to vehicle control
- Ethernet may be applied to large-volume data.
- each part of the vehicle control system 11 may be directly connected without going through the communication network 41, using wireless communication intended for communication over relatively short distances, such as near field communication (NFC) or Bluetooth (registered trademark).
- NFC near field communication
- Bluetooth registered trademark
- the vehicle control ECU 21 is composed of various processors, such as a CPU (Central Processing Unit) and an MPU (Micro Processing Unit).
- the vehicle control ECU 21 controls all or part of the functions of the vehicle control system 11.
- the communication unit 22 communicates with various devices inside and outside the vehicle, other vehicles, servers, base stations, etc., and transmits and receives various types of data. At this time, the communication unit 22 can communicate using multiple communication methods.
- the communication unit 22 communicates with servers (hereinafter referred to as external servers) on an external network via base stations or access points using wireless communication methods such as 5G (fifth generation mobile communication system), LTE (Long Term Evolution), and DSRC (Dedicated Short Range Communications).
- the external network with which the communication unit 22 communicates is, for example, the Internet, a cloud network, or an operator-specific network.
- the communication method that the communication unit 22 uses with the external network is not particularly limited as long as it is a wireless communication method that allows digital two-way communication at a communication speed equal to or higher than a predetermined distance.
- the communication unit 22 can communicate with a terminal present in the vicinity of the vehicle using P2P (Peer To Peer) technology.
- the terminal present in the vicinity of the vehicle can be, for example, a terminal attached to a mobile object moving at a relatively slow speed, such as a pedestrian or a bicycle, a terminal installed at a fixed position in a store, or an MTC (Machine Type Communication) terminal.
- the communication unit 22 can also perform V2X communication.
- V2X communication refers to communication between the vehicle and others, such as vehicle-to-vehicle communication with other vehicles, vehicle-to-infrastructure communication with roadside devices, vehicle-to-home communication with a home, and vehicle-to-pedestrian communication with a terminal carried by a pedestrian, etc.
- the communication unit 22 can, for example, receive from the outside a program for updating software that controls the operation of the vehicle control system 11 (Over the Air).
- the communication unit 22 can further receive map information, traffic information, information about the surroundings of the vehicle 1, etc. from the outside.
- the communication unit 22 can also transmit information about the vehicle 1 and information about the surroundings of the vehicle 1 to the outside.
- Information about the vehicle 1 that the communication unit 22 transmits to the outside includes, for example, data indicating the state of the vehicle 1, the recognition results by the recognition unit 73, etc.
- the communication unit 22 performs communication corresponding to a vehicle emergency notification system such as e-Call.
- the communication unit 22 receives electromagnetic waves transmitted by a road traffic information and communication system (VICS (Vehicle Information and Communication System) (registered trademark)) such as a radio beacon, optical beacon, or FM multiplex broadcasting.
- VICS Vehicle Information and Communication System
- the communication unit 22 can communicate with each device in the vehicle using, for example, wireless communication.
- the communication unit 22 can perform wireless communication with each device in the vehicle using a communication method that allows digital two-way communication at a communication speed equal to or higher than a predetermined speed via wireless communication, such as wireless LAN, Bluetooth, NFC, or WUSB (Wireless USB).
- the communication unit 22 can also communicate with each device in the vehicle using wired communication.
- the communication unit 22 can communicate with each device in the vehicle using wired communication via a cable connected to a connection terminal (not shown).
- the communication unit 22 can communicate with each device in the vehicle using a communication method that allows digital two-way communication at a communication speed equal to or higher than a predetermined speed via wired communication, such as USB (Universal Serial Bus), HDMI (High-Definition Multimedia Interface) (registered trademark), or MHL (Mobile High-definition Link).
- a communication method that allows digital two-way communication at a communication speed equal to or higher than a predetermined speed via wired communication, such as USB (Universal Serial Bus), HDMI (High-Definition Multimedia Interface) (registered trademark), or MHL (Mobile High-definition Link).
- the in-vehicle device refers to, for example, a device that is not connected to the communication network 41 inside the vehicle.
- examples of in-vehicle devices include mobile devices and wearable devices carried by users inside the vehicle, such as the driver, and information devices brought into the vehicle and temporarily installed.
- the map information storage unit 23 stores one or both of a map acquired from an external source and a map created by the vehicle 1.
- the map information storage unit 23 stores a three-dimensional high-precision map, a global map that is less accurate than a high-precision map and covers a wide area, etc.
- High-precision maps include, for example, dynamic maps, point cloud maps, and vector maps.
- a dynamic map is, for example, a map consisting of four layers of dynamic information, semi-dynamic information, semi-static information, and static information, and is provided to the vehicle 1 from an external server or the like.
- a point cloud map is a map made up of a point cloud (point cloud data).
- a vector map is, for example, a map that is adapted for driving automation by associating traffic information such as the positions of lanes and traffic lights with a point cloud map.
- the point cloud map and vector map may be provided, for example, from an external server, or may be created by the vehicle 1 based on sensing results from the camera 51, radar 52, LiDAR 53, etc. as a map for matching with a local map described below, and stored in the map information storage unit 23.
- map data of, for example, an area of several hundred meters square regarding the planned route along which the vehicle 1 will travel is acquired from the external server, etc., in order to reduce communication capacity.
- the location information acquisition unit 24 receives GNSS signals from Global Navigation Satellite System (GNSS) satellites and acquires location information of the vehicle 1.
- GNSS Global Navigation Satellite System
- the acquired location information is supplied to the driving automation control unit 29.
- the location information acquisition unit 24 is not limited to a method using GNSS signals, and may acquire location information using a beacon, for example.
- the external recognition sensor 25 includes various sensors used to recognize the situation outside the vehicle 1, and supplies sensor data from each sensor to each part of the vehicle control system 11.
- the type and number of sensors included in the external recognition sensor 25 are arbitrary.
- the external recognition sensor 25 includes a camera 51, a radar 52, a LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) 53, and an ultrasonic sensor 54.
- the external recognition sensor 25 may be configured to include one or more types of sensors among the camera 51, the radar 52, the LiDAR 53, and the ultrasonic sensor 54.
- the number of cameras 51, radars 52, LiDAR 53, and ultrasonic sensors 54 is not particularly limited as long as it is a number that can be realistically installed on the vehicle 1.
- the types of sensors included in the external recognition sensor 25 are not limited to this example, and the external recognition sensor 25 may include other types of sensors. Examples of the sensing areas of each sensor included in the external recognition sensor 25 will be described later.
- the imaging method of camera 51 is not particularly limited.
- cameras of various imaging methods such as a ToF (Time Of Flight) camera, a stereo camera, a monocular camera, and an infrared camera, which are imaging methods capable of distance measurement, can be applied to camera 51 as necessary.
- ToF Time Of Flight
- stereo camera stereo camera
- monocular camera stereo camera
- infrared camera infrared camera
- the present invention is not limited to this, and camera 51 may simply be used for acquiring photographic images, without regard to distance measurement.
- the external recognition sensor 25 can be equipped with an environmental sensor for detecting the environment relative to the vehicle 1.
- the environmental sensor is a sensor for detecting the environment such as the weather, climate, brightness, etc., and can include various sensors such as a raindrop sensor, a fog sensor, a sunlight sensor, a snow sensor, an illuminance sensor, etc.
- the external recognition sensor 25 includes a microphone that is used to detect sounds around the vehicle 1 and the location of sound sources.
- the in-vehicle sensor (in-cabin sensor) 26 includes various sensors used to recognize the situation inside the vehicle, and supplies sensor data from each sensor to each part of the vehicle control system 11. There are no particular limitations on the types and number of the various sensors included in the in-vehicle sensor 26, so long as they are of the types and number that can be realistically installed in the vehicle 1.
- the in-vehicle sensor 26 may be equipped with one or more types of sensors including a camera, a depth sensor such as a radar, a seating sensor, a microphone, and a biometric sensor.
- the camera equipped in the in-vehicle sensor 26 may be a camera using various imaging methods capable of measuring distances, such as a ToF camera, a stereo camera, a monocular camera, or an infrared camera. Not limited to this, the camera equipped in the in-vehicle sensor 26 may be a camera simply for acquiring captured images, regardless of distance measurement.
- the biometric sensor equipped in the in-vehicle sensor 26 is provided, for example, on a seat, steering wheel, etc., and detects various types of biometric information of the user.
- the vehicle sensor 27 includes various sensors for detecting the state of the vehicle 1, and supplies sensor data from each sensor to each part of the vehicle control system 11. There are no particular limitations on the types and number of the various sensors included in the vehicle sensor 27, so long as they are of the types and number that can be realistically installed on the vehicle 1.
- the vehicle sensor 27 includes a speed sensor, an acceleration sensor, an angular velocity sensor (gyro sensor), and an inertial measurement unit (IMU) that integrates these.
- the vehicle sensor 27 includes a steering angle sensor that detects the steering angle of the steering wheel, a yaw rate sensor, an accelerator sensor that detects the amount of accelerator pedal operation, and a brake sensor that detects the amount of brake pedal operation.
- the vehicle sensor 27 includes a rotation sensor that detects the number of rotations of the engine or motor, an air pressure sensor that detects the air pressure of the tires, a slip ratio sensor that detects the slip ratio of the tires, and a wheel speed sensor that detects the rotation speed of the wheels.
- the vehicle sensor 27 includes a battery sensor that detects the remaining charge and temperature of the battery, and an impact sensor that detects external impacts.
- the storage unit 28 includes at least one of a non-volatile storage medium and a volatile storage medium, and stores data and programs.
- Non-limiting examples of storage media include magnetic storage devices such as an EEPROM (Electrically Erasable Programmable Read Only Memory), a RAM (Random Access Memory) and/or a HDD (Hard Disc Drive), a semiconductor storage device, an optical storage device, and a magneto-optical storage device.
- the storage unit 28 stores various programs and data used by one or more (or in some cases all) units of the vehicle control system 11.
- the storage unit 28 includes an EDR (Event Data Recorder) and/or a DSSAD (Data Storage System for Automated Driving), and may store information about the vehicle 1 before and after an event such as an accident, and information acquired by the in-vehicle sensor 26.
- EDR Event Data Recorder
- DSSAD Data Storage System for Automated Driving
- the driving automation control unit 29 controls the driving automation function of the vehicle 1.
- the driving automation control unit 29 includes an analysis unit 61, an action planning unit 62, and an operation control unit 63.
- the analysis unit 61 performs analysis processing of the vehicle 1 and the surrounding conditions.
- the analysis unit 61 includes a self-position estimation unit 71, a sensor fusion unit 72, and a recognition unit 73.
- the self-position estimation unit 71 estimates the self-position of the vehicle 1 based on the sensor data from the external recognition sensor 25 and the high-precision map stored in the map information storage unit 23. For example, the self-position estimation unit 71 generates a local map based on the sensor data from the external recognition sensor 25, and estimates the self-position of the vehicle 1 by matching the local map with the high-precision map.
- the position of the vehicle 1 is based on, for example, the center of the rear wheel pair axle.
- the local map is, for example, a three-dimensional high-precision map or an occupancy grid map created using technology such as SLAM (Simultaneous Localization and Mapping).
- the three-dimensional high-precision map is, for example, the point cloud map described above.
- the occupancy grid map is a map in which the three-dimensional or two-dimensional space around the vehicle 1 is divided into grids of a predetermined size, and the occupancy state of objects is shown on a grid-by-grid basis.
- the occupancy state of objects is indicated, for example, by the presence or absence of an object and the probability of its existence.
- the local map is also used, for example, in detection processing and recognition processing of the situation outside the vehicle 1 by the recognition unit 73.
- the self-position estimation unit 71 may estimate the self-position of the vehicle 1 based on the position information acquired by the position information acquisition unit 24 and the sensor data from the vehicle sensor 27.
- the sensor fusion unit 72 performs sensor fusion processing to obtain information by combining multiple different types of sensor data (e.g., image data supplied from the camera 51 and sensor data supplied from the radar 52). Methods for combining different types of sensor data include compounding, integration, fusion, and association.
- the recognition unit 73 executes a detection process to detect the situation outside the vehicle 1, and a recognition process to recognize the situation outside the vehicle 1.
- the recognition unit 73 performs detection and recognition processing of the situation outside the vehicle 1 based on information from the external recognition sensor 25, information from the self-position estimation unit 71, information from the sensor fusion unit 72, etc.
- the recognition unit 73 performs detection processing and recognition processing of objects around the vehicle 1.
- Object detection processing is, for example, processing to detect the presence or absence, size, shape, position, movement, etc. of an object.
- Object recognition processing is, for example, processing to recognize attributes such as the type of object, and to identify a specific object.
- detection processing and recognition processing are not necessarily clearly separated, and there may be overlap.
- the recognition unit 73 detects objects around the vehicle 1 by performing clustering to classify a point cloud based on sensor data from the radar 52, the LiDAR 53, or the like into clusters of points. This allows the presence or absence, size, shape, and position of objects around the vehicle 1 to be detected.
- the recognition unit 73 detects the movement of objects around the vehicle 1 by performing tracking to follow the movement of clusters of point clouds classified by clustering. This allows the speed and direction of travel (movement vector) of objects around the vehicle 1 to be detected.
- the recognition unit 73 detects or recognizes vehicles, people, bicycles, obstacles, structures, roads, traffic lights, traffic signs, road markings, etc. based on image data supplied from the camera 51.
- the recognition unit 73 may also recognize the types of objects around the vehicle 1 by performing recognition processing such as semantic segmentation.
- the recognition unit 73 can perform recognition processing of traffic rules around the vehicle 1 based on the map stored in the map information storage unit 23, the result of self-location estimation by the self-location estimation unit 71, and the result of recognition of objects around the vehicle 1 by the recognition unit 73. Through this processing, the recognition unit 73 can recognize the positions and states of traffic lights, the contents of traffic signs and road markings, the contents of traffic regulations, and lanes on which travel is possible, etc.
- the recognition unit 73 can perform recognition processing of the environment around the vehicle 1.
- the surrounding environment that the recognition unit 73 recognizes may include weather, temperature, humidity, brightness, and road surface conditions.
- the behavior planning unit 62 creates a behavior plan for the vehicle 1. For example, the behavior planning unit 62 creates the behavior plan by performing route planning and route following processing.
- Route planning includes global path planning and local path planning.
- Global path planning involves planning a rough route from the start to the goal.
- Local path planning is also called trajectory planning, and involves generating a trajectory that allows safe and smooth progress in the vicinity of vehicle 1 on the planned route, taking into account the motion characteristics of vehicle 1.
- Path following is a process of planning operations for safely and accurately traveling along a route planned by a route plan within a planned time.
- the action planning unit 62 can, for example, calculate the target speed and target angular velocity of the vehicle 1 based on the results of this path following process.
- the operation control unit 63 controls the operation of the vehicle 1 to realize the action plan created by the action planning unit 62.
- the operation control unit 63 controls the steering control unit 81, the brake control unit 82, and the drive control unit 83 included in the vehicle control unit 32 described below, to perform lateral vehicle motion control and longitudinal vehicle motion control so that the vehicle 1 moves along the trajectory calculated by the trajectory plan.
- the operation control unit 63 performs control aimed at driving automation, such as driver assistance functions such as collision avoidance or impact mitigation, following driving, maintaining vehicle speed, collision warning for the vehicle itself, and lane departure warning for the vehicle itself, and driving without the operation of the driver or a remote driver.
- the DMS 30 performs processes such as authenticating the driver and recognizing the driver's state based on the sensor data from the in-vehicle sensors 26 and the input data input to the HMI 31 (described later).
- Examples of the driver's state to be recognized include physical condition, alertness, concentration, fatigue, line of sight, level of intoxication, driving operation, posture, cognitive function, etc.
- the DMS 30 may also perform authentication processing for users other than the driver and recognition processing for the status of the users.
- the DMS 30 may also perform recognition processing for the status inside the vehicle based on sensor data from the in-vehicle sensor 26. Examples of the status inside the vehicle that may be recognized include temperature, humidity, brightness, odor, etc.
- HMI31 inputs various data and instructions, and displays various data to the user.
- the HMI 31 is equipped with an input device that allows a person to input data.
- the HMI 31 generates input signals based on data and instructions input via the input device, and supplies the signals to each part of the vehicle control system 11.
- the HMI 31 is equipped with input devices such as a touch panel, buttons, switches, and levers. Without being limited to these, the HMI 31 may further be equipped with an input device that allows information to be input by a method other than manual operation, such as voice or gestures.
- the HMI 31 may use, as an input device, an externally connected device such as a remote control device that uses infrared or radio waves, or a mobile device or wearable device that supports the operation of the vehicle control system 11.
- the HMI 31 generates visual information, auditory information, and tactile information for the user or the outside of the vehicle.
- the HMI 31 also performs output control to control the output, output content, output timing, output method, etc. of each piece of generated information.
- the HMI 31 generates and outputs, as visual information, information indicated by images or light, such as an operation screen, vehicle 1 status display, warning display, and monitor image showing the situation around the vehicle 1.
- the HMI 31 also generates and outputs, as auditory information, information indicated by sounds, such as voice guidance, warning sounds, and warning messages.
- the HMI 31 also generates and outputs, as tactile information, information that is imparted to the user's sense of touch by force, vibration, movement, etc.
- the output device from which the HMI 31 outputs visual information may be, for example, a display device that presents visual information by displaying an image itself, or a projector device that presents visual information by projecting an image.
- the display device may be a device that displays visual information within the user's field of vision, such as a head-up display, a transmissive display, or a wearable device with an AR (Augmented Reality) function, in addition to a display device having a normal display.
- the HMI 31 may also use display devices such as a navigation device, instrument panel, CMS (Camera Monitoring System), electronic mirror, lamp, etc., provided in the vehicle 1 as output devices that output visual information.
- the output device through which the HMI 31 outputs auditory information can be, for example, an audio speaker, headphones, or earphones.
- Haptic elements using haptic technology can be used as an output device for the HMI 31 to output tactile information.
- Haptic elements are provided on parts that the user touches, such as the steering wheel and the seat.
- the vehicle control unit 32 controls each part of the vehicle 1.
- the vehicle control unit 32 includes a steering control unit 81, a brake control unit 82, a drive control unit 83, a body control unit 84, a light control unit 85, and a horn control unit 86.
- the steering control unit 81 detects and controls the state of the steering system of the vehicle 1.
- the steering system includes, for example, a steering mechanism including a steering wheel, an electric power steering, etc.
- the steering control unit 81 includes, for example, a steering ECU that controls the steering system, an actuator that drives the steering system, etc.
- the brake control unit 82 detects and controls the state of the brake system of the vehicle 1.
- the brake system includes, for example, a brake mechanism including a brake pedal, an ABS (Antilock Brake System), a regenerative brake mechanism, etc.
- the brake control unit 82 includes, for example, a brake ECU that controls the brake system, and an actuator that drives the brake system.
- the drive control unit 83 detects and controls the state of the drive system of the vehicle 1.
- the drive system includes, for example, an accelerator pedal, a drive force generating device for generating drive force such as an internal combustion engine or a drive motor, and a drive force transmission mechanism for transmitting the drive force to the wheels.
- the drive control unit 83 includes, for example, a drive ECU for controlling the drive system, and an actuator for driving the drive system.
- the body system control unit 84 detects and controls the state of the body system of the vehicle 1.
- the body system includes, for example, a keyless entry system, a smart key system, a power window device, a power seat, an air conditioning system, an airbag, a seat belt, a shift lever, etc.
- the body system control unit 84 includes, for example, a body system ECU that controls the body system, an actuator that drives the body system, etc.
- the light control unit 85 detects and controls the state of various lights of the vehicle 1. Examples of lights to be controlled include headlights, backlights, fog lights, turn signals, brake lights, projection, and bumper displays.
- the light control unit 85 includes a light ECU that controls the lights, an actuator that drives the lights, and the like.
- the horn control unit 86 detects and controls the state of the car horn of the vehicle 1.
- the horn control unit 86 includes, for example, a horn ECU that controls the car horn, an actuator that drives the car horn, etc.
- FIG. 2 is a diagram showing an example of a sensing area by the camera 51, radar 52, LiDAR 53, ultrasonic sensor 54, etc. of the external recognition sensor 25 in FIG. 1. Note that FIG. 2 shows a schematic view of the vehicle 1 as seen from above, with the left end side being the front end of the vehicle 1 and the right end side being the rear end of the vehicle 1.
- Sensing area 101F and sensing area 101B show examples of sensing areas of ultrasonic sensors 54. Sensing area 101F covers the periphery of the front end of vehicle 1 with multiple ultrasonic sensors 54. Sensing area 101B covers the periphery of the rear end of vehicle 1 with multiple ultrasonic sensors 54.
- sensing results in sensing area 101F and sensing area 101B are used, for example, for parking assistance for vehicle 1.
- Sensing area 102F to sensing area 102B show examples of sensing areas of a short-range or medium-range radar 52. Sensing area 102F covers a position farther in front of the vehicle 1 than sensing area 101F. Sensing area 102B covers a position farther in the rear of the vehicle 1 than sensing area 101B. Sensing area 102L covers the rear periphery of the left side of the vehicle 1. Sensing area 102R covers the rear periphery of the right side of the vehicle 1.
- the sensing results in sensing area 102F are used, for example, to detect vehicles, pedestrians, etc., that are in front of vehicle 1.
- the sensing results in sensing area 102B are used, for example, for collision prevention functions behind vehicle 1.
- the sensing results in sensing area 102L and sensing area 102R are used, for example, to detect objects in blind spots to the sides of vehicle 1.
- Sensing area 103F to sensing area 103B show examples of sensing areas by camera 51. Sensing area 103F covers a position farther in front of vehicle 1 than sensing area 102F. Sensing area 103B covers a position farther in the rear of vehicle 1 than sensing area 102B. Sensing area 103L covers the periphery of the left side of vehicle 1. Sensing area 103R covers the periphery of the right side of vehicle 1.
- the sensing results in sensing area 103F can be used, for example, for recognizing traffic lights and traffic signs, lane departure prevention support systems, and automatic headlight control systems.
- the sensing results in sensing area 103B can be used, for example, for parking assistance and surround view systems.
- the sensing results in sensing area 103L and sensing area 103R can be used, for example, for surround view systems.
- Sensing area 104 shows an example of the sensing area of LiDAR 53. Sensing area 104 covers a position farther in front of vehicle 1 than sensing area 103F. On the other hand, sensing area 104 has a narrower range in the left-right direction than sensing area 103F.
- the sensing results in the sensing area 104 are used, for example, to detect objects such as surrounding vehicles.
- Sensing area 105 shows an example of the sensing area of long-range radar 52. Sensing area 105 covers a position farther in front of vehicle 1 than sensing area 104. On the other hand, sensing area 105 has a narrower range in the left-right direction than sensing area 104.
- the sensing results in the sensing area 105 are used, for example, for ACC (Adaptive Cruise Control), emergency braking, collision avoidance, etc.
- ACC Adaptive Cruise Control
- emergency braking braking
- collision avoidance etc.
- the sensing areas of the cameras 51, radar 52, LiDAR 53, and ultrasonic sensors 54 included in the external recognition sensor 25 may have various configurations other than those shown in FIG. 2. Specifically, the ultrasonic sensor 54 may also sense the sides of the vehicle 1, and the LiDAR 53 may sense the rear of the vehicle 1.
- the installation positions of the sensors are not limited to the examples described above. The number of sensors may be one or more.
- FIG. 3 shows an example of a vehicle control system 11 for determining the driver's cognitive function.
- the DMS 30 determines the driver's cognitive function by combining sensor data from the camera 51 and LiDAR 53 used to recognize the situation outside the vehicle 1 and sensor data from the in-vehicle sensor 26 used to recognize the situation inside the vehicle 1.
- DMS 30 uses the in-vehicle sensor 26 to recognize the driver's reaction to the event, and if the reaction is not normal, determines that the driver's cognitive function is abnormal.
- the DMS 30 notifies the driver's close relative that the cognitive function of the driver is abnormal, for example, using a device 201 used by the close relative.
- a device 201 used by the close relative In the example of Figure 3, the text "There is a problem with cognitive function!” is displayed on the device 201.
- FIG. 4 is a block diagram showing an example configuration of a vehicle control system 11 to which this technology is applied.
- the vehicle control system 11 in FIG. 4 includes the components described above (communication unit 22, external recognition sensor 25, in-vehicle sensor 26, HMI 31, and recognition unit 73), as well as an information processing unit 301 that determines the driver's cognitive function. Note that FIG. 4 shows the configuration of the portion of the vehicle control system 11 that is related to determining the driver's cognitive function.
- the in-vehicle sensor 26 senses the driver's reaction to events occurring around the driver.
- the in-vehicle sensor 26 is composed of a camera 311, a depth sensor 312, a microphone 313, and a biometric sensor 314.
- the camera 311 supplies the captured image, for example of the driver, to the information processing unit 301.
- the depth sensor 312 supplies distance measurement data obtained by, for example, measuring the distance to each part of the driver's body to the information processing unit 301.
- the biosensor 314 detects, for example, the driver's biometric information and supplies the obtained biometric data to the information processing unit 301.
- the display control unit 322 displays the guide information generated by the guide information generation unit 321, for example, on a display provided inside the vehicle.
- the speaker control unit 323 outputs a guide voice that expresses the guide information generated by the guide information generation unit 321 in audio form, for example, from a speaker installed inside the vehicle.
- the recognition unit 73 acquires sensor data from the external recognition sensor 25 and performs recognition processing of objects around the vehicle 1 based on the sensor data.
- the recognition unit 73 also functions as an event detection unit that detects events occurring around the vehicle 1 (outside the vehicle) based on the object recognition results.
- the recognition unit 73 supplies the detection results of events occurring around the vehicle 1 to the information processing unit 301.
- the detection results of events occurring around the vehicle 1 include the content of the event, the area in which the event is occurring, the danger level of the event, etc.
- the information processing unit 301 is part of the functions of the DMS 30.
- the information processing unit 301 is composed of a reaction recognition unit 331, a reaction prediction unit 332, and a cognitive function assessment unit 333.
- the reaction recognition unit 331 recognizes, for example, the driver's actual reaction to an event that occurs around the driver within a specified period of time based on sensor data from various sensors that make up the in-vehicle sensor 26, and supplies the recognition result of the actual reaction to the cognitive function assessment unit 333.
- Events that occur around the driver include events that occur around the vehicle 1, events such as various information such as guide information being displayed in the vehicle, events such as various sounds such as guide voices being output in the vehicle, etc.
- the reaction recognition unit 331 can also recognize the actual reaction of the driver based on sensor data from the vehicle sensor 27, which is composed of an accelerator sensor, brake sensor, etc.
- the response prediction unit 332 predicts the driver's normal response to events occurring around the driver. Specifically, the response prediction unit 332 predicts the driver's normal response to events occurring around the vehicle 1 that are recognized by the recognition unit 73. The response prediction unit 332 also predicts the driver's normal response to the event that guide information is presented to the driver, based on the guide information supplied from the guide information generation unit 321.
- the reaction prediction unit 332 can also predict the driver's normal reaction to an event that occurs around the driver based on the driver's attributes.
- the driver's attributes include, for example, gender, age, and level of driving experience.
- the response prediction unit 332 supplies the normal response prediction result to the cognitive function assessment unit 333.
- the cognitive function assessment unit 333 compares the actual reaction of the driver recognized by the reaction recognition unit 331 with the predicted reaction, which is the normal reaction of the driver predicted by the reaction prediction unit 332, to assess the cognitive function of the driver.
- the cognitive function assessment unit 333 controls the communication unit 22, the display control unit 322, and the speaker control unit 323 based on the assessment result of the driver's cognitive function.
- FIG. 5 is a block diagram showing a detailed example configuration of the cognitive function assessment unit 333.
- the cognitive function assessment unit 333 is composed of a comparison unit 351, a reaction rate calculation unit 352, a reaction rate assessment unit 353, a memory unit 354, and an output unit 355.
- the comparison unit 351 compares the driver's actual response with the predicted response to determine whether the driver's actual response is normal. If the driver's actual response is normal, the comparison unit 351 determines that the driver's cognitive function is normal, and if the driver's actual response is not normal, the comparison unit 351 determines that the driver's cognitive function is abnormal.
- the comparison unit 351 supplies the recognition results of the driver's actual reaction and the prediction results of the driver's normal reaction to the reaction speed calculation unit 352, and supplies the judgment results of the driver's cognitive function to the output unit 355.
- the reaction speed calculation unit 352 calculates the actual reaction speed of the driver based on the recognition result of the actual reaction of the driver by the reaction recognition unit 331.
- the reaction speed indicates, for example, the time from when an event occurs until the driver steps on the brake pedal, or the time from when an event occurs until the driver turns his or her gaze to the area where the event is occurring.
- reaction speed calculation unit 352 calculates the normal reaction speed of the driver based on the prediction result of the normal reaction of the driver by the reaction prediction unit 332.
- the reaction speed calculation unit 352 supplies information indicating the driver's actual reaction speed and information indicating the driver's normal reaction speed to the reaction speed determination unit 353, and supplies information indicating the driver's actual reaction speed to the memory unit 354.
- the reaction speed determination unit 353 determines the driver's cognitive function (whether the driver's actual reaction is normal or not) based on the driver's actual reaction speed calculated by the reaction speed calculation unit 352. Specifically, the reaction speed determination unit 353 first compares the driver's actual reaction speed with the normal reaction speed, and determines whether the driver's actual reaction speed is slower than the normal reaction speed.
- the reaction speed determination unit 353 obtains information indicating the driver's past reaction speed to the event detected by the recognition unit 73 from the memory unit 354.
- the reaction speed determination unit 353 compares the driver's actual reaction speed with the past reaction speed, and determines whether the driver's actual reaction speed is slower than the past reaction speed.
- the reaction speed determination unit 353 determines that the driver's cognitive function is abnormal.
- the reaction speed determination unit 353 supplies the determination result of the driver's cognitive function to the output unit 355.
- the memory unit 354 for example, information indicating the driver's past reaction speed is recorded in association with the event detection results.
- the output unit 355 functions as an execution unit that executes a predetermined process when at least one of the comparison unit 351 and the reaction speed determination unit 353 determines that the driver's cognitive function is abnormal. For example, information indicating that the driver's cognitive function is abnormal is transmitted to the device 201 via the communication unit 22, and the information is presented to the driver's close relatives.
- the driver's cognitive function is determined based on the driver's reaction to the event of the guide voice being presented to the driver.
- step S1 the speaker control unit 323 outputs the guidance voice from the speaker. After the guidance voice is output, the response prediction unit 332 predicts the driver's normal response to the event that the guidance voice has been presented to the driver.
- step S2 the in-vehicle sensor 26 senses the driver's response to the voice guidance.
- the response recognition unit 331 recognizes the driver's actual response to the voice guidance based on the sensor data of the in-vehicle sensor 26.
- step S3 the cognitive function assessment unit 333 determines whether the driver's actual response to the guidance voice is normal or not.
- the driver's reaction is determined to be normal. Also, if the driver places a hand over their ear or tilts their head within a predetermined period of time after the voice guidance is presented, the driver's reaction is determined to be abnormal.
- step S3 If it is determined in step S3 that the driver's actual reaction is normal, the process proceeds to step S4, where the cognitive function assessment unit 333 determines that the guidance voice has been properly conveyed to the driver.
- step S3 if it is determined in step S3 that the driver's actual reaction is not a normal reaction, the process proceeds to step S5, and the cognitive function assessment unit 333 presents the guide information to the driver again.
- the cognitive function assessment unit 333 may increase the volume of the guide voice and output it again from the speaker, or present the guide information by means other than outputting the guide voice (such as illuminating a lamp or displaying the guide information).
- the driver's cognitive function is determined based on the driver's reaction to the event that guide information is displayed on the display.
- step S21 the display control unit 322 displays the guide information on the display.
- the response prediction unit 332 predicts the driver's normal response to the event that the guide information has been displayed.
- step S22 the in-vehicle sensor 26 senses the driver's reaction to the display of the guide information.
- the reaction recognition unit 331 recognizes the driver's actual reaction to the display of the guide information based on the sensor data of the in-vehicle sensor 26.
- step S23 the cognitive function assessment unit 333 determines whether the driver's actual response to the display of the guide information is normal or not.
- the driver's reaction is determined to be normal. Also, if the driver squints their eyes or moves their face closer to the display within a predetermined period of time after guide information is displayed, the driver's reaction is determined to be abnormal.
- step S23 If it is determined in step S23 that the driver's actual reaction is normal, the process proceeds to step S24, and the cognitive function assessment unit 333 determines that the guide information has been correctly conveyed to the driver.
- step S23 if it is determined in step S23 that the driver's actual reaction is not a normal reaction, the process proceeds to step S25, and the cognitive function assessment unit 333 presents the guide information to the driver again.
- the cognitive function assessment unit 333 enlarges the icon and displays it again on the display.
- the cognitive function assessment unit 333 presents the guide information by means other than displaying the guide information (such as illuminating a lamp or presenting a guide voice).
- the driver's cognitive function is determined based on the driver's reaction when a dangerous event occurs.
- step S41 the external recognition sensor 25 senses the situation outside the vehicle 1.
- the recognition unit 73 performs recognition processing of objects around the vehicle 1 based on the sensor data of the external recognition sensor 25, and detects events occurring around the vehicle 1 based on the object recognition results.
- step S42 the recognition unit 73 determines whether or not a dangerous event has been detected, and continues sensing the situation outside the vehicle 1 until a dangerous event is detected.
- step S42 If it is determined in step S42 that a dangerous event has been detected, the response prediction unit 332 predicts the driver's normal response to the dangerous event. The process then proceeds to step S43, where the in-vehicle sensor 26 senses the driver's response to the dangerous event.
- the response recognition unit 331 recognizes the driver's actual response to the dangerous event based on the sensor data of the in-vehicle sensor 26.
- step S44 the cognitive function assessment unit 333 determines whether the driver's actual reaction to the dangerous event is normal or not.
- Figure 9 shows an example of a driver's abnormal reaction to a dangerous event.
- the driver's reaction is determined to be normal. Also, for example, if, within a specified period of time after the occurrence of a dangerous event, the driver's pupil movement or pulse rate changes, or the driver presses the brake pedal, the driver's reaction is determined to be normal.
- step S44 if it is determined in step S44 that the driver's actual reaction is normal, the process proceeds to step S45, and the cognitive function assessment unit 333 determines that the driver's cognitive function is normal.
- step S44 determines that the driver's actual reaction is not a normal reaction. If it is determined in step S44 that the driver's actual reaction is not a normal reaction, the process proceeds to step S46, and the cognitive function assessment unit 333 determines that the driver's cognitive function is abnormal.
- step S47 the output unit 355 of the cognitive function assessment unit 333 generates an alert and presents the alert to the driver or a close relative of the driver. For example, an alert indicating that a dangerous event has occurred is presented to the driver, or an alert indicating that the driver's cognitive function is abnormal is presented to a close relative of the driver.
- the driver's reaction to an event occurring around the driver is predicted by the reaction prediction unit 332, and the driver's actual reaction to the event is recognized by the reaction recognition unit 331.
- the predicted reaction and the actual reaction are compared, and whether or not the actual reaction is normal is determined by the comparison unit 351 and the reaction speed determination unit 353, and if it is determined that the actual reaction is not normal, a predetermined process is executed by the output unit 355.
- the driver's cognitive function is assessed based on the driver's reaction, so even if the driver looked in the direction they should have looked but did not recognize any danger, it is possible to assess the driver's cognitive function based on reactions such as facial expressions.
- the above-mentioned series of processes can be executed by hardware or software.
- the program constituting the software is installed from a program recording medium into a computer incorporated in dedicated hardware or a general-purpose personal computer.
- FIG. 10 is a block diagram showing an example of the hardware configuration of a computer that executes the above-mentioned series of processes by a program.
- the information processing unit 301 is, for example, a PC having a configuration similar to that shown in FIG. 12.
- CPU 501 CPU 501, ROM 502, and RAM 503 are interconnected via bus 504.
- an input/output interface 505 Connected to the input/output interface 505 are an input unit 506 consisting of a keyboard, mouse, etc., and an output unit 507 consisting of a display, speakers, etc. Also connected to the input/output interface 505 are a storage unit 508 consisting of a hard disk or non-volatile memory, a communication unit 509 consisting of a network interface, etc., and a drive 510 that drives removable media 511.
- the CPU 501 for example, loads a program stored in the storage unit 508 into the RAM 503 via the input/output interface 505 and the bus 504 and executes the program, thereby performing the above-mentioned series of processes.
- the programs executed by the CPU 501 are provided, for example, by being recorded on removable media 511, or via a wired or wireless transmission medium such as a local area network, the Internet, or digital broadcasting, and are installed in the storage unit 508.
- the program executed by the computer may be a program in which processing is performed chronologically in the order described in this specification, or a program in which processing is performed in parallel or at the required timing, such as when called.
- a system refers to a collection of multiple components (devices, modules (parts), etc.), regardless of whether all the components are in the same housing. Therefore, multiple devices housed in separate housings and connected via a network, and a single device in which multiple modules are housed in a single housing, are both systems.
- this technology can be configured as cloud computing, in which a single function is shared and processed collaboratively by multiple devices over a network.
- each step described in the above flowchart can be executed by a single device, or can be shared and executed by multiple devices.
- one step includes multiple processes
- the multiple processes included in that one step can be executed by one device, or can be shared and executed by multiple devices.
- Example of combination of configurations The present technology can also have the following configurations.
- a reaction prediction unit that predicts a reaction of the driver to an event occurring around the driver; a reaction recognition unit that recognizes an actual reaction of the driver to the event; A determination unit that compares a predicted reaction, which is a reaction predicted by the reaction prediction unit, with the actual reaction and determines whether the actual reaction is a normal reaction or not; and an execution unit that executes a predetermined process when the actual reaction is determined to be an abnormal reaction.
- the reaction recognition unit recognizes the actual reaction within a predetermined period after the occurrence of the event.
- the information processing device transmits, when it is determined that the actual reaction is not a normal reaction, information indicating that the cognitive function of the driver is abnormal to a device external to the vehicle driven by the driver.
- the reaction recognition unit recognizes the actual reaction based on sensor data of a first sensor used to recognize an internal situation of a vehicle driven by the driver.
- the driver's reaction includes at least one of the driver's facial expression, gaze direction, gaze duration, pupil movement, pulse rate, emotional expression, and driving operation.
- the reaction prediction unit predicts a reaction of the driver to the event based on an attribute of the driver.
- the driver's attributes include at least one of gender, age, and degree of driving experience.
- An information processing device predicting a driver's reaction to events occurring around the driver; Recognizing an actual response of the driver to the event; comparing the predicted response to the actual response to determine whether the actual response is a normal response; and executing a predetermined process when the actual reaction is determined to be not a normal reaction.
- a first sensor used to recognize a situation inside a vehicle driven by a driver A reaction prediction unit that predicts a reaction of the driver to an event occurring around the driver; A reaction recognition unit that recognizes an actual reaction of the driver to the event based on sensor data of the first sensor; A determination unit that compares the reaction predicted by the reaction prediction unit with the actual reaction and determines whether the actual reaction is a normal reaction; and an information processing device including: an execution unit that executes a predetermined process when the actual reaction is determined to be an abnormal reaction.
- a second sensor is further provided for recognizing a situation outside the vehicle,
- the information processing device further includes an event detection unit that detects the event occurring around the vehicle based on sensor data of the second sensor,
- the information processing system according to (15), wherein the reaction prediction unit of the information processing device predicts a reaction of the driver to the event when the event is detected by the event detection unit.
- 1 Vehicle 11 Vehicle control system, 22 Communication unit, 25 External recognition sensor, 26 In-vehicle sensor, 30 DMS, 31 HMI, 51 Camera, 53 LiDAR, 73 Recognition unit, 201 Device, 301 Information processing unit, 311 Camera, 312 Depth sensor, 313 Microphone, 314 Biosensor, 321 Guide information generation unit, 322 Display control unit, 323 Speaker control unit, 331 Response recognition unit, 332 Response prediction unit, 333 Cognitive function judgment unit, 351 Comparison unit, 352 Response speed calculation unit, 353 Response speed judgment unit, 354 Memory unit, 355 Output unit
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本技術は、情報処理装置、情報処理方法、および情報処理システムに関し、特に、ドライバの認知機能をより好適に判定することができるようにした情報処理装置、情報処理方法、および情報処理システムに関する。 This technology relates to an information processing device, an information processing method, and an information processing system, and in particular to an information processing device, an information processing method, and an information processing system that can more appropriately determine the driver's cognitive function.
近年、初期の認知症などにより認知機能が低下しているドライバが交通事故を起こす事例が社会課題となっており、ドライバの認知機能を判定して交通事故を未然に防止することが求められている。 In recent years, cases of drivers with impaired cognitive function due to early-stage dementia and other conditions causing traffic accidents have become a social issue, and there is a demand for ways to assess drivers' cognitive function and prevent traffic accidents before they occur.
例えば、特許文献1には、視線を向けるべき方向にドライバの視線が向いていない場合、ドライバに警告を発する技術が記載されている。 For example, Patent Document 1 describes a technology that issues a warning to the driver if the driver's gaze is not directed in the correct direction.
特許文献1に記載の技術では、例えば、ドライバが、視線を向けるべき方向に視線を向けたが、危険を認知していない場合、ドライバの認知機能を正確に判定することができない。 The technology described in Patent Document 1, for example, cannot accurately assess the driver's cognitive function if the driver looks in the correct direction but does not recognize the danger.
本技術はこのような状況に鑑みてなされたものであり、ドライバの認知機能をより好適に判定することができるようにするものである。 This technology was developed in light of these circumstances, and makes it possible to more appropriately assess a driver's cognitive function.
本技術の第1の側面の情報処理装置は、ドライバの周囲で起きた事象に対する前記ドライバの反応を予測する反応予測部と、前記事象に対する前記ドライバの実際の反応を認識する反応認識部と、前記反応予測部により予測された反応である予測反応と、前記実際の反応とを比較して、前記実際の反応が正常な反応であるか否かを判定する判定部と、前記実際の反応が正常な反応でないと判定された場合、所定の処理を実行する実行部とを備える。 The information processing device according to the first aspect of the present technology includes a reaction prediction unit that predicts the driver's reaction to an event occurring around the driver, a reaction recognition unit that recognizes the driver's actual reaction to the event, a determination unit that compares the actual reaction with a predicted reaction predicted by the reaction prediction unit to determine whether the actual reaction is normal, and an execution unit that executes a predetermined process when it is determined that the actual reaction is not normal.
本技術の第1の側面の情報処理方法は、情報処理装置が、ドライバの周囲で起きた事象に対する前記ドライバの反応を予測し、前記事象に対する前記ドライバの実際の反応を認識し、予測された反応と前記実際の反応とを比較して、前記実際の反応が正常な反応であるか否かを判定し、前記実際の反応が正常な反応でないと判定された場合、所定の処理を実行する。 In the information processing method according to the first aspect of the present technology, an information processing device predicts the driver's reaction to an event occurring around the driver, recognizes the driver's actual reaction to the event, compares the predicted reaction with the actual reaction to determine whether the actual reaction is normal or not, and executes a predetermined process if it is determined that the actual reaction is not normal.
本技術の第2の側面の情報処理システムは、ドライバが運転する車両の内部の状況の認識に用いられる第1のセンサと、前記ドライバの周囲で起きた事象に対する前記ドライバの反応を予測する反応予測部と、前記第1のセンサのセンサデータに基づいて、前記事象に対する前記ドライバの実際の反応を認識する反応認識部と、前記反応予測部により予測された反応と、前記実際の反応とを比較して、前記実際の反応が正常な反応であるか否かを判定する判定部と、前記実際の反応が正常な反応でないと判定された場合、所定の処理を実行する実行部とを備える情報処理装置とを有する。 The information processing system of the second aspect of the present technology has an information processing device including a first sensor used to recognize the internal situation of a vehicle driven by a driver, a reaction prediction unit that predicts the reaction of the driver to an event occurring around the driver, a reaction recognition unit that recognizes the actual reaction of the driver to the event based on sensor data from the first sensor, a determination unit that compares the reaction predicted by the reaction prediction unit with the actual reaction and determines whether the actual reaction is normal or not, and an execution unit that executes a predetermined process if it is determined that the actual reaction is not normal.
本技術の第1の側面においては、ドライバの周囲で起きた事象に対する前記ドライバの反応が予測され、前記事象に対する前記ドライバの実際の反応が認識され、予測された反応と前記実際の反応とを比較して、前記実際の反応が正常な反応であるか否かが判定され、前記実際の反応が正常な反応でないと判定された場合、所定の処理が実行される。 In a first aspect of this technology, the driver's reaction to an event occurring around the driver is predicted, the driver's actual reaction to the event is recognized, the predicted reaction is compared with the actual reaction to determine whether the actual reaction is normal, and if it is determined that the actual reaction is not normal, a predetermined process is executed.
本技術の第2の側面においては、ドライバの周囲で起きた事象に対する前記ドライバの反応が予測され、前記ドライバが運転する車両の内部の状況の認識に用いられる第1のセンサのセンサデータに基づいて、前記事象に対する前記ドライバの実際の反応が認識され、予測された反応と、前記実際の反応とを比較して、前記実際の反応が正常な反応であるか否かが判定され、前記実際の反応が正常な反応でないと判定された場合、所定の処理が実行される。 In a second aspect of the present technology, the driver's reaction to an event occurring around the driver is predicted, the actual reaction of the driver to the event is recognized based on sensor data from a first sensor used to recognize the internal situation of the vehicle driven by the driver, the predicted reaction is compared with the actual reaction to determine whether the actual reaction is normal, and if it is determined that the actual reaction is not normal, a predetermined process is executed.
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.車両制御システムの構成例
2.実施の形態
Hereinafter, an embodiment of the present technology will be described in the following order.
1. Configuration Example of Vehicle Control System 2. Embodiment
<1.車両制御システムの構成例>
図1は、本技術が適用される移動装置制御システムの一例である車両制御システム11の構成例を示すブロック図である。
1. Example of vehicle control system configuration
FIG. 1 is a block diagram showing an example of the configuration of a
車両制御システム11は、車両1に設けられ、車両1の運転自動化に関わる処理を行う。この運転自動化には、レベル1乃至レベル5の運転自動化、及び、遠隔ドライバによる車両1の遠隔運転及び遠隔支援が含まれる。
The
車両制御システム11は、車両制御ECU(Electronic Control Unit)21、通信部22、地図情報蓄積部23、位置情報取得部24、外部認識センサ25、車内センサ26、車両センサ27、記憶部28、運転自動化制御部29、DMS(Driver Monitoring System)30、HMI(Human Machine Interface)31、及び、車両制御部32を備える。
The
車両制御ECU21、通信部22、地図情報蓄積部23、位置情報取得部24、外部認識センサ25、車内センサ26、車両センサ27、記憶部28、運転自動化制御部29、DMS30、HMI31、及び、車両制御部32は、通信ネットワーク41を介して相互に通信可能に接続されている。通信ネットワーク41は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、FlexRay(登録商標)、イーサネット(登録商標)といったディジタル双方向通信の規格に準拠した車載通信ネットワークやバス等により構成される。通信ネットワーク41は、伝送されるデータの種類によって使い分けられてもよい。例えば、車両制御に関するデータに対してCANが適用され、大容量データに対してイーサネットが適用されるようにしてもよい。なお、車両制御システム11の各部は、通信ネットワーク41を介さずに、例えば近距離無線通信(NFC(Near Field Communication))やBluetooth(登録商標)といった比較的近距離での通信を想定した無線通信を用いて直接的に接続される場合もある。
The vehicle control ECU 21,
なお、以下、車両制御システム11の各部が、通信ネットワーク41を介して通信を行う場合、通信ネットワーク41の記載を省略するものとする。例えば、車両制御ECU21と通信部22が通信ネットワーク41を介して通信を行う場合、単に車両制御ECU21と通信部22とが通信を行うと記載する。
Note that, hereinafter, when each part of the
車両制御ECU21は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)といった各種のプロセッサにより構成される。車両制御ECU21は、車両制御システム11全体又は一部の機能の制御を行う。
The vehicle control ECU 21 is composed of various processors, such as a CPU (Central Processing Unit) and an MPU (Micro Processing Unit). The
通信部22は、車内及び車外の様々な機器、他の車両、サーバ、基地局等と通信を行い、各種のデータの送受信を行う。このとき、通信部22は、複数の通信方式を用いて通信を行うことができる。
The
通信部22が実行可能な車外との通信について、概略的に説明する。通信部22は、例えば、5G(第5世代移動通信システム)、LTE(Long Term Evolution)、DSRC(Dedicated Short Range Communications)等の無線通信方式により、基地局又はアクセスポイントを介して、外部ネットワーク上に存在するサーバ(以下、外部のサーバと呼ぶ)等と通信を行う。通信部22が通信を行う外部ネットワークは、例えば、インターネット、クラウドネットワーク、又は、事業者固有のネットワーク等である。通信部22が外部ネットワークに対して行う通信方式は、所定以上の通信速度、且つ、所定以上の距離間でディジタル双方向通信が可能な無線通信方式であれば、特に限定されない。
The following provides an overview of the communications with the outside of the vehicle that can be performed by the
また例えば、通信部22は、P2P(Peer To Peer)技術を用いて、自車の近傍に存在する端末と通信を行うことができる。自車の近傍に存在する端末は、例えば、歩行者や自転車等の比較的低速で移動する移動体が装着する端末、店舗等に位置が固定されて設置される端末、又は、MTC(Machine Type Communication)端末である。さらに、通信部22は、V2X通信を行うこともできる。V2X通信とは、例えば、他の車両との間の車車間(Vehicle to Vehicle)通信、路側器等との間の路車間(Vehicle to Infrastructure)通信、家との間(Vehicle to Home)の通信、及び、歩行者が所持する端末等との間の歩車間(Vehicle to Pedestrian)通信等の、自車と他との通信をいう。
Furthermore, for example, the
通信部22は、例えば、車両制御システム11の動作を制御するソフトウェアを更新するためのプログラムを外部から受信することができる(Over The Air)。通信部22は、さらに、地図情報、交通情報、車両1の周囲の情報等を外部から受信することができる。また例えば、通信部22は、車両1に関する情報や、車両1の周囲の情報等を外部に送信することができる。通信部22が外部に送信する車両1に関する情報としては、例えば、車両1の状態を示すデータ、認識部73による認識結果等がある。さらに例えば、通信部22は、eコール等の車両緊急通報システムに対応した通信を行う。
The
例えば、通信部22は、電波ビーコン、光ビーコン、FM多重放送等の道路交通情報通信システム(VICS(Vehicle Information and Communication System)(登録商標))により送信される電磁波を受信する。
For example, the
通信部22が実行可能な車内との通信について、概略的に説明する。通信部22は、例えば無線通信を用いて、車内の各機器と通信を行うことができる。通信部22は、例えば、無線LAN、Bluetooth、NFC、WUSB(Wireless USB)といった、無線通信により所定以上の通信速度でディジタル双方向通信が可能な通信方式により、車内の機器と無線通信を行うことができる。これに限らず、通信部22は、有線通信を用いて車内の各機器と通信を行うこともできる。例えば、通信部22は、図示しない接続端子に接続されるケーブルを介した有線通信により、車内の各機器と通信を行うことができる。通信部22は、例えば、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)(登録商標)、MHL(Mobile High-definition Link)といった、有線通信により所定以上の通信速度でディジタル双方向通信が可能な通信方式により、車内の各機器と通信を行うことができる。
The following provides an overview of the communication that the
ここで、車内の機器とは、例えば、車内において通信ネットワーク41に接続されていない機器を指す。車内の機器としては、例えば、ドライバ等の車内の利用者が所持するモバイル機器やウェアラブル機器、車内に持ち込まれ一時的に設置される情報機器等が想定される。
Here, the in-vehicle device refers to, for example, a device that is not connected to the
地図情報蓄積部23は、外部から取得した地図及び車両1で作成した地図の一方又は両方を蓄積する。例えば、地図情報蓄積部23は、3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ等を蓄積する。 The map information storage unit 23 stores one or both of a map acquired from an external source and a map created by the vehicle 1. For example, the map information storage unit 23 stores a three-dimensional high-precision map, a global map that is less accurate than a high-precision map and covers a wide area, etc.
高精度地図は、例えば、ダイナミックマップ、ポイントクラウドマップ、ベクターマップ等である。ダイナミックマップは、例えば、動的情報、準動的情報、準静的情報、静的情報の4層からなる地図であり、外部のサーバ等から車両1に提供される。ポイントクラウドマップは、ポイントクラウド(点群データ)により構成される地図である。ベクターマップは、例えば、車線や信号機の位置といった交通情報等をポイントクラウドマップに対応付け、運転自動化に適合させた地図である。 High-precision maps include, for example, dynamic maps, point cloud maps, and vector maps. A dynamic map is, for example, a map consisting of four layers of dynamic information, semi-dynamic information, semi-static information, and static information, and is provided to the vehicle 1 from an external server or the like. A point cloud map is a map made up of a point cloud (point cloud data). A vector map is, for example, a map that is adapted for driving automation by associating traffic information such as the positions of lanes and traffic lights with a point cloud map.
ポイントクラウドマップ及びベクターマップは、例えば、外部のサーバ等から提供されてもよいし、カメラ51、レーダ52、LiDAR53等によるセンシング結果に基づいて、後述するローカルマップとのマッチングを行うための地図として車両1で作成され、地図情報蓄積部23に蓄積されてもよい。また、外部のサーバ等から高精度地図が提供される場合、通信容量を削減するため、車両1がこれから走行する計画経路に関する、例えば数百メートル四方の地図データが外部のサーバ等から取得される。
The point cloud map and vector map may be provided, for example, from an external server, or may be created by the vehicle 1 based on sensing results from the
位置情報取得部24は、GNSS(Global Navigation Satellite System)衛星からGNSS信号を受信し、車両1の位置情報を取得する。取得した位置情報は、運転自動化制御部29に供給される。なお、位置情報取得部24は、GNSS信号を用いた方式に限定されず、例えば、ビーコンを用いて位置情報を取得してもよい。
The location
外部認識センサ25は、車両1の外部の状況の認識に用いられる各種のセンサを備え、各センサからのセンサデータを車両制御システム11の各部に供給する。外部認識センサ25が備えるセンサの種類や数は任意である。
The
例えば、外部認識センサ25は、カメラ51、レーダ52、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)53、及び、超音波センサ54を備える。これに限らず、外部認識センサ25は、カメラ51、レーダ52、LiDAR53、及び、超音波センサ54のうち1種類以上のセンサを備える構成でもよい。カメラ51、レーダ52、LiDAR53、及び、超音波センサ54の数は、現実的に車両1に設置可能な数であれば特に限定されない。また、外部認識センサ25が備えるセンサの種類は、この例に限定されず、外部認識センサ25は、他の種類のセンサを備えてもよい。外部認識センサ25が備える各センサのセンシング領域の例は、後述する。
For example, the
なお、カメラ51の撮影方式は、特に限定されない。例えば、測距が可能な撮影方式であるToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラといった各種の撮影方式のカメラを、必要に応じてカメラ51に適用することができる。これに限らず、カメラ51は、測距に関わらずに、単に撮影画像を取得するためのものであってもよい。
The imaging method of
また、例えば、外部認識センサ25は、車両1に対する環境を検出するための環境センサを備えることができる。環境センサは、天候、気象、明るさ等の環境を検出するためのセンサであって、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ、照度センサ等の各種センサを含むことができる。
Furthermore, for example, the
さらに、例えば、外部認識センサ25は、車両1の周囲の音や音源の位置の検出等に用いられるマイクロフォンを備える。
Furthermore, for example, the
車内センサ(インキャビンセンサ)26は、車内の状況の認識に用いられる各種のセンサを備え、各センサからのセンサデータを車両制御システム11の各部に供給する。車内センサ26が備える各種センサの種類や数は、現実的に車両1に設置可能な種類や数であれば特に限定されない。
The in-vehicle sensor (in-cabin sensor) 26 includes various sensors used to recognize the situation inside the vehicle, and supplies sensor data from each sensor to each part of the
例えば、車内センサ26は、カメラ、レーダなどのデプスセンサ、着座センサ、マイクロフォン、生体センサのうち1種類以上のセンサを備えることができる。車内センサ26が備えるカメラとしては、例えば、ToFカメラ、ステレオカメラ、単眼カメラ、赤外線カメラといった、測距可能な各種の撮影方式のカメラを用いることができる。これに限らず、車内センサ26が備えるカメラは、測距に関わらずに、単に撮影画像を取得するためのものであってもよい。車内センサ26が備える生体センサは、例えば、シートやステアリングホイール等に設けられ、利用者の各種の生体情報を検出する。
For example, the in-
車両センサ27は、車両1の状態を検出するための各種のセンサを備え、各センサからのセンサデータを車両制御システム11の各部に供給する。車両センサ27が備える各種センサの種類や数は、現実的に車両1に設置可能な種類や数であれば特に限定されない。
The
例えば、車両センサ27は、速度センサ、加速度センサ、角速度センサ(ジャイロセンサ)、及び、それらを統合した慣性計測装置(IMU(Inertial Measurement Unit))を備える。例えば、車両センサ27は、ステアリングホイールの操舵角を検出する操舵角センサ、ヨーレートセンサ、アクセルペダルの操作量を検出するアクセルセンサ、及び、ブレーキペダルの操作量を検出するブレーキセンサを備える。例えば、車両センサ27は、エンジンやモータの回転数を検出する回転センサ、タイヤの空気圧を検出する空気圧センサ、タイヤのスリップ率を検出するスリップ率センサ、及び、車輪の回転速度を検出する車輪速センサを備える。例えば、車両センサ27は、バッテリの残量及び温度を検出するバッテリセンサ、並びに、外部からの衝撃を検出する衝撃センサを備える。
For example, the
記憶部28は、不揮発性の記憶媒体及び揮発性の記憶媒体のうち少なくとも一方を含み、データやプログラムを記憶する。記憶媒体の非限定的な例としては、EEPROM(Electrically Erasable Programmable Read Only Memory)、RAM(Random Access Memory)及び/又はHDD(Hard Disc Drive)といった磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、及び、光磁気記憶デバイスがある。記憶部28は、車両制御システム11の1つ以上(又は、一部のケースでは全て)のユニットが用いる各種プログラムやデータを記憶する。一部の実施形態において、記憶部28は、EDR(Event Data Recorder)やDSSAD(Data Storage System for Automated Driving)を備え、事故等のイベントの前後の車両1の情報や車内センサ26によって取得された情報を記憶してもよい。
The
運転自動化制御部29は、車両1の運転自動化機能の制御を行う。例えば、運転自動化制御部29は、分析部61、行動計画部62、及び、動作制御部63を備える。
The driving
分析部61は、車両1及び周囲の状況の分析処理を行う。分析部61は、自己位置推定部71、センサフュージョン部72、及び、認識部73を備える。
The
自己位置推定部71は、外部認識センサ25からのセンサデータ、及び、地図情報蓄積部23に蓄積されている高精度地図に基づいて、車両1の自己位置を推定する。例えば、自己位置推定部71は、外部認識センサ25からのセンサデータに基づいてローカルマップを生成し、ローカルマップと高精度地図とのマッチングを行うことにより、車両1の自己位置を推定する。車両1の位置は、例えば、後輪対車軸の中心が基準とされる。
The self-
ローカルマップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いて作成される3次元の高精度地図、占有格子地図(Occupancy Grid Map)等である。3次元の高精度地図は、例えば、上述したポイントクラウドマップ等である。占有格子地図は、車両1の周囲の3次元又は2次元の空間を所定の大きさのグリッド(格子)に分割し、グリッド単位で物体の占有状態を示す地図である。物体の占有状態は、例えば、物体の有無や存在確率により示される。ローカルマップは、例えば、認識部73による車両1の外部の状況の検出処理及び認識処理にも用いられる。
The local map is, for example, a three-dimensional high-precision map or an occupancy grid map created using technology such as SLAM (Simultaneous Localization and Mapping). The three-dimensional high-precision map is, for example, the point cloud map described above. The occupancy grid map is a map in which the three-dimensional or two-dimensional space around the vehicle 1 is divided into grids of a predetermined size, and the occupancy state of objects is shown on a grid-by-grid basis. The occupancy state of objects is indicated, for example, by the presence or absence of an object and the probability of its existence. The local map is also used, for example, in detection processing and recognition processing of the situation outside the vehicle 1 by the
なお、自己位置推定部71は、位置情報取得部24により取得される位置情報、及び、車両センサ27からのセンサデータに基づいて、車両1の自己位置を推定してもよい。
The self-
センサフュージョン部72は、複数の異なる種類のセンサデータ(例えば、カメラ51から供給される画像データ、及び、レーダ52から供給されるセンサデータ)を組み合わせて、情報を得るセンサフュージョン処理を行う。異なる種類のセンサデータを組合せる方法としては、複合、統合、融合、連合等がある。
The sensor fusion unit 72 performs sensor fusion processing to obtain information by combining multiple different types of sensor data (e.g., image data supplied from the
認識部73は、車両1の外部の状況の検出を行う検出処理、及び、車両1の外部の状況の認識を行う認識処理を実行する。
The
例えば、認識部73は、外部認識センサ25からの情報、自己位置推定部71からの情報、センサフュージョン部72からの情報等に基づいて、車両1の外部の状況の検出処理及び認識処理を行う。
For example, the
具体的には、例えば、認識部73は、車両1の周囲の物体の検出処理及び認識処理等を行う。物体の検出処理とは、例えば、物体の有無、大きさ、形、位置、動き等を検出する処理である。物体の認識処理とは、例えば、物体の種類等の属性を認識したり、特定の物体を識別したりする処理である。ただし、検出処理と認識処理とは、必ずしも明確に分かれるものではなく、重複する場合がある。
Specifically, for example, the
例えば、認識部73は、レーダ52又はLiDAR53等によるセンサデータに基づくポイントクラウドを点群の塊毎に分類するクラスタリングを行うことにより、車両1の周囲の物体を検出する。これにより、車両1の周囲の物体の有無、大きさ、形状、位置が検出される。
For example, the
例えば、認識部73は、クラスタリングにより分類された点群の塊の動きを追従するトラッキングを行うことにより、車両1の周囲の物体の動きを検出する。これにより、車両1の周囲の物体の速度及び進行方向(移動ベクトル)が検出される。
For example, the
例えば、認識部73は、カメラ51から供給される画像データに基づいて、車両、人、自転車、障害物、構造物、道路、信号機、交通標識、道路標示等を検出又は認識する。また、認識部73は、セマンティックセグメンテーション等の認識処理を行うことにより、車両1の周囲の物体の種類を認識してもよい。
For example, the
例えば、認識部73は、地図情報蓄積部23に蓄積されている地図、自己位置推定部71による自己位置の推定結果、及び、認識部73による車両1の周囲の物体の認識結果に基づいて、車両1の周囲の交通ルールの認識処理を行うことができる。認識部73は、この処理により、信号機の位置及び状態、交通標識及び道路標示の内容、交通規制の内容、並びに、走行可能な車線等を認識することができる。
For example, the
例えば、認識部73は、車両1の周囲の環境の認識処理を行うことができる。認識部73が認識対象とする周囲の環境としては、天候、気温、湿度、明るさ、及び、路面の状態等が想定される。
For example, the
行動計画部62は、車両1の行動計画を作成する。例えば、行動計画部62は、経路計画、経路追従の処理を行うことにより、行動計画を作成する。
The
なお、経路計画は、広域的パスプランニング(Global path planning)及び局所的パスプランニング(Local path planning)を含む。広域的パスプランニングは、スタートからゴールまでの大まかな経路を計画する処理を含む。局所的パスプランニングは、軌道計画とも言われ、計画した経路において、車両1の運動特性を考慮して、車両1の近傍で安全かつ滑らかに進行することが可能な軌道生成を行う処理を含む。 Route planning includes global path planning and local path planning. Global path planning involves planning a rough route from the start to the goal. Local path planning is also called trajectory planning, and involves generating a trajectory that allows safe and smooth progress in the vicinity of vehicle 1 on the planned route, taking into account the motion characteristics of vehicle 1.
経路追従とは、経路計画により計画された経路を計画された時間内で安全かつ正確に走行するための動作を計画する処理である。行動計画部62は、例えば、この経路追従の処理の結果に基づき、車両1の目標速度と目標角速度を計算することができる。
Path following is a process of planning operations for safely and accurately traveling along a route planned by a route plan within a planned time. The
動作制御部63は、行動計画部62により作成された行動計画を実現するために、車両1の動作を制御する。
The
例えば、動作制御部63は、後述する車両制御部32に含まれる、ステアリング制御部81、ブレーキ制御部82、及び、駆動制御部83を制御して、軌道計画により計算された軌道を車両1が進行するように、横方向車両運動制御及び縦方向車両運動制御を行う。例えば、動作制御部63は、衝突回避又は衝撃緩和、追従走行、車速維持走行、自車の衝突警告、自車のレーン逸脱警告等のドライバ支援機能や、ドライバ又は遠隔ドライバの操作によらない走行等の運転自動化を目的とした制御を行う。
For example, the
DMS30は、車内センサ26からのセンサデータ、及び、後述するHMI31に入力される入力データ等に基づいて、ドライバの認証処理、及び、ドライバの状態の認識処理等を行う。認識対象となるドライバの状態としては、例えば、体調、覚醒度、集中度、疲労度、視線方向、酩酊度、運転操作、姿勢、認知機能等が想定される。
The
なお、DMS30が、ドライバ以外の利用者の認証処理、及び、当該利用者の状態の認識処理を行うようにしてもよい。また、例えば、DMS30が、車内センサ26からのセンサデータに基づいて、車内の状況の認識処理を行うようにしてもよい。認識対象となる車内の状況としては、例えば、気温、湿度、明るさ、臭い等が想定される。
The
HMI31は、各種のデータや指示等の入力と、各種のデータの利用者への提示を行う。 HMI31 inputs various data and instructions, and displays various data to the user.
HMI31によるデータの入力について、概略的に説明する。HMI31は、人がデータを入力するための入力デバイスを備える。HMI31は、入力デバイスにより入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム11の各部に供給する。HMI31は、入力デバイスとして、例えばタッチパネル、ボタン、スイッチ、及び、レバーといった操作子を備える。これに限らず、HMI31は、音声やジェスチャ等により手動操作以外の方法で情報を入力可能な入力デバイスをさらに備えてもよい。さらに、HMI31は、例えば、赤外線又は電波を利用したリモートコントロール装置や、車両制御システム11の操作に対応したモバイル機器又はウェアラブル機器等の外部接続機器を入力デバイスとして用いてもよい。
The following provides an overview of data input using the
HMI31によるデータの提示について、概略的に説明する。HMI31は、利用者又は車外に対する視覚情報、聴覚情報、及び、触覚情報の生成を行う。また、HMI31は、生成された各情報の出力、出力内容、出力タイミング及び出力方法等を制御する出力制御を行う。HMI31は、視覚情報として、例えば、操作画面、車両1の状態表示、警告表示、車両1の周囲の状況を示すモニタ画像等の画像や光により示される情報を生成及び出力する。また、HMI31は、聴覚情報として、例えば、音声ガイダンス、警告音、警告メッセージ等の音により示される情報を生成及び出力する。さらに、HMI31は、触覚情報として、例えば、力、振動、動き等により利用者の触覚に与えられる情報を生成及び出力する。
The presentation of data by the
HMI31が視覚情報を出力する出力デバイスとしては、例えば、自身が画像を表示することで視覚情報を提示する表示装置や、画像を投影することで視覚情報を提示するプロジェクタ装置を適用することができる。なお、表示装置は、通常のディスプレイを有する表示装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)機能を備えるウエアラブルデバイスといった、利用者の視界内に視覚情報を表示する装置であってもよい。また、HMI31は、車両1に設けられるナビゲーション装置、インストルメントパネル、CMS(Camera Monitoring System)、電子ミラー、ランプ等が有する表示デバイスを、視覚情報を出力する出力デバイスとして用いることも可能である。
The output device from which the
HMI31が聴覚情報を出力する出力デバイスとしては、例えば、オーディオスピーカ、ヘッドホン、イヤホンを適用することができる。
The output device through which the
HMI31が触覚情報を出力する出力デバイスとしては、例えば、ハプティクス技術を用いたハプティクス素子を適用することができる。ハプティクス素子は、例えば、ステアリングホイール、シートといった、利用者が接触する部分に設けられる。
Haptic elements using haptic technology can be used as an output device for the
車両制御部32は、車両1の各部の制御を行う。車両制御部32は、ステアリング制御部81、ブレーキ制御部82、駆動制御部83、ボディ系制御部84、ライト制御部85、及び、ホーン制御部86を備える。
The
ステアリング制御部81は、車両1のステアリングシステムの状態の検出及び制御等を行う。ステアリングシステムは、例えば、ステアリングホイール等を備えるステアリング機構、電動パワーステアリング等を備える。ステアリング制御部81は、例えば、ステアリングシステムの制御を行うステアリングECU、ステアリングシステムの駆動を行うアクチュエータ等を備える。
The
ブレーキ制御部82は、車両1のブレーキシステムの状態の検出及び制御等を行う。ブレーキシステムは、例えば、ブレーキペダル等を含むブレーキ機構、ABS(Antilock Brake System)、回生ブレーキ機構等を備える。ブレーキ制御部82は、例えば、ブレーキシステムの制御を行うブレーキECU、ブレーキシステムの駆動を行うアクチュエータ等を備える。
The
駆動制御部83は、車両1の駆動システムの状態の検出及び制御等を行う。駆動システムは、例えば、アクセルペダル、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構等を備える。駆動制御部83は、例えば、駆動システムの制御を行う駆動ECU、駆動システムの駆動を行うアクチュエータ等を備える。
The
ボディ系制御部84は、車両1のボディ系システムの状態の検出及び制御等を行う。ボディ系システムは、例えば、キーレスエントリシステム、スマートキーシステム、パワーウインドウ装置、パワーシート、空調装置、エアバッグ、シートベルト、シフトレバー等を備える。ボディ系制御部84は、例えば、ボディ系システムの制御を行うボディ系ECU、ボディ系システムの駆動を行うアクチュエータ等を備える。
The body
ライト制御部85は、車両1の各種のライトの状態の検出及び制御等を行う。制御対象となるライトとしては、例えば、ヘッドライト、バックライト、フォグライト、ターンシグナル、ブレーキライト、プロジェクション、バンパーの表示等が想定される。ライト制御部85は、ライトの制御を行うライトECU、ライトの駆動を行うアクチュエータ等を備える。 The light control unit 85 detects and controls the state of various lights of the vehicle 1. Examples of lights to be controlled include headlights, backlights, fog lights, turn signals, brake lights, projection, and bumper displays. The light control unit 85 includes a light ECU that controls the lights, an actuator that drives the lights, and the like.
ホーン制御部86は、車両1のカーホーンの状態の検出及び制御等を行う。ホーン制御部86は、例えば、カーホーンの制御を行うホーンECU、カーホーンの駆動を行うアクチュエータ等を備える。
The
図2は、図1の外部認識センサ25のカメラ51、レーダ52、LiDAR53、及び、超音波センサ54等によるセンシング領域の例を示す図である。なお、図2において、車両1を上面から見た様子が模式的に示され、左端側が車両1の前端(フロント)側であり、右端側が車両1の後端(リア)側となっている。
2 is a diagram showing an example of a sensing area by the
センシング領域101F及びセンシング領域101Bは、超音波センサ54のセンシング領域の例を示している。センシング領域101Fは、複数の超音波センサ54によって車両1の前端周辺をカバーしている。センシング領域101Bは、複数の超音波センサ54によって車両1の後端周辺をカバーしている。
センシング領域101F及びセンシング領域101Bにおけるセンシング結果は、例えば、車両1の駐車支援等に用いられる。
The sensing results in
センシング領域102F乃至センシング領域102Bは、短距離又は中距離用のレーダ52のセンシング領域の例を示している。センシング領域102Fは、車両1の前方において、センシング領域101Fより遠い位置までカバーしている。センシング領域102Bは、車両1の後方において、センシング領域101Bより遠い位置までカバーしている。センシング領域102Lは、車両1の左側面の後方の周辺をカバーしている。センシング領域102Rは、車両1の右側面の後方の周辺をカバーしている。
センシング領域102Fにおけるセンシング結果は、例えば、車両1の前方に存在する車両や歩行者等の検出等に用いられる。センシング領域102Bにおけるセンシング結果は、例えば、車両1の後方の衝突防止機能等に用いられる。センシング領域102L及びセンシング領域102Rにおけるセンシング結果は、例えば、車両1の側方の死角における物体の検出等に用いられる。
The sensing results in
センシング領域103F乃至センシング領域103Bは、カメラ51によるセンシング領域の例を示している。センシング領域103Fは、車両1の前方において、センシング領域102Fより遠い位置までカバーしている。センシング領域103Bは、車両1の後方において、センシング領域102Bより遠い位置までカバーしている。センシング領域103Lは、車両1の左側面の周辺をカバーしている。センシング領域103Rは、車両1の右側面の周辺をカバーしている。
センシング領域103Fにおけるセンシング結果は、例えば、信号機や交通標識の認識、車線逸脱防止支援システム、自動ヘッドライト制御システムに用いることができる。センシング領域103Bにおけるセンシング結果は、例えば、駐車支援、及び、サラウンドビューシステムに用いることができる。センシング領域103L及びセンシング領域103Rにおけるセンシング結果は、例えば、サラウンドビューシステムに用いることができる。
The sensing results in
センシング領域104は、LiDAR53のセンシング領域の例を示している。センシング領域104は、車両1の前方において、センシング領域103Fより遠い位置までカバーしている。一方、センシング領域104は、センシング領域103Fより左右方向の範囲が狭くなっている。
センシング領域104におけるセンシング結果は、例えば、周辺車両等の物体検出に用いられる。
The sensing results in the
センシング領域105は、長距離用のレーダ52のセンシング領域の例を示している。センシング領域105は、車両1の前方において、センシング領域104より遠い位置までカバーしている。一方、センシング領域105は、センシング領域104より左右方向の範囲が狭くなっている。
センシング領域105におけるセンシング結果は、例えば、ACC(Adaptive Cruise Control)、緊急ブレーキ、衝突回避等に用いられる。
The sensing results in the
なお、外部認識センサ25が含むカメラ51、レーダ52、LiDAR53、及び、超音波センサ54の各センサのセンシング領域は、図2以外に各種の構成をとってもよい。具体的には、超音波センサ54が車両1の側方もセンシングするようにしてもよいし、LiDAR53が車両1の後方をセンシングするようにしてもよい。また、各センサの設置位置は、上述した各例に限定されない。また、各センサの数は、1つでもよいし、複数であってもよい。
The sensing areas of the
<2.実施の形態>
次に、図3乃至図9を参照して、本技術の実施の形態について説明する。
2. Preferred embodiment
Next, an embodiment of the present technology will be described with reference to FIG. 3 to FIG.
近年、初期の認知症などにより認知機能が低下しているドライバが交通事故を起こす事例が社会課題となっており、ドライバの認知機能を判定して交通事故を未然に防止することが求められる。本技術は、ドライバの周囲で起きた事象に対するドライバの反応に基づいてドライバの認知機能を判定できるようにするものである。 In recent years, cases of drivers with impaired cognitive function due to early-stage dementia and other factors causing traffic accidents have become a social issue, and there is a need to assess the driver's cognitive function to prevent traffic accidents from occurring. This technology makes it possible to assess a driver's cognitive function based on the driver's reaction to events occurring around the driver.
図3は、ドライバの認知機能を判定するための車両制御システム11の例を示す図である。
FIG. 3 shows an example of a
DMS30は、図3に示すように、車両1の外部の状況の認識に用いられるカメラ51やLiDAR53のセンサデータと、車両1の内部の状況の認識に用いられる車内センサ26のセンサデータとを総合して、ドライバの認知機能を判定する。
As shown in FIG. 3, the
例えば、カメラ51やLiDAR53を用いて、車両1の進行方向に他の車両が飛び出てくるといったような危険な事象を検出した場合、DMS30は、車内センサ26を用いて、当該事象に対するドライバの反応を認識し、その反応が正常な反応でない場合、認知機能が異常であると判定する。
For example, if the
認知機能が異常であると判定した場合、DMS30は、例えばドライバの近親者が使用するデバイス201を用いて、ドライバの認知機能が異常であることを当該近親者に提示する。図3の例では、デバイス201に「認知機能に問題あり!」のテキストが表示されている。
If it is determined that the cognitive function is abnormal, the
図4は、本技術を適用した車両制御システム11の構成例を示すブロック図である。
FIG. 4 is a block diagram showing an example configuration of a
図4の車両制御システム11は、上述した構成(通信部22、外部認識センサ25、車内センサ26、HMI31、および認識部73)とともに、ドライバの認知機能を判定する情報処理部301を備える。なお、図4には、車両制御システム11の構成のうち、ドライバの認知機能の判定に関わる部分の構成が示されている。
The
車内センサ26は、ドライバの周囲で起きた事象に対するドライバの反応をセンシングする。車内センサ26は、カメラ311、デプスセンサ312、マイクロフォン313、および生体センサ314により構成される。
The in-
カメラ311は、例えばドライバを撮影して得られた撮影画像を情報処理部301に供給する。
The
デプスセンサ312は、例えばドライバの各身体部位までの距離を測定して得られた測距データを情報処理部301に供給する。
The
マイクロフォン313は、例えばドライバの音声を集音して得られた音声データを情報処理部301に供給する。
The
生体センサ314は、例えばドライバの生体情報を検出して得られた生体データを情報処理部301に供給する。
The
HMI31は、ガイド情報生成部321、表示制御部322、およびスピーカ制御部323により構成される。
The
ガイド情報生成部321は、ドライバをガイドするためのガイド情報を生成し、ガイド情報を情報処理部301に供給する。ガイド情報は、例えば、車両1の進行方向に物体が存在することや、目的地までの経路を示す。図示を省略するが、ガイド情報生成部321は、表示制御部322やスピーカ制御部323にもガイド情報を供給する。
The guide
表示制御部322は、ガイド情報生成部321により生成されたガイド情報を、例えば車内に設けられたディスプレイに表示する。
The
スピーカ制御部323は、ガイド情報生成部321により生成されたガイド情報を音声で表現するガイド音声を、例えば車内に設けられたスピーカから出力させる。
The
上述したように、認識部73は、外部認識センサ25のセンサデータを取得し、センサデータに基づいて車両1の周囲の物体の認識処理を行う。認識部73は、物体の認識結果に基づいて、車両1の周囲(車外)で起きている事象を検出する事象検出部としても機能する。認識部73は、車両1の周囲で起きている事象の検出結果を情報処理部301に供給する。車両1の周囲で起きている事象の検出結果には、当該事象の内容、当該事象が起きている領域、当該事象の危険度などが含まれる。
As described above, the
情報処理部301は、DMS30の機能の一部である。情報処理部301は、反応認識部331、反応予測部332、および認知機能判定部333により構成される。
The
反応認識部331は、車内センサ26を構成する各種のセンサのセンサデータに基づいて、例えば、ドライバの周囲で起きた事象が起きてから所定の期間内における、当該事象に対するドライバの実際の反応を認識し、実際の反応の認識結果を認知機能判定部333に供給する。ドライバの周囲で起きた事象には、車両1の周囲で起きた事象や、ガイド情報などの各種の情報が車内で表示されたという事象、ガイド音声などの各種の音声が車内で出力されたという事象などが含まれる。
The
なお、反応認識部331は、アクセルセンサやブレーキセンサなどにより構成される車両センサ27のセンサデータに基づいて、ドライバの実際の反応を認識することも可能である。
The
反応予測部332は、ドライバの周囲で起きた事象に対するドライバの正常な反応を予測する。具体的には、反応予測部332は、認識部73により認識された、車両1の周囲で起きている事象に対するドライバの正常な反応を予測する。また、反応予測部332は、ガイド情報がドライバに提示されるという事象に対するドライバの正常な反応を、ガイド情報生成部321から供給されたガイド情報に基づいて予測する。
The
なお、反応予測部332は、ドライバの属性に基づいて、ドライバの周囲で起きた事象に対する正常な反応を予測することも可能である。ドライバの属性は、例えば、性別、年齢、および運転の経験の程度を含む。
The
反応予測部332は、正常な反応の予測結果を認知機能判定部333に供給する。
The
認知機能判定部333は、反応認識部331により認識されたドライバの実際の反応と、反応予測部332により予測されたドライバの正常な反応である予測反応とを比較して、ドライバの認知機能を判定する。認知機能判定部333は、ドライバの認知機能の判定結果に基づいて、通信部22や、表示制御部322、スピーカ制御部323を制御する。
The cognitive
図5は、認知機能判定部333の詳細な構成例を示すブロック図である。
FIG. 5 is a block diagram showing a detailed example configuration of the cognitive
図5に示すように、認知機能判定部333は、比較部351、反応速度算出部352、反応速度判定部353、記憶部354、および出力部355により構成される。
As shown in FIG. 5, the cognitive
比較部351は、ドライバの実際の反応と予測反応とを比較して、ドライバの実際の反応が正常な反応であるか否かを判定する。比較部351は、ドライバの実際の反応が正常な反応である場合、ドライバの認知機能が正常であると判定し、ドライバの実際の反応が正常な反応ではない場合、ドライバの認知機能が異常であると判定する。
The
比較部351は、ドライバの実際の反応の認識結果とドライバの正常な反応の予測結果とを反応速度算出部352に供給し、ドライバの認知機能の判定結果を出力部355に供給する。
The
反応速度算出部352は、反応認識部331によるドライバの実際の反応の認識結果に基づいて、ドライバの実際の反応速度を算出する。反応速度は、例えば、事象が起きてからドライバがブレーキペダルを踏むまでの時間や、事象が起きてから当該事象が起きている領域にドライバが視線を向けるまでの時間を示す。
The reaction
また、反応速度算出部352は、反応予測部332によるドライバの正常な反応の予測結果に基づいて、ドライバの正常な反応速度を算出する。
In addition, the reaction
反応速度算出部352は、ドライバの実際の反応速度を示す情報と、ドライバの正常な反応速度を示す情報とを反応速度判定部353に供給し、ドライバの実際の反応速度を示す情報を記憶部354に供給する。
The reaction
反応速度判定部353は、反応速度算出部352により算出されたドライバの実際の反応速度に基づいて、ドライバの認知機能(ドライバの実際の反応が正常な反応であるか否か)を判定する。具体的には、まず、反応速度判定部353は、ドライバの実際の反応速度と正常な反応速度とを比較し、ドライバの実際の反応速度が正常な反応速度よりも遅いか否かを判定する。
The reaction
次に、反応速度判定部353は、認識部73により検出された事象に対するドライバの過去の反応速度を示す情報を記憶部354から取得する。反応速度判定部353は、ドライバの実際の反応速度と過去の反応速度とを比較し、ドライバの実際の反応速度が過去の反応速度よりも遅いか否かを判定する。
Next, the reaction
反応速度判定部353は、ドライバの実際の反応速度が、正常な反応速度と過去の反応速度のうちの少なくともいずれかよりも遅い場合、ドライバの認知機能が異常であると判定する。反応速度判定部353は、ドライバの認知機能の判定結果を出力部355に供給する。
If the driver's actual reaction speed is slower than at least one of the normal reaction speed and the past reaction speed, the reaction
記憶部354には、例えば、ドライバの過去の反応速度を示す情報が、事象の検出結果に対応付けられて記録される。
In the
出力部355は、比較部351と反応速度判定部353のうちの少なくともいずれか一方によりドライバの認知機能が異常であると判定された場合、所定の処理を実行する実行部として機能する。例えば、ドライバの認知機能が異常であることを示す情報が通信部22を介してデバイス201に送信され、当該情報がドライバの近親者に提示される。
The
図6のフローチャートを参照して、以上のような構成を有する車両制御システム11が行う第1の処理について説明する。第1の処理においては、ガイド音声がドライバに提示されるという事象に対するドライバの反応に基づいて、ドライバの認知機能が判定される。
The first process performed by the
ステップS1において、スピーカ制御部323は、ガイド音声をスピーカから出力させる。ガイド音声が出力された後、反応予測部332は、ガイド音声がドライバに提示されたという事象に対するドライバの正常な反応を予測する。
In step S1, the
ステップS2において、車内センサ26は、ガイド音声に対するドライバの反応をセンシングする。反応認識部331は、車内センサ26のセンサデータに基づいて、ガイド音声に対するドライバの実際の反応を認識する。
In step S2, the in-
ステップS3において、認知機能判定部333は、ガイド音声に対するドライバの実際の反応が正常な反応であるか否かを判定する。
In step S3, the cognitive
例えば、物体が車両1の進行方向に存在することを示すガイド音声が提示されてから所定の期間内に、ドライバがブレーキペダルを踏んだ場合、ドライバの反応が正常な反応であると判定される。また、ガイド音声が提示されてから所定の期間内に、例えば、ドライバが耳に手を当てたり、首を傾げたりした場合、ドライバの反応が正常でない反応であると判定される。 For example, if the driver steps on the brake pedal within a predetermined period of time after a voice guidance is presented indicating that an object is present in the direction of travel of vehicle 1, the driver's reaction is determined to be normal. Also, if the driver places a hand over their ear or tilts their head within a predetermined period of time after the voice guidance is presented, the driver's reaction is determined to be abnormal.
ドライバの実際の反応が正常な反応であるとステップS3において判定された場合、処理はステップS4に進み、認知機能判定部333は、ガイド音声がドライバに正しく伝わったと判定する。
If it is determined in step S3 that the driver's actual reaction is normal, the process proceeds to step S4, where the cognitive
一方、ドライバの実際の反応が正常な反応でないとステップS3において判定された場合、処理はステップS5に進み、認知機能判定部333は、ガイド情報をドライバに再度提示する。例えば、認知機能判定部333は、音量を大きくしてガイド音声をスピーカから再度出力させたり、ガイド音声の出力以外の手段(ランプの発光、ガイド情報の表示など)でガイド情報を提示したりする。
On the other hand, if it is determined in step S3 that the driver's actual reaction is not a normal reaction, the process proceeds to step S5, and the cognitive
次に、図7のフローチャートを参照して、車両制御システム11が行う第2の処理について説明する。第2の処理においては、ガイド情報がディスプレイに表示されるという事象に対するドライバの反応に基づいて、ドライバの認知機能が判定される。
Next, the second process performed by the
ステップS21において、表示制御部322は、ガイド情報をディスプレイに表示させる。ガイド情報が表示された後、反応予測部332は、ガイド情報が表示されたという事象に対するドライバの正常な反応を予測する。
In step S21, the
ステップS22において、車内センサ26は、ガイド情報の表示に対するドライバの反応をセンシングする。反応認識部331は、車内センサ26のセンサデータに基づいて、ガイド情報の表示に対するドライバの実際の反応を認識する。
In step S22, the in-
ステップS23において、認知機能判定部333は、ガイド情報の表示に対するドライバの実際の反応が正常な反応であるか否かを判定する。
In step S23, the cognitive
例えば、物体が車両1の進行方向に存在することを示すガイド情報が表示されたてから所定の期間内に、ドライバがブレーキペダルを踏んだ場合、ドライバの反応が正常な反応であると判定される。また、ガイド情報が表示されたてから所定の期間内に、例えば、ドライバが目を細めたり、顔をディスプレイに近づけたりした場合、ドライバの反応が正常でない反応であると判定される。 For example, if the driver steps on the brake pedal within a predetermined period of time after guide information indicating that an object is present in the traveling direction of vehicle 1 is displayed, the driver's reaction is determined to be normal. Also, if the driver squints their eyes or moves their face closer to the display within a predetermined period of time after guide information is displayed, the driver's reaction is determined to be abnormal.
ドライバの実際の反応が正常な反応であるとステップS23において判定された場合、処理はステップS24に進み、認知機能判定部333は、ガイド情報がドライバに正しく伝わったと判定する。
If it is determined in step S23 that the driver's actual reaction is normal, the process proceeds to step S24, and the cognitive
一方、ドライバの実際の反応が正常な反応でないとステップS23において判定された場合、処理はステップS25に進み、認知機能判定部333は、ガイド情報をドライバに再度提示する。例えば、ガイド情報がアイコンで表現される場合、認知機能判定部333は、アイコンを大きくしてディスプレイに再度表示させる。また、認知機能判定部333は、ガイド情報の表示以外の手段(ランプの発光、ガイド音声の提示など)でガイド情報を提示する。
On the other hand, if it is determined in step S23 that the driver's actual reaction is not a normal reaction, the process proceeds to step S25, and the cognitive
次に、図8のフローチャートを参照して、車両制御システム11が行う第3の処理について説明する。第3の処理においては、危険な事象が起きた際のドライバの反応に基づいて、ドライバの認知機能が判定される。
Next, the third process performed by the
ステップS41において、外部認識センサ25は、車両1の外部の状況をセンシングする。認識部73は、外部認識センサ25のセンサデータに基づいて車両1の周囲の物体の認識処理を行い、物体の認識結果に基づいて、車両1の周囲で起きている事象を検出する。
In step S41, the
ステップS42において、認識部73は、危険な事象を検出したか否かを判定し、危険な事象が検出されるまで車両1の外部の状況のセンシングが継続される。
In step S42, the
危険な事象を検出したとステップS42において判定された場合、反応予測部332は、危険な事象に対するドライバの正常な反応を予測する。その後、処理はステップS43に進み、車内センサ26は、危険な事象に対するドライバの反応をセンシングする。反応認識部331は、車内センサ26のセンサデータに基づいて、危険な事象に対するドライバの実際の反応を認識する。
If it is determined in step S42 that a dangerous event has been detected, the
ステップS44において、認知機能判定部333は、危険な事象に対するドライバの実際の反応が正常な反応であるか否かを判定する。
In step S44, the cognitive
図9は、危険な事象に対するドライバの正常でない反応の例を示す図である。 Figure 9 shows an example of a driver's abnormal reaction to a dangerous event.
図9に示すように、危険な事象が起きてから所定の期間内において、例えば、表情が変わらない場合や、危険な事象が起きている方向に視線を向けるのが遅い場合、当該方向に一度視線を向けたのに、すぐに違う方向を見てしまう場合、ドライバの反応が正常な反応でないと判定される。また、例えば、危険な事象が起きてから所定の期間内において、瞳孔の動きや脈拍に変化がない場合や、ドライバ自身が悪いのに周りの人が悪いと勘違いして怒っている場合、眉をひそめた場合、ブレーキペダルを踏まない場合、ドライバの反応が正常な反応でないと判定される。 As shown in Figure 9, if, within a specified period of time after the occurrence of a dangerous event, for example, there is no change in facial expression, the driver is slow to turn his/her gaze in the direction of the dangerous event, or the driver turns his/her gaze in that direction but then immediately looks in a different direction, the driver's reaction is determined to be abnormal. Also, if, within a specified period of time after the occurrence of a dangerous event, there is no change in pupil movement or pulse rate, the driver mistakenly believes that others around him/her are at fault and becomes angry, frowns, or does not step on the brake pedal, the driver's reaction is determined to be abnormal.
一方、危険な事象が起きてから所定の期間内において、例えば、表情が変わった場合や、危険な事象が起きている方向に視線を素早く向けた場合、当該方向に注視している場合、ドライバの反応が正常な反応であると判定される。また、例えば、危険な事象が起きてから所定の期間内において、瞳孔の動きや脈拍が変化した場合や、ブレーキペダルを踏んだ場合、ドライバの反応が正常な反応であると判定される。 On the other hand, if, within a specified period of time after the occurrence of a dangerous event, for example, the driver's facial expression changes, the driver quickly turns their gaze in the direction of the dangerous event, or the driver stares in that direction, the driver's reaction is determined to be normal. Also, for example, if, within a specified period of time after the occurrence of a dangerous event, the driver's pupil movement or pulse rate changes, or the driver presses the brake pedal, the driver's reaction is determined to be normal.
このように、ドライバの周囲で起きた事象に対するドライバの反応としての、表情、視線の方向、注視時間、瞳孔の動き、脈拍、感情表現、運転操作などが正常な反応であるか否かが判定される。なお、1つの種類の反応について正常な反応であるか否かが判定されてもよいし、複数の種類の反応それぞれについて正常な反応であるか否かが判定されてもよい。 In this way, it is determined whether the driver's facial expression, gaze direction, gaze duration, pupil movement, pulse rate, emotional expression, driving operation, etc., as a reaction to an event occurring around the driver, are normal or not. It may be determined whether one type of reaction is normal or not, or it may be determined whether each of multiple types of reactions is normal or not.
図8に戻り、ドライバの実際の反応が正常な反応であるとステップS44において判定された場合、処理はステップS45に進み、認知機能判定部333は、ドライバの認知機能が正常であると判定する。
Returning to FIG. 8, if it is determined in step S44 that the driver's actual reaction is normal, the process proceeds to step S45, and the cognitive
一方、ドライバの実際の反応が正常な反応でないとステップS44において判定された場合、処理はステップS46に進み、認知機能判定部333は、認知機能判定部333は、ドライバの認知機能が異常であると判定する。
On the other hand, if it is determined in step S44 that the driver's actual reaction is not a normal reaction, the process proceeds to step S46, and the cognitive
ステップS47において、認知機能判定部333の出力部355は、アラートを生成し、当該アラートをドライバやドライバの近親者に提示する。例えば、危険な事象が起きていることを示すアラートがドライバに提示されたり、ドライバの認知機能が異常であることを示すアラートがドライバの近親者に提示されたりする。
In step S47, the
以上のように、本技術においては、ドライバの周囲で起きた事象に対するドライバの反応が反応予測部332により予測され、当該事象に対するドライバの実際の反応が反応認識部331により認識される。また、予測反応と実際の反応とが比較されて、実際の反応が正常な反応であるか否かが比較部351と反応速度判定部353により判定され、実際の反応が正常な反応でないと判定された場合、所定の処理が出力部355により実行される。
As described above, in this technology, the driver's reaction to an event occurring around the driver is predicted by the
従来、例えば、ドライバが、視線を向けるべき方向に視線を向けたが、危険を認知していない場合、ドライバの認知機能を正確に判定することは困難であった。本技術においては、ドライバの反応に基づいて、ドライバの認知機能が判定されるため、例えば、ドライバが、視線を向けるべき方向に視線を向けたが、危険を認知していない場合でも例えば表情といった反応に基づいてドライバの認知機能を判定することが可能となる。 In the past, for example, if a driver looked in the direction they should have looked but did not recognize any danger, it was difficult to accurately assess the driver's cognitive function. With this technology, the driver's cognitive function is assessed based on the driver's reaction, so even if the driver looked in the direction they should have looked but did not recognize any danger, it is possible to assess the driver's cognitive function based on reactions such as facial expressions.
なお、図6乃至図8においては、ドライバの周囲で事象が起きた場合、当該事象に対するドライバの反応に基づいてドライバの認知機能がその場で判定される例について説明した。ドライバの周囲で事象が起きた場合、当該事象が起きてから所定の期間内における車内センサ26のセンサデータが記録され、当該事象が起きた直後以外のタイミングで、ドライバの認知機能が判定されるようにしてもよい。例えば、所定の時刻になったときや車両1が目的地に到着したとき、記録されたセンサデータに基づいてドライバの認知機能が判定される。
Note that in Figures 6 to 8, an example has been described in which, when an event occurs around the driver, the driver's cognitive function is immediately determined based on the driver's reaction to the event. When an event occurs around the driver, sensor data from the in-
<コンピュータについて>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
<About computers>
The above-mentioned series of processes can be executed by hardware or software. When the series of processes is executed by software, the program constituting the software is installed from a program recording medium into a computer incorporated in dedicated hardware or a general-purpose personal computer.
図10は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。情報処理部301は、例えば、図12に示す構成と同様の構成を有するPCにより構成される。
FIG. 10 is a block diagram showing an example of the hardware configuration of a computer that executes the above-mentioned series of processes by a program. The
CPU501、ROM502、RAM503は、バス504により相互に接続されている。
バス504には、さらに、入出力インタフェース505が接続される。入出力インタフェース505には、キーボード、マウスなどよりなる入力部506、ディスプレイ、スピーカなどよりなる出力部507が接続される。また、入出力インタフェース505には、ハードディスクや不揮発性のメモリなどよりなる記憶部508、ネットワークインタフェースなどよりなる通信部509、リムーバブルメディア511を駆動するドライブ510が接続される。
Further connected to the
以上のように構成されるコンピュータでは、CPU501が、例えば、記憶部508に記憶されているプログラムを入出力インタフェース505及びバス504を介してRAM503にロードして実行することにより、上述した一連の処理が行われる。
In a computer configured as described above, the
CPU501が実行するプログラムは、例えばリムーバブルメディア511に記録して、あるいは、ローカルエリアネットワーク、インターネット、ディジタル放送といった、有線または無線の伝送媒体を介して提供され、記憶部508にインストールされる。
The programs executed by the
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program in which processing is performed chronologically in the order described in this specification, or a program in which processing is performed in parallel or at the required timing, such as when called.
本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。 In this specification, a system refers to a collection of multiple components (devices, modules (parts), etc.), regardless of whether all the components are in the same housing. Therefore, multiple devices housed in separate housings and connected via a network, and a single device in which multiple modules are housed in a single housing, are both systems.
本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。 The effects described in this specification are merely examples and are not limiting, and other effects may also exist.
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiment of this technology is not limited to the above-mentioned embodiment, and various modifications are possible without departing from the gist of this technology.
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。 For example, this technology can be configured as cloud computing, in which a single function is shared and processed collaboratively by multiple devices over a network.
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。 In addition, each step described in the above flowchart can be executed by a single device, or can be shared and executed by multiple devices.
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。 Furthermore, when one step includes multiple processes, the multiple processes included in that one step can be executed by one device, or can be shared and executed by multiple devices.
・構成の組み合わせ例
本技術は、以下のような構成をとることもできる。
Example of combination of configurations The present technology can also have the following configurations.
(1)
ドライバの周囲で起きた事象に対する前記ドライバの反応を予測する反応予測部と、
前記事象に対する前記ドライバの実際の反応を認識する反応認識部と、
前記反応予測部により予測された反応である予測反応と、前記実際の反応とを比較して、前記実際の反応が正常な反応であるか否かを判定する判定部と、
前記実際の反応が正常な反応でないと判定された場合、所定の処理を実行する実行部と
を備える情報処理装置。
(2)
前記反応認識部は、前記事象が起きてから所定の期間内における、前記実際の反応を認識する
前記(1)に記載の情報処理装置。
(3)
前記判定部は、前記予測反応と、前記実際の反応とを比較して、前記実際の反応が正常な反応であるか否かを判定するとともに、前記実際の反応の速度に基づいて、前記実際の反応が正常な反応であるか否かを判定する
前記(1)または(2)に記載の情報処理装置。
(4)
前記判定部は、前記予測反応の速度と、前記実際の反応の速度とを比較して、前記実際の反応が正常な反応であるか否かを判定する
前記(3)に記載の情報処理装置。
(5)
前記判定部は、前記ドライバの過去の反応の速度と、前記実際の反応の速度とを比較して、前記実際の反応が正常な反応であるか否かを判定する
前記(3)または(4)に記載の情報処理装置。
(6)
前記実行部は、前記ドライバが運転する車両内において所定の情報が表示されたという前記事象に対する前記実際の反応が正常な反応でないと判定された場合、前記情報の表示以外の手段で前記情報を前記ドライバに提示する
前記(1)乃至(5)のいずれかに記載の情報処理装置。
(7)
前記実行部は、前記ドライバが運転する車両内において所定の情報を表現する音声が出力されたという前記事象に対する前記実際の反応が正常な反応でないと判定された場合、前記音声の出力以外の手段で前記情報を前記ドライバに提示する
前記(1)乃至(6)のいずれかに記載の情報処理装置。
(8)
前記実行部は、前記実際の反応が正常な反応でないと判定された場合、前記ドライバが運転する車両の外部のデバイスに、前記ドライバの認知機能が異常であることを示す情報を送信する
前記(1)乃至(7)のいずれかに記載の情報処理装置。
(9)
前記反応認識部は、前記ドライバが運転する車両の内部の状況の認識に用いられる第1のセンサのセンサデータに基づいて、前記実際の反応を認識する
前記(1)乃至(8)のいずれかに記載の情報処理装置。
(10)
前記ドライバの反応は、前記ドライバの表情、視線の方向、注視時間、瞳孔の動き、脈拍、感情表現、および運転操作のうちの少なくともいずれかを含む
前記(1)乃至(9)のいずれかに記載の情報処理装置。
(11)
前記ドライバが運転する車両の外部の状況の認識に用いられる第2のセンサのセンサデータに基づいて、前記車両の周囲で起きた前記事象を検出する事象検出部をさらに備え、 前記反応予測部は、前記事象検出部により前記事象が検出された場合、前記事象に対する前記ドライバの反応を予測する
前記(1)乃至(10)のいずれかに記載の情報処理装置。
(12)
前記反応予測部は、前記ドライバの属性に基づいて、前記事象に対する前記ドライバの反応を予測する
前記(1)乃至(11)のいずれかに記載の情報処理装置。
(13)
前記ドライバの属性は、性別、年齢、および運転の経験の程度のうちの少なくともいずれかを含む
前記(12)に記載の情報処理装置。
(14)
情報処理装置が、
ドライバの周囲で起きた事象に対する前記ドライバの反応を予測し、
前記事象に対する前記ドライバの実際の反応を認識し、
予測された反応と前記実際の反応とを比較して、前記実際の反応が正常な反応であるか否かを判定し、
前記実際の反応が正常な反応でないと判定された場合、所定の処理を実行する
情報処理方法。
(15)
ドライバが運転する車両の内部の状況の認識に用いられる第1のセンサと、
前記ドライバの周囲で起きた事象に対する前記ドライバの反応を予測する反応予測部と、
前記第1のセンサのセンサデータに基づいて、前記事象に対する前記ドライバの実際の反応を認識する反応認識部と、
前記反応予測部により予測された反応と、前記実際の反応とを比較して、前記実際の反応が正常な反応であるか否かを判定する判定部と、
前記実際の反応が正常な反応でないと判定された場合、所定の処理を実行する実行部と
を備える情報処理装置と
を有する情報処理システム。
(16)
前記車両の外部の状況の認識に用いられる第2のセンサをさらに有し、
前記情報処理装置は、前記第2のセンサのセンサデータに基づいて、前記車両の周囲で起きた前記事象を検出する事象検出部をさらに備え、
前記情報処理装置の前記反応予測部は、前記事象検出部により前記事象が検出された場合、前記事象に対する前記ドライバの反応を予測する
前記(15)に記載の情報処理システム。
(1)
A reaction prediction unit that predicts a reaction of the driver to an event occurring around the driver;
a reaction recognition unit that recognizes an actual reaction of the driver to the event;
A determination unit that compares a predicted reaction, which is a reaction predicted by the reaction prediction unit, with the actual reaction and determines whether the actual reaction is a normal reaction or not;
and an execution unit that executes a predetermined process when the actual reaction is determined to be an abnormal reaction.
(2)
The information processing device according to (1), wherein the reaction recognition unit recognizes the actual reaction within a predetermined period after the occurrence of the event.
(3)
The information processing device described in (1) or (2), wherein the judgment unit compares the predicted reaction with the actual reaction to judge whether the actual reaction is a normal reaction or not, and judges whether the actual reaction is a normal reaction or not based on a speed of the actual reaction.
(4)
The information processing device according to (3), wherein the determination unit compares a speed of the predicted reaction with a speed of the actual reaction to determine whether the actual reaction is a normal reaction.
(5)
The information processing device according to (3) or (4), wherein the determination unit compares a past reaction speed of the driver with a speed of the actual reaction to determine whether the actual reaction is a normal reaction or not.
(6)
The information processing device described in any of (1) to (5), wherein the execution unit, when it is determined that the actual response to the event that specified information is displayed inside the vehicle driven by the driver is not a normal response, presents the information to the driver by means other than displaying the information.
(7)
The information processing device described in any of (1) to (6), wherein the execution unit, when it is determined that the actual response to the event that a voice expressing predetermined information has been output in the vehicle driven by the driver is not a normal response, presents the information to the driver by means other than outputting the voice.
(8)
The information processing device according to any one of (1) to (7), wherein the execution unit transmits, when it is determined that the actual reaction is not a normal reaction, information indicating that the cognitive function of the driver is abnormal to a device external to the vehicle driven by the driver.
(9)
The information processing device according to any one of (1) to (8), wherein the reaction recognition unit recognizes the actual reaction based on sensor data of a first sensor used to recognize an internal situation of a vehicle driven by the driver.
(10)
The information processing device according to any one of (1) to (9), wherein the driver's reaction includes at least one of the driver's facial expression, gaze direction, gaze duration, pupil movement, pulse rate, emotional expression, and driving operation.
(11)
The information processing device described in any of (1) to (10), further comprising an event detection unit that detects the event occurring around the vehicle based on sensor data of a second sensor used to recognize an external situation of the vehicle driven by the driver, wherein the response prediction unit predicts a response of the driver to the event when the event is detected by the event detection unit.
(12)
The information processing device according to any one of (1) to (11), wherein the reaction prediction unit predicts a reaction of the driver to the event based on an attribute of the driver.
(13)
The information processing device according to (12), wherein the driver's attributes include at least one of gender, age, and degree of driving experience.
(14)
An information processing device,
predicting a driver's reaction to events occurring around the driver;
Recognizing an actual response of the driver to the event;
comparing the predicted response to the actual response to determine whether the actual response is a normal response;
and executing a predetermined process when the actual reaction is determined to be not a normal reaction.
(15)
A first sensor used to recognize a situation inside a vehicle driven by a driver;
A reaction prediction unit that predicts a reaction of the driver to an event occurring around the driver;
A reaction recognition unit that recognizes an actual reaction of the driver to the event based on sensor data of the first sensor;
A determination unit that compares the reaction predicted by the reaction prediction unit with the actual reaction and determines whether the actual reaction is a normal reaction;
and an information processing device including: an execution unit that executes a predetermined process when the actual reaction is determined to be an abnormal reaction.
(16)
A second sensor is further provided for recognizing a situation outside the vehicle,
The information processing device further includes an event detection unit that detects the event occurring around the vehicle based on sensor data of the second sensor,
The information processing system according to (15), wherein the reaction prediction unit of the information processing device predicts a reaction of the driver to the event when the event is detected by the event detection unit.
1 車両, 11 車両制御システム, 22 通信部, 25 外部認識センサ, 26 車内センサ, 30 DMS, 31 HMI, 51 カメラ, 53 LiDAR, 73 認識部, 201 デバイス, 301 情報処理部, 311 カメラ, 312 デプスセンサ, 313 マイクロフォン, 314 生体センサ, 321 ガイド情報生成部, 322 表示制御部, 323 スピーカ制御部, 331 反応認識部, 332 反応予測部, 333 認知機能判定部, 351 比較部, 352 反応速度算出部, 353 反応速度判定部, 354 記憶部, 355 出力部 1 Vehicle, 11 Vehicle control system, 22 Communication unit, 25 External recognition sensor, 26 In-vehicle sensor, 30 DMS, 31 HMI, 51 Camera, 53 LiDAR, 73 Recognition unit, 201 Device, 301 Information processing unit, 311 Camera, 312 Depth sensor, 313 Microphone, 314 Biosensor, 321 Guide information generation unit, 322 Display control unit, 323 Speaker control unit, 331 Response recognition unit, 332 Response prediction unit, 333 Cognitive function judgment unit, 351 Comparison unit, 352 Response speed calculation unit, 353 Response speed judgment unit, 354 Memory unit, 355 Output unit
Claims (16)
前記事象に対する前記ドライバの実際の反応を認識する反応認識部と、
前記反応予測部により予測された反応である予測反応と、前記実際の反応とを比較して、前記実際の反応が正常な反応であるか否かを判定する判定部と、
前記実際の反応が正常な反応でないと判定された場合、所定の処理を実行する実行部と
を備える情報処理装置。 A reaction prediction unit that predicts a reaction of the driver to an event occurring around the driver;
a reaction recognition unit that recognizes an actual reaction of the driver to the event;
A determination unit that compares a predicted reaction, which is a reaction predicted by the reaction prediction unit, with the actual reaction and determines whether the actual reaction is a normal reaction or not;
and an execution unit that executes a predetermined process when the actual reaction is determined to be an abnormal reaction.
請求項1に記載の情報処理装置。 The information processing device according to claim 1 , wherein the reaction recognition unit recognizes the actual reaction within a predetermined period after the occurrence of the event.
請求項1に記載の情報処理装置。 The information processing device according to claim 1 , wherein the determination unit compares the predicted response with the actual response to determine whether the actual response is a normal response, and determines whether the actual response is a normal response based on a speed of the actual response.
請求項3に記載の情報処理装置。 The information processing device according to claim 3 , wherein the determination unit compares a speed of the predicted reaction with a speed of the actual reaction to determine whether or not the actual reaction is a normal reaction.
請求項3に記載の情報処理装置。 The information processing device according to claim 3 , wherein the determination unit compares a past reaction speed of the driver with the actual reaction speed to determine whether the actual reaction is a normal reaction or not.
請求項1に記載の情報処理装置。 2. The information processing device according to claim 1, wherein when it is determined that the actual response to the event that predetermined information is displayed in the vehicle driven by the driver is not a normal response, the execution unit presents the information to the driver by a means other than displaying the information.
請求項1に記載の情報処理装置。 2. The information processing device according to claim 1, wherein when the execution unit determines that the actual response to the event that a voice expressing predetermined information has been output in the vehicle driven by the driver is not a normal response, the execution unit presents the information to the driver by a means other than outputting the voice.
請求項1に記載の情報処理装置。 The information processing device according to claim 1 , wherein the execution unit transmits, when the actual reaction is determined to be an abnormal reaction, information indicating that the cognitive function of the driver is abnormal to a device external to the vehicle driven by the driver.
請求項1に記載の情報処理装置。 The information processing device according to claim 1 , wherein the reaction recognition unit recognizes the actual reaction based on sensor data of a first sensor used to recognize an internal situation of a vehicle driven by the driver.
請求項1に記載の情報処理装置。 The information processing device according to claim 1 , wherein the driver's reaction includes at least one of the driver's facial expression, gaze direction, gaze duration, pupil movement, pulse rate, emotional expression, and driving operation.
請求項1に記載の情報処理装置。 2. The information processing device according to claim 1, further comprising an event detection unit that detects the event occurring around the vehicle based on sensor data of a second sensor used to recognize a situation outside the vehicle driven by the driver, and the response prediction unit predicts a response of the driver to the event when the event is detected by the event detection unit.
請求項1に記載の情報処理装置。 The information processing device according to claim 1 , wherein the reaction prediction unit predicts the reaction of the driver to the event based on an attribute of the driver.
請求項12に記載の情報処理装置。 The information processing device according to claim 12 , wherein the driver attributes include at least one of gender, age, and degree of driving experience.
ドライバの周囲で起きた事象に対する前記ドライバの反応を予測し、
前記事象に対する前記ドライバの実際の反応を認識し、
予測された反応と前記実際の反応とを比較して、前記実際の反応が正常な反応であるか否かを判定し、
前記実際の反応が正常な反応でないと判定された場合、所定の処理を実行する
情報処理方法。 An information processing device,
predicting a driver's reaction to events occurring around the driver;
Recognizing an actual response of the driver to the event;
comparing the predicted response to the actual response to determine whether the actual response is a normal response;
and executing a predetermined process when the actual reaction is determined to be not a normal reaction.
前記ドライバの周囲で起きた事象に対する前記ドライバの反応を予測する反応予測部と、
前記第1のセンサのセンサデータに基づいて、前記事象に対する前記ドライバの実際の反応を認識する反応認識部と、
前記反応予測部により予測された反応と、前記実際の反応とを比較して、前記実際の反応が正常な反応であるか否かを判定する判定部と、
前記実際の反応が正常な反応でないと判定された場合、所定の処理を実行する実行部と
を備える情報処理装置と
を有する情報処理システム。 A first sensor used to recognize a situation inside a vehicle driven by a driver;
A reaction prediction unit that predicts a reaction of the driver to an event occurring around the driver;
A reaction recognition unit that recognizes an actual reaction of the driver to the event based on sensor data of the first sensor;
A determination unit that compares the reaction predicted by the reaction prediction unit with the actual reaction and determines whether the actual reaction is a normal reaction;
and an information processing device including: an execution unit that executes a predetermined process when the actual reaction is determined to be an abnormal reaction.
前記情報処理装置は、前記第2のセンサのセンサデータに基づいて、前記車両の周囲で起きた前記事象を検出する事象検出部をさらに備え、
前記情報処理装置の前記反応予測部は、前記事象検出部により前記事象が検出された場合、前記事象に対する前記ドライバの反応を予測する
請求項15に記載の情報処理システム。 A second sensor is further provided for recognizing a situation outside the vehicle,
The information processing device further includes an event detection unit that detects the event occurring around the vehicle based on sensor data of the second sensor,
The information processing system according to claim 15 , wherein the reaction prediction unit of the information processing device predicts a reaction of the driver to the event when the event is detected by the event detection unit.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023092185 | 2023-06-05 | ||
| JP2023-092185 | 2023-06-05 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2024252912A1 true WO2024252912A1 (en) | 2024-12-12 |
Family
ID=93795466
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2024/018588 Pending WO2024252912A1 (en) | 2023-06-05 | 2024-05-21 | Information processing device, information processing method, and information processing system |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2024252912A1 (en) |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000301963A (en) * | 1999-04-23 | 2000-10-31 | Fujitsu Ltd | Accident deterrence system and method |
| JP2008204056A (en) * | 2007-02-19 | 2008-09-04 | Tokai Rika Co Ltd | Driving assistance device |
| JP2017142621A (en) * | 2016-02-09 | 2017-08-17 | 株式会社デンソー | Driving teaching device |
| JP2017204177A (en) * | 2016-05-12 | 2017-11-16 | 株式会社デンソー | Driver state determination device |
| JP2018163482A (en) * | 2017-03-24 | 2018-10-18 | 株式会社デンソー | Driving support device |
| JP2022149946A (en) * | 2021-03-25 | 2022-10-07 | パナソニックIpマネジメント株式会社 | Driving characteristic determination device, driving characteristic determination method, and driving characteristic determination program |
-
2024
- 2024-05-21 WO PCT/JP2024/018588 patent/WO2024252912A1/en active Pending
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000301963A (en) * | 1999-04-23 | 2000-10-31 | Fujitsu Ltd | Accident deterrence system and method |
| JP2008204056A (en) * | 2007-02-19 | 2008-09-04 | Tokai Rika Co Ltd | Driving assistance device |
| JP2017142621A (en) * | 2016-02-09 | 2017-08-17 | 株式会社デンソー | Driving teaching device |
| JP2017204177A (en) * | 2016-05-12 | 2017-11-16 | 株式会社デンソー | Driver state determination device |
| JP2018163482A (en) * | 2017-03-24 | 2018-10-18 | 株式会社デンソー | Driving support device |
| JP2022149946A (en) * | 2021-03-25 | 2022-10-07 | パナソニックIpマネジメント株式会社 | Driving characteristic determination device, driving characteristic determination method, and driving characteristic determination program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11873007B2 (en) | Information processing apparatus, information processing method, and program | |
| US11590985B2 (en) | Information processing device, moving body, information processing method, and program | |
| JP7615141B2 (en) | Information processing device, information processing method, and program | |
| JP7626632B2 (en) | Information processing device, information processing method, and program | |
| US20240054793A1 (en) | Information processing device, information processing method, and program | |
| JP7676407B2 (en) | Information processing device, information processing method, and program | |
| WO2019039280A1 (en) | Information processing apparatus, information processing method, program, and vehicle | |
| JP2025013519A (en) | Information processing device, information processing method, and program | |
| US20250172950A1 (en) | Information processing apparatus, information processing method, information processing program, and mobile apparatus | |
| WO2024009829A1 (en) | Information processing device, information processing method, and vehicle control system | |
| US20240290204A1 (en) | Information processing device, information processing method, and program | |
| WO2023145460A1 (en) | Vibration detection system and vibration detection method | |
| WO2022145286A1 (en) | Information processing device, information processing method, program, moving device, and information processing system | |
| WO2021145227A1 (en) | Information processing device, information processing method, and program | |
| WO2024252912A1 (en) | Information processing device, information processing method, and information processing system | |
| US20240386724A1 (en) | Recognition processing device, recognition processing method, and recognition processing system | |
| US20250128732A1 (en) | Information processing apparatus, information processing method, and moving apparatus | |
| US12437639B2 (en) | Information processing device, information processing method, and information processing program | |
| JP7585123B2 (en) | Information processing device, information processing method, and program | |
| EP4593369A1 (en) | Information processing device and information processing method | |
| WO2024232245A1 (en) | Information processing device, information processing method, and program | |
| WO2024232244A1 (en) | Information processing device, information processing method, and program | |
| WO2024225024A1 (en) | Information processing device, information processing method, and program | |
| WO2024048180A1 (en) | Information processing device, information processing method, and vehicle control system | |
| WO2023068116A1 (en) | On-vehicle communication device, terminal device, communication method, information processing method, and communication system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 24819145 Country of ref document: EP Kind code of ref document: A1 |