WO2017150466A1 - 運転者監視システム - Google Patents

運転者監視システム Download PDF

Info

Publication number
WO2017150466A1
WO2017150466A1 PCT/JP2017/007544 JP2017007544W WO2017150466A1 WO 2017150466 A1 WO2017150466 A1 WO 2017150466A1 JP 2017007544 W JP2017007544 W JP 2017007544W WO 2017150466 A1 WO2017150466 A1 WO 2017150466A1
Authority
WO
WIPO (PCT)
Prior art keywords
driver
vehicle
monitoring system
automatic driving
display screen
Prior art date
Application number
PCT/JP2017/007544
Other languages
English (en)
French (fr)
Inventor
英稔 森田
将史 渡邊
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2016253786A external-priority patent/JP6917708B2/ja
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to US15/780,056 priority Critical patent/US10640123B2/en
Publication of WO2017150466A1 publication Critical patent/WO2017150466A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present disclosure relates to a driver monitoring system that can monitor the state of a driver sitting in a driver's seat, for example, during automatic driving.
  • the driver's face is photographed using an in-vehicle camera, and the opening / closing state of the eyelid, the direction of the line of sight, etc. are detected from the face image.
  • a technique for recognizing a driver's condition is known.
  • a technique for calling attention to the driver by various methods is known. For example, a technique for alerting the driver by displaying on a vehicle-mounted display, notification by sound from a speaker, winding up a seat belt, vibration of a seat, or the like is known.
  • the driver can release his hand from the steering wheel (that is, the steering wheel), but at that time, if the driver is operating a portable terminal (that is, a portable device) such as a smartphone, The driver's condition may not be detected well.
  • the in-vehicle camera obtains the face image when the driver looks at the screen of the mobile terminal at hand. May not be able to determine the driver's condition.
  • the conventional technique using an in-vehicle camera has a problem that a driver cannot determine whether a backup task is possible because a face image cannot be obtained. Even in the case of non-automatic driving, it may be difficult to grasp the state of the driver, for example, when the shooting situation with the in-vehicle camera is not preferable.
  • the driver when the driver operates the portable device in a state where the vehicle is traveling by automatic driving, for example, the driver's state is grasped and It is to provide a driver monitoring system capable of handling various warnings.
  • One aspect of the present disclosure is a communication between a portable device including a display screen and a photographing device arranged so as to be capable of photographing the side facing the display screen, and a vehicle control device that controls the host vehicle.
  • the present invention relates to a driver monitoring system that monitors the driver of the host vehicle.
  • the driver monitoring system determines whether the driver of the host vehicle is looking at the display screen of the portable device based on an image captured by the imaging device while the host vehicle is traveling. And a safety control unit that issues an alarm when the determination unit and the occupant state determination unit determine that the driver is viewing the display screen of the portable device.
  • communication is performed between a portable device including a display screen and a photographing device arranged so as to be capable of photographing the side facing the display screen, and a vehicle control device that controls the host vehicle.
  • the present invention relates to a driver monitoring system that monitors the driver of the host vehicle.
  • the driver monitoring system determines whether the driver of the host vehicle is looking at the display screen of the portable device based on an image captured by the imaging device during automatic driving of the host vehicle.
  • the state determination unit and the occupant state determination unit determine that the driver is looking at the display screen of the portable device, information that can be used for control that issues an alarm and driving of the driver
  • a safety control unit that performs at least one of the controls that provide the control.
  • the driver releases the hand from the steering wheel and operates the portable device.
  • the degree of the driver's consciousness can be grasped from the driver's image (for example, a face image) captured by the imaging device of the portable device during automatic driving.
  • the occupant state determination unit and the safety control unit may be on the portable device side, the own vehicle side, or both.
  • symbol in the parenthesis described in the claim shows the correspondence with the specific means as described in embodiment mentioned later as one aspect, Comprising: The technical scope of this indication is limited is not.
  • the driver monitoring system includes a mobile terminal 1 such as a smartphone and a vehicle control device 3 that is mounted on a vehicle and controls the operation of the vehicle, through communication. It is a functioning system.
  • the vehicle is a vehicle capable of traveling by a driver's driving operation and traveling by automatic driving according to various levels of automation.
  • the vehicle is a host vehicle that can communicate with the mobile terminal 1 of the driver.
  • the portable terminal 1 is a kind of communication device (that is, a portable device) that can be carried by a driver and the like, and is a device that can transmit and receive information to and from an external base station, own vehicle, and the like. .
  • a smart phone is mentioned as an example and demonstrated here as the portable terminal 1, it is not restricted to it. Moreover, it can replace with the portable terminal 1 and can use various apparatuses, such as a game machine and a notebook personal computer. In this case, an operation switch, a keyboard, or the like can be used as an input device corresponding to each device.
  • the mobile terminal 1 includes a camera 5, a microphone 7, a gyro 9, a display 11, a speaker 13, a vibration motor 15, and the like. Moreover, the microcomputer 17 which controls operation
  • the communication unit 19 is not limited to wireless communication, and a device that performs wired communication using USB or the like can be employed.
  • the camera 5 is, for example, a CCD camera, and is arranged on the display 11 side (that is, the display screen 11a side) so that the face of the person (for example, the owner) who operates the mobile terminal 1 can be photographed.
  • the camera 5 is disposed, for example, around the display screen 11a so as to be able to photograph the side facing the display screen 11a, that is, the side facing the display screen 11a.
  • the display 11 includes a display screen 11a such as a liquid crystal and is a display device that displays characters, images, and the like on the display screen 11a.
  • the display screen 11a also has a function as a touch panel, that is, a function as an input device.
  • the display 11 may not have a function as an input device.
  • the speaker 13 notifies the user of the mobile terminal 1 of information such as an alarm as needed using voice or sound.
  • the vibration motor 15 notifies the user of the mobile terminal 1 of information such as an alarm by vibrating the mobile terminal 1 itself.
  • the microcomputer 17 is an electronic control device that includes a known CPU 17a, ROM 17b, RAM 17c, EEPROM 17d, and the like.
  • the ROM 17b stores data and programs that need to retain stored contents even when the power is turned off.
  • the EEOROM 17d stores data (for example, authentication data) that needs to retain stored contents even when the power is turned off.
  • the RAM 17c temporarily stores data.
  • the CPU 17a executes processing according to a program or the like stored in the ROM 17b or the like.
  • the communication unit 19 is a device capable of transmitting and receiving various types of information such as face image data captured by the camera 5 with an external base station, the vehicle control device 3 and the like.
  • the communication unit 19 can communicate with the vehicle control device 3 side by wireless communication or wired communication.
  • the various functions of the mobile terminal 1 are realized by the CPU 17a executing a program stored in a non-transitional tangible recording medium.
  • the ROM 17b corresponds to a non-transitional tangible recording medium that stores a program. Further, a method corresponding to the program is executed by executing the program. Note that the number of microcomputers constituting the mobile terminal 1 may be one or more. These points are the same in the microcomputer 21 of the vehicle control device 3.
  • the vehicle control device 3 is an electronic control device that controls the operation of the vehicle by driving various actuators based on information from various sensors and the like, and performs driver monitoring processing described later.
  • This vehicle control device 3 transmits / receives information to / from an external base station, another vehicle, the portable terminal 1 and the like by using a microcomputer 21 having a well-known CPU 21a, ROM 21b, RAM 21c, EEPROM 21d, and an antenna.
  • a communication unit 23 is provided.
  • the communication unit 23 can communicate with the communication unit 19 of the mobile terminal 1 by wireless communication or wired communication.
  • the vehicle control device 3 includes a driving sensor 25, a host vehicle sensor 27, and surrounding monitoring.
  • a device 29, switches 31, a display 33, actuators 35, a navigation device 37, and the like are connected.
  • the microcomputer 21 is basically the same as the microcomputer 17 on the portable terminal 1 side.
  • the driving sensors 25 include various sensors such as a driver camera 25a that detects the state of the driver.
  • the driver camera 25a is, for example, a CCD camera disposed in front of the driver's seat, takes a picture of the driver's face, and transmits the face image to the vehicle control device 3.
  • Other sensors include a seating sensor that detects that the driver is seated in the driver's seat, an electrocardiographic sensor that is attached to a handle and / or a seat belt, and detects the driver's heartbeat and the like.
  • the own vehicle sensor 27 is a sensor that detects the operation of the own vehicle, and examples thereof include various sensors such as a vehicle speed sensor, an acceleration sensor, a yaw rate sensor, and a steering sensor. Moreover, the apparatus which detects the position of the own vehicles, such as GPS, is also mentioned.
  • the periphery monitoring device 29 is a device that monitors the situation around the vehicle (that is, the host vehicle), and includes various devices such as various radars, a front camera, a rear camera, a side camera, and an ultrasonic sensor.
  • Examples of the switches 31 include a switch that instructs permission or prohibition of automatic driving.
  • the display 33 is a display device attached to, for example, a vehicle dashboard, and the display screen also has a function as a touch panel, that is, a function as an input device, as is well known.
  • a braking actuator that adjusts the driving force of the vehicle using a throttle or the like
  • a braking actuator that adjusts the braking force of the vehicle using a wheel cylinder or the like
  • a steering motor that uses the steering angle of the vehicle
  • a steering actuator to be adjusted can be used.
  • an air conditioner, a speaker, an indoor light, etc. are mentioned.
  • the navigation device 37 is a well-known device capable of guiding a travel route based on map information, position information of the host vehicle, and the like.
  • a wearable device 39 may be used in the driver monitoring system described above.
  • the wearable device 39 can detect a driver's heartbeat, pulse, brain wave, and the like, and transmit the information to the mobile terminal 1, the vehicle control device 3, and the like.
  • Examples of the wearable device 39 include a wristwatch type device and a headgear type device attached to the head.
  • a wristwatch type device and a headgear type device attached to the head.
  • a headgear type device attached to the head.
  • ⁇ Mobile device> As shown in FIG. 2, information of the owner of the mobile terminal 1 is registered and stored in advance in the memory (for example, the EEPROM 17 d) of the mobile terminal 1.
  • the owner information includes authentication information based on a face image that can identify the owner. In addition to this, various kinds of authentication information such as a retina, a palm, and a fingerprint can be cited.
  • the EEPROM 17d also stores information on the vehicle of the communication partner at the time of the current control, that is, the own vehicle that the owner of the portable terminal 1 is permitted to drive.
  • the vehicle information includes a number (for example, vehicle ID) that distinguishes the vehicle.
  • ⁇ Vehicle control device As shown in FIG. 3, in the memory (for example, EEPROM 21d) of the vehicle control device 3, a driver permitted to drive the vehicle is registered and stored in advance.
  • EEPROM 21d EEPROM 21d
  • the driver information includes authentication information based on a face image that can identify the driver.
  • various kinds of authentication information such as a retina, a palm, and a fingerprint can be cited.
  • the EEPROM 21d stores information on the mobile terminal 1 that is the communication partner for the current control.
  • a number for example, mobile terminal ID
  • mobile terminal ID for distinguishing the mobile terminal 1 is cited.
  • the owner information includes a number (for example, owner ID) that distinguishes the owner.
  • owner information includes a number (for example, owner ID) that distinguishes the owner.
  • the owner of the mobile terminal 1 since the owner of the mobile terminal 1 is a driver who is permitted to drive the vehicle, at least the mobile terminal 1 is used when performing the driver monitoring process described later. The owner and driver must match.
  • the microcomputer 17 on the portable terminal 1 side has a first image recognition unit 41, a first occupant state determination unit 43, a first one as the processing contents executed by the processing program, that is, functionally.
  • the first image recognition unit 41 recognizes a face image showing a face in the image based on the image taken by the camera 5. Then, for example, it is determined from the face image whether the photographed person is the owner of the mobile terminal 1.
  • the first occupant state determination unit 43 is an image taken by the camera 5 to determine whether the driver of the host vehicle is viewing the display screen 11a of the mobile terminal 1 during traveling of the host vehicle, for example, during automatic driving. Determine based on.
  • the traveling state of the host vehicle can be obtained from the vehicle control device 3 side.
  • the first occupant state determination unit 43 can determine the degree of the driver's consciousness state based on the image (that is, the face image) photographed by the camera 5.
  • the degree of consciousness is the degree (ie level) of whether or not consciousness is clear, for example, arousal level.
  • the degree of consciousness (for example, the degree of arousal) can be detected from, for example, the open / closed state of the eyelid obtained from the face image, heartbeat, pulse, brain wave, etc. Therefore, the description is omitted.
  • the wearable device 39 capable of detecting a heartbeat or the like when used, the degree of consciousness may be determined in consideration of information such as the heartbeat.
  • crew state determination part 43 is good also as a function by the side of the vehicle control apparatus 3. FIG. That is, the above-described state determination may be performed by the vehicle control device 3 based on the face image information received from the mobile terminal 1 side.
  • the first safety control unit 45 When it is determined that the driver is looking at the display screen 11a of the mobile terminal 1 during traveling, for example, during automatic driving, the first safety control unit 45 is necessary corresponding to the traveling state. An alarm can be issued.
  • information that can be used when the driver drives for example, information useful for a backup task (for example, monitoring information) can be provided. Note that the content of the alarm can be set based on the level of the driver's consciousness state (for example, the arousal level) determined by the first occupant state determination unit 43.
  • the first safety control unit 45 can issue a warning to the driver from the mobile terminal 1 using, for example, the display 11, the speaker 13, and the vibration motor 15. Further, the monitoring information may be provided using the display 11 or the like.
  • the first safety control unit 45 may be a function on the vehicle control device 3 side. That is, based on the face image information received from the mobile terminal 1 side, for example, the vehicle control device 3 may determine the state and issue the above-described alarm. In this case, the warning may be performed on the mobile terminal 1 side or on the vehicle control device 3 side.
  • the display control unit 47 controls display on the display 11 and functions as a touch panel.
  • the actuator control unit 49 controls the operation when the mobile terminal 1 itself functions as an actuator. Specifically, as described above, for example, the display 11, the speaker 13, and the vibration motor 15 can be used as actuators to issue an alarm to the driver from the mobile terminal 1.
  • the application unit 51 controls operations of various applications installed in the mobile terminal 1.
  • the microcomputer 17 on the vehicle control device 3 side has, as a processing content executed by the processing program, that is, functionally, a second image recognition unit 61, a second occupant state determination unit 63, The vehicle state detection part 65, the surrounding information detection part 67, the 2nd safety control part 69, the vehicle control part 73 which has the automatic driving
  • the second occupant state determination unit 63 recognizes the driver and determines various states of the driver based on information from the second image recognition unit 61. For example, based on the image from the driver camera 25a, it is determined whether the person seated in the driver's seat is a person permitted to drive the vehicle.
  • the second occupant state determination unit 63 detects the level of the driver's consciousness state, for example, the degree of arousal and / or sleepiness (that is, functions as a consciousness detection unit).
  • the degree of consciousness can be detected based on face image information from the driver camera 25a, for example, the open / closed state of the eyelid.
  • the degree of consciousness can be detected based on information from an electrocardiographic sensor or the like attached to the wearable device 39, a handle and / or a seat belt, for example, heartbeat fluctuation.
  • the own vehicle state detection unit 65 detects the traveling state of the own vehicle such as the vehicle speed, acceleration, yaw rate, steering angle, etc. based on the information from the own vehicle sensors 27. Further, information on whether or not automatic driving is being performed and / or information on the level of automatic driving and the like are detected.
  • the surrounding information detection unit 67 detects information about road conditions such as the front of the host vehicle and / or surrounding vehicles based on information from the surrounding monitoring device 29 such as a radar and / or a front camera.
  • the vehicle control unit 73 is based on, for example, information from the switches 31, the touch panel of the display 33, the second occupant state detection unit 63, the own vehicle state detection unit 65, the surrounding information detection unit 67, and the like. To control.
  • operation control part 71 controls driving
  • map information from the navigation device 37 can be referred to.
  • the second safety control unit 69 determines that the driver is viewing the display screen 11a of the portable terminal 1 during traveling, for example, during automatic driving, as in the portable terminal 1 side, Issue necessary alarms according to driving conditions. For example, an alarm can be issued to the driver by the vehicle itself using the display 33 and the actuators 35.
  • examples of the method for issuing an alarm include display on the display 33 and notification by sound or sound from a speaker.
  • a method of controlling the air conditioner to send cold air or the like to the driver or changing the lighting state of an indoor lamp can be mentioned.
  • a method of vibrating a seat and / or a handle and a method of winding up a seat belt can be mentioned.
  • the vehicle operation may be controlled to meander, or braking control using a brake, for example, brake braking in which a weak brake is intermittently applied may be performed.
  • the second safety control unit 69 can provide information that can be used when the driver drives, for example, information useful for a backup task.
  • a head-up display that displays an image or the like on the windshield can be used for providing information.
  • the display control unit 75 controls display on the display 33 and / or functions as a touch panel.
  • the actuator control unit 77 controls operations when various devices on the vehicle side function as actuators. Specifically, as described above, for example, the display 33, the speaker, the lamp, at least one kind of actuator for driving, braking, and steering is used as an actuator, and the driver is informed from the vehicle side. Alerts and information can be provided.
  • the role of various functions is shared between the mobile terminal 1 and the vehicle control device 3, but as another method, for example, the face 5 is shot by the camera 5 of the mobile terminal 1.
  • subsequent processing and / or control may be appropriately shared on either the mobile terminal 1 side or the vehicle control device 3 side. Or you may implement a process and control by both the portable terminal 1 side and the vehicle control apparatus 3 side.
  • whether or not to perform automatic driving can be determined by an instruction from the driver's switches 31 or the touch panel of the display 33, for example.
  • the level of automatic driving described later can also be selected according to the driver's instruction. For example, when a condition that allows automatic driving is satisfied on the vehicle side, an appropriate level is appropriately set according to the satisfied condition. An automatic driving level may be set automatically.
  • the suspension of automatic driving can be determined by the driver's instruction, but when conditions for enabling automatic driving are not met, safety is confirmed when releasing automatic driving after an appropriate warning. At this stage, the automatic operation may be canceled.
  • the level of automatic driving is an index of how much it is automated.
  • the levels shown in Tables 1 and 2 below can be adopted as the level of automatic driving.
  • level 0 is driving by the driver's operation that is not automatic driving.
  • Level 5 is completely automatic driving in which the vehicle itself judges and travels without involving the driver.
  • Levels 1 to 4 are semi-automatic driving in which the driver and the vehicle drive together. In other words, the system is operated by the driver or driven by the vehicle as necessary.
  • “Eye-on” means that the driver needs to monitor the surroundings so that the driver can drive instead of automatic driving.
  • “Eye-off” means “Eye-off” This shows a situation where the driver does not need to monitor the surroundings.
  • the specific condition is, for example, a condition indicating that the lane is capable of automatic driving.
  • the content of the warning is set according to the running state, more specifically, the level of automatic driving, and necessary information is provided.
  • the display screen 11a of the portable terminal for example, the smartphone
  • level 0 that is, when the driver operates and operates
  • a warning “Please concentrate on driving” is given.
  • the warning is given by display, voice, or the like using the display 11, 33 and / or the speaker 13.
  • level 1 that is, when the vehicle is traveling in a state where driver assistance is required, some measures are desired even when the display screen 11 a of the mobile terminal 1 is seen. Therefore, similarly to the level 0, a warning such as “Please concentrate on driving” is given using the same device.
  • level 2 that is, in the case of partial automatic operation, some measure is desired even when the display screen 11a of the mobile terminal 1 is seen. Therefore, using a device similar to the above, for example, a warning such as “Please monitor the surroundings” is given. That is, the driver can release his / her hand from the steering wheel, but since it is not appropriate to look away from the surroundings, a warning is given to monitor the surroundings.
  • the mobile terminal 1 is used to perform control for providing information that can be used when driving by the driver, for example, information necessary for monitoring the surroundings (that is, monitoring information). May be.
  • information that can be used when driving by the driver for example, information necessary for monitoring the surroundings (that is, monitoring information).
  • the image captured by the front camera, the planned traveling route of the host vehicle, and information on surrounding vehicles may be displayed on a part of the display screen 11a, for example.
  • the monitoring information may be displayed on the entire display screen 11a.
  • level 3 In the case of level 3, and when the driver is operating the portable terminal 1 and the driver's consciousness state (ie, consciousness level) is high, the driver can switch to his / her driving at any time. . That is, since a backup task is possible, control that is auxiliary when the backup task is executed, that is, control A that is the presentation (A) in Table 3 is performed.
  • the level of consciousness can be determined based on a predetermined determination value.
  • monitoring information necessary for monitoring the surroundings for example, an image captured by a front camera, a planned traveling route of the host vehicle, information on surrounding vehicles, for example, is projected onto a windshield and displayed. Control.
  • the monitoring information may be provided using the display screen 11a of the mobile terminal 1 or the like.
  • the provision of the monitoring information can be performed on at least one of the vehicle side and the portable terminal 1 side.
  • the backup task may not be performed sufficiently. Therefore, information is provided by the control A and a warning such as “Please rest in the next service area” is given.
  • the monitoring information may be provided using the display screen 11a of the mobile terminal 1 or the like.
  • the provision of the monitoring information can be performed on at least one of the vehicle side and the portable terminal 1 side.
  • the monitoring information may be provided using the display screen 11a of the mobile terminal 1 or the like.
  • the provision of the monitoring information can be performed on at least one of the vehicle side and the portable terminal 1 side.
  • level 4 when the condition that allows automatic driving is removed or is likely to be removed, for example, when the section where automatic driving is possible is completed or is about to end, an operation by the driver is required. Therefore, depending on the situation, for example, a warning such as “the section where the automatic driving is allowed to end” or “the automatic driving section is about to end” is issued. Instead of “soon”, a time such as “after 10 minutes” may be used.
  • the monitoring information may be provided using the display screen 11a of the mobile terminal 1 or the like.
  • the provision of the monitoring information can be performed on at least one of the vehicle side and the portable terminal 1 side.
  • control is performed in accordance with the level of automation.
  • the control is performed according to each level (for example, level 3) in Table 3 in addition to the classification by levels 0 to 5 in Table 3 and the like.
  • Control is performed in accordance with the divisions such as the columns for further subdividing. That is, when the control is performed according to the level of the automatic driving, the control is not limited to the level of 0 to 5, but is performed according to a segment further subdivided than the level of 0 to 5.
  • step is denoted as S.
  • step 100 the operator of the mobile terminal 1 is photographed with the camera 5 of the mobile terminal 1.
  • step 110 it is determined from the photographed image (for example, a face image) whether or not the operator is an appropriate owner of the portable terminal 1 based on the authentication information stored in the EEPROM 17d. If an affirmative determination is made here, the process proceeds to step 120, whereas if a negative determination is made, the present process is temporarily terminated.
  • the photographed image for example, a face image
  • step 120 since the proper owner operates the mobile terminal 1, communication with the vehicle control device 3 is performed. Specifically, information on the mobile terminal 1 (for example, mobile terminal ID) and owner information are transmitted to the vehicle control device 3. In addition, information (for example, vehicle ID) for identifying the vehicle is received from the vehicle control device 3.
  • step 130 it is determined whether the vehicle is a specific registered vehicle based on the information received from the vehicle control device 3. That is, it is determined whether or not the owner of the portable terminal 1 is a drivable vehicle. If an affirmative determination is made here, the process proceeds to step 140. If a negative determination is made, the present process is temporarily terminated.
  • step 140 since the communication partner vehicle is a vehicle that can be driven by the owner of the mobile terminal 1, a driver monitoring process described later is permitted. That is, transmission of information necessary for processing (for example, a face image) is permitted, and this processing is temporarily terminated.
  • step 200 the face of the person sitting on the driver's seat is photographed by the driver camera 25a on the vehicle side.
  • the fact that the user is seated in the driver's seat can be detected from, for example, a driver's seat sensor.
  • step 210 based on the authentication information stored in the EEPROM 21d from the photographed image (for example, the face image), it is determined whether or not the seated person is an appropriate driver permitted to drive the vehicle. judge. If an affirmative determination is made here, the process proceeds to step 220. If a negative determination is made on the other hand, the present process is temporarily terminated.
  • step 220 since an appropriate driver is seated in the driver's seat, communication with the portable terminal 1 is performed. Specifically, vehicle information (for example, vehicle ID) and driver information are transmitted to the mobile terminal 1. In addition, the mobile terminal 1 receives information for specifying the mobile terminal 1 (for example, mobile terminal ID) and a face image taken by the camera 5 of the mobile terminal 1.
  • vehicle information for example, vehicle ID
  • driver information are transmitted to the mobile terminal 1.
  • the mobile terminal 1 receives information for specifying the mobile terminal 1 (for example, mobile terminal ID) and a face image taken by the camera 5 of the mobile terminal 1.
  • step 230 it is determined whether the mobile terminal 1 is a specific registered mobile terminal 1 using, for example, the mobile terminal ID received from the mobile terminal 1. If an affirmative determination is made here, the process proceeds to step 240, whereas if a negative determination is made, the present process is temporarily terminated.
  • step 240 based on the driver face image authentication information stored in the EEPROM 21d using the face image information received from the portable terminal 1, it is determined whether or not the received face image is the driver face image. judge. Since the driver and the owner of the mobile terminal 1 need to match, the determination of the match of the driver's face image performed here is the same as the determination of the match of the owner's face image. If an affirmative determination is made here, the process proceeds to step 250, whereas if a negative determination is made, the present process is temporarily terminated.
  • step 250 since the person operating the mobile terminal 1 of the communication partner is a driver who is permitted to drive the vehicle, a driver monitoring process described later is permitted. That is, transmission of information necessary for processing, for example, information for driving the actuator on the mobile terminal 1 side is permitted, and the present processing is temporarily terminated.
  • step 300 it is determined whether or not the host vehicle is traveling. If a positive determination is made here, the process proceeds to step 310, whereas if a negative determination is made, the present process is temporarily terminated. For example, based on information from the vehicle speed sensor, if the vehicle speed is 5 km / hour or more, it is determined that the vehicle is traveling.
  • step 310 it is determined whether or not automatic driving is in progress. If an affirmative determination is made here, the process proceeds to step 330, while if a negative determination is made, the process proceeds to step 320. For example, when a signal instructing automatic driving is input to the vehicle control device 3 from the switches 31 or the touch panel of the display 33 and the automatic driving started thereby is continued, Judge that there is.
  • a flag indicating automatic driving for example, automatic driving flag
  • a flag indicating automatic driving level for example, level flag
  • step 320 it is determined whether or not the driver is looking at the display screen 11a of the portable terminal 1 because the driver is currently driving based on the driving operation. If an affirmative determination is made here, the process proceeds to step 390, whereas if a negative determination is made, the present process is temporarily terminated.
  • the driver is viewing the display screen 11a based on the image on the side viewing the display screen 11a transmitted from the mobile terminal 1, for example, the face image of the driver.
  • Whether the driver is looking at the display screen 11a can be determined from the orientation of the face, the orientation of the eyes of the eyes, and the like. That is, when the face or pupil is looking at the front, it can be determined that the driver is looking at the display screen 11a.
  • Step 390 If the driver is looking at the display screen 11a of the portable terminal 1 even though it is not automatic driving, there is a safety problem, so proceed to Step 390 and give an appropriate warning corresponding to the situation. Do. Specifically, as a process corresponding to level 0 in Table 3, for example, a warning such as “Please concentrate on driving” is given, and this process is temporarily terminated.
  • the warning operation can be performed by various devices on the vehicle side, for example, display on the display 33 or voice notification by the actuators 35. Moreover, you may perform by various apparatuses by the side of the portable terminal 1, for example, the display on the display 11, and / or the alerting
  • the mobile terminal 1 and / or the device on the vehicle side may be vibrated, or the drive of an air conditioner or the like may be controlled to call attention. The same applies to the call for attention.
  • step 330 it is determined whether or not the destination has been reached during automatic driving. If an affirmative determination is made here, the process proceeds to step 390, whereas if a negative determination is made, the process proceeds to step 340. Whether the destination has been reached can be determined by information from the navigation device 37 or the like.
  • step 390 since the destination is reached during automatic driving, an appropriate warning corresponding to the situation is given. Specifically, as a process corresponding to level 5 in Table 3, for example, a warning such as “A destination has been reached” is given, and the process is temporarily terminated.
  • step 340 it is determined whether or not the driver is looking at the display screen 11a of the portable terminal 1 during automatic driving. If an affirmative determination is made here, the process proceeds to step 350, whereas if a negative determination is made, the present process is temporarily terminated.
  • step 350 it is determined whether the conditions for enabling automatic driving have ended or are approaching to end. If an affirmative determination is made here, the process proceeds to step 390, whereas if a negative determination is made, the process proceeds to step 360.
  • a section in which driving by automatic driving that is, automatic driving
  • Whether or not the section in which automatic driving can be performed ends or will soon be ended is determined based on the map information of the navigation device 37 depending on which position in the section in which the own vehicle can perform automatic driving. Can do.
  • step 390 since the section in which automatic driving is possible has ended or will end soon, an appropriate warning corresponding to the situation is given. Specifically, as a process corresponding to level 4 in Table 3 above, for example, a warning such as “Automatic driving possible section will be completed” or “Automatic driving possible section will be completed soon” is given. finish.
  • the monitoring information may be provided from the vehicle side and / or the mobile terminal 1 side.
  • step 360 it is determined whether or not an operation by the driver (that is, a backup task) is necessary or likely to be necessary. That is, it is determined whether or not the driver's operation is necessary or when it is predicted that the driver's operation is necessary. If an affirmative determination is made here, the process proceeds to step 390, whereas if a negative determination is made, the process proceeds to step 370.
  • a state where a backup task by the driver is necessary or is likely to be necessary includes a state where information necessary for automatic driving is difficult to obtain.
  • the state that requires a backup task is a state where the image of the front camera cannot be obtained due to the deterioration of the weather, the state where the accuracy of the image is reduced, the state where the white line of the road is thin and the road cannot be accurately grasped, etc.
  • a state where a backup task by the driver is likely to be required a state where information necessary for automatic driving is gradually reduced can be cited.
  • step 390 since a backup task by the driver is necessary or is likely to be necessary, an appropriate warning corresponding to the situation is given. Specifically, as a process corresponding to the third column of Level 3 in Table 3, for example, a warning such as “Please replace driving operation” or “Prepare to replace driving operation” is given. End the process.
  • the monitoring information may be provided from the vehicle side and / or the mobile terminal 1 side.
  • the state where a backup task by the driver is necessary includes a state where information necessary for automatic driving cannot be obtained due to weather, road conditions, or the like as described above.
  • examples of a state where a backup task by the driver is likely to be required include a state where the accuracy of information necessary for automatic driving is reduced, and a state where the amount of information is reduced.
  • the level (ie level) of the driver's consciousness state is detected.
  • the arousal level is detected as the consciousness level from the open / closed state of the bag. For example, when the percentage of closed wrinkles is higher than usual, it is determined that the arousal level has decreased.
  • the arousal level may be determined using those biological information.
  • more accurate arousal level determination may be performed by adding such biological information to the awakening level information obtained from the face image.
  • step 380 it is determined whether or not the driver's consciousness level is a level that requires a warning. If an affirmative determination is made here, the process proceeds to step 390, whereas if a negative determination is made, the process proceeds to step 400.
  • step 390 since the level of consciousness is low, an appropriate warning corresponding to the situation is given. Specifically, as processing corresponding to the second column of level 3 in Table 3, a warning such as “get up” or “please rest in the next service area” is given. At the same time, information necessary for performing a backup task by the driver is provided, that is, the control A is performed, and the process is temporarily terminated.
  • step 400 since the level of consciousness is high, appropriate processing corresponding to the situation is performed. Specifically, as a process corresponding to the first column of level 3 in Table 3, for example, information necessary for performing a backup task by the driver is provided, and this process is temporarily terminated.
  • the mobile terminal 1 receives information necessary for the driver monitoring process shown in FIG. 8 from the vehicle control device 3 side, and executes the driver monitoring process shown in FIG. 8 based on the information. May be.
  • the warning and information provision may be performed on the mobile terminal 1 side or on the vehicle side.
  • monitoring information useful for a driver's backup task can be provided from the vehicle side or the portable terminal 1 side according to the level of automation and / or the degree of arousal.
  • the degree of the driver's consciousness state is determined based on an image captured by the camera 5 or based on information from another device such as the wearable device 39, for example.
  • the content of the alarm can be set based on the degree of consciousness. Therefore, the driver can take an appropriate response according to the content of the alarm.
  • an alarm can be issued when conditions for ending automatic driving are satisfied or when automatic driving is predicted to end. Therefore, the driver can easily drive instead of the automatic driving, so that the driving safety is improved.
  • the display screen 11a, the camera 5, the mobile terminal 1, the vehicle control device 3, the first and second occupant state determination units 43 and 63, and the first and second safety control units 45 and 69 are provided. Respectively correspond to a display screen, a photographing device, a portable device, a vehicle control device, an occupant state determination unit, and a safety control unit in the present disclosure.
  • the level 1 or level 2 control is performed.
  • (2a) Control of switching from level 3 to level 1 In the case of level 3 and the driver is operating the mobile terminal 1 and the driver needs to operate or is likely to require operation For example, when the white line of the road cannot be recognized, a warning such as “Please replace the steering operation” is given when switching to the level 1 control.
  • the control of the vehicle is switched according to the level change.
  • (2b) Control of switching from level 3 to level 2 In the case of level 3, the driver is operating the mobile terminal 1 and the driver needs to operate or is likely to need to operate For example, when the white line of the road cannot be recognized, when switching to the level 2 control, for example, a warning such as “Please replace the monitoring task” or “Drive while looking ahead” is given.
  • the monitoring task is an operation related to monitoring such as surroundings where a backup task is possible.
  • control of the vehicle is switched according to the level change.
  • (2d) Control of switching from level 4 to level 2 In the case of level 4, for example, even if the driver looks at the mobile terminal 1 and goes to sleep, the conditions that allow automatic driving are removed or about to come off. For example, when the section where the automatic driving can be completed or is about to end, when switching to level 2 control, for example, when the road white line cannot be recognized, for example, "Please replace the monitoring task" Please drive while watching. "
  • the level of automatic driving is divided as shown in Tables 1 to 3, but other automatic driving levels as shown in Table 4 below may be adopted. Good.
  • level 1, level 2, level 3, and level 4 in Table 4 correspond to level 1, level 2, level 3, level 4 and 5 in Table 1, respectively. Therefore, it is sufficient to perform control such as warning according to the corresponding level.
  • a mobile terminal such as a smartphone is used as an example of the mobile device.
  • various mobile devices capable of communicating with the vehicle side are provided with a camera that can photograph the person who operates the mobile device. Can be used.
  • the driver monitoring process is performed by the mobile terminal or the vehicle control device.
  • information necessary for the driver monitoring process is transmitted to, for example, a base station, and the server is transmitted via the Internet, for example.
  • the driver monitoring process can be performed on the side, and a warning or the like can be performed on the mobile terminal and / or the vehicle.
  • the arousal level may be determined based on the operation frequency of an operation switch, a touch panel, a keyboard, a mouse, a touch pad, and the like, and speech from a microphone.
  • the arousal level can be determined based on whether or not an appropriate operation is performed in conjunction with the display content of the display screen. For example, when appropriate input is requested, when appropriate input is not performed, or when the input frequency is low and / or when the input speed is low, the arousal level is low. Can be determined.
  • the portable terminal is being held by, for example, turning on the display of the portable terminal and displaying some image or the like. Further, it can be determined that the portable terminal is being operated by operating from the touch panel or the like. Further, this gripping and / or operation may be determined in a composite manner using the G sensor.
  • gripping and / or operation of the mobile terminal may be determined based on an image taken by a camera (for example, a camera such as a driver camera) attached to the vehicle.
  • a camera for example, a camera such as a driver camera
  • the driver's state can be monitored or estimated by the vehicle camera.
  • the mobile terminal camera may be activated and photographed to monitor or estimate the driver's state. Thereby, the accuracy of monitoring and estimation of the driver's condition can be improved.
  • the vehicle camera need not be used.
  • the camera of the mobile terminal may be used instead of the camera of the vehicle.
  • the camera of this portable terminal may be used as a camera for determining the state of the driver.
  • a part or all of the process for determining the driver's state is carried out using a mobile terminal or a control device for the own vehicle (for example, a vehicle control device for controlling the operation of the own vehicle).
  • the control may be performed by at least one of a control device for another vehicle (for example, a vehicle control device that controls the operation of the other vehicle) and a device other than the vehicle (see FIG. 10).
  • the burden of calculation processing of the mobile terminal and / or the vehicle control device of the host vehicle can be reduced.
  • determination processing using a plurality of determinations or a large amount of data can be performed in the mobile terminal and / or the vehicle control device of the host vehicle or in another device. As a result, determination accuracy can be improved.
  • a cloud server etc. are mentioned as apparatuses other than a vehicle.
  • examples of other vehicles include other vehicles among a plurality of trucks controlled in conjunction with automatic driving.
  • the communication amount can be reduced by arranging a part or the whole function of the occupant state determination unit in the microcomputer on the mobile terminal side.
  • the functions of one constituent element in the embodiment may be distributed as a plurality of constituent elements, or the functions of the plurality of constituent elements may be integrated into one constituent element.
  • at least a part of the configuration of the embodiment may be added to or replaced with the configuration of the other embodiment.
  • all the aspects included in the technical idea specified only by the wording described in the claims are embodiments of the present disclosure.
  • the present invention can also be realized in various forms such as a transitional actual recording medium and a driver monitoring method.
  • a part or all of the functions executed by the driver monitoring system may be configured in hardware by one or a plurality of ICs.

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

運転者監視システムは、表示画面(11a)と該表示画面(11a)に向かい合う側を撮影可能に配置されたカメラ(5)とを備えた携帯端末(1)と、自車両の制御を行う車両制御装置(3)と、の間で通信を行って、自車両の運転者を監視する。この運転者監視システムは、自車両の走行中に、自車両の運転者が携帯端末(1)の表示画面(11a)を見ているかどうかを、カメラ(5)によって撮影された画像に基づいて判定し、運転者が携帯端末(1)の表示画面(11a)を見ていると判定された場合には、警報を発する。

Description

運転者監視システム 関連出願の相互参照
 本国際出願は、2016年2月29日に日本国特許庁に出願された日本国特許出願第2016-37694号及び2016年12月27日に日本国特許庁に出願された日本国特許出願第2016-253786号に基づく優先権を主張するものであり、日本国特許出願第2016-37694号及び日本国特許出願第2016-253786号の全内容を本国際出願に参照により援用する。
 本開示は、例えば自動運転などの際に、運転席に着座している運転者の状態を監視することができる運転者監視システムに関する。
 従来、車両を運転している運転者の状態を監視する運転者監視システムとして、車載カメラを使って運転者の顔を撮影し、その顔画像から瞼の開閉状態や視線の向き等を検出して、運転者の状態を認識する技術が知られている。
 そして、この技術によって、運転者の状態が運転に適切でない状態と判断された場合には、各種の方法によって、運転者に注意を喚起する技術が知られている。例えば、車載のディスプレイでの表示、スピーカによる音声等による報知、シートベルトの巻き上げ、シートの振動等により、運転者に注意を喚起する技術が知られている。
 また、近年では、自動運転の技術が開発されているが、この自動運転の際にも、運転者が何らかの形で運転に関与する事態は起こりえる。例えば、自動運転中に、前方カメラやレーダ等によっても道路状態等を精度良く検出できず、そのため、自動運転に適さない状態となる場合も考えられる。
 この対策として、自動運転に適した状況かどうかを判定して、自動運転に適した状況でない場合には、注意喚起する技術が知られている。そして、この注意喚起を行う場合には、上述した瞼の開閉状態等から運転者の覚醒状態を判断して、適切な注意喚起を行う技術が開示されている(特許文献1参照)。
特開2015-32054号公報
 しかしながら、発明者の詳細な検討の結果、上述した従来技術でも、必ずしも好適に対応できない場合があるという課題が見出された。
 例えば自動運転のレベルによっては、運転者がハンドル(即ちステアリングホイール)から手を離すことができるが、そのときに、運転者がスマートフォン等の携帯端末(即ち携帯機)を操作していると、運転者の状態をうまく検出できないことがある。
 つまり、車載カメラによって運転者の顔を撮影し、その顔画像から運転者の状態を判定する技術では、運転者が手元の携帯端末の画面を見ていると、車載カメラでは顔画像を得ることができず、そのため運転者の状態を判定できないことがある。
 ところが、自動運転では、状況によっては自動運転を継続できない場合もあるので、運転者がハンドルから手を離しているときでも、そのような場合にすぐに運転者による運転操作が可能な状態、即ち、運転者によるバックアップタスクが可能な状態であることが必要とされる。
 そのため、自動運転においては、運転者がバックアップタスクが可能であることを監視し、バックアップタスクが可能でない状態の場合、例えば運転者が眠っている場合等には、運転者に注意を喚起する必要がある。
 しかしながら、従来の車載カメラを用いる技術では、顔画像が得られないので、運転者がバックアップタスクが可能であるかどうかの判定ができないという問題がある。
 また、自動運転でない場合でも、例えば車載カメラによる撮影状況が好ましくないときなどには、運転者の状態を把握することが難しいことがある。
 本開示の一局面においては、車両が例えば自動運転による走行中のような状態において、運転者が携帯機を操作するような場合に、運転者の状態を把握して、運転者に対して適切な警告等の対応が可能な運転者監視システムを提供することにある。
 本開示の一つの態様は、表示画面と該表示画面に対向する側を撮影可能に配置された撮影装置とを備えた携帯機と、自車両の制御を行う車両制御装置と、の間で通信を行って、前記自車両の運転者を監視する運転者監視システムに関する。
 この運転者監視システムは、前記自車両の走行中に、該自車両の運転者が前記携帯機の表示画面を見ているかどうかを、前記撮影装置によって撮影された画像に基づいて判定する乗員状態判定部と、前記乗員状態判定部によって、前記運転者が前記携帯機の前記表示画面を見ていると判定された場合には、警報を発する安全制御部と、を備える。
 この構成によれば、自車両の走行中に、撮影装置によって撮影された画像に基づいて、自車両の運転者が携帯機の表示画面を見ているかどうかを判定することができる。よって、運転者が携帯機の表示画面を見ていると判定された場合には、適切な警報を発することができる。つまり、運転者の状態を把握して、適切な警告(即ち注意喚起)を行うことができるので、より安全な運転が可能になるという効果がある。
 本開示の他の態様は、表示画面と該表示画面に対向する側を撮影可能に配置された撮影装置とを備えた携帯機と、自車両の制御を行う車両制御装置と、の間で通信を行って、前記自車両の運転者を監視する運転者監視システムに関する。
 この運転者監視システムは、前記自車両の自動運転中に、該自車両の運転者が前記携帯機の表示画面を見ているかどうかを、前記撮影装置によって撮影された画像に基づいて判定する乗員状態判定部と、前記乗員状態判定部によって、前記運転者が前記携帯機の前記表示画面を見ていると判定された場合には、警報を発する制御及び前記運転者の運転に利用可能な情報を提供する制御のうち少なくとも一方の制御を行う安全制御部と、を備える。
 この構成によれば、自車両の自動運転中に、撮影装置によって撮影された画像に基づいて、自車両の運転者が携帯機の表示画面を見ているかどうかを判定することができる。よって、運転者が携帯機の表示画面を見ていると判定された場合には、適切な警報を発することができる。つまり、運転者の状態を把握して、適切な警告を報知することができるので、より安全な運転が可能になるという効果がある。
 特に、自動運転の場合には、運転者がハンドルから手を離して、携帯機を操作することが考えられる。しかし、前記構成によれば、自動運転中に、携帯機の撮影装置によって撮影された運転者の画像(例えば顔画像)から、例えば運転者の意識状態の程度等を把握することができる。
 よって、例えば運転者が自動運転から直ぐに運転を代わることができる状態でない場合、即ちバックアップタスクが可能でない状態の場合などには、それに応じて必要な警報を発することができるので、運転の安全性が大きく向上するという顕著な効果を奏する。
 また、自動運転中に運転者が携帯機の表示画面を見ている場合に、例えば自動運転から運転者が運転を代わったときに運転者が利用可能な情報、例えば車両の前方の画像や周囲の情報などのバックアップタスクの際に有用な情報を、表示画面に表示することができる。これにより、安全性が一層向上するという利点がある。
 なお、乗員状態判定部や安全制御部は、少なくとも一方が、携帯機側にあっても自車両側にあってもよい、或いは、両方にあってもよい。
 なお、特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本開示の技術的範囲を限定するものではない。
第1実施形態の運転者監視システムを示すブロック図である。 携帯端末のメモリに記憶されているデータを示す説明図である。 車両制御装置のメモリに記憶されているデータを示す説明図である。 携帯端末のマイコンにて実施される内容を機能的に示すブロック図である。 車両制御装置のマイコンにて実施される内容を機能的に示すブロック図である。 走行前に携帯端末のマイコンにて実施される処理を示すフローチャートである。 走行前に車両制御装置のマイコンにて実施される処理を示すフローチャートである。 走行時に車両制御装置のマイコンにて実施される運転者監視処理を示すフローチャートである。 安全制御部による注意喚起の内容を示す説明図である。 乗員状態判定部による処理を行う装置等を示す説明図である。
 以下に本開示の実施形態を図面とともに説明する。
 [1.第1実施形態]
 [1-1.基本構成]
 まず、第1実施形態の運転者監視システムの構成について説明する。
 図1に示すように、本第1実施形態における運転者監視システムは、スマートフォン等の携帯端末1と、車両に搭載されて車両の動作を制御する車両制御装置3とが、通信により連携して機能するシステムである。
 前記車両は、運転者の運転操作による走行と各種の自動化のレベルに応じた自動運転による走行が可能な車両である。なお、ここで車両とは、運転者の携帯端末1との通信が可能な自車両である。
 以下、各構成について説明する。
 <携帯端末>
 携帯端末1は、周知のように、運転者等が携帯可能な通信装置(即ち携帯機)の一種であり、外部の基地局や自車両等との間で情報の送受信が可能な装置である。
 なお、ここでは、携帯端末1としてスマートフォンを例に挙げて説明するが、それに限られるものではない。また、携帯端末1に代えて、ゲーム機やノートパソコン等の各種の装置を使用できる。この場合には、各装置に対応して、入力装置として、操作スイッチやキーボード等を用いることができる。
 携帯端末1は、カメラ5、マイク7、ジャイロ9、ディスプレイ11、スピーカ13、振動モータ15等を備えている。また、携帯端末1の動作を制御するマイクロコンピュータ17、及び外部との通信を行うアンテナ等を有する通信部19を備えている。なお、通信部19としては、無線通信に限らず、USB等を用いた有線通信を行う装置を採用できる。
 このうち、カメラ5は、例えばCCDカメラであり、携帯端末1を操作する人(例えば所有者)の顔等を撮影できるように、ディスプレイ11側(即ち表示画面11a側)に配置されている。つまり、カメラ5は、表示画面11aに向かい合う側、即ち表示画面11aに対向する側を撮影可能なように、例えば表示画面11aの周囲等に配置されている。
 ディスプレイ11は、液晶等の表示画面11aを備えるとともに、その表示画面11aに文字や画像等を表示する表示装置である。なお、周知のように、表示画面11aはタッチパネルとしての機能、即ち入力装置としての機能も有している。なお、ディスプレイ11は、入力装置としての機能を有していなくともよい。
 スピーカ13は、音声や音により、必要に応じて、携帯端末1の使用者に警報等の情報を報知する。
 振動モータ15は、携帯端末1自身を振動させることにより、携帯端末1の使用者に警報等の情報を報知する。
 マイクロコンピュータ17は、周知のCPU17a、ROM17b、RAM17c、EEPROM17d等を備えた電子制御装置である。
 このうち、ROM17bは、電源を切断しても記憶内容を保持する必要のあるデータやプログラムを記憶する。EEOROM17dは、電源を切断しても記憶内容を保持する必要のあるデータ(例えば認証データ)を記憶する。RAM17cは、データを一時的に格納する。CPU17aは、ROM17b等に記憶されたプログラム等に従って処理を実行する。
 通信部19は、外部の基地局や車両制御装置3等との間で、例えばカメラ5で撮影した顔画像のデータなど、各種の情報の送受信が可能な装置である。なお、通信部19は、無線通信又は有線通信により、車両制御装置3側と通信が可能である。
 前記携帯端末1の各種の機能は、CPU17aが非遷移的実体的記録媒体に格納されたプログラムを実行する実行することにより実現される。この例では、ROM17bが、プログラムを格納した非遷移的実体的記録媒体に該当する。また、プログラムの実行により、プログラムに対応する方法が実行される。なお、携帯端末1を構成するマイクロコンピュータの数は1つでも複数でもよい。なお、これらの点については、車両制御装置3のマイクロコンピュータ21でも同様である。
 <車両制御装置>
 車両制御装置3は、各種のセンサからの情報等に基づいて、各種のアクチュエータを駆動させて車両の動作を制御したり、後述する運転者監視処理等を行う電子制御装置である。
 この車両制御装置3は、周知のCPU21a、ROM21b、RAM21c、EEPROM21d等を備えたマイクロコンピュータ21、及びアンテナ等を用いて外部の基地局や他車両や携帯端末1等との間で情報の送受信が通信部23を備えている。なお、通信部23は、無線通信又は有線通信により、携帯端末1の通信部19と通信が可能である
 また、車両制御装置3には、運転用センサ類25、自車両センサ類27、周辺監視装置29、スイッチ類31、ディスプレイ33、アクチュエータ類35、ナビゲーション装置37等が接続されている。
 このうち、マイクロコンピュータ21については、基本的に、前記携帯端末1側のマイクロコンピュータ17と同様である。
 運転用センサ類25としては、運転者の状態を検出するドライバカメラ25a等の各種のセンサが挙げられる。ドライバカメラ25aは、運転席の前方に配置された例えばCCDカメラであり、運転者の顔等を撮影して、その顔画像等を車両制御装置3に送信する。
 なお、他のセンサとしては、運転者が運転席に着座したことを検出する着座センサ、ハンドル及び/又はシートベルト等に取り付けられて運転者の心拍等を検出する心電センサ等が挙げられる。
 自車両センサ類27は、自車両の動作を検出するセンサであり、例えば車速センサ、加速度センサ、ヨーレートセンサ、ステアリングセンサ等、各種のセンサが挙げられる。また、GPS等の自車両の位置を検出する装置も挙げられる。
 周辺監視装置29は、車両(即ち自車両)の周囲の状況を監視する装置であり、各種のレーダ、前方カメラ、後方カメラ、側方カメラ、超音波センサ等、各種の装置が挙げられる。
 スイッチ類31としては、例えば自動運転の許可又は禁止を指示するスイッチ等が挙げられる。
 ディスプレイ33は、例えば車両のダッシュボード等に取り付けられた表示装置であり、その表示画面は、周知のようにタッチパネルとしての機能、即ち入力装置としての機能も有している。
 アクチュエータ類35としては、車両の駆動力をスロットル等を用いて調節する制動用アクチュエータ、車両の制動力をホイールシリンダ等を利用して調節する制動用アクチュエータ、車両の操舵角を操舵用モータを利用して調節する操舵用アクチュエータ等が挙げられる。その他、エアコンやスピーカや室内のライト等も挙げられる。
 ナビゲーション装置37は、地図情報や自車両の位置情報等に基づいて、走行経路の案内等が可能な周知の装置である。
 また、上述した運転者監視システムには、携帯端末1や車両制御装置3以外に、例えばウェアラブル装置39を用いてもよい。このウェアラブル装置39では、運転者の心拍や脈拍や脳波等を検出し、その情報を、携帯端末1や車両制御装置3等に送信することができる。
 ウェアラブル装置39としては、腕時計タイプのものや頭に装着するヘッドギアタイプのもの等が挙げられる。
 [1-2.メモリの記憶内容]
 次に、後述する運転者監視処理を行うために、携帯端末1や車両制御装置3のメモリに記憶される記憶内容について説明する。
  <携帯端末>
 図2に示すように、携帯端末1のメモリ(例えばEEPROM17d)には、携帯端末1の所有者の情報が予め登録されて記憶されている。
 この所有者の情報としては、所有者を識別できる顔画像に基づく認証情報が挙げられる。なお、それ以外には、例えば、網膜、掌、指紋等の各種の認証情報が挙げられる。
 また、EEPROM17dには、今回の制御を行う際の通信相手の車両、即ち携帯端末1の所有者が運転が許可されている自車両の情報も記憶されている。なお、車両の情報としては、車両を区別する番号(例えば車両ID)が挙げられる。
 <車両制御装置>
 図3に示すように、車両制御装置3のメモリ(例えばEEPROM21d)には、自車両の運転が許可されている運転者が予め登録されて記憶されている。
 この運転者の情報としては、運転者を識別できる顔画像に基づく認証情報が挙げられる。なお、それ以外には、例えば、網膜、掌、指紋等の各種の認証情報が挙げられる。
 また、EEPROM21dには、今回の制御を行う際の通信相手の携帯端末1の情報が記憶されている。この携帯端末1の情報としては、携帯端末1を区別する番号(例えば携帯端末ID)が挙げられる。
 更に、EEPROM21dには、携帯端末1の所有者の情報が記憶されている。この所有者の情報としては、所有者を区別する番号(例えば所有者ID)が挙げられる。
 なお、本第1実施形態では、携帯端末1の所有者は、前記車両の運転が許可されている運転者であるので、後述する運転者監視処理を実施する際には、少なくとも、携帯端末1の所有者と運転者とが一致する必要がある。
 [1-3.マイクロコンピュータの機能的な内容]
 次に、各マイクロコンピュータ17、21にて実施される内容を、機能的に説明する。
  <携帯端末>
 図4に示すように、携帯端末1側のマイクロコンピュータ17は、処理プログラムが実行する処理内容として、即ち機能的に、第1の画像認識部41、第1の乗員状態判定部43、第1の安全制御部45、ディスプレイ制御部47、アクチュエータ制御部49、アプリケーション部51を備えている。
 このうち、第1の画像認識部41は、カメラ5で撮影された画像に基づいて、その画像中に顔を示す顔画像を認識する。そして、例えば、顔画像から、撮影された人が当該携帯端末1の所有者であるかどうかを判断する。
 第1の乗員状態判定部43は、自車両の走行中に、例えば自動運転中に、自車両の運転者が携帯端末1の表示画面11aを見ているかどうかを、カメラ5によって撮影された画像に基づいて判定する。ここでは、自車両の運転者が携帯端末1の所有者であることを予め確認するので、携帯端末1の所有者が表示画面11aを見ているかどうかを判定すればよい。なお、自車両の走行状態については、車両制御装置3側から得ることができる。
 更に、第1の乗員状態判定部43では、カメラ5によって撮影された画像(即ち顔画像)に基づいて、運転者の意識状態の程度を判定することができる。この意識状態の程度とは、意識がはっきりしているかどうかの程度(即ちレベル)であり、例えば覚醒度が挙げられる。
 この意識状態の程度(例えば覚醒度)が、顔画像から得られる例えば瞼の開閉状態や、心拍や脈拍や脳波等から検出できることは、例えば特許第5139470号公報等に記載のように周知であるので、その説明は省略する。
 また、心拍等の検出が可能なウェアラブル装置39を用いる場合には、その心拍等の情報を加味して、意識状態の程度を判定してもよい。
 なお、この第1の乗員状態判定部43は、車両制御装置3側の機能としてもよい。つまり、携帯端末1側から受信した顔画像の情報に基づいて、車両制御装置3にて、上述した状態判定を行ってもよい。
 第1の安全制御部45は、走行中に、例えば自動運転中に、運転者が携帯端末1の表示画面11aを見ていると判定された場合には、その走行状態に対応して必要な警報を発することができる。また、運転者が運転する際に利用可能な情報、例えばバックアップタスクに有用な情報(例えば監視情報)を提供することができる。なお、第1の乗員状態判定部43によって判定された運転者の意識状態の程度(例えば覚醒度)に基づいて、警報の内容を設定することができる。
 前記第1の安全制御部45は、例えばディスプレイ11、スピーカ13、振動モータ15を用いて、携帯端末1から運転者に対して警報を発することができる。また、ディスプレイ11等を用いて前記監視情報を提供してもよい。
 なお、この第1の安全制御部45は、車両制御装置3側の機能としてもよい。つまり、携帯端末1側から受信した顔画像の情報等に基づいて、例えば車両制御装置3にて状態判定を行って、上述した警報を発してもよい。この場合、警報は携帯端末1側で行ってもよいし、車両制御装置3側で行ってもよい。
 ディスプレイ制御部47は、ディスプレイ11による表示やタッチパネルとしての機能を制御する。
 アクチュエータ制御部49は、携帯端末1自身をアクチュエータとして機能させる場合の動作を制御する。具体的には、上述したように、例えばディスプレイ11、スピーカ13、振動モータ15をアクチュエータとして用いて、携帯端末1から運転者に対して警報を発することができる。
 アプリケーション部51は、周知のように、携帯端末1にインストールされた各種のアプリケーションの動作を制御する。
 <車両制御装置>
 図5に示すように、車両制御装置3側のマイクロコンピュータ17は、処理プログラムが実行する処理内容として、即ち機能的に、第2の画像認識部61、第2の乗員状態判定部63、自車両状態検出部65、周辺情報検出部67、第2の安全制御部69、自動運転制御部71を有する車両制御部73、ディスプレイ制御部75、アクチュエータ制御部77を備えている。
 このうち、第2の乗員状態判定部63は、第2の画像認識部61からの情報に基づいて、運転者の認識を行ったり、運転者の各種の状態を判定する。例えば、ドライバカメラ25aからの画像に基づいて、運転席に着座した人が、当該車両の運転を許可されている人か否かを判定する。
 また、この第2の乗員状態判定部63では、運転者の意識状態の程度、例えば覚醒度及び/又は眠たさの程度を検出する(即ち意識検出部として機能する)。例えば、周知のように、ドライバカメラ25aからの顔画像の情報、例えば瞼の開閉状態に基づいて、意識状態の程度を検出することができる。或いは、周知のように、ウェアラブル装置39やハンドル及び/又はシートベルト等に装着された心電センサ等からの情報、例えば心拍のゆらぎ等に基づいて、意識状態の程度を検出することができる。
 自車両状態検出部65は、自車両センサ類27からの情報に基づいて、車速、加速度、ヨーレート、操舵角等のような、自車両の走行状態を検出する。また、自動運転が実施されているかどうかの情報及び/又は自動運転のレベルの情報等を検出する。
 周辺情報検出部67は、レーダ及び/又は前方カメラ等の周辺監視装置29からの情報に基づいて、自車両の前方等の道路状態及び/又は周囲の車両等の情報を検出する。
 車両制御部73は、例えばスイッチ類31、ディスプレイ33のタッチパネル、第2の乗員状態検出部63、自車両状態検出部65、周辺情報検出部67等からの情報などに基づいて、自車両の走行を制御する。
 また、自動運転を行う場合には、自動運転制御部71は、上述した各種の情報に基づいて、自動運転による走行を制御する。なお、自動運転等の走行の制御を行う場合には、ナビゲーション装置37からの地図情報等を参照することができる。
 第2の安全制御部69は、携帯端末1側と同様に、走行中に、例えば自動運転中に、運転者が携帯端末1の表示画面11aを見ていると判定された場合には、その走行状態に対応して必要な警報を発する。例えば、ディスプレイ33、アクチュエータ類35を用いて、車両自身により運転者に対して警報を発することができる。
 具体的には、警報を発する方法としては、ディスプレイ33での表示や、スピーカでの音声や音による報知が挙げられる。また、警報を発していることを気付かせるため等の目的で、エアコンを制御して冷風等を運転者に送ったり、室内のランプの点灯状態を変化させたりする方法が挙げられる。さらに、座席及び/又はハンドルを振動させる方法、シートベルトを巻き上げる方法が挙げられる。また、車両の動作を制御して、蛇行走行させたり、ブレーキによる制動制御、例えば断続的に弱いブレーキがかかるようなブレーキ制動を行ってもよい。
 また、第2の安全制御部69は、運転者が運転する際に利用可能な情報、例えばバックアップタスクに有用な情報を提供することができる。なお、情報の提供は、前記ディスプレイ33以外に、フロントガラスに画像等を表示するヘッドアップディスプレイ等を利用できる。
 ディスプレイ制御部75は、ディスプレイ33による表示及び/又はタッチパネルとしての機能を制御する。
 アクチュエータ制御部77は、車両側の各種の装置をアクチュエータとして機能させる場合の動作を制御する。具体的には、上述したように、例えばディスプレイ33、スピーカ、ランプ、駆動用と制動用と操舵用とのうち少なくとも1種のアクチュエータ等を、アクチュエータとして用いて、車両側から運転者に対して警報を発したり、情報を提供することができる。
 なお、ここでは、上述したように、携帯端末1と車両制御装置3とで各種の機能の役割を分担したが、それ以外の方法として、例えば、顔の撮影は携帯端末1のカメラ5で行うが、それ以降の処理及び/又は制御は、携帯端末1側及び車両制御装置3側のどちらか一方で適宜分担してもよい。或いは、携帯端末1側及び車両制御装置3側の両方で処理や制御を実施してもよい。
 [1-4.自動運転レベルに応じた制御内容]
次に、自動運転のレベルと、自動運転のレベルに応じて実施される運転者監視処理の制御内容について説明する。
 ここで、自動運転を行うか否かは、例えば運転者のスイッチ類31やディスプレイ33のタッチパネル等からの指示により決定することができる。
 また、後述する自動運転のレベルも、同様に運転者の指示により選択できるが、例えば車両側にて、自動運転が可能な条件が満たされた場合に、その満たされた条件に応じて、適宜自動的に自動運転のレベルを設定してもよい。
 更に、自動運転の中止は、運転者の指示により決定することができるが、自動運転が可能な条件が満たさなくなった場合に、適切な警告の後に、自動運転を解除する際の安全が確認された段階で、自動運転を解除してもよい。
 自動運転のレベルとは、どの程度まで自動化するかの指標であり、この自動運転のレベルとしては、例えば下記表1、表2に示すレベルを採用できる。
Figure JPOXMLDOC01-appb-T000001
 この表1において、レベル0が、自動運転ではない運転者の操作による運転である。また、レベル5が、運転者が関与せずに車両自身が全て判断して走行する完全な自動運転である。そして、レベル1~4が、運転者と車両とが共同して運転する半自動運転である。つまり、必要に応じて、運転者が操作したり車両自身が運転するシステムである。
Figure JPOXMLDOC01-appb-T000002
 なお、表2にて、「Hands-on」とは、走行中に、運転者がハンドルに手をおいて操作する必要があることを示し、「Hands-off」とは、走行中に、運転者がハンドルから手を離すことが可能な状態を示している。
 また、「Eye-on」とは、走行中に、運転者が自動運転に代わって運転が可能なように周囲を監視する必要があることを示し、「Eye-off」とは、走行中に、運転者が周囲を監視する必要がない状態を示している。
 なお、特定の条件とは、例えば自動運転が可能な車線であることを示す条件等である。
 本第1実施形態では、下記表3に示すように、走行状態、詳しくは自動運転のレベルに応じて警告の内容を設定し必要な情報を提供している。
Figure JPOXMLDOC01-appb-T000003
 具体的には、レベル0の場合、即ち運転者が操作して運転している場合に、携帯端末(例えばスマートフォン)1の表示画面11aが見られた場合には、安全面で問題がある。
 そこで、例えば「運転に集中して下さい」等の警告を行う。例えば、携帯端末1側及び/又は車両側から、ディスプレイ11、33及び/又はスピーカ13等を用い、表示や音声等によって前記警告を行う。
 レベル1の場合、即ち運転者の支援が必要な状態で走行している場合に、携帯端末1の表示画面11aが見られた場合にも、何らかの対策が望まれる。
 そこで、前記レベル0と同様に、同様な装置を用いて、例えば「運転に集中して下さい」等の警告を行う。
 レベル2の場合、即ち部分的な自動運転の場合に、携帯端末1の表示画面11aが見られた場合にも、何らかの対策が望まれる。
 そこで、前記と同様な装置を用いて、例えば「周囲の監視をして下さい」等の警告を行う。つまり、運転者はハンドルから手を離すことが可能であるが、周囲から目を逸らすことは適切ではないので、周囲の監視を促す警告を行う。
 また、この警告の際に、携帯端末1を利用して、運転者による運転の際に利用可能な情報、例えば周囲の監視を行う場合に必要な情報(即ち監視情報)を提供する制御を行ってもよい。例えば前方カメラで撮影した映像、自車両の走行予定経路、周囲の車両の情報を、例えば表示画面11aの一部に表示してもよい。これにより、安全性が一層向上する。なお、前記監視情報を表示画面11aの全体に表示してもよい。
 レベル3の場合で、且つ、運転者が携帯端末1を操作しており、且つ、運転者の意識状態(即ち意識レベル)が高い場合には、運転者はいつでも自身の運転に切り替えることができる。つまり、バックアップタスクが可能であるので、バックアップタスクを実施する場合の補助となる制御、即ち、表3の提示(A)である制御Aを行う。尚、意識レベルの高低は、所定の判定値に基づいて判定できる。
 具体的には、周囲の監視を行う場合に必要な監視情報として、例えば前方カメラで撮影した映像、自車両の走行予定経路、周囲の車両の情報を、例えばフロントガラスに投影して表示する等の制御を行う。
 また、携帯端末1の表示画面11a等を用いて、前記監視情報を提供してもよい。なお、監視情報の提供は、車両側及び携帯端末1側の少なくとも一方で実施することができる。
 レベル3の場合で、且つ、運転者が携帯端末1を操作しており、且つ、運転者の意識状態低い又は低くなりそうな場合には、バックアップタスクが十分に行えない可能性がある。そこで、前記制御Aによる情報の提供を行うとともに、例えば「次のサービスエリアで休んで下さい」等の警告を行う。
 また、上述したように、携帯端末1の表示画面11a等を用いて、前記監視情報を提供してもよい。なお、監視情報の提供は、車両側及び携帯端末1側の少なくとも一方で実施することができる。
 レベル3の場合で、且つ、運転者が携帯端末1を操作しており、且つ、運転者の操作が必要又は操作の必要がありそうな場合には、バックアップタスクの必要性が高い。そこで、状況に応じて、例えば「運転操作を代わって下さい」又は「運転操作を代わる準備をして下さい」等の警告を行う。
 また、上述したように、携帯端末1の表示画面11a等を用いて、前記監視情報を提供してもよい。なお、監視情報の提供は、車両側及び携帯端末1側の少なくとも一方で実施することができる。
 レベル4の場合で、自動走行が可能な条件が外れる又は外れそうになった場合、例えば自動走行可能区間が終了する又は終了しそうになった場合、運転者による操作が必要である。そこで、状況に応じて、例えば「自動走行可能区間が終了します」又は「間もなく自動走行区間が終了します」等の警告を行う。なお、「間もなく」の代わりに、例えば「10分後」等の時間を用いてもよい。
 また、上述したように、携帯端末1の表示画面11a等を用いて、前記監視情報を提供してもよい。なお、監視情報の提供は、車両側及び携帯端末1側の少なくとも一方で実施することができる。
 レベル5の場合で、携帯端末1の表示画面11aを見ているうちに、目的地に到達した場合には、例えば「目的地に到達しました」等の警告を行う。
 なお、後述するように、自動化のレベルに応じて制御が実施されるが、その制御は、前記表3等の0~5のレベルによる区分に加え、前記表3の各レベル(例えばレベル3)を更に細かく分ける各欄のような区分に応じて制御が行われる。つまり、自動運転のレベルに応じて制御を行う場合には、前記0~5のレベルに限定されるものではなく、0~5のレベルよりも更に細分化された区分に応じて実施される。
 [1-5.処理]
 次に、運転者監視システムにて実施される処理内容、即ち運転者監視処理について説明する。
 <走行前の携帯端末側の処理>
 なお、以下の走行前の処理は、例えば自車両のイグニッションスイッチがオンにされた時点等に開始することができる。また、以降の各フローチャートの図面では、ステップをSと記す。
 まず、走行前に携帯端末1にて実施される事前の処理について説明する。
 図6に示すように、ステップ100では、携帯端末1のカメラ5で、携帯端末1の操作者を撮影する。
 続くステップ110では、撮影された画像(例えば顔画像)から、前記EEPROM17dに記憶された認証情報に基づいて、操作者が携帯端末1の適正な所有者か否かを判定する。ここで肯定判断されるとステップ120に進み、一方否定判断されると一旦本処理を終了する。
 ステップ120では、携帯端末1を適正な所有者が操作しているので、車両制御装置3との通信を行う。具体的には、携帯端末1の情報(例えば携帯端末ID)と所有者の情報を車両制御装置3に送信する。また、車両制御装置3から、車両を特定する情報(例えば車両ID)を受信する。
 続くステップ130では、車両制御装置3から受信した情報に基づいて、車両が特定の登録された車両であるか否かを判定する。つまり、携帯端末1の所有者が運転可能な車両であるか否かを判定する。ここで肯定判断されるとステップ140に進み、一方否定判断されると一旦本処理を終了する。
 ステップ140では、通信相手の車両が携帯端末1の所有者が運転可能な車両であるので、後述する運転者監視処理を許可する。つまり、処理に必要な情報(例えば顔画像)の送信を許可し、一旦本処理を終了する。
 <走行前の車両制御装置側の処理>
 次に、走行前に車両制御装置3にて実施される事前の処理について説明する。
 図7に示すように、ステップ200では、車両側のドライバカメラ25aで、運転席に着座している人の顔等を撮影する。なお、運転席に着座していることは、例えば運転席の着座センサ等から検出することができる。
 続くステップ210では、撮影された画像(例えば顔画像)から、前記EEPROM21dに記憶された認証情報に基づいて、着座している人が車両の運転を許可されている適正な運転者か否かを判定する。ここで肯定判断されるとステップ220に進み、一方否定判断されると一旦本処理を終了する。
 ステップ220では、運転席に適正な運転者が着座しているので、携帯端末1との通信を行う。具体的には、車両の情報(例えば車両ID)と運転者の情報を携帯端末1に送信する。また、携帯端末1から、携帯端末1を特定する情報(例えば携帯端末ID)及び携帯端末1のカメラ5で撮影された顔画像を受信する。
 続くステップ230では、携帯端末1から受信した例えば携帯端末IDを用いて、携帯端末1が特定の登録された携帯端末1であるか否かを判定する。ここで肯定判断されるとステップ240に進み、一方否定判断されると一旦本処理を終了する。
 ステップ240では、携帯端末1から受信した顔画像の情報を用い、EEPROM21dに記憶されている運転者の顔画像の認証情報に基づいて、当該受信した顔画像が運転者の顔画像か否かを判定する。なお、運転者と携帯端末1の所有者とは、一致する必要があるので、ここで行う運転者の顔画像の一致の判定は、所有者の顔画像の一致の判定と同じである。ここで肯定判断されるとステップ250に進み、一方否定判断されると一旦本処理を終了する。
 ステップ250では、通信相手の携帯端末1を操作している人が車両の運転を許可されている運転者であるので、後述する運転者監視処理を許可する。つまり、処理に必要な情報、例えば携帯端末1側のアクチュエータを駆動する情報等の送信を許可し、一旦本処理を終了する。
 <走行中の処理>
 ここでは、車両制御装置3が実行する運転者監視処理について、図8のフローチャートを用いて説明する。
 図8に示すように、ステップ300では、自車両が走行中か否かを判定する。ここで肯定判断されるとステップ310に進み、一方否定判断されると一旦本処理を終了する。例えば車速センサからの情報に基づいて、自車速が例えば5km/時以上であれば、走行中と判定する。
 ステップ310では、自動運転中であるか否かを判定する。ここで肯定判断されるとステップ330に進み、一方否定判断されるとステップ320に進む。例えば、車両制御装置3に対して、スイッチ類31やディスプレイ33のタッチパネル等から自動運転を指示する信号が入力され、それによって開始された自動運転が継続されている場合には、自動運転中であると判定する。
 なお、自動運転中には、自動運転中であることを示すフラグ(例えば自動運転フラグ)や自動運転のレベルを示すフラグ(例えばレベルフラグ)等が設定され、それらのフラグは、RAM21cやEEPROM21dに記憶される。
 ステップ320では、現在、運転者の運転操作による走行中であるので、運転者が携帯端末1の表示画面11aを見ているか否かを判定する。ここで肯定判断されるとステップ390に進み、一方否定判断されると一旦本処理を終了する。
 つまり、携帯端末1から送信された表示画面11aを見ている側の画像、例えば運転者の顔画像に基づいて、運転者が表示画面11aを見ているか否かを判定する。なお、運転者が表示画面11aを見ているかどうかは、顔の向きや目の瞳の向き等から判定することができる。つまり、顔や瞳が正面を見ている場合には、運転者が表示画面11aを見ていると判定できる。
 そして、自動運転でないにもかかわらず、運転者が携帯端末1の表示画面11aを見ている場合には、安全上問題があるので、ステップ390に進んで、その状況に対応した適切な警告を行う。具体的には、前記表3のレベル0に対応する処理として、例えば「運転に集中して下さい」等の警告を行い、一旦本処理を終了する。
 なお、この警告の動作は、車両側の各種の装置、例えばディスプレイ33での表示やアクチュエータ類35による音声による報知等で行うことができる。また、携帯端末1側の各種の装置、例えばディスプレイ11での表示及び/又はスピーカ13による音声による報知等で行ってもよい。或いは、車両側と携帯端末1側の両方で行ってもよい。なお、これらの警告の動作については、以下同様である。
 また、この警告と同時に、警告が重要なことを知らせるために、携帯端末1及び/又は車両側の装置を振動させたり、エアコン等の駆動を制御する等により、注意を喚起させてもよい。なお、これらの注意の喚起についても、以下同様である。
 一方、ステップ330では、自動運転中に、目的地に到達したか否かを判定する。ここで肯定判断されるとステップ390に進み、一方否定判断されるとステップ340に進む。なお、目的地に到達したどうかは、ナビゲーション装置37等からの情報によって判定することができる。
 そして、ステップ390では、自動運転中に、目的地に到達したので、その状況に対応した適切な警告を行う。具体的には、前記表3のレベル5に対応する処理として、例えば「目的地に到達しました」等の警告を行い、一旦本処理を終了する。
 一方、ステップ340では、自動運転中において、運転者が携帯端末1の表示画面11aを見ているか否かを判定する。ここで肯定判断されるとステップ350に進み、一方否定判断されると一旦本処理を終了する。
 ステップ350では、自動走行可能条件が終了か又は終了に近づいたかを判定する。ここで肯定判断されるとステップ390に進み、一方否定判断されるとステップ360に進む。
 つまり、自動運転による走行(即ち自動走行)が可能な区間が終了するか又は間もなく終了するかを、例えばナビゲーション装置37及び/又は路側機等からの情報に基づいて判定する。なお、自動走行が可能な区間の終了又は間もなく終了するか否かは、ナビゲーション装置37の地図情報に基づいて、自車両が自動走行が可能な区間のどの位置を走行しているかによって判定することができる。
 そして、ステップ390では、自動走行が可能な区間が終了するか又は間もなく終了するという状態となったので、その状況に対応した適切な警告を行う。具体的には、前記表3のレベル4に対応する処理として、例えば「自動走行可能区間が終了します」又は「間もなく自動走行可能区間が終了します」等の警告を行い、一旦本処理を終了する。
 なお、このとき、上述したように、車両側及び/又は携帯端末1側より、前記監視情報の提供を行ってもよい。
 一方、ステップ360では、運転者による操作(即ちバックアップタスク)が必要な状態又は必要となりそうな状態か否かを判定する。即ち、運転者の操作が必要な場合又は運転者の操作が必要となることが予測される場合か否かを判定する。ここで肯定判断されるとステップ390に進み、一方否定判断されるとステップ370に進む。
 例えば、運転者によるバックアップタスクが必要な状態又は必要となりそうな状態としては、自動運転に必要な情報が得られにくくなった状態が挙げられる。例えば、バックアップタスクが必要な状態としては、天候の悪化等によって、前方カメラの画像が得られない状態や画像の精度が低下した状態、道路の白線が薄くなって道路を正確に把握できない状態など各種の状態が挙げられる。また、運転者によるバックアップタスクが必要となりそうな状態としては、自動運転に必要な情報が徐々に低減する状態等が挙げられる。
 そして、ステップ390では、運転者によるバックアップタスクが必要な状態又は必要となりそうな状態となったので、その状況に対応した適切な警告を行う。具体的には、前記表3のレベル3の第3欄に対応する処理として、例えば「運転操作を代わって下さい」又は「運転操作を代わる準備をして下さい」等の警告を行い、一旦本処理を終了する。
 なお、このとき、上述したように、車両側及び/又は携帯端末1側より、前記監視情報の提供を行ってもよい。
 前記運転者によるバックアップタスクが必要な状態としては、上述したように、天候や道路状況等によって、自動運転に必要な情報が得られない状態が挙げられる。また、運転者によるバックアップタスクが必要となりそうな状態としては、自動運転に必要な情報の精度が低下する状態や、情報量が低下する状態等が挙げられる。
 一方、ステップ370では、運転者の意識状態の程度(即ちレベル)を検出する。例えば、携帯端末1のカメラ5で撮影された顔画像に基づいて、周知にように、例えば瞼の開閉状態から意識レベルとして覚醒度を検出する。例えば、瞼が閉じている割合が通常より多い場合には、覚醒度が低下したと判定する。
 また、ウェアラブル装置39及び/又はその他の測定装置を用いて、心拍、脈拍、及び脳波の少なくとも1種を検出できる場合には、それらの生体情報を用いて覚醒度を判定してもよい。或いは、顔画像から得られる覚醒度の情報に、これらの生体情報を加味して、より精度のよい覚醒度判定を行ってもよい。
 続くステップ380では、運転者の意識レベルが警告が必要なレベルか否かを判定する。ここで肯定判断されるとステップ390に進み、一方否定判断されるとステップ400に進む。
 ステップ390では、意識レベルが低いので、その状況に対応した適切な警告を行う。具体的には、前記表3のレベル3の第2欄に対応する処理として、例えば「起きて下さい」又は「次のサービスエリアで休んで下さい」等の警告を行う。また、それとともに、運転者によるバックアップタスクを実施する際に必要な情報の提供を行い、即ち前記制御Aを実施し、一旦本処理を終了する。
 一方、ステップ400では、意識レベルが高いので、その状況に対応した適切な処理を行う。具体的には、前記表3のレベル3の第1欄に対応する処理として、例えば運転者によるバックアップタスクを実施する際に必要な情報を提供し、一旦本処理を終了する。
 なお、ここでは、車両制御装置3が実行する運転者監視処理について説明したが、同様な処理を、携帯端末1側で行ってもよい。
 例えば、携帯端末1にて、前記図8に示す運転者監視処理に必要な情報を、車両制御装置3側から受信し、その情報に基づいて、前記図8に示す運転者監視処理を実施してもよい。なお、警告や情報の提供については、上述したように、携帯端末1側で行ってもよいし、車両側で行ってもよい。
 [1-6.効果]
 以上詳述した第1実施形態によれば、以下の効果が得られる。
 (1a)本第1実施形態では、自車両の走行中に、例えば自動走行中に、自車両の運転者が携帯端末1の表示画面11aを見ているかどうかを、カメラ5によって撮影された画像に基づいて判定し、運転者が携帯端末1の表示画面11aを見ていると判定された場合には、警報を発することができる。
 また、自動走行中には、自動化のレベル及び/又は覚醒度の程度に応じて、車両側や携帯端末1側から、運転者のバックアップタスクに有用な監視情報を提供することができる。
 従って、運転の安全性が向上するという効果がある。
 (1b)本第1実施形態では、自車両が自動運転中に、自動運転のレベルに応じて、警報の内容を設定するので、運転者はその警報の内容に応じて適切な対応をとることができる。
 (1c)本第1実施形態では、カメラ5によって撮影された画像に基づいて、或いは、例えばウェアラブル装置39等の他の装置からの情報に基づいて、運転者の意識状態の程度を判定し、その意識状態の程度に基づいて警報の内容を設定することができる。よって、運転者はその警報の内容に応じて適切な対応をとることができる。
 (1d)本第1実施形態では、自車両において、周囲の状況を精度良く検出できない等の理由によって、運転者の操作が必要な場合又は運転者の操作の必要がありそうな場合、言い換えると、車両側にて、自動運転に適さない状態となった場合又は自動運転に適さない状態となることが予測される場合には、警報を発することができる。よって、運転者は容易に自動運転に代わって運転することが可能になるので、運転の安全性が向上する。
 (1e)本第1実施形態では、自動走行が終了する条件が満たされた場合又は自動走行が終了することが予測される場合には、警報を発することができる。よって、運転者は容易に自動運転に代わって運転することが可能になるので、運転の安全性が向上する。
 (1f)本第1実施形態では、自動運転によって自車両が目的に到着した場合には、到着した内容に関する警報を発することができる。
 [1-7.文言の対応関係]
 本第1実施形態における、表示画面11a、カメラ5、携帯端末1、車両制御装置3、第1、第2の乗員状態判定部43、63、第1、第2の安全制御部45、69が、それぞれ、本開示における、表示画面、撮影装置、携帯機、車両制御装置、乗員状態判定部、安全制御部、に相当する。
 [2.第2実施形態]
 次に、第2実施形態について説明するが、前記第1実施形態と同様な内容については、説明を省略又は簡略化する。なお、第1実施形態と同様な構成については、同じ番号を使用して説明する。
 本第2実施形態では、前記表1のレベル3又はレベル4の制御を行っている場合に、運転の状況が変化した場合には、レベル1又はレベル2の制御を行うものである。
 (2a)レベル3からレベル1への切り替えの制御
 レベル3の場合で、且つ、運転者が携帯端末1を操作しており、且つ、運転者の操作が必要又は操作の必要がありそうな場合に、例えば道路の白線が認識できない場合に、レベル1の制御に切り替えるときには、例えば「ステアリング操作を代わって下さい」等の警告を行う。
 なお、このときには、レベルの変化に応じて、車両の制御の切り替えを行う。
 (2b)レベル3からレベル2への切り替えの制御
 レベル3の場合で、且つ、運転者が携帯端末1を操作しており、且つ、運転者の操作が必要又は操作の必要がありそうな場合に、例えば道路の白線が認識できない場合に、レベル2の制御に切り替えるときには、例えば「監視タスクを代わって下さい」又は「前を見て運転して下さい」等の警告を行う。ここで、監視タスクとは、バックアップタスクが可能なような周囲等の監視に関する作業である。
 なお、このときには、レベルの変化に応じて、車両の制御の切り替えを行う。
 (2c)レベル4からレベル1への切り替えの制御
 レベル4の場合で、例えば運転者が携帯端末1を見て寝てても、自動走行が可能な条件が外れる又は外れそうになった場合、例えば自動走行可能区間が終了する又は終了しそうになった場合に、例えば道路の白線が認識できない状況となって、レベル1の制御に切り替えるときには、例えば「ステアリング操作を代わって下さい」等の警告を行う。
 なお、このときには、レベルの変化に応じて、車両の制御の切り替えを行う。
 (2d)レベル4からレベル2への切り替えの制御
 レベル4の場合で、例えば運転者が携帯端末1を見て寝てても、自動走行が可能な条件が外れる又は外れそうになった場合、例えば自動走行可能区間が終了する又は終了しそうになった場合に、例えば道路の白線が認識できない状況となって、レベル2の制御に切り替えるときには、例えば「監視タスクを代わって下さい」又は「前を見て運転して下さい」等の警告を行う。
 なお、このときには、レベルの変化に応じて、車両の制御の切り替えを行う。
 [3.他の実施形態]
 以上、本開示の実施形態について説明したが、本開示は前記実施形態に限定されるものではなく、本開示の技術的範囲に属する限り種々の形態を採ることができる。
 (3a)例えば、上記実施形態では、前記表1~表3に示すように自動運転のレベルを区分したが、例えば下記表4に示すような他の自動運転のレベルの区分を採用してもよい。
Figure JPOXMLDOC01-appb-T000004
 この場合、表4のレベル1、レベル2、レベル3、レベル4が、それぞれ、前記表1のレベル1、レベル2、レベル3、レベル4又は5に相当する。従って、対応するレベルに応じた警告等の制御を行えばよい。
 (3b)前記実施形態では、携帯機としてスマートフォン等の携帯端末を例に挙げたが、それ以外に、操作する人を撮影できるカメラを備えるとともに、車両側と通信が可能な各種の携帯機を用いることができる。
 例えば、タブレット端末、スマート・ウォッチ、電子書籍用端末、ゲーム機、ノートパソコン等が挙げられる。
 (3c)前記実施形態では、携帯端末又は車両制御装置にて、運転者監視処理を行ったが、運転者監視処理に必要な情報を、例えば基地局等に送信し、インターネットを介して例えばサーバ側にて運転者監視処理を行い、警告等を携帯端末及び/又は車両にて実施させるようにすることもできる。
 (3d)前記実施形態では、自動運転を実施可能な車両を例に挙げたが、本開示は、自動運転を行わない車両にも適用できる。その場合は、前記図8の処理において、ステップ300から、ステップ320に進み、その判定結果に応じて、ステップ390に進むか又は一旦本処理を終了する。つまり、その他のステップの処理は行わない。これによって、自動走行でない場合でも、走行中における安全性が一層向上するという利点がある。
 (3e)覚醒度を判定する方法としては、上述した方法以外に、使用する携帯機に応じて各種の方法が挙げられる。例えば操作スイッチ、タッチパネル、キーボード、マウス、タッチパッド等の操作頻度、マイクからの発話に基づいて、覚醒度の判定を行ってもよい。
 つまり、携帯機の表示画面を見ている場合には、その表示画面の表示内容と連動して、適切な動作をしているか等によって、覚醒度を判定することができる。例えば適切な入力が要求されている場合に、適切な入力がされていない場合、或いは、その入力の頻度が少ない場合及び/又は入力の速度が遅い場合等には、覚醒度が低下していると判定することが可能である。
 (3f)安全制御部にて警告を行う場合に、運転者に注意を喚起する方法としては、各種の方法が挙げられる。例えば、音、音声、光、振動、風、温度、及び自車両の走行状態の制御の少なくとも1種によって、警報を発したり、注意を喚起することができる(図9参照)。
 (3g)携帯端末を把持及び/又は操作しているときには、携帯端末のカメラを起動して撮影し、その画像を用いて、運転者の状態を監視したり推定(従って判定)することができる。
 ここで、携帯端末が把持されていることは、例えば携帯端末のディスプレイがオンになって、何らかの画像等が表示されていることにより判定できる。また、携帯端末が操作されていることは、タッチパネル等により何からの操作がなされていることにより判定できる。さらに、この把持及び/又は操作を、Gセンサを用いて複合的に判断してもよい。
 或いは、車両に取り付けられたカメラ(例えばドライバカメラ等のカメラ)によって撮影された画像に基づいて、携帯端末の把持及び/又は操作を判断してもよい。
 なお、携帯端末が把持及び/又は操作されていないときには、車両のカメラによって、運転者の状態を監視したり推定することができる。
 (3h)車両のカメラによって運転者の状態を監視したり推定することができるときに、携帯端末のカメラを起動して撮影して、運転者の状態を監視したり推定してもよい。これにより、運転者の状態の監視や推定の精度を上げることができる。
 なお、車両のカメラと携帯端末のカメラの両方で撮影する場合に、両方の画像を用いることができるが、どちらか一方の画像を用いてもよい。
 (3i)車両のカメラで運転者の状態が把握できないとき、例えば顔画像が得られないとき及び/又は目の画像が得られないときには、携帯端末のカメラを起動して撮影することができる。
 (3j)携帯端末のカメラで車両のカメラを代替できるときは、車両のカメラを使用しなくともよい。例えば、携帯端末が、車両の所定位置にクレードルやホルダによって取り付けられた場合、又は、例えば充電する位置に配置された場合などに、この携帯端末のカメラを車両のカメラの代わりに用いてもよい。
 また、車両にカメラが搭載されていない場合には、この携帯端末のカメラを、運転者の状態を判定するためのカメラとして使用してもよい。
 (3k)運転者の状態を判定するための処理(例えば乗員状態判定部の処理)の一部又は全部を、携帯端末、自車両の制御装置(例えば自車両の動作を制御する車両制御装置)、他車両の制御装置(例えば他車両の動作を制御する車両制御装置)、及び車両以外の装置のうち、少なくとも1種にて行ってもよい(図10参照)。
 例えば、携帯端末及び自車両の車両制御装置以外にて、上述した処理を行う場合には、携帯端末及び/又は自車両の車両制御装置の演算処理の負担を軽減できる。また、演算処理の負担を軽減することにより、携帯端末及び/又は自車両の車両制御装置にて又は他の装置にて、例えば複数回の判定や多くのデータを用いた判定処理を行うことができるので、判定精度を向上できる。
 なお、車両以外の装置としては、クラウドサーバなどが挙げられる。また、他車両としては、自動運転により連動して制御される複数のトラック等のうちの他車両が挙げられる。
 (3l)携帯端末側のマイコンに、乗員状態判定部の一部又は全体の機能を配置することにより、通信量を低減することができる。
 (3m)また、前記実施形態における1つの構成要素が有する機能を複数の構成要素として分散させたり、複数の構成要素が有する機能を1つの構成要素に統合させたりしてもよい。また、前記実施形態の構成の一部を省略してもよい。また、前記実施形態の構成の少なくとも一部を、他の前記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。
 (3n)さらに、上述した運転者監視システムの他、当該運転者監視システムを構成要素とするシステム、当該運転者監視システムとしてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、運転者監視を行う方法など、種々の形態で本発明を実現することもできる。
 また、運転者監視システム、詳しくは車両制御装置や携帯機が実行する機能の一部又は全部を、一つあるいは複数のIC等によりハードウェア的に構成してもよい。

Claims (13)

  1.  運転者監視システムであって、
     表示画面(11a)と該表示画面に対向する側を撮影可能に配置された撮影装置(5)とを備えた携帯機(1)と、
     自車両の制御を行う車両制御装置(3)と、
     の間で通信を行って、前記自車両の運転者を監視し、
     前記自車両の走行中に、該自車両の運転者が前記携帯機の表示画面を見ているかどうかを、前記撮影装置によって撮影された画像に基づいて判定する乗員状態判定部(43)と、
     前記乗員状態判定部によって、前記運転者が前記携帯機の前記表示画面を見ていると判定された場合には、警報を発する安全制御部(45)と、
     を備えた運転者監視システム。
  2.  運転者監視システムであって、
     表示画面(11a)と該表示画面に対向する側を撮影可能に配置された撮影装置(5)とを備えた携帯機(1)と、
     自車両の制御を行う車両制御装置(3)と、
     の間で通信を行って、前記自車両の運転者を監視し、
     前記自車両の自動運転中に、該自車両の運転者が前記携帯機の表示画面を見ているかどうかを、前記撮影装置によって撮影された画像に基づいて判定する乗員状態判定部(43)と、
     前記乗員状態判定部によって、前記運転者が前記携帯機の前記表示画面を見ていると判定された場合には、警報を発する制御及び前記運転者の運転に利用可能な情報を提供する制御のうち少なくとも一方の制御を行う安全制御部(45)と、
     を備えた運転者監視システム。
  3.  請求項2に記載の運転者監視システムであって、
     前記安全制御部は、前記自動運転のレベルに応じて、前記警報の内容を設定する、運転者監視システム。
  4.  請求項2又は請求項3に記載の運転者監視システムであって、
     前記安全制御部は、前記自動運転のレベルに応じて、前記情報の提供を行う、運転者監視システム。
  5.  請求項2から請求項4までのいずれか1項に記載の運転者監視システムであって、
     前記乗員状態判定部は、前記撮影装置によって撮影された画像に基づいて、前記運転者の意識状態の程度を判定し、
     前記安全制御部は、前記乗員状態判定部によって判定された前記運転者の意識状態の程度に基づいて、前記警報の内容の設定及び前記情報の提供のうち少なくとも一方を行う、運転者監視システム。
  6.  請求項2から請求項5までのいずれか1項に記載の運転者監視システムであって、
     前記乗員状態判定部は、前記携帯機又は前記車両制御装置に設けられている、運転者監視システム。
  7.  請求項2から請求項6までのいずれか1項に記載の運転者監視システムであって、
     前記安全制御部は、前記運転者の操作が必要な場合又は前記運転者の操作が必要となることが予測される場合には、前記警報を発する、運転者監視システム。
  8.  請求項2から請求項7までのいずれか1項に記載の運転者監視システムであって、
     前記安全制御部は、前記自動運転が終了する条件が満たされた場合又は前記自動運転が終了することが予測される場合には、前記警報を発する、運転者監視システム。
  9.  請求項2から請求項8までのいずれか1項に記載の運転者監視システムであって、
     前記安全制御部は、前記自動運転によって前記自車両が目的に到着した場合には、前記到着した内容に関する警報を発する、運転者監視システム。
  10.  請求項1から請求項9までのいずれか1項に記載の運転者監視システムであって、
     前記安全制御部は、前記携帯機及び前記自車両の少なく一方から、前記警報を発する、運転者監視システム。
  11.  請求項1から請求項10までのいずれか1項に記載の運転者監視システムであって、
     前記安全制御部は、音、音声、光、振動、風、温度、及び前記自車両の走行状態の制御の少なくとも1種によって、前記警報を発する、運転者監視システム。
  12.  請求項1から請求項11までのいずれか1項に記載の運転者監視システムであって、
     前記運転者の状態を判定するための処理の一部又は全部は、前記携帯機、前記自車両の制御装置、他車両の制御装置、及び車両以外の装置のうち、少なくとも1種にて行う、運転者監視システム。
  13.  請求項12に記載の運転者監視システムであって、
     前記車両以外の装置とは、クラウドサーバである、運転者監視システム。
PCT/JP2017/007544 2016-02-29 2017-02-27 運転者監視システム WO2017150466A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/780,056 US10640123B2 (en) 2016-02-29 2017-02-27 Driver monitoring system

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2016-037694 2016-02-29
JP2016037694 2016-02-29
JP2016-253786 2016-12-27
JP2016253786A JP6917708B2 (ja) 2016-02-29 2016-12-27 運転者監視システム

Publications (1)

Publication Number Publication Date
WO2017150466A1 true WO2017150466A1 (ja) 2017-09-08

Family

ID=59742874

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/007544 WO2017150466A1 (ja) 2016-02-29 2017-02-27 運転者監視システム

Country Status (1)

Country Link
WO (1) WO2017150466A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108701229A (zh) * 2018-04-25 2018-10-23 深圳市元征软件开发有限公司 驾驶行为分析方法及驾驶行为分析装置
CN112758098A (zh) * 2019-11-01 2021-05-07 广州汽车集团股份有限公司 基于驾驶员状态等级的车辆驾驶权限接管控制方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014154901A (ja) * 2013-02-05 2014-08-25 Nec Casio Mobile Communications Ltd 携帯電子機器、その制御方法及びプログラム
JP2014178971A (ja) * 2013-03-15 2014-09-25 Denso Corp 車両用衝突警報装置
US20140347458A1 (en) * 2013-05-23 2014-11-27 Ford Global Technologies, Llc Cellular phone camera for driver state estimation
JP2015032054A (ja) * 2013-07-31 2015-02-16 株式会社デンソー 運転支援装置、および運転支援方法
JP2015182525A (ja) * 2014-03-21 2015-10-22 アイシン・エィ・ダブリュ株式会社 自動運転支援装置、自動運転支援方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014154901A (ja) * 2013-02-05 2014-08-25 Nec Casio Mobile Communications Ltd 携帯電子機器、その制御方法及びプログラム
JP2014178971A (ja) * 2013-03-15 2014-09-25 Denso Corp 車両用衝突警報装置
US20140347458A1 (en) * 2013-05-23 2014-11-27 Ford Global Technologies, Llc Cellular phone camera for driver state estimation
JP2015032054A (ja) * 2013-07-31 2015-02-16 株式会社デンソー 運転支援装置、および運転支援方法
JP2015182525A (ja) * 2014-03-21 2015-10-22 アイシン・エィ・ダブリュ株式会社 自動運転支援装置、自動運転支援方法及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108701229A (zh) * 2018-04-25 2018-10-23 深圳市元征软件开发有限公司 驾驶行为分析方法及驾驶行为分析装置
CN108701229B (zh) * 2018-04-25 2022-01-11 深圳市元征软件开发有限公司 驾驶行为分析方法及驾驶行为分析装置
CN112758098A (zh) * 2019-11-01 2021-05-07 广州汽车集团股份有限公司 基于驾驶员状态等级的车辆驾驶权限接管控制方法及装置

Similar Documents

Publication Publication Date Title
JP7060031B2 (ja) 運転者監視システム
CN107415938B (zh) 基于乘员位置和注意力控制自主车辆功能和输出
JP7203035B2 (ja) 情報処理装置および情報処理方法
US10192171B2 (en) Method and system using machine learning to determine an automotive driver's emotional state
JP6497915B2 (ja) 運転支援システム
EP3330148B1 (en) Automatic driving system for vehicles
EP3245093B1 (en) Cognitive load driving assistant
KR101655818B1 (ko) 웨어러블 글래스, 그 제어 방법 및 차량 제어 시스템
JP7288326B2 (ja) 自動運転システム
US9925832B2 (en) Alerting device
US20180229654A1 (en) Sensing application use while driving
JPWO2015151243A1 (ja) 車両用情報呈示装置
JP6172106B2 (ja) 車両用情報提示装置
US20190317328A1 (en) System and method for providing augmented-reality assistance for vehicular navigation
WO2018150676A1 (ja) 運転切替支援装置、及び運転切替支援方法
CN104890570B (zh) 佩戴式车辆信息指示器以及使用其指示车辆信息的方法
US10674003B1 (en) Apparatus and system for identifying occupants in a vehicle
WO2018150677A1 (ja) 運転切替支援装置、及び運転切替支援方法
US20130187847A1 (en) In-car eye control method
JP6063854B2 (ja) 車両用表示システム
JP2017049636A (ja) 運転者状態検出装置
JP6891926B2 (ja) 車両システム、車両システムで実行される方法、および運転者支援システム
WO2017150466A1 (ja) 運転者監視システム
JP6822325B2 (ja) 操縦支援装置、操縦支援方法、プログラム
JP2019081450A (ja) 表示装置、表示制御方法、及びプログラム

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17759932

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17759932

Country of ref document: EP

Kind code of ref document: A1