WO2017158758A1 - 車載装置、居眠り運転防止方法及び居眠り運転防止プログラム - Google Patents

車載装置、居眠り運転防止方法及び居眠り運転防止プログラム Download PDF

Info

Publication number
WO2017158758A1
WO2017158758A1 PCT/JP2016/058327 JP2016058327W WO2017158758A1 WO 2017158758 A1 WO2017158758 A1 WO 2017158758A1 JP 2016058327 W JP2016058327 W JP 2016058327W WO 2017158758 A1 WO2017158758 A1 WO 2017158758A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
passenger
driver
unit
execution unit
Prior art date
Application number
PCT/JP2016/058327
Other languages
English (en)
French (fr)
Inventor
久美子 池田
下谷 光生
夢雄 王
明寛 三村
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2016/058327 priority Critical patent/WO2017158758A1/ja
Priority to US15/774,144 priority patent/US20180319279A1/en
Priority to DE112016006426.8T priority patent/DE112016006426B4/de
Priority to JP2017540909A priority patent/JP6230764B1/ja
Publication of WO2017158758A1 publication Critical patent/WO2017158758A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • B60K28/066Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver actuating a signalling device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/30Conjoint control of vehicle sub-units of different type or different function including control of auxiliary equipment, e.g. air-conditioning compressors or oil pumps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W50/16Tactile feedback to the driver, e.g. vibration or force feedback to the driver on the steering wheel or the accelerator pedal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/3415Dynamic re-routing, e.g. recalculating the route when the user deviates from calculated route or after detecting real-time traffic data or accidents
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3484Personalized, e.g. from learned user behaviour or user-defined profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0827Inactivity or incapacity of driver due to sleepiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/01Occupants other than the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed

Definitions

  • Patent Document 1 In order to prevent an accident caused by the driver's falling asleep, there is a technique for attaching a sensor in the vehicle and detecting whether the driver feels drowsy using the sensor (for example, Patent Document 1).
  • Patent Document 1 it is detected whether or not the driver feels sleepy using a sensor, and when the driver feels sleepy, an operation for awakening the driver is performed.
  • an operation for awakening the driver since an operation for awakening the driver is started after the driver feels sleepy, it takes time until the driver completely awakens. Until the driver is completely awakened, the driver is driving with a lack of attention.
  • the driver since the driver starts to awaken after feeling drowsy, the driver is driving for a long time without attention. There is a problem that safety is not enough.
  • the main object of the present invention is to solve the above-mentioned problems, and to prevent the driver from feeling sleepy.
  • the in-vehicle device is An in-vehicle device mounted on a vehicle, A passenger state determination unit that determines whether a passenger who is a passenger of the vehicle other than the driver is sleeping; And an operation executing unit that executes a sleepiness prevention operation for preventing the driver from feeling drowsy when the passenger state determination unit determines that the passenger is asleep.
  • the driver since the drowsiness prevention operation is executed before the driver feels drowsy when he is taken by the passenger, the driver can continue driving without feeling drowsiness.
  • FIG. 3 is a diagram illustrating a functional configuration example of the in-vehicle device according to the first embodiment.
  • FIG. 3 is a flowchart showing a process example of a control unit according to the first embodiment.
  • FIG. 6 is a diagram illustrating an example of operation information according to the first embodiment.
  • FIG. 3 is a diagram illustrating a hardware configuration example of the in-vehicle device according to the first embodiment.
  • FIG. 6 is a diagram illustrating a functional configuration example of an in-vehicle device according to a second embodiment.
  • FIG. 9 is a flowchart showing a processing example of a control unit according to the second embodiment.
  • FIG. 10 is a diagram illustrating a functional configuration example of an in-vehicle device according to a third embodiment.
  • FIG. 9 is a flowchart showing a processing example of a control unit according to the third embodiment.
  • FIG. *** Explanation of configuration *** FIG. 1 shows a functional configuration example of the in-vehicle device 1 according to the present embodiment.
  • FIG. 4 shows a hardware configuration example of the in-vehicle device 1 according to the present embodiment. It is assumed that the in-vehicle device 1 is mounted on a vehicle not shown.
  • the operation performed by the in-vehicle device 1 is an example of a snooze driving prevention method and a snooze driving prevention program.
  • the in-vehicle device 1 includes a processor 101, a memory 102, an image interface 103, a sensor interface 104, a speaker control interface 105, a display control interface 106, a pedal control interface 107, a handle control interface 108, and a seat control interface 109. It is a computer provided with.
  • the processor 101 executes a program that realizes the biological information acquisition unit 11, the passenger state determination unit 12, and the operation execution unit 20 (the control unit 13 and the device driving unit 15) illustrated in FIG. That is, the biometric information acquisition unit 11, the passenger state determination unit 12, and the operation execution unit 20 are realized by a program.
  • a program for realizing the biological information acquisition unit 11, the passenger state determination unit 12, and the operation execution unit 20 is stored in the memory 102.
  • the processor 101 reads a program that realizes the biometric information acquisition unit 11, the passenger state determination unit 12, and the operation execution unit 20 from the memory 102, and executes the program. Further, the memory 102 implements the route information holding unit 14 shown in FIG.
  • the in-vehicle device 1 is connected to the camera 31 via the image interface 103.
  • the image interface 103 is a circuit that acquires a captured image from the camera 31 and transfers the acquired captured image to the processor 101.
  • the on-vehicle device 1 is connected to the sensor 32 via the sensor interface 104.
  • the sensor interface 104 is a circuit that acquires sensor data from the sensor 32 and transfers the acquired sensor data to the processor 101.
  • the in-vehicle device 1 is connected to the speaker 33 via the speaker control interface 105.
  • the speaker control interface 105 is a circuit that controls the speaker 33 in accordance with an instruction from the processor 101.
  • the in-vehicle device 1 is connected to the display 34 via the display control interface 106.
  • the display control interface 106 is a circuit that controls the display 34 in accordance with an instruction from the processor 101.
  • the on-vehicle device 1 is connected to the pedal 35 via the pedal control interface 107.
  • the pedal control interface 107 is a circuit that controls the pedal 35 in accordance with an instruction from the processor 101.
  • the pedal 35 includes an accelerator pedal and a brake pedal.
  • the on-vehicle device 1 is connected to the handle 36 via the handle control interface 108.
  • the handle control interface 108 is a circuit that controls the handle 36 in accordance with an instruction from the processor 101.
  • the handle 36 has a built-in vibrator that generates vibration.
  • the in-vehicle device 1 is connected to the seat 37 via the seat control interface 109.
  • the sheet control interface 109 is a circuit that controls the sheet 37 in accordance with an instruction from the processor 101.
  • the seat 37 has a built-in vibrator that generates vibration.
  • the speaker 33, the display 34, the pedal 35, the handle 36, and the seat 37 are collectively referred to as devices.
  • the biometric information acquisition unit 11 acquires a captured image from the camera 31 via the image interface 103 of FIG.
  • the camera 31 is disposed at a position where the face of the fellow passenger in the vehicle can be photographed, and the biometric information acquisition unit 11 obtains an image (hereinafter referred to as a face image) obtained by photographing the passenger's face from the camera 31.
  • the camera 31 performs image analysis, detects the position of the passenger's eyes and mouth, and detects the direction of the passenger's face.
  • the passenger is a passenger of a vehicle other than the driver.
  • the biological information acquisition unit 11 acquires sensor data from the sensor 32 via the sensor interface 104 of FIG.
  • the sensor 32 measures the passenger's body temperature or / and measures the passenger's respiration rate.
  • the sensor 32 it is conceivable to use an infrared camera as the sensor 32 for measuring the body temperature. Moreover, it is possible to use the temperature sensor attached to the sheet
  • an infrared camera it is possible to use the temperature sensor attached to the sheet
  • an RF (Radio Frequency) sensor as the sensor 32 for measuring the respiration rate. That is, the RF sensor observes the movement of the passenger's chest and measures the respiration rate. Alternatively, the camera 31 may
  • the passenger state determination unit 12 acquires biometric information from the biometric information acquisition unit 11. And the passenger state determination part 12 analyzes biometric information, and determines whether the passenger is sleeping. For example, the fellow passenger state determination unit 12 extracts an eye image from the passenger's face image and performs image analysis on the eye image. And the passenger state determination part 12 analyzes whether the pupil is reflected in the image of eyes, and determines whether the passenger has the eyes open or closed. And when the fellow passenger is closing eyes for more than fixed time, the fellow passenger state determination part 12 determines with the fellow passenger sleeping. The passenger state determination unit 12 determines whether or not the passenger's body temperature has risen by a threshold value or more (for example, 1 ° C. or more), using sensor data obtained by measuring the body temperature with the sensor 32.
  • a threshold value or more for example, 1 ° C. or more
  • the passenger state determination unit 12 determines that the passenger is asleep. Further, the passenger state determination unit 12 uses the sensor data obtained by measuring the respiration rate by the sensor 32, and whether the average value of the respiration rate of the passenger has decreased for more than a threshold value continuously for a certain period of time. Determine whether or not. And when the average value of the respiratory rate of a fellow passenger has decreased more than a threshold value, the fellow passenger state determination part 12 determines with the fellow passenger sleeping. The fellow passenger state determination unit 12 may determine whether the fellow passenger is sleeping by combining these determination methods. The passenger state determination unit 12 may use a determination method other than the above-described determination method. The fellow passenger state determination unit 12 transmits the determination result to the control unit 13 as passenger information. The process performed by the passenger state determination unit 12 corresponds to the passenger state determination process.
  • the route information holding unit 14 holds route information indicating a travel route to the destination of the vehicle.
  • the route information holding unit 14 transmits route information to the control unit 13 in response to a request from the control unit 13.
  • the control unit 13 acquires passenger information from the passenger state determination unit 12. When the passenger information indicates that the passenger is sleeping, the control unit 13 transmits the operation information to the device driving unit 15. When the passenger is asleep, the driver is expected to feel sleepy in the future, so the control unit 13 transmits the operation information to the device driving unit 15 so that the driver feels sleepy.
  • the sleepiness prevention operation for preventing it is executed.
  • the operation information a drowsiness prevention operation to be performed by the device driving unit 15 is described.
  • the control unit 13 instructs the device driving unit 15 to move, for example, a contact portion that is touched by the driver among the portions of the vehicle.
  • the contact parts are, for example, a pedal 35, a handle 36, and a seat 37.
  • indicates the apparatus drive part 15 to output an audio
  • the device drive unit 15 acquires operation information from the control unit 13, and controls the device according to the operation information to perform a drowsiness prevention operation. As described above, the device driving unit 15 moves the pedal 35, the handle 36, and the seat 37, which are contact parts, for example. In addition, the device driving unit 15 outputs sound from the speaker 33. In addition, the device driving unit 15 outputs a message from the display 34.
  • control unit 13 and the device driving unit 15 are collectively referred to as an operation execution unit 20. Further, the process performed by the control unit 13 and the device driving unit 15 corresponds to an operation execution process.
  • FIG. 2 is a flowchart illustrating a processing example of the control unit 13. With reference to FIG. 2, the process of the control part 13 is demonstrated. In the following, an example in which the control unit 13 performs navigation by moving the contact site as the drowsiness prevention operation will be described.
  • control unit 13 acquires passenger information from the passenger state determination unit 12 (step ST100). Next, the control unit 13 analyzes the passenger information and determines whether or not the passenger is asleep (step ST101).
  • step ST102 If it is determined that the passenger is asleep, the control unit 13 acquires route information from the route information holding unit 14 (step ST102). On the other hand, when it is determined that the passenger is not sleeping, step ST100 is repeated.
  • the control part 13 produces
  • the control unit 13 specifies a turn point that is a point where the vehicle turns right or left.
  • the control unit 13 then instructs the device driving unit 15 to vibrate the driver's seat 37 when the vehicle reaches an arbitrary point before the turn point (for example, 100 m before the turn point). Is generated. More specifically, when the vehicle turns to the right at the turn point, the control unit 13 generates operation information that instructs the device driving unit 15 to vibrate the right side of the driver's seat 37.
  • operation information is generated that instructs the device drive unit 15 to vibrate the left side of the driver's seat.
  • the control unit 13 also generates operation information that instructs the device driving unit 15 to vibrate the vehicle handle 36 when the vehicle reaches the turn point. More specifically, the control unit 13 generates operation information that instructs the device driving unit 15 to vibrate the right side of the handle 36 when the vehicle turns right at the turn point. In addition, when the vehicle turns left at the turn point, operation information for instructing the device driving unit 15 to vibrate the left side of the handle 36 is generated.
  • control unit 13 instructs the device driving unit 15 to move the brake pedal of the vehicle in a direction to be depressed when the vehicle reaches an arbitrary point before the turn point (for example, 100 m before the turn point). Generate information. Further, the control unit 13 instructs the device driving unit 15 to move the accelerator pedal of the vehicle in a direction to push it back when the vehicle reaches an arbitrary point before the turn point (for example, 100 m before the turn point). Generate information.
  • the operation information includes the name of the device to be operated, the operation content, the operation start time, and the operation time.
  • FIG. 3 shows an example of operation information. FIG. 3 shows operation information when the vehicle turns left at the turn point.
  • the control unit 13 acquires the vehicle speed of the vehicle from a vehicle speed sensor not shown in FIGS. 1 and 4, and the vehicle current from a GPS (Global Positioning System) system not shown in FIGS. 1 and 4. The position is acquired and the operation information of FIG. 3 is generated.
  • GPS Global Positioning System
  • control unit 13 transmits the operation information generated in step ST103 to the device driving unit 15 (step ST104).
  • the device driving unit 15 acquires operation information from the control unit 13, controls the device according to the operation information, and performs a drowsiness prevention operation.
  • the device driving unit 15 controls the vibrator in the seat 37 to vibrate the left side of the seat 37 at the timing described in the operation information.
  • the device driving unit 15 controls the vibrator in the handle 36 at the timing described in the operation information to vibrate the left side of the handle 36.
  • the apparatus drive part 15 controls the brake pedal of the pedal 35 at the timing described in operation
  • the device driving unit 15 may display a message on the display 34 and output a sound from the speaker 33 in accordance with the movement of the seat 37, the handle 36, and the pedal 35. Further, instead of moving the seat 37, the handle 36, and the pedal 35, the device driving unit 15 may change the volume of the speaker 33 so as to increase the navigation sound.
  • Embodiment 2 FIG. In the first embodiment described above, an example has been described in which navigation is performed by moving a device when a passenger is asleep. In the present embodiment, an example will be described in which the traveling route of the vehicle is changed when the passenger is asleep.
  • FIG. 5 shows a functional configuration example of the in-vehicle device 1 according to the present embodiment. Components similar to those in FIG. 1 are given the same reference numerals.
  • a route search unit 16 is added to the configuration shown in FIG.
  • the route search unit 16 searches for a travel route using map information for a preset destination. Then, the route search unit 16 stores route information indicating the travel route obtained by the search in the route information holding unit 14. In addition, when the route search unit 16 acquires the route change instruction from the control unit 13, the route search unit 16 re-searches the travel route according to the route change instruction. For example, the route search unit 16 may receive an instruction from the control unit 13 to search for a travel route with many corners. The route search unit 16 may receive an instruction to search for a travel route with many traffic lights. In addition, the route search unit 16 may receive an instruction from the control unit 13 to search for a travel route that arrives earlier at the destination.
  • the route search unit 16 may receive an instruction from the control unit 13 to search for a bright travel route of street lamps such as a main road.
  • the route information holding unit 14 stores route information indicating the travel route obtained by the re-search.
  • the control unit 13 sets the travel route to the destination of the vehicle and performs navigation according to the travel route in place of the current travel route as a sleepiness prevention operation. Then, a new driving route is set which makes it difficult for the driver to feel drowsiness compared to the current driving route. Then, the control unit 13 causes the device driving unit 15 to perform navigation according to the new travel route. That is, when the passenger is asleep, the driver 13 is expected to feel sleepy in the future, so the control unit 13 changes the current travel route to a travel route that makes the driver less likely to feel sleepy. To do. For example, the control unit 13 changes the driving route with a lot of traffic lights so that the brake operation for stopping at the traffic lights increases so that the driver does not feel sleepy.
  • control unit 13 changes to a travel route with many corners, thereby increasing the number of steering wheel operations and braking operations, thereby making it difficult for the driver to feel sleepy.
  • the control unit 13 changes the driving route to a bright street light such as a main road so that the driver is less likely to feel sleepy than when traveling on a dark road.
  • the control unit 13 may change the travel route to a travel route that arrives earlier at the destination.
  • the control unit 13 may change the travel route to a travel route including a place where a rest area such as a service area can be rested.
  • the control unit 13 may check with the driver whether or not to change the travel route before changing the travel route.
  • the control unit 13 instructs the route search unit 16 to search for a new travel route, and causes the device drive unit 15 to perform navigation according to the new travel route obtained by the search of the route search unit 16.
  • the device driving unit 15 performs navigation according to the new travel route specified by the control unit 13.
  • control unit 13, the device driving unit 15, and the route search unit 16 constitute an operation execution unit 20. Moreover, since the components other than the control unit 13, the device driving unit 15, and the route search unit 16 are the same as those shown in FIG.
  • FIG. 1 A hardware configuration example of the in-vehicle device 1 according to the present embodiment is as shown in FIG.
  • the processor 101 executes a program for realizing the route search unit 16 and performs the processing of the route search unit 16 shown below.
  • differences from the first embodiment will be mainly described. Matters not described below are the same as those in the first embodiment.
  • FIG. 6 is a flowchart illustrating a processing example of the control unit 13. The operation of the control unit 13 will be described with reference to FIG.
  • control unit 13 acquires passenger information from the passenger state determination unit 12 (step ST100). Next, the control unit 13 analyzes the passenger information and determines whether or not the passenger is asleep (step ST101).
  • control unit 13 If it is determined that the passenger is asleep, the control unit 13 generates a route change instruction (step ST200). For example, the control unit 13 generates a route change instruction that instructs to search for a new travel route having more traffic lights than the current travel route.
  • control unit 13 transmits a route change instruction to the route search unit 16 (step ST201).
  • the route search unit 16 re-searches the travel route in accordance with the route change instruction, and stores the route information indicating the new travel route obtained by the re-search in the route information holding unit 14.
  • control unit 13 acquires route information indicating a new travel route obtained by re-searching the route search unit 16 from the route information holding unit 14 (step ST102).
  • control part 13 produces
  • control part 13 transmits the operation information produced
  • control unit 13 may return to the travel route before the change. That is, the control unit 13 may transmit operation information for instructing the device driving unit 15 to perform route guidance according to the travel route before the change to the device driving unit 15.
  • Embodiment 3 FIG. In the present embodiment, an example will be described in which the driver is prevented from feeling drowsy by increasing the number of opportunities to stop at a traffic light.
  • FIG. 7 shows a functional configuration example of the in-vehicle device 1 according to the present embodiment. Components similar to those in FIG. 1 are given the same reference numerals.
  • a radio communication unit 17 and a traffic information holding unit 18 are added to the configuration shown in FIG.
  • the wireless communication unit 17 performs wireless communication with a base station outside the vehicle and acquires traffic information.
  • the traffic information includes timing information (hereinafter referred to as signal timing information) at which the traffic signal is switched.
  • the wireless communication unit 17 stores the acquired traffic information in the traffic information holding unit 18.
  • the traffic information holding unit 18 holds the traffic information received by the wireless communication unit 17 and transmits the traffic information to the control unit 13 when requested by the control unit 13.
  • the control unit 13 acquires traffic information from the traffic information holding unit 18. Further, the control unit 13 calculates a traveling speed for stopping the vehicle with a traffic light as a sleepiness prevention operation from the traffic information, the route information, and the current position information of the vehicle, and causes the vehicle to travel at the calculated traveling speed. That is, the control unit 13 calculates a traveling speed at which the vehicle reaches the traffic signal during a time zone in which the traffic signal through which the vehicle passes is “red”. The control unit 13 generates operation information that instructs the device driving unit 15 to travel at the traveling speed calculated in this way, and transmits the generated operation information to the device driving unit 15.
  • the device drive unit 15 performs control for causing the vehicle to travel at the travel speed indicated by the operation information. For example, the device drive unit 15 displays the travel speed indicated by the operation information on the display 34 as the recommended travel speed. Moreover, the apparatus drive part 15 controls an accelerator pedal and a brake pedal, and makes a vehicle drive
  • control unit 13 and the device driving unit 15 constitute an operation execution unit 20. Moreover, since the components other than the control unit 13, the device driving unit 15, the wireless communication unit 17, and the traffic information holding unit 18 are the same as those shown in FIG.
  • FIG. 1 A hardware configuration example of the in-vehicle device 1 according to the present embodiment is as shown in FIG.
  • the processor 101 executes a program for realizing the wireless communication unit 17 and performs the processing of the wireless communication unit 17 shown below.
  • the memory 102 implements the traffic information holding unit 18.
  • differences from the first embodiment will be mainly described. Matters not described below are the same as those in the first embodiment.
  • FIG. 8 is a flowchart showing the operation of the control unit in the in-vehicle device 1. The operation of the control unit 13 will be described with reference to FIG.
  • control unit 13 acquires passenger information from the passenger state determination unit 12 (step ST100). Next, the control unit 13 analyzes the passenger information and determines whether or not the passenger is asleep (step ST101).
  • the control unit 13 acquires traffic information from the traffic information holding unit 18 (step ST300). Further, the control unit 13 acquires route information from the route information holding unit 14, acquires the current position of the vehicle from the GPS system, and acquires the current traveling speed of the vehicle from the vehicle speed sensor.
  • the control unit 13 calculates a traveling speed instructed to the device driving unit 15 from the acquired traffic information (step ST301). That is, the control unit 13 uses the signal timing information included in the traffic information, the route information, the current position of the vehicle, and the current traveling speed of the vehicle, so that the vehicle stops at the next traffic light. Calculate the speed. For example, the control unit 13 specifies the traffic signal that the vehicle passes next on the travel route indicated by the route information. Further, the control unit 13 calculates the arrival time at which the vehicle reaches the next traffic light from the current traveling speed of the vehicle and the distance to the next traffic light. If the next traffic light is “red” at the calculated arrival time, the control unit 13 determines to drive the vehicle at the current travel speed.
  • the control unit 13 does not generate operation information.
  • the control unit 13 calculates a traveling speed at which the vehicle can reach the next traffic light in a time zone in which the next traffic light is “red”. To do. That is, the control unit 13 refers to the signal timing information of the traffic information to obtain the time zone in which the next traffic light is “red”, and the next traffic light is determined from the distance from the current position of the vehicle to the next traffic light. The traveling speed at which the vehicle can reach the next traffic light during the time zone in which it is “red” is calculated. In addition, when the calculated traveling speed is too fast or too slow due to surrounding traffic conditions, the control unit 13 does not adopt the calculated traveling speed.
  • control unit 13 calculates the traveling speed so that the vehicle is stopped not by the next traffic light but by the traffic light after the next traffic light. Specifically, the control unit 13 calculates a traveling speed at which the vehicle reaches the traffic signal in a time zone in which the traffic signal after the next traffic signal is “red”.
  • the control part 13 produces
  • the device driving unit 15 displays the travel speed calculated by the control unit 13 as a recommended speed on the display 34 and prompts the driver to travel at the recommended speed.
  • the device driving unit 15 may control the accelerator pedal and the brake pedal so that the vehicle travels at the traveling speed calculated by the control unit 13. In this case, the device driving unit 15 may use, for example, cruise control technology.
  • Embodiment 4 FIG. In the present embodiment, an example will be described in which the environment is set so that the driver is less likely to become sleepy when the passenger is sleeping.
  • a functional configuration example of the in-vehicle device 1 according to the present embodiment is as shown in FIG. 1, and a hardware configuration example is as shown in FIG. Moreover, the process example of the control part 13 which concerns on this Embodiment is as showing in FIG.
  • the control unit 13 when it is determined that the passenger is asleep, the control unit 13 changes the music flowing in the vehicle to music that makes it difficult for the driver to feel sleepy. For example, the control unit 13 generates operation information instructing the device driving unit 15 to change to music that enhances the driver's mood, and transmits the generated operation information to the device driving unit 15.
  • the device drive unit 15 instructs the audio player to change the music according to the operation information.
  • the device driving unit 15 may change the music and control the volume to be increased.
  • the driver when the passenger is asleep, the driver can continue to drive without feeling drowsiness by raising the driver's mood.
  • a processor 101 illustrated in FIG. 4 is an IC (Integrated Circuit) that performs processing.
  • the processor 101 is a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or the like.
  • the memory 102 illustrated in FIG. 4 is a RAM (Random Access Memory), a flash memory, an HDD (Hard Disk Drive), or the like.
  • the memory 102 also stores an OS (Operating System). At least a part of the OS is executed by the processor 101.
  • the processor 101 executes at least a part of the OS, while the biometric information acquisition unit 11, the passenger state determination unit 12, the control unit 13, the device driving unit 15, the route search unit 16, the wireless communication unit 17, and the operation execution unit 20 ( Hereinafter, these are collectively referred to as a “unit”) and a program for realizing the function is executed.
  • the processor 101 executes the OS, task management, memory management, file management, communication control, and the like are performed.
  • the in-vehicle device 1 may include a plurality of processors.
  • information, data, signal values, and variable values indicating the result of the processing of “unit” are stored in the memory 102, a register in the processor 101, or a cache memory.
  • the program for realizing the function of “unit” may be stored in a portable storage medium such as a magnetic disk, a flexible disk, an optical disk, a compact disk, a Blu-ray (registered trademark) disk, or a DVD.
  • the in-vehicle device 1 may be realized by an electronic circuit such as a logic IC (Integrated Circuit), a GA (Gate Array), an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-Programmable Gate Array).
  • each “unit” is realized as part of an electronic circuit.
  • the processor and the electronic circuit are also collectively referred to as a processing circuit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

同乗者状態判定部(12)は、運転者以外の車両の搭乗者である同乗者が眠っているか否かを判定する。動作実行部(20)は、同乗者状態判定部(12)により同乗者が眠っていると判定された場合に、運転者が眠気を感じるのを防止するための眠気防止動作を実行する。

Description

車載装置、居眠り運転防止方法及び居眠り運転防止プログラム
 居眠り運転を防止する技術に関する。
 運転者の居眠りが原因の事故を防止するために、車内にセンサを取り付け、センサを用いて運転者が眠気を感じているか否かを検出する技術がある(例えば、特許文献1)。
特開2010-134533号公報
 特許文献1の技術では、センサを用いて運転者が眠気を感じているか否かを検出し、運転者が眠気を感じている場合に、運転者を覚醒させるための動作を行っている。しかしながら、特許文献1の技術では、運転者が眠気を感じてから運転者を覚醒させるための動作を開始するため、運転者が完全に覚醒するまでに時間を要する。運転者が完全に覚醒するまでの間は、運転者は注意力を欠いた状態で運転をしている。
 このように、特許文献1の技術では、運転者が眠気を感じてから運転者を覚醒させるための動作を開始するため、運転者が注意力を欠いた状態で運転をしている時間が長く、安全性が十分ではないという課題がある。
 本発明は、上記のような課題を解決することを主な目的としており、運転者に眠気を感じさせないようにすることを主な目的とする。
 本発明に係る車載装置は、
 車両に搭載される車載装置であって、
 運転者以外の前記車両の搭乗者である同乗者が眠っているか否かを判定する同乗者状態判定部と、
 前記同乗者状態判定部により前記同乗者が眠っていると判定された場合に、前記運転者が眠気を感じるのを防止するための眠気防止動作を実行する動作実行部とを有する。
 本発明によれば、運転者が同乗者につられて眠気を感じる前に眠気防止動作を実行するため、運転者は眠気を感じることなく運転を続けることができる。
実施の形態1に係る車載装置の機能構成例を示す図。 実施の形態1に係る制御部の処理例を示すフローチャート図。 実施の形態1に係る動作情報の例を示す図。 実施の形態1に係る車載装置のハードウェア構成例を示す図。 実施の形態2に係る車載装置の機能構成例を示す図。 実施の形態2に係る制御部の処理例を示すフローチャート図。 実施の形態3に係る車載装置の機能構成例を示す図。 実施の形態3に係る制御部の処理例を示すフローチャート図。
実施の形態1.
***構成の説明***
 図1は、本実施の形態に係る車載装置1の機能構成例を示す。
 また、図4は、本実施の形態に係る車載装置1のハードウェア構成例を示す。
 車載装置1は、図示していない車両に搭載されているものとする。
 なお、車載装置1により行われる動作は、居眠り運転防止方法及び居眠り運転防止プログラムの例である。
 先ず、図4を参照して、車載装置1のハードウェア構成について説明する。
 図4に示すように、車載装置1は、プロセッサ101、メモリ102、画像インターフェース103、センサインターフェース104、スピーカー制御インターフェース105、ディスプレイ制御インターフェース106、ペダル制御インターフェース107、ハンドル制御インターフェース108、シート制御インターフェース109を備えるコンピュータである。
 プロセッサ101は、図1に示す生体情報取得部11、同乗者状態判定部12、動作実行部20(制御部13及び機器駆動部15)を実現するプログラムを実行する。つまり、生体情報取得部11、同乗者状態判定部12、動作実行部20は、プログラムで実現される。
 生体情報取得部11、同乗者状態判定部12、動作実行部20を実現するプログラムは、メモリ102に格納されている。プロセッサ101は、メモリ102から生体情報取得部11、同乗者状態判定部12、動作実行部20を実現するプログラムを読み込んで、このプログラムを実行する。
 また、メモリ102は、図1に示すルート情報保持部14を実現する。
 また、車載装置1は、画像インターフェース103を介してカメラ31に接続されている。
 画像インターフェース103は、カメラ31から撮影画像を取得し、取得した撮影画像をプロセッサ101に転送する回路である。
 また、車載装置1は、センサインターフェース104を介してセンサ32に接続されている。
 センサインターフェース104は、センサ32からセンサデータを取得し、取得したセンサデータをプロセッサ101に転送する回路である。
 また、車載装置1は、スピーカー制御インターフェース105を介してスピーカー33に接続されている。
 スピーカー制御インターフェース105は、プロセッサ101からの指示に従って、スピーカー33を制御する回路である。
 また、車載装置1は、ディスプレイ制御インターフェース106を介してディスプレイ34に接続されている。
 ディスプレイ制御インターフェース106は、プロセッサ101からの指示に従って、ディスプレイ34を制御する回路である。
 また、車載装置1は、ペダル制御インターフェース107を介してペダル35に接続されている。
 ペダル制御インターフェース107は、プロセッサ101からの指示に従って、ペダル35を制御する回路である。なお、ペダル35には、アクセルペダルとブレーキペダルが含まれる。
 また、車載装置1は、ハンドル制御インターフェース108を介してハンドル36に接続されている。
 ハンドル制御インターフェース108は、プロセッサ101からの指示に従って、ハンドル36を制御する回路である。なお、ハンドル36には振動を発生させるバイブレータが内蔵されている。
 また、車載装置1は、シート制御インターフェース109を介してシート37に接続されている。
 シート制御インターフェース109は、プロセッサ101からの指示に従って、シート37を制御する回路である。なお、シート37には振動を発生させるバイブレータが内蔵されている。
 なお、以下では、スピーカー33、ディスプレイ34、ペダル35、ハンドル36、シート37をまとめて機器ともいう。
 次に、図1を参照して、車載装置1の機能構成を説明する。
 生体情報取得部11は、図4の画像インターフェース103を介してカメラ31から撮影画像を取得する。カメラ31は、車両の同乗者の顔を撮影可能な位置に配置されており、生体情報取得部11は、同乗者の顔を撮影した画像(以下、顔画像という)をカメラ31より取得する。カメラ31は、画像解析を行い、同乗者の目や口の位置を検出し、また、同乗者の顔の向きを検出する。なお、同乗者とは、運転者以外の車両の搭乗者である。
 更に、生体情報取得部11は、図4のセンサインターフェース104を介してセンサ32からセンサデータを取得する。センサ32は、同乗者の体温の計測又は/及び同乗者の呼吸数の計測を行う。体温を計測するセンサ32として、赤外線カメラを用いることが考えられる。また、体温を計測するセンサ32として、シートに取り付けた温度センサを用いることが考えられる。また、呼吸数を計測するセンサ32として、RF(Radio Frequency)センサを用いることが考えられる。つまり、RFセンサが同乗者の胸の動きを観測し、呼吸数を計測する。また、カメラ31が同乗者の体の動きを撮影して、呼吸数を計測するようにしてもよい。
 なお、生体情報取得部11が取得する撮影画像及びセンサデータを生体情報という。生体情報取得部11は、取得した生体情報を同乗者状態判定部12に送信する。
 同乗者状態判定部12は、生体情報取得部11から生体情報を取得する。そして、同乗者状態判定部12は、生体情報を解析して同乗者が眠っているか否かを判定する。
 同乗者状態判定部12は、例えば、同乗者の顔画像から目の画像を取り出し、目の画像に対して画像解析を行う。そして、同乗者状態判定部12は、目の画像に瞳が映っているか否かを解析して、同乗者が目を開けている状態か目を閉じている状態かを判定する。そして、一定時間以上継続して、同乗者が目を閉じている場合に、同乗者状態判定部12は、同乗者が眠っていると判定する。
 また、同乗者状態判定部12は、センサ32での体温の計測により得られたセンサデータを用いて、同乗者の体温が閾値以上(例えば、1℃以上)上昇したか否かを判定する。同乗者の体温が閾値以上上昇した場合には、同乗者状態判定部12は、同乗者が眠っていると判定する。
 また、同乗者状態判定部12は、センサ32での呼吸数の計測により得られたセンサデータを用いて、同乗者の呼吸数の平均値が、一定期間継続して、閾値以上少なくなっているか否かを判定する。そして、同乗者の呼吸数の平均値が閾値以上少なくなっている場合は、同乗者状態判定部12は、同乗者が眠っていると判定する。
 同乗者状態判定部12は、これらの判定手法を組み合わせて同乗者が眠っているか否かを判定するようにしてもよい。また、同乗者状態判定部12は、上述の判定手法以外の判定手法を用いてもよい。
 同乗者状態判定部12は、判定結果を同乗者情報として、制御部13に送信する。
 なお、同乗者状態判定部12により行われる処理は、同乗者状態判定処理に相当する。
 ルート情報保持部14は、車両の目的地までの走行ルートが示されるルート情報を保持している。
 ルート情報保持部14は、制御部13からの要求に応じて、ルート情報を制御部13に送信する。
 制御部13は、同乗者状態判定部12から同乗者情報を取得する。そして、同乗者情報において同乗者が眠っていることが通知されている場合は、制御部13は、機器駆動部15に動作情報を送信する。同乗者が眠っている場合には、運転者も今後、眠気を感じることが予想されるため、制御部13は、動作情報を機器駆動部15に送信して、運転者が眠気を感じるのを防止するための眠気防止動作を実行する。
 動作情報には、機器駆動部15が行うべき眠気防止動作が記述される。
 制御部13は、眠気防止動作として、例えば、車両の部位のうち運転者が触れる接触部位を動かすように、機器駆動部15に指示する。接触部位は、例えば、ペダル35、ハンドル36、シート37である。
 また、制御部13は、眠気防止動作として、例えば、スピーカー33から、音声を出力するように機器駆動部15に指示する。
 また、制御部13は、眠気防止動作として、例えば、ディスプレイ34から、メッセ-ジを出力するように機器駆動部15に指示する。
 機器駆動部15は、制御部13から動作情報を取得し、動作情報に従って、機器を制御して眠気防止動作を行う。
 前述したように、機器駆動部15は、例えば、接触部位であるペダル35、ハンドル36、シート37を動かす。
 また、機器駆動部15は、スピーカー33から音声を出力させる。
 また、機器駆動部15は、ディスプレイ34からメッセ-ジを出力させる。
 なお、制御部13及び機器駆動部15をまとめて動作実行部20という。また、制御部13及び機器駆動部15により行われる処理は、動作実行処理に相当する。
 ***動作の説明***
 図2は、制御部13の処理例を示すフローチャートである。図2を参照して、制御部13の処理を説明する。なお、以下では、制御部13が、眠気防止動作として、接触部位を動かせてナビゲーションを行う例を説明する。
 制御部13は、まず、同乗者状態判定部12から同乗者情報を取得する(ステップST100)。
 次に、制御部13は、同乗者情報を解析して、同乗者が眠っているか否かを判定する(ステップST101)。
 同乗者が眠っていると判定した場合は、制御部13は、ルート情報保持部14からルート情報を取得する(ステップST102)。一方、同乗者が眠っていないと判定した場合には、ステップST100を繰り返す。
 次に、制御部13は、ステップST102で取得したルート情報に基づき、動作情報を生成する(ステップST103)。
 ここでは、眠気防止動作として、シート37、ハンドル36、ペダル35を動かせてナビゲーションを行う例を説明する。
 制御部13は、ステップST102で取得したルート情報に基づき、車両が右折又は左折する地点であるターン地点を特定する。そして、制御部13は、ターン地点の手前の任意の地点(例えば、ターン地点の100m手前)に車両が到達した際に運転者のシート37を振動させることを機器駆動部15に指示する動作情報を生成する。より具体的には、制御部13は、車両がターン地点で右折する場合には、運転者のシート37の右側を振動させることを機器駆動部15に指示する動作情報を生成する。また、車両がターン地点で左折する場合には、運転者のシートの左側を振動させることを機器駆動部15に指示する動作情報を生成する。
 また、制御部13は、ターン地点に車両が到達した際に車両のハンドル36を振動させることを機器駆動部15に指示する動作情報を生成する。より具体的には、制御部13は、車両がターン地点で右折する場合には、ハンドル36の右側を振動させることを機器駆動部15に指示する動作情報を生成する。また、車両がターン地点で左折する場合には、ハンドル36の左側を振動させることを機器駆動部15に指示する動作情報を生成する。
 また、制御部13は、ターン地点の手前の任意の地点(例えば、ターン地点の100m手前)に車両が到達した際に車両のブレーキペダルを踏み込む方向に動かすことを機器駆動部15に指示する動作情報を生成する。
 また、制御部13は、ターン地点の手前の任意の地点(例えば、ターン地点の100m手前)に車両が到達した際に車両のアクセルペダルを押し戻す方向に動かすことを機器駆動部15に指示する動作情報を生成する。
 動作情報には、動作させる機器名と、動作内容、動作開始時刻、動作時間が含まれる。
 図3は、動作情報の例を示す。図3は、車両がターン地点で左折する場合の動作情報を示す。
 なお、制御部13は、図1及び図4に図示していない車速センサから車両の車速を取得し、また、図1及び図4に図示していないGPS(Global Positioning System)システムから車両の現在位置を取得して、図3の動作情報を生成する。
 次に、図2に戻り、制御部13は、ステップST103で生成した動作情報を機器駆動部15に送信する(ステップST104)。
 機器駆動部15は、制御部13から動作情報を取得し、動作情報に従って機器を制御して、眠気防止動作を行う。
 図3の動作情報を取得した場合は、機器駆動部15は、動作情報に記述されるタイミングで、シート37内のバイブレータを制御して、シート37の左側を振動させる。また、機器駆動部15は、動作情報に記述されるタイミングで、ハンドル36内のバイブレータを制御して、ハンドル36の左側を振動させる。また、機器駆動部15は、動作情報に記述されるタイミングで、ペダル35のブレーキペダルを制御して、ブレーキペダルを踏み込む方向に動かす。
 また、機器駆動部15は、シート37、ハンドル36、ペダル35の動きに合わせて、ディスプレイ34にメッセージを表示し、スピーカー33から音声を出力するようにしてもよい。
 また、機器駆動部15は、シート37、ハンドル36、ペダル35を動かす代わりに、ナビゲーションの音声を大きくするようにスピーカー33の音量を変更してもよい。
***実施の形態の効果の説明***
 以上のように、本実施の形態では、同乗者が眠っている場合に、運転者が同乗者につられて眠気を感じる前に眠気防止動作を実行するため、運転者は眠気を感じることなく運転を続けることができる。
実施の形態2.
 以上の実施の形態1では、同乗者が眠っている場合に、機器を動かしてナビゲーションを行う例を説明した。本実施の形態では、同乗者が眠っている場合に、車両の走行ルートを変更する例を説明する。
***構成の説明***
 図5は、本実施の形態に係る車載装置1の機能構成例を示す。
 図1と同様の構成要素については、同一の符号を付与する。
 図5では、図1に示す構成に、ルート探索部16が追加されている。
 ルート探索部16は、予め設定された目的地に対して、地図情報を用いて、走行ルートを検索する。そして、ルート探索部16は、検索により得られた走行ルートが示されるルート情報をルート情報保持部14に格納する。
 また、ルート探索部16は、制御部13からのルート変更指示を取得すると、ルート変更指示に応じて走行ルートを再検索する。例えば、ルート探索部16は、制御部13から、曲がり角の多い走行ルートを検索するよう指示を受ける場合がある。また、ルート探索部16は、信号機の多い走行ルートを検索するよう指示を受ける場合がある。また、ルート探索部16は、制御部13から、目的地により早く到着する走行ルートを検索するよう指示を受ける場合がある。更に、ルート探索部16は、車両が夜間に走行している場合は、制御部13から、幹線道路などの街灯の明るい走行ルートを検索するよう指示を受ける場合がある。
 ルート探索部16は、走行ルートを再検索した場合は、再検索により得られた走行ルートが示されるルート情報をルート情報保持部14に格納する。
 本実施の形態では、制御部13は、車両の目的地までの走行ルートが設定され、当該走行ルートに従ったナビゲーションが行われている場合に、眠気防止動作として、現在の走行ルートに代えて、現在の走行ルートと比較して運転者が眠気を感じにくい新たな走行ルートを設定する。そして、制御部13は、機器駆動部15に新たな走行ルートに従ったナビゲーションを行わせる。
 つまり、同乗者が眠っている場合には、運転者も今後、眠気を感じることが予想されるため、制御部13は、現在の走行ルートから、運転者が眠気をより感じにくい走行ルートに変更する。
 例えば、制御部13は、信号機の多い走行ルートに変更することで、信号機で停止するためのブレーキ操作が増えるようにして運転者が眠気を感じにくくする。また、制御部13は、曲がり角の多い走行ルートに変更することで、ハンドル操作やブレーキ操作が増えるようにして運転者が眠気を感じにくくする。また、車両が夜間に走行している場合は、制御部13は、幹線道路などの街灯の明るい走行ルートに変更することで、暗い道での走行に比べて、運転者が眠気を感じにくくする。
 また、制御部13は、走行ルートを、目的地により早く到着する走行ルートに変更するようにしてもよい。
 更に、制御部13は、目的地が遠い場合には、走行ルートを、サービスエリアなど休憩できる場所が含まれる走行ルートに変更するようにしてもよい。
 なお、また、制御部13は、走行ルートを変更する前に、運転者に走行ルートを変更するか否かを確認するようにしてもよい。
 制御部13は、ルート探索部16に、新たな走行ルートを検索するように指示し、ルート探索部16の検索により得られた新たな走行ルートに従ったナビゲーションを機器駆動部15に行わせる。
 機器駆動部15は、制御部13により指定された新たな走行ルートに従ったナビゲーションを行う。
 なお、本実施の形態では、制御部13、機器駆動部15及びルート探索部16が動作実行部20を構成する。
 また、制御部13、機器駆動部15、ルート探索部16以外の構成要素は、図1に示したものと同じであるため、説明を省略する。
 本実施の形態に係る車載装置1のハードウェア構成例は図4に示すとおりである。なお、本実施の形態では、プロセッサ101が、ルート探索部16を実現するプログラムを実行して、以下に示すルート探索部16の処理を行うものとする。
 以下では、主に実施の形態1との差異を説明する。以下で説明していない事項は、実施の形態1と同じである。
 ***動作の説明***
 図6は、制御部13の処理例を示すフローチャートである。図6を参照して、制御部13の動作を説明する。
 制御部13は、まず、同乗者状態判定部12から同乗者情報を取得する(ステップST100)。
 次に、制御部13は、同乗者情報を解析して、同乗者が眠っているか否かを判定する(ステップST101)。
 同乗者が眠っていると判定した場合は、制御部13は、ルート変更指示を生成する(ステップST200)。例えば、制御部13は、信号機の数が現在の走行ルートよりも多い新たな走行ルートを検索するよう指示するルート変更指示を生成する。
 次に、制御部13は、ルート探索部16にルート変更指示を送信する(ステップST201)。
 ルート探索部16は、ルート変更指示に従って、走行ルートを再検索し、再検索により得られた新たな走行ルートを示すルート情報をルート情報保持部14に格納する。
 次に、制御部13は、ルート探索部16の再検索により得られた新たな走行ルートが示されるルート情報をルート情報保持部14から取得する(ステップST102)。
 次に、制御部13は、動作情報を生成する(ステップST103)。
 具体的には、制御部13は、ステップST102で取得したルート情報に示される新たな走行ルートをディスプレイ34に表示し、新たな走行ルートに従ったルート案内を行うよう機器駆動部15に指示する動作情報を生成する。
 そして、制御部13は、ステップST103で生成した動作情報を機器駆動部15に送信する(ステップST104)。
 なお、機器駆動部15が新たな走行ルートに従ってルート案内を行っている際に同乗者が起きた場合は、制御部13は変更前の走行ルートに戻すようにしてもよい。つまり、制御部13は、変更前の走行ルートに従ってルート案内を行うよう機器駆動部15に指示する動作情報を機器駆動部15に送信してもよい。
***実施の形態の効果の説明***
 以上のように、本実施の形態では、同乗者が眠っている場合に、より眠気を感じにくい走行ルートに変更するため、運転者は眠気を感じることなく運転を続けることができる。
実施の形態3.
 本実施の形態では、信号機で停車する機会を増やすことにより運転者が眠気を感じることを防止する例を説明する。
***構成の説明***
 図7は、本実施の形態に係る車載装置1の機能構成例を示す。
 図1と同様の構成要素については、同一の符号を付与する。
 図7では、図1に示す構成に、無線通信部17及び交通情報保持部18が追加されている。
 無線通信部17は、車外の基地局と無線通信を行い、交通情報を取得する。交通情報には、信号機が切り替わるタイミングの情報(以下、信号タイミング情報という)が含まれる。無線通信部17は、取得した交通情報を交通情報保持部18に格納する。
 交通情報保持部18は、無線通信部17が受信した交通情報を保持し、制御部13から要求された際に、交通情報を制御部13に送信する。
 本実施の形態では、制御部13は、交通情報保持部18から交通情報を取得する。また、制御部13は、交通情報とルート情報と車両の現在位置情報から、眠気防止動作として、車両を信号機で停止させるための走行速度を算出し、算出した走行速度で車両を走行させる。つまり、制御部13は、車両が通行することになる信号機が「赤」になっている時間帯に車両が当該信号機に到達する走行速度を算出する。制御部13は、このようにして算出した走行速度で走行するよう機器駆動部15に指示する動作情報を生成し、生成した動作情報を機器駆動部15に送信する。
 機器駆動部15は、動作情報で指示された走行速度で車両を走行させるための制御を行う。例えば、機器駆動部15は、動作情報で指示された走行速度を、推奨走行速度としてディスプレイ34に表示する。また、機器駆動部15は、アクセルペダルやブレーキペダルを制御して、動作情報で指示された走行速度で車両を走行させる。
 なお、本実施の形態では、制御部13及び機器駆動部15が動作実行部20を構成する。
 また、制御部13、機器駆動部15、無線通信部17、交通情報保持部18以外の構成要素は、図1に示したものと同じであるため、説明を省略する。
 本実施の形態に係る車載装置1のハードウェア構成例は図4に示すとおりである。なお、本実施の形態では、プロセッサ101が、無線通信部17を実現するプログラムを実行して、以下に示す無線通信部17の処理を行うものとする。また、メモリ102が交通情報保持部18を実現するものとする。
 以下では、主に実施の形態1との差異を説明する。以下で説明していない事項は、実施の形態1と同じである。
***動作の説明***
 図8は、車載装置1における制御部の動作を示したフローチャートである。図8を参照して、制御部13の動作を説明する。
 制御部13は、まず、同乗者状態判定部12から同乗者情報を取得する(ステップST100)。
 次に、制御部13は、同乗者情報を解析して、同乗者が眠っているか否かを判定する(ステップST101)。
 同乗者が眠っていると判定した場合は、制御部13は、交通情報保持部18から交通情報を取得する(ステップST300)。また、制御部13は、ルート情報保持部14からルート情報を取得し、GPSシステムから車両の現在位置を取得し、車速センサから車両の現在の走行速度を取得する。
 次に、制御部13は、取得した交通情報から機器駆動部15に指示する走行速度を算出する(ステップST301)。すなわち、制御部13は、交通情報に含まれる信号タイミング情報と、ルート情報と、車両の現在位置と、車両の現在の走行速度とを用いて、次の信号機で車両が停止することになる走行速度を算出する。例えば、制御部13は、ルート情報に示される走行ルートにおいて車両が次に通行する信号機を特定する。また、制御部13は、車両の現在の走行速度と次の信号機までの距離から、車両が次の信号機に到達する到達時刻を算出する。そして、算出した到達時刻に次の信号機が「赤」であれば、制御部13は、現在の走行速度のまま車両を走行させることを決定する。この場合は、制御部13は、動作情報を生成しない。一方、算出した到達時刻に次の信号機が「赤」でなければ、制御部13は、次の信号機が「赤」である時間帯に車両が次の信号機に到達することができる走行速度を算出する。つまり、制御部13は、交通情報の信号タイミング情報を参照して次の信号機が「赤」になっている時間帯を求め、車両の現在位置から次の信号機までの距離から、次の信号機が「赤」になっている時間帯に車両が当該次の信号機に到達することができる走行速度を算出する。なお、算出した走行速度が周囲の交通状況から速すぎる場合や遅すぎる場合には、制御部13は、算出した走行速度を採用しない。つまり、制御部13は、次の信号機ではなく、次の信号機の後の信号機で車両を停止させるように走行速度を計算する。具体的には、制御部13は、次の信号機の後の信号機が「赤」になる時間帯に車両が当該信号機に到達することになる走行速度を算出する。
 次に、制御部13は、算出した走行速度を通知する動作情報を生成する(ステップST103)。
 そして、制御部13は、生成した動作情報を機器駆動部15に送信する(ステップST104)。
 機器駆動部15は、例えば、制御部13が算出した走行速度を推奨速度としてディスプレイ34に表示し、運転者に推奨速度で走行するように促す。
 また、機器駆動部15は、アクセルペダルとブレーキペダルを制御して、制御部13が算出した走行速度で車両を走行させるようにしてもよい。この場合は、機器駆動部15は、例えば、クルーズコントロール技術を利用してもよい。
***実施の形態の効果の説明***
 以上のように、本実施の形態では、同乗者が眠っている場合に、信号機で停車しやすくなるため、運転者の運転動作が増え、運転者は眠気を感じることなく運転を続けることができる。
実施の形態4.
 本実施の形態では、同乗者が眠っている場合に、運転者が眠くなりにくい車内環境とする例を説明する。
 本実施の形態に係る車載装置1の機能構成例は図1に示すとおりであり、ハードウェア構成例は図4に示すとおりである。また、本実施の形態に係る制御部13の処理例は図2に示すとおりである。
 本実施の形態では、制御部13は、同乗者が眠っていると判定した場合に、車両で流れている音楽を、運転者が眠気を感じにくい音楽に変更する。例えば、制御部13は、運転者の気分を高揚させるような音楽に変更することを機器駆動部15に指示する動作情報を生成し、生成した動作情報を機器駆動部15に送信する。
 機器駆動部15は、動作情報に従い、オーディオプレイヤーに対して、音楽を変更するように指示をする。
 なお、機器駆動部15は、音楽を変更するとともに、音量を大きくするように制御してもよい。
 以上のように、本実施の形態では、同乗者が眠っている場合に、運転者の気分を高揚させることにより、運転者は眠気を感じることなく運転を続けることができる。
 以上、本発明の実施の形態について説明したが、これらの実施の形態のうち、2つ以上を組み合わせて実施しても構わない。
 あるいは、これらの実施の形態のうち、1つを部分的に実施しても構わない。
 あるいは、これらの実施の形態のうち、2つ以上を部分的に組み合わせて実施しても構わない。
 なお、本発明は、これらの実施の形態に限定されるものではなく、必要に応じて種々の変更が可能である。
***ハードウェア構成の説明***
 最後に、車載装置1のハードウェア構成の補足説明を行う。
 図4に示すプロセッサ101は、プロセッシングを行うIC(Integrated Circuit)である。
 プロセッサ101は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)等である。
 図4に示すメモリ102は、RAM(Random Access Memory)、フラッシュメモリ、HDD(Hard Disk Drive)等である。
 メモリ102には、OS(Operating System)も記憶されている。
 そして、OSの少なくとも一部がプロセッサ101により実行される。
 プロセッサ101はOSの少なくとも一部を実行しながら、生体情報取得部11、同乗者状態判定部12、制御部13、機器駆動部15、ルート探索部16、無線通信部17、動作実行部20(以下、これらをまとめて「部」という)の機能を実現するプログラムを実行する。
 プロセッサ101がOSを実行することで、タスク管理、メモリ管理、ファイル管理、通信制御等が行われる。
 図4では、1つのプロセッサが図示されているが、車載装置1が複数のプロセッサを備えていてもよい。
 また、「部」の処理の結果を示す情報やデータや信号値や変数値が、メモリ102、又は、プロセッサ101内のレジスタ又はキャッシュメモリに記憶される。
 また、「部」の機能を実現するプログラムは、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD等の可搬記憶媒体に記憶されてもよい。
 また、「部」を、「回路」又は「工程」又は「手順」又は「処理」に読み替えてもよい。
 また、車載装置1は、ロジックIC(Integrated Circuit)、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)といった電子回路により実現されてもよい。
 この場合は、「部」は、それぞれ電子回路の一部として実現される。
 なお、プロセッサ及び上記の電子回路を総称してプロセッシングサーキットリーともいう。
 1 車載装置、11 生体情報取得部、12 同乗者状態判定部、13 制御部、14 ルート情報保持部、15 機器駆動部、16 ルート探索部、17 無線通信部、18 交通情報保持部、20 動作実行部、31 カメラ、32 センサ、33 スピーカー、34 ディスプレイ、35 ペダル、36 ハンドル、37 シート、101 プロセッサ、102 メモリ、103 画像インターフェース、104 センサインターフェース、105 スピーカー制御インターフェース、106 ディスプレイ制御インターフェース、107 ペダル制御インターフェース、108 ハンドル制御インターフェース、109 シート制御インターフェース。

Claims (14)

  1.  車両に搭載される車載装置であって、
     運転者以外の前記車両の搭乗者である同乗者が眠っているか否かを判定する同乗者状態判定部と、
     前記同乗者状態判定部により前記同乗者が眠っていると判定された場合に、前記運転者が眠気を感じるのを防止するための眠気防止動作を実行する動作実行部とを有する車載装置。
  2.  前記動作実行部は、
     前記眠気防止動作として、前記車両の部位のうち前記運転者が触れる接触部位を動かす請求項1に記載の車載装置。
  3.  前記動作実行部は、
     前記眠気防止動作として、前記接触部位を動かせてナビゲーションを行う請求項2に記載の車載装置。
  4.  前記動作実行部は、
     前記車両が右折又は左折する地点であるターン地点を特定し、前記ターン地点に前記車両が到達した際に、前記眠気防止動作として、前記車両が前記ターン地点で右折する場合には、前記接触部位である前記車両のハンドルの右側を振動させ、前記車両が前記ターン地点で左折する場合には、前記車両のハンドルの左側を振動させる請求項2に記載の車載装置。
  5.  前記動作実行部は、
     前記車両が右折又は左折する地点であるターン地点を特定し、前記ターン地点の手前の任意の地点に前記車両が到達した際に、前記眠気防止動作として、前記接触部位である前記車両の前記運転者のシートを振動させる請求項2に記載の車載装置。
  6.  前記動作実行部は、
     前記車両が前記ターン地点で右折する場合には、前記運転者のシートの右側を振動させ、前記車両が前記ターン地点で左折する場合には、前記運転者のシートの左側を振動させる請求項5に記載の車載装置。
  7.  前記動作実行部は、
     前記車両が右折又は左折する地点であるターン地点を特定し、前記ターン地点の手前の任意の地点に前記車両が到達した際に、前記眠気防止動作として、前記接触部位である前記車両のアクセルペダルを押し戻す方向に動かす請求項2に記載の車載装置。
  8.  前記動作実行部は、
     前記車両が右折又は左折する地点であるターン地点を特定し、前記ターン地点の手前の任意の地点に前記車両が到達した際に、前記眠気防止動作として、前記接触部位である前記車両のブレーキペダルを踏み込む方向に動かす請求項2に記載の車載装置。
  9.  前記動作実行部は、
     前記車両の目的地までの走行ルートが設定され、前記走行ルートに従ったナビゲーションが行われている場合に、前記眠気防止動作として、前記走行ルートに代えて、前記走行ルートと比較して前記運転者が眠気を感じにくい新たな走行ルートを設定し、前記新たな走行ルートに従ったナビゲーションを行う請求項1に記載の車載装置。
  10.  前記動作実行部は、
     前記新たな走行ルートとして、前記走行ルートと比較して曲がり角及び信号機の少なくともいずれかが多いルートを設定する請求項9に記載の車載装置。
  11.  前記動作実行部は、
     前記眠気防止動作として、前記車両を信号機で停止させるための走行速度を算出し、算出した前記走行速度で前記車両を走行させる請求項1に記載の車載装置。
  12.  前記動作実行部は、
     前記眠気防止動作として、前記車両で流れている音楽を、前記運転者が眠気を感じにくい音楽に変更する請求項1に記載の車載装置。
  13.  車両に搭載されるコンピュータが、
     運転者以外の前記車両の搭乗者である同乗者が眠っているか否かを判定し、
     前記同乗者が眠っていると判定した場合に、前記運転者が眠気を感じるのを防止するための眠気防止動作を実行する居眠り運転防止方法。
  14.  車両に搭載されるコンピュータに、
     運転者以外の前記車両の搭乗者である同乗者が眠っているか否かを判定する同乗者状態判定処理と、
     前記同乗者状態判定処理により前記同乗者が眠っていると判定された場合に、前記運転者が眠気を感じるのを防止するための眠気防止動作を実行する動作実行処理とを実行させる居眠り運転防止プログラム。
PCT/JP2016/058327 2016-03-16 2016-03-16 車載装置、居眠り運転防止方法及び居眠り運転防止プログラム WO2017158758A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP2016/058327 WO2017158758A1 (ja) 2016-03-16 2016-03-16 車載装置、居眠り運転防止方法及び居眠り運転防止プログラム
US15/774,144 US20180319279A1 (en) 2016-03-16 2016-03-16 On-vehicle apparatus, drowsy driving prevention method, and computer readable medium
DE112016006426.8T DE112016006426B4 (de) 2016-03-16 2016-03-16 Vorrichtung an einem fahrzeug, verfahren zum verhindern von schläfrigem fahren und programm zum verhindern von schläfrigem fahren
JP2017540909A JP6230764B1 (ja) 2016-03-16 2016-03-16 車載装置、居眠り運転防止方法及び居眠り運転防止プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/058327 WO2017158758A1 (ja) 2016-03-16 2016-03-16 車載装置、居眠り運転防止方法及び居眠り運転防止プログラム

Publications (1)

Publication Number Publication Date
WO2017158758A1 true WO2017158758A1 (ja) 2017-09-21

Family

ID=59851786

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/058327 WO2017158758A1 (ja) 2016-03-16 2016-03-16 車載装置、居眠り運転防止方法及び居眠り運転防止プログラム

Country Status (4)

Country Link
US (1) US20180319279A1 (ja)
JP (1) JP6230764B1 (ja)
DE (1) DE112016006426B4 (ja)
WO (1) WO2017158758A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109572714A (zh) * 2017-09-29 2019-04-05 株式会社斯巴鲁 乘员清醒装置
JP2019105886A (ja) * 2017-12-08 2019-06-27 株式会社デンソーテン 運転支援装置、運転支援システム、および運転支援方法
JP2021047622A (ja) * 2019-09-18 2021-03-25 ヤフー株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015096413A (ja) * 2013-10-11 2015-05-21 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 処理方法、プログラム、処理装置および検出システム
DE102017201405B4 (de) * 2017-01-30 2018-12-13 Audi Ag Verfahren zum Betreiben eines Kraftfahrzeugs
WO2018179406A1 (ja) * 2017-03-31 2018-10-04 本田技研工業株式会社 車載装置、情報管理サーバ、情報管理システム、および方法
JP6888542B2 (ja) * 2017-12-22 2021-06-16 トヨタ自動車株式会社 眠気推定装置及び眠気推定方法
JP2019196073A (ja) * 2018-05-09 2019-11-14 トヨタ紡織株式会社 乗物乗員の活性化度合適正化システム
DE102019204201A1 (de) * 2019-03-27 2020-10-01 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Anpassen einer Fahrstrategie eines zumindest teilautomatisiert fahrenden Fahrzeugs
JP7031998B2 (ja) * 2019-04-19 2022-03-08 矢崎総業株式会社 オーディオ制御システム及びオーディオ制御方法
KR102631160B1 (ko) * 2019-07-11 2024-01-30 엘지전자 주식회사 차량 탑승자 상태 감지방법 및 차량 탑승자 상태 감지장치
US11554781B2 (en) * 2020-03-23 2023-01-17 Aptiv Technologies Limited Driver alertness monitoring including a predictive sleep risk factor
US11941896B1 (en) * 2020-05-20 2024-03-26 Kismet Technologies Inc. System and method for alerting and monitoring health and wellness conditions of an individual within a defined environment
FR3135241B1 (fr) * 2022-05-05 2024-04-19 Psa Automobiles Sa Procédé et dispositif de contrôle d’un système d’indication d’une limite de vitesse d’un véhicule
WO2024062441A1 (en) * 2022-09-22 2024-03-28 Sleep Advice Technologies S.R.L. Real-time sleep monitoring and prediction in automotive safety critical applications

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002365061A (ja) * 2001-06-11 2002-12-18 Pioneer Electronic Corp 移動体用電子システムの制御装置及び制御方法、移動体用電子システム並びにコンピュータプログラム
WO2009054039A1 (ja) * 2007-10-22 2009-04-30 Pioneer Corporation 音量制御装置、音量制御方法、音量制御プログラムおよび記録媒体
JP2013195351A (ja) * 2012-03-22 2013-09-30 Denso Corp 車載機及び車両用乗員覚醒システム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4294401B2 (ja) * 2003-07-25 2009-07-15 富士重工業株式会社 車両用走行支援装置
KR100753983B1 (ko) * 2006-03-07 2007-08-31 김학선 차량의 주행안전거리 자동제어시스템과 그 방법
US7692552B2 (en) * 2007-01-23 2010-04-06 International Business Machines Corporation Method and system for improving driver safety and situational awareness
JP2010134533A (ja) 2008-12-02 2010-06-17 Toyota Motor Corp 眠気検出装置
DE102011086474A1 (de) 2011-11-16 2013-05-23 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Luftverbesserung eines Fahrgastraumes in einem Kraftfahrzeug
US9103688B2 (en) * 2013-08-21 2015-08-11 Continental Automotive Systems, Inc. Adapting vehicle personality using analyzed driver performance metrics
JP2015096413A (ja) * 2013-10-11 2015-05-21 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 処理方法、プログラム、処理装置および検出システム
JP6447226B2 (ja) * 2015-02-20 2019-01-09 アイシン精機株式会社 刺激付与装置
US9637120B2 (en) * 2015-06-24 2017-05-02 Delphi Technologies, Inc. Cognitive driver assist with variable assistance for automated vehicles
US9751506B2 (en) * 2015-10-27 2017-09-05 GM Global Technology Operations LLC Algorithms for avoiding automotive crashes at left and right turn intersections

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002365061A (ja) * 2001-06-11 2002-12-18 Pioneer Electronic Corp 移動体用電子システムの制御装置及び制御方法、移動体用電子システム並びにコンピュータプログラム
WO2009054039A1 (ja) * 2007-10-22 2009-04-30 Pioneer Corporation 音量制御装置、音量制御方法、音量制御プログラムおよび記録媒体
JP2013195351A (ja) * 2012-03-22 2013-09-30 Denso Corp 車載機及び車両用乗員覚醒システム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109572714A (zh) * 2017-09-29 2019-04-05 株式会社斯巴鲁 乘员清醒装置
JP2019067070A (ja) * 2017-09-29 2019-04-25 株式会社Subaru 乗員覚醒装置
US10363870B2 (en) 2017-09-29 2019-07-30 Subaru Corporation Passenger wake-up apparatus
JP2019105886A (ja) * 2017-12-08 2019-06-27 株式会社デンソーテン 運転支援装置、運転支援システム、および運転支援方法
JP7016685B2 (ja) 2017-12-08 2022-02-07 株式会社デンソーテン 運転支援装置、運転支援システム、および運転支援方法
JP2021047622A (ja) * 2019-09-18 2021-03-25 ヤフー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP7077284B2 (ja) 2019-09-18 2022-05-30 ヤフー株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Also Published As

Publication number Publication date
JP6230764B1 (ja) 2017-11-15
JPWO2017158758A1 (ja) 2018-03-29
DE112016006426B4 (de) 2019-12-19
DE112016006426T5 (de) 2018-10-31
US20180319279A1 (en) 2018-11-08

Similar Documents

Publication Publication Date Title
JP6230764B1 (ja) 車載装置、居眠り運転防止方法及び居眠り運転防止プログラム
JP5228970B2 (ja) 居眠り防止装置
JP7060031B2 (ja) 運転者監視システム
BR102017017510B1 (pt) Sistema e método de controle para veículo de direção autônoma
JP2016110449A (ja) 運転支援システムおよび運転支援方法
JP2018032321A (ja) 自動運転車両の制御システム及び制御方法
US20130110367A1 (en) Vehicle speed limiting and/or controllong system that is responsive to gps signals
JP6714552B2 (ja) 車両制御装置
JP2009213768A (ja) 運転者状態判定装置
US20200307644A1 (en) Control system for vehicle, notification method for vehicle, and medium
JP2013171502A (ja) 警告装置、警告方法
JP2008120164A (ja) 乗員覚醒システム
JP2019061480A (ja) 運転者支援装置及び運転者支援方法
JP4926182B2 (ja) 信号認識装置、信号認識方法、信号認識プログラム、および記録媒体
JP2019036018A (ja) 運転者支援装置及び運転者支援方法
JP2006178833A (ja) 警報発生システム、警報発生装置及び通信機器
JP2006193095A (ja) 走行支援システム、及び走行支援装置
JP2010009413A (ja) 情報提供システム、情報提供方法
JP6377034B2 (ja) 車両用眠気防止装置および車両用眠気防止方法
JP2015112327A (ja) 歩行支援機
US10969240B2 (en) Systems and methods for controlling vehicle systems using experience attributes
JP2022097203A (ja) 制御装置、方法、及びプログラム
JPWO2018042623A1 (ja) 情報処理装置、通信端末、情報処理方法、および通信端末の制御方法
WO2018163536A1 (ja) 運転者身体コンディション回復支援装置、方法およびプログラム
JP2012088965A (ja) 警報システムおよびそれに用いられる車載装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2017540909

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15774144

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 112016006426

Country of ref document: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16894376

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 16894376

Country of ref document: EP

Kind code of ref document: A1