WO2020012635A1 - 通報装置および通報方法 - Google Patents

通報装置および通報方法 Download PDF

Info

Publication number
WO2020012635A1
WO2020012635A1 PCT/JP2018/026474 JP2018026474W WO2020012635A1 WO 2020012635 A1 WO2020012635 A1 WO 2020012635A1 JP 2018026474 W JP2018026474 W JP 2018026474W WO 2020012635 A1 WO2020012635 A1 WO 2020012635A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
vehicle
driver
communication
prediction unit
Prior art date
Application number
PCT/JP2018/026474
Other languages
English (en)
French (fr)
Inventor
卓爾 森本
政信 大澤
三浦 紳
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2020529945A priority Critical patent/JP6884282B2/ja
Priority to PCT/JP2018/026474 priority patent/WO2020012635A1/ja
Priority to CN201880095513.1A priority patent/CN112384958B/zh
Priority to US17/252,373 priority patent/US11364918B2/en
Publication of WO2020012635A1 publication Critical patent/WO2020012635A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/26Incapacity
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2756/00Output or target parameters relating to data
    • B60W2756/10Involving external transmission of data to or from the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks

Definitions

  • the present invention relates to a reporting device and a reporting method for detecting a sign of an abnormal state in which a driver loses the ability to drive a vehicle and reporting to a terminal of an external call center.
  • Patent Literature 1 describes a device that, when determining that a driver of a vehicle has fallen into an abnormal state, transmits a help signal to an external device and decelerates the vehicle at a constant deceleration. .
  • the present invention has been made to solve the above-described problems, and a report that can report that there is a sign that a driver will be in an abnormal state even when a point where the driver of the vehicle is predicted to be in an abnormal state is a communication disabled area.
  • the purpose is to obtain a device and a notification method.
  • a notification device includes a position information acquisition unit, a map information acquisition unit, a communication unit, a road prediction unit, a time prediction unit, a position prediction unit, an area prediction unit, and a notification unit.
  • the position information obtaining unit obtains position information of the vehicle.
  • the map information acquisition unit acquires map information.
  • the communication unit communicates with the external device by wireless communication.
  • the road prediction unit predicts a road on which the vehicle moves from the current position and passes based on the position information of the vehicle acquired by the position information acquisition unit and the map information acquired by the map information acquisition unit.
  • the detection unit detects a sign of an abnormal state where the driver of the vehicle loses the ability to drive.
  • the time prediction unit predicts the time until the driver, which has been detected by the detection unit as a sign of an abnormal state, enters the abnormal state.
  • the position predicting unit is configured to detect a vehicle that has passed the time predicted by the time predicting unit after the detection unit detects a sign that the driver falls into an abnormal state on the road on which the vehicle is predicted to pass by the road predicting unit. Predict the location of.
  • the area prediction unit monitors the communication status between the communication unit and the external device, and the road predicted to pass by the vehicle by the road prediction unit is included in a communication-disabled area where communication by the communication unit is disabled. Predict that.
  • the notification unit uses the communication unit to detect the position of the point where the detection unit detects a sign that the driver will enter an abnormal state. To the external device that the driver has detected a sign of falling into the vehicle.
  • the position of the vehicle after the time until the driver falls into an abnormal state on the road on which the vehicle is predicted to pass is predicted, and the predicted vehicle position is included in the communication disabled area.
  • the external device is notified that the driver has detected a sign of an abnormal state at a position where a sign of the driver's sign of an abnormal state is detected.
  • FIG. 2 is a block diagram illustrating a configuration of a notification device according to Embodiment 1 of the present invention.
  • 5 is a flowchart illustrating a notification method according to the first embodiment.
  • FIG. 9 is a block diagram showing a configuration of a notification device according to Embodiment 2 of the present invention.
  • FIG. 4A is a block diagram showing a hardware configuration for realizing the functions of the notification device according to Embodiment 1 and Embodiment 2.
  • FIG. 4B is a block diagram showing a hardware configuration for executing software for realizing the functions of the notification device according to Embodiments 1 and 2.
  • FIG. 1 is a block diagram showing a configuration of the notification device 1 according to Embodiment 1 of the present invention.
  • the abnormal state is a state in which the driver has lost the ability to drive the vehicle.
  • a state where there is a sign that the driver falls into an abnormal state is referred to as a “first state”
  • an abnormal state in which the driver falls from the first state is referred to as a “second state”.
  • the call center terminal 2 is an external device having a wireless communication function, and receives a report from the reporting device 1 by wireless communication.
  • a report is received by the call center terminal 2
  • rescue is requested from the call center to a fire department, a police station, or a hospital according to the content of the report.
  • the notification device 1 includes a position information acquisition unit 10, a map information acquisition unit 11, a communication unit 12, a road prediction unit 13, a detection unit 14, a time prediction unit 15, a position prediction unit 16, an area prediction unit 17, and a notification unit 18. .
  • the position information acquisition unit 10 acquires current position information of a vehicle on which the notification device 1 is mounted. For example, the position information acquisition unit 10 acquires the position information of the vehicle from a positioning device typified by a GPS (Global Positioning System) receiver mounted on the vehicle. Further, the position information acquisition unit 10 may correct the position information of the vehicle using the speed of the vehicle, the traveling time of the vehicle, the steering information, and the map information.
  • GPS Global Positioning System
  • the map information acquisition unit 11 acquires map information including the current position of the vehicle. For example, the map information acquisition unit 11 acquires the map information from a navigation device mounted on a vehicle or an in-vehicle information device having a navigation function. The map information acquisition unit 11 may use the communication unit 12 to access a server that manages a map information database and acquire the map information.
  • the communication unit 12 performs communication with the call center terminal 2 by wireless communication.
  • the communication unit 12 communicates with the call center terminal 2 using a communication device mounted on a vehicle.
  • This communication device is a wireless communication device that employs a wireless communication method capable of communicating with the call center terminal 2.
  • the communication unit 12 transmits the notification information input from the notification unit 18 to the call center terminal 2 using the communication device.
  • the road prediction unit 13 predicts a road on which the vehicle moves from the current position and passes based on the vehicle position information acquired by the position information acquisition unit 10 and the map information acquired by the map information acquisition unit 11. .
  • the road prediction unit 13 may predict a road through which the vehicle passes from the current position according to the route of the vehicle set in the navigation device.
  • the road prediction unit 13 may predict a road through which the vehicle passes based on a past movement history of the driver. For example, the road prediction unit 13 predicts a past route including the current position extracted from the past movement history of the driver as a road on which the vehicle moves from the current position and passes. Further, the road prediction unit 13 may predict, from the road shape data of the map, a road on which the vehicle is likely to pass as a road on which the vehicle moves from the current position and passes. The road prediction unit 13 may predict one or more roads.
  • the detecting unit 14 detects a sign of an abnormal state in which the driver has lost the ability to drive the vehicle. For example, the detection unit 14 analyzes the image of the driver's image captured by the in-vehicle camera, and detects the first state of the driver based on the image analysis result. In addition, the detection unit 14 may detect the first state of the driver based on the driving operation of the vehicle by the driver, and may detect the first state of the driver based on the ecological information detected from the driver by the ecological sensor. May be detected.
  • the ⁇ ⁇ time prediction unit 15 predicts the time until the driver, which has been detected by the detection unit 14 as a sign of an abnormal state, enters the abnormal state. For example, the time prediction unit 15 may determine a time preset for each of the first states detected by the detection unit 14 as a time at which the driver is predicted to fall into the second state. In addition, the time prediction unit 15 may learn the time from the first state to the second state for each driver.
  • the detection unit 14 detects that the driver is in the first state.
  • the first state at this time is considered to be a state in which a sign that the driver cannot drive due to a driver falling asleep or a pathological factor appears.
  • the time prediction unit 15 determines B (A ⁇ B) (seconds) preset in this state to the driver. Is estimated to be the time from the first state to the second state.
  • the detecting unit 14 detects that the driver's state is the first state when the state in which the driver has driven the vehicle so as to stagger in the lateral direction continues for more than C (seconds). Is also good.
  • the time prediction unit 15 sets D (C ⁇ D) (seconds) that has been set in this state in advance. ) Is predicted as the time required for the driver to fall from the first state to the second state.
  • ⁇ ⁇ A (second) or C (second), which is a threshold for detecting the first state of the driver may be a value learned for each driver.
  • the detection unit 14 uses the driving history data of the driver to learn the threshold value for detecting the first state of the driver for each driver. By reflecting the normal driving operation of the driver in the detection of the first state, the detection accuracy of the first state of the driver is improved.
  • ⁇ Circle around (2) ⁇ B (second) or D (second), which is the time required for the driver to fall from the first state to the second state, may be a value learned for each driver.
  • the time prediction unit 15 uses the driving history data of the driver to learn the time required for the driver to fall from the first state to the second state for each driver. By reflecting the driver's usual driving operation on the prediction of the time until the driver falls from the first state to the second state, the accuracy of the predicted time is improved.
  • the detection unit 14 calculates the likelihood that the driver falls into the second state based on the speed of the vehicle, the degree of the vehicle wobbling in the lateral direction, and the degree of closing of the driver's eyes.
  • the driver may be detected to be in the first state.
  • the degree of wobbling of the traveling vehicle in the lateral direction is, for example, the frequency per unit time at which the vehicle wanders in the lateral direction
  • the degree of the driver closing his eyes is, for example, that the driver has closed his eyes.
  • Total time For the calculation of the likelihood, a general statistical method or a machine learning method may be used.
  • the time prediction unit 15 changes F (E ⁇ F) (seconds) preset in this state from the first state to the second state. Predict time.
  • the detection unit 14 assigns weights to a plurality of factors for detecting that the driver is in the first state, and the driver changes the first state based on the plurality of weighted factors.
  • the likelihood of the second state may be learned.
  • the plurality of factors include, for example, the speed of the vehicle, the degree of wobble in the lateral direction of the vehicle, and the degree of closing of the driver's eyes.
  • the detecting unit 14 learns the likelihood by lowering the weight of the degree of the lateral fluctuation of the vehicle. This allows the driver's usual driving operation to be reflected in the learning of the likelihood.
  • the threshold E of the likelihood used for detecting the first state of the driver may be a value learned for each driver.
  • the detection unit 14 learns the likelihood threshold value E for each driver using data on a plurality of factors. As a result, the driver's usual driving operation can be reflected on the learning of the likelihood threshold value.
  • the time predicting unit 15 may learn, for each driver, a predicted time F (second) until the driver falls from the first state to the second state, using data on a plurality of factors. Thereby, the driver's usual driving operation can be reflected in the prediction of the time until the driver falls from the first state to the second state.
  • the detection unit 14 may detect whether the driver is in the first state or the second state by using different detection methods. For example, the detection unit 14 detects the first state of the driver based on the movement of the driver's head or the movement of the steering wheel operation. When the driver completely closes his or her eyes, the detection unit 14 detects that the driver has fallen from the first state to the second state.
  • the threshold value used for detecting the first state of the driver may be a value learned for each driver.
  • the detection unit 14 learns the threshold value for each driver using data indicating the movement of the driver's head or the movement of the steering wheel operation. Thereby, the driver's usual situation in the vehicle compartment can be reflected in the learning of the threshold value.
  • the time prediction unit 15 learns, for each driver, the time until the driver falls from the first state to the second state using the data indicating the movement of the driver's head or the steering operation. May be. Thereby, the driver's usual situation in the passenger compartment can be reflected in the prediction of the time until the driver falls from the first state to the second state.
  • the position prediction unit 16 is predicted by the time prediction unit 15 after the detection unit 14 detects that the driver is in the first state on the road on which the vehicle is predicted to pass by the road prediction unit 13. Predict the position of the vehicle after a lapse of time. For example, based on the vehicle information acquired from the on-vehicle electronic control device, the position predicting unit 16 calculates the time predicted by the time predicting unit 15 out of the positions on the road where the vehicle is predicted to pass by the road predicting unit 13. Is predicted after elapse.
  • the vehicle information includes the speed of the vehicle.
  • the area prediction unit 17 monitors the communication status between the communication unit 12 and the call center terminal 2, and communicates the road for which the vehicle is predicted by the road prediction unit 13 so that the communication of the communication unit 12 becomes impossible. Predict to be included in the impossible area. For example, the area prediction unit 17 predicts a communication-disabled area including a road on which a vehicle is predicted to pass, based on a communication area map in a region where the vehicle exists.
  • the area prediction unit 17 may predict a communication-disabled area including a road on which the vehicle is predicted to pass, based on the past communication establishment history data of the communication unit 12. In addition, the area prediction unit 17 may predict a communication-disabled area including a road on which the vehicle is predicted to pass, based on the current communication strength of the communication unit 12. For example, when the communication strength decreases as the vehicle travels, the area prediction unit 17 predicts that there is an area where communication is not possible in the traveling direction of the vehicle.
  • the area prediction unit 17 may determine a specific area in which the vehicle is predicted to pass as a communication disabled area based on the vehicle position information and the map information.
  • a specific area is a tunnel. In this case, by setting the tunnel as a non-communicable area in advance, the processing load is reduced as compared with the processing for specifying the non-communicable area based on the communication strength.
  • the notification unit 18 uses the communication unit 12 at the position of the point where the first state of the driver is detected by the detection unit 14. Then, the driver is notified to the call center terminal 2 that the driver is in the first state. Thus, even if the point where the driver is predicted to fall into the abnormal state is the communication disabled area, it is possible to report that the driver has a sign of falling into the second state.
  • the notification unit 18 may notify the call center terminal 2 of the position of the vehicle predicted by the position prediction unit 16 in addition to the driver being in the first state. When a plurality of positions are predicted by the position prediction unit 16, the notification unit 18 notifies the call center terminal 2 if at least one of the positions is included in the communication disabled area.
  • FIG. 2 is a flowchart illustrating a notification method according to the first embodiment.
  • the road prediction unit 13 predicts a road on which the vehicle moves from the current position and passes based on the vehicle position information acquired by the position information acquisition unit 10 and the map information acquired by the map information acquisition unit 11. (Step ST1). Information about the road for which the vehicle is predicted to pass by the road prediction unit 13 is output to the position prediction unit 16 and the area prediction unit 17.
  • the detection unit 14 performs a process of detecting a sign of an abnormal state in which the driver of the vehicle loses the ability to drive.
  • the time prediction unit 15 confirms whether or not the detection unit 14 has detected that the driver is in the first state (step ST2).
  • step ST2 the process returns to step ST1.
  • the time prediction unit 15 determines the time until the driver falls from the first state to the second state. Predict (step ST3). For example, the time prediction unit 15 sets a time preset for each content of the first state of the driver as a time at which the driver is predicted to fall into the second state.
  • the position prediction unit 16 is predicted by the time prediction unit 15 after the detection unit 14 detects that the driver is in the first state on the road on which the vehicle is predicted to pass by the road prediction unit 13.
  • the position of the vehicle after the lapse of time is predicted (step ST4).
  • the position prediction unit 16 predicts a position where the vehicle exists after the time predicted by the time prediction unit 15 has elapsed among the positions on the road where the passage of the vehicle is predicted based on the speed information of the vehicle. .
  • the area prediction unit 17 predicts a communication-disabled area including the road on which the communication by the communication unit 12 is not possible and the vehicle is predicted to pass by the road prediction unit 13 (step ST5). For example, when the communication strength between the communication unit 12 and the call center terminal 2 decreases as the vehicle travels, the area prediction unit 17 predicts that there is a communication disabled area in the traveling direction of the vehicle. In addition, the area prediction unit 17 may predict a tunnel in which a vehicle is predicted to pass as an incommunicable area based on the position information and the map information of the vehicle.
  • the notification unit 18 confirms whether or not the road predicted by the road prediction unit 13 to pass through the vehicle is included in the communication disabled area predicted by the area prediction unit 17 (step ST6).
  • the vehicle does not pass through the area where the notification to the call center terminal 2 cannot be transmitted. Is completed.
  • the notification unit 18 determines the position of the point where the first state of the driver is detected by the detection unit 14, Using the communication unit 12, the driver is notified to the call center terminal 2 that the driver is in the first state (step ST7).
  • the notification unit 18 repeatedly executes the notification to the call center terminal 2 while the vehicle is running. When the vehicle exits the non-communicable area, the notification unit 18 can notify the call center terminal 2 that the driver is in the first state.
  • the notification unit 18 may notify the call center terminal 2 of the position of the vehicle predicted by the position prediction unit 16 in addition to the driver being in the first state. As a result, a point where the driver may fall into an abnormal state and stop or have an accident is notified to the call center, so that the call center can request the driver to rescue.
  • the notification device 1 predicts the position of the vehicle after a lapse of time until the driver falls into the second state on the road on which the vehicle is predicted to pass,
  • the call center terminal 2 is notified that the first state has been detected by the driver at the position of the point where the first state of the driver has been detected.
  • the call center terminal 2 is notified that there is a sign that the driver will fall into the second state. Can be.
  • the call center receives a notification at a stage where there is a sign that the driver is likely to fall into the second state, so that a certain time (time until the driver falls from the first state to the second state) has elapsed from the report. Sometimes it is possible to ask a fire department, police station or hospital to rescue the driver.
  • the notification method according to Embodiment 1 performs the processing shown in FIG. 2 so that even if the point at which the driver of the vehicle is predicted to fall into the second state is the communication-disabled area, the driver can perform the second communication.
  • the call center terminal 2 can be notified that there is a sign of falling into the state 2.
  • FIG. FIG. 3 is a block diagram showing a configuration of a notification device 1A according to Embodiment 2. 3, the same components as those in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted.
  • the notification device 1A is a device that, when detecting the first state of the driver of the vehicle, notifies the call center terminal 2 by wireless communication as in the first embodiment.
  • the notification device 1A includes a position information acquisition unit 10, a map information acquisition unit 11, a communication unit 12, a road prediction unit 13, a detection unit 14A, a time prediction unit 15, a position prediction unit 16, an area prediction unit 17A, and a notification unit 18A. .
  • Detecting unit 14A detects the first state of the driver in the same manner as in Embodiment 1, and detects whether the second state of the driver has been eliminated.
  • the detection unit 14A may perform image analysis of the driver's image captured by the in-vehicle camera and detect whether or not the second state of the driver has been resolved based on the image analysis result.
  • the detection unit 14A may detect whether or not the second state of the driver has been canceled based on the driving operation of the vehicle by the driver, or may use the ecological sensor to detect the ecological information detected by the driver. May be detected on the basis of the second state of the driver.
  • the area prediction unit 17A predicts a communication-disabled area including a road on which a vehicle is predicted to pass, and predicts a time at which the vehicle exits the communication-disabled area, as in the first embodiment. For example, the area prediction unit 17A predicts the time at which the vehicle exits the non-communicable area based on the vehicle information including the vehicle speed. The time at which the vehicle exits the non-communicable area is the re-notification time.
  • the notification unit 18A notifies the call center terminal 2 of the re-notification time predicted by the area prediction unit 17A. If the second state of the driver has been resolved at the re-report time, the reporting unit 18A reports to the call center terminal 2 using the communication unit 12 that the second state of the driver has been resolved. I do.
  • the area prediction unit 17A predicts the time at which the vehicle exits the non-communicable area.
  • the notification unit 18A notifies the call center terminal 2 of the re-notification time, which is the time predicted by the area prediction unit 17A.
  • the call center can request the fire department, police station, or hospital to rescue the driver when the vehicle exits the non-communicable area and can communicate with the communication unit 12.
  • the call center can also change the rescue dispatch timing in accordance with the driver's state.
  • the detection unit 14A detects whether or not the driver's second state has been resolved.
  • the reporting unit 18A reports to the call center terminal 2 using the communication unit 12 that the second state of the driver has been resolved. This allows the call center to cancel the driver's rescue operation if the driver's second state has been resolved before the re-notification time.
  • the notification device 1 includes a processing circuit for executing the processing from step ST1 to step ST7 shown in FIG.
  • the processing circuit may be dedicated hardware, or may be a CPU (Central Processing Unit) that executes a program stored in the memory.
  • the position information acquisition unit 10 the map information acquisition unit 11, the communication unit 12, the road prediction unit 13, the detection unit 14A, the time prediction unit 15, the position prediction unit 16, the area prediction unit 17A, and the notification unit.
  • the function of 18A is realized by a processing circuit.
  • FIG. 4A is a block diagram showing a hardware configuration for realizing the functions of the notification device 1 and the notification device 1A.
  • FIG. 4B is a block diagram illustrating a hardware configuration that executes software for realizing the functions of the notification device 1 and the notification device 1A.
  • a GPS receiver interface 100 is an interface that relays GPS information from a GPS receiver mounted on a vehicle.
  • the position information acquiring unit 10 acquires GPS information, which is position information of a vehicle, from the GPS receiver via the GPS receiver interface 100.
  • the ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ DB interface 101 is an interface for relaying map information from a map database.
  • the map database may be provided in a navigation device mounted on the vehicle, or may be a database on a cloud.
  • the map information acquisition unit 11 acquires map information including the position of the vehicle from the map database via the DB interface 101.
  • the communication interface 102 is an interface that relays information transmitted and received by the on-vehicle wireless communication device.
  • the communication unit 12 outputs the notification information input from the notification unit 18 or the notification unit 18A to the wireless communication device via the communication interface 102.
  • the wireless communication device is connected for communication with the call center terminal 2 and transmits report information.
  • the control interface 103 is an interface that relays vehicle information from an electronic control device mounted on the vehicle.
  • the detection unit 14 and the detection unit 14A acquire vehicle information from the electronic control device via the control interface 103.
  • the detection unit 14 and the detection unit 14A detect the first state of the driver using the vehicle information acquired from the electronic control device.
  • the position prediction unit 16 acquires vehicle information including the speed of the vehicle from the electronic control device via the control interface 103.
  • the position prediction unit 16 predicts the position of the vehicle after the time predicted by the time prediction unit 15 has elapsed, using the vehicle information acquired from the electronic control device.
  • the sensor interface 104 is an interface that relays detection information from an in-vehicle camera or an ecological sensor mounted on a vehicle.
  • the detection unit 14 and the detection unit 14A acquire detection information from an in-vehicle camera or an ecological sensor via the sensor interface 104.
  • the detection unit 14 and the detection unit 14A detect the first state of the driver using the detection information acquired from the in-vehicle camera or the ecological sensor.
  • the processing circuit 105 includes, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, and an ASIC (Application / Specific / Integrated). Circuit), FPGA (Field-Programmable Gate Array), or a combination thereof.
  • Functions of the position information acquisition unit 10, the map information acquisition unit 11, the communication unit 12, the road prediction unit 13, the detection unit 14, the time prediction unit 15, the position prediction unit 16, the area prediction unit 17, and the notification unit 18 in the notification device 1. May be realized by separate processing circuits, or these functions may be collectively realized by one processing circuit.
  • the processing circuit is the processor 106 illustrated in FIG. 4B
  • the position information acquisition unit 10 the map information acquisition unit 11, the communication unit 12, the road prediction unit 13, the detection unit 14, the time prediction unit 15, and the position prediction in the notification device 1.
  • the functions of the unit 16, the area prediction unit 17, and the notification unit 18 are realized by software, firmware, or a combination of software and firmware.
  • the software or firmware is described as a program and stored in the memory 107. This corresponds to the position information acquisition unit 10, the map information acquisition unit 11, the communication unit 12, the road prediction unit 13, the detection unit 14A, the time prediction unit 15, the position prediction unit 16, the area prediction unit 17A, and the notification unit in the notification device 1A.
  • the processor 106 reads out and executes the program stored in the memory 107 to obtain the position information acquiring unit 10, the map information acquiring unit 11, the communication unit 12, the road predicting unit 13, the detecting unit 14, the time predicting unit 15, The functions of the prediction unit 16, the area prediction unit 17, and the notification unit 18 are realized. That is, the notification device 1 includes the memory 107 for storing a program that, when executed by the processor 106, results in the processing of steps ST1 to ST7 shown in FIG.
  • the memory 107 stores the computer in a position information acquisition unit 10, a map information acquisition unit 11, a communication unit 12, a road prediction unit 13, a detection unit 14, a time prediction unit 15, a position prediction unit 16, an area prediction unit 17, and a notification unit 18. It may be a computer-readable storage medium storing a program for causing it to function as.
  • the memory 107 includes, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory), a nonvolatile semiconductor memory such as an EEPROM (Electrically-EROM) or the like.
  • RAM Random Access Memory
  • ROM Read Only Memory
  • flash memory an EPROM (Erasable Programmable Read Only Memory)
  • nonvolatile semiconductor memory such as an EEPROM (Electrically-EROM) or the like.
  • a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, a DVD, and the like are applicable.
  • the functions of the position information acquisition unit 10, the map information acquisition unit 11, the communication unit 12, the road prediction unit 13, the detection unit 14, the time prediction unit 15, the position prediction unit 16, the area prediction unit 17, and the notification unit 18 are partially described. May be realized by dedicated hardware, and a part may be realized by software or firmware.
  • the position information acquisition unit 10, the map information acquisition unit 11, and the communication unit 12 realize their functions by a processing circuit that is dedicated hardware, and include a road prediction unit 13, a detection unit 14, a time prediction unit 15, and a position prediction unit.
  • the function of the unit 16, the area prediction unit 17, and the notification unit 18 is realized by the processor 106 reading and executing a program stored in the memory 107.
  • the processing circuit can realize the above functions by hardware, software, firmware, or a combination thereof.
  • the reporting device can report that there is a sign that the driver will fall into an abnormal state even if the point at which the driver of the vehicle is predicted to fall into an abnormal state is a communication-disabled area. It can be used for help network systems that rescue drivers.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

通報装置(1)が、車両の通過が予測された道路上で運転者が異常状態に陥るまでの時間が経過した後の車両の位置を予測し、予測した車両の位置が通信不能エリア内に含まれる場合に、運転者が異常状態に陥る予兆が検知された地点の位置で、異常状態に陥る予兆が運転者から検知されたことをコールセンター端末(2)に通報する。

Description

通報装置および通報方法
 本発明は、運転者が車両を運転する能力を失う異常状態に陥る予兆を検知して、外部のコールセンターの端末に通報する通報装置および通報方法に関する。
 従来から、運転者が車両を運転する能力を失う異常状態に陥ったことを通報する技術が提案されている。例えば、特許文献1には、車両の運転者が異常状態に陥ったことを判定したときに、外部装置にヘルプ信号を送信しつつ、車両を一定の減速度で減速させる装置が記載されている。
特開2017-226373号公報
 特許文献1に記載された従来の装置では、運転者が異常状態に陥ったと判定された地点が外部装置との通信が不可能な通信不能エリアである場合に、運転者が異常状態に陥ったことを通報できないという課題があった。
 本発明は上記課題を解決するものであり、車両の運転者が異常状態に陥ると予測される地点が通信不能エリアであっても、運転者が異常状態に陥る予兆があることを通報できる通報装置および通報方法を得ることを目的とする。
 本発明に係る通報装置は、位置情報取得部、地図情報取得部、通信部、道路予測部、時間予測部、位置予測部、エリア予測部および通報部を備える。位置情報取得部は、車両の位置情報を取得する。地図情報取得部は、地図情報を取得する。通信部は、無線通信で外部装置と通信を行う。道路予測部は、位置情報取得部によって取得された車両の位置情報および地図情報取得部によって取得された地図情報に基づいて、車両が現在位置から移動して通過する道路を予測する。検知部は、車両の運転者が運転する能力を失う異常状態に陥る予兆を検知する。時間予測部は、検知部によって異常状態に陥る予兆が検知された運転者が異常状態に陥るまでの時間を予測する。位置予測部は、道路予測部によって車両の通過が予測された道路上で検知部によって運転者が異常状態に陥る予兆が検知されてから、時間予測部によって予測された時間が経過した後の車両の位置を予測する。エリア予測部は、通信部と外部装置との間の通信状況を監視するとともに、道路予測部によって車両の通過が予測された道路が、通信部の通信が不可能となる通信不能エリアに含まれることを予測する。通報部は、位置予測部によって予測された車両の位置が通信不能エリアに含まれる場合、検知部によって運転者が異常状態に陥る予兆が検知された地点の位置で、通信部を用いて異常状態に陥る予兆が運転者から検知されたことを外部装置に通報する。
 本発明によれば、車両の通過が予測された道路上で運転者が異常状態に陥るまでの時間が経過した後の車両の位置を予測し、予測した車両の位置が通信不能エリア内に含まれる場合に、運転者が異常状態に陥る予兆が検知された地点の位置で、異常状態に陥る予兆が運転者から検知されたことを外部装置に通報する。これにより、車両の運転者が異常状態に陥ると予測される地点が通信不能エリアであっても、運転者が異常状態に陥る予兆があることを通報できる。
本発明の実施の形態1に係る通報装置の構成を示すブロック図である。 実施の形態1に係る通報方法を示すフローチャートである。 本発明の実施の形態2に係る通報装置の構成を示すブロック図である。 図4Aは、実施の形態1および実施の形態2に係る通報装置の機能を実現するハードウェア構成を示すブロック図である。図4Bは、実施の形態1および実施の形態2に係る通報装置の機能を実現するソフトウェアを実行するハードウェア構成を示すブロック図である。
 以下、本発明をより詳細に説明するため、本発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 図1は、本発明の実施の形態1に係る通報装置1の構成を示すブロック図である。図1において、通報装置1は、車両の運転者が異常状態に陥る予兆を検知すると、無線通信でコールセンター端末2に通報する。異常状態とは、運転者が車両を運転する能力を失った状態である。以降では、運転者が異常状態に陥る予兆がある状態を“第1の状態”と記載し、運転者が第1の状態から陥った異常状態を“第2の状態”と記載する。
 コールセンター端末2は、無線通信機能を有した外部装置であり、無線通信で通報装置1からの通報を受信する。コールセンター端末2によって通報が受信されると、通報の内容に応じて、コールセンターから消防署、警察署または病院へ救助が依頼される。
 通報装置1は、位置情報取得部10、地図情報取得部11、通信部12、道路予測部13、検知部14、時間予測部15、位置予測部16、エリア予測部17および通報部18を備える。位置情報取得部10は、通報装置1が搭載された車両の現在の位置情報を取得する。例えば、位置情報取得部10は、車両に搭載されたGPS(Global Positioning System)受信機に代表される測位装置から、車両の位置情報を取得する。また、位置情報取得部10は、車両の速度、車両の走行時間、操舵情報および地図情報を用いて車両の位置情報を補正してもよい。
 地図情報取得部11は、車両の現在位置を含む地図情報を取得する。例えば、地図情報取得部11は、車両に搭載されたナビゲーション装置またはナビゲーション機能を有した車載情報機器から、上記地図情報を取得する。また、地図情報取得部11は、通信部12を用いて、地図情報のデータベースを管理するサーバにアクセスして上記地図情報を取得してもよい。
 通信部12は、無線通信でコールセンター端末2との通信を行う。例えば、通信部12は、車両に搭載された通信装置を用いて、コールセンター端末2と通信を行う。この通信装置は、コールセンター端末2との通信可能な無線通信方式が採用された無線通信装置である。通信部12は、上記通信装置を用いて、通報部18から入力した通報情報をコールセンター端末2に送信する。
 道路予測部13は、位置情報取得部10によって取得された車両の位置情報と地図情報取得部11によって取得された地図情報とに基づいて、車両が現在位置から移動して通過する道路を予測する。例えば、道路予測部13は、ナビゲーション装置に設定されている車両の経路に従って、現在位置から車両が通過する道路を予測してもよい。
 また、道路予測部13は、運転者の過去の移動履歴に基づいて、車両が通過する道路を予測してもよい。例えば、道路予測部13は、運転者の過去の移動履歴から抽出した現在位置を含む過去の経路を、車両が現在位置から移動して通過する道路と予測する。
 さらに、道路予測部13は、地図の道路形状データから、車両が通過する可能性が高い道路を、車両が現在位置から移動して通過する道路と予測してもよい。
 なお、道路予測部13が予測する道路は、一つであっても、複数であってもよい。
 検知部14は、運転者が車両を運転する能力を失った異常状態に陥る予兆を検知する。例えば、検知部14は、車内カメラによって撮影された運転者の映像を画像解析し、その画像解析結果に基づいて、運転者の第1の状態を検知する。また、検知部14は、運転者による車両の運転操作に基づいて運転者の第1の状態を検知してもよく、生態センサによって運転者から検出された生態情報に基づいて運転者の第1の状態を検知してもよい。
 時間予測部15は、検知部14によって異常状態に陥る予兆が検知された運転者が異常状態に陥るまでの時間を予測する。例えば、時間予測部15は、検知部14によって検知された第1の状態ごとに予め設定された時間を、運転者が第2の状態に陥ると予測される時間と決定してもよい。また、時間予測部15は、第1の状態から第2の状態に陥るまでの時間を運転者ごとに学習してもよい。
 例えば、検知部14は、運転中に運転者が眼を閉じている状態がA(秒)を超えて継続された場合、運転者が第1の状態であると検知する。このときの第1の状態は、運転者の居眠りまたは病理的な要因によって、運転者が運転を行えなくなる予兆が現れた状態であると考えられる。時間予測部15は、運転者が眼を閉じている状態がA(秒)を超えて継続された場合に、この状態に予め設定されていたB(A<B)(秒)を、運転者が第1の状態から第2の状態に陥るまでの時間と予測する。
 普段から瞬きが多い運転者は、眼を閉じた状態がA(秒)を超えてからB(秒)が経過する前に眼を開けるという挙動を頻繁に行うと考えられる。そこで、上記挙動を一定回数以上繰り返した場合には、閾値であるA(秒)を従前の値よりも長くしてもよい。これにより、普段から瞬きが多く合計の閉眼時間が長くなりがちの運転者が検知部14によって第1の状態と誤検知されることを低減できる。
 また、検知部14は、運転者によって車両が横方向にふらつくように運転された状態がC(秒)を超えて継続された場合、運転者の状態が第1の状態であると検知してもよい。時間予測部15は、運転者によって車両が横方向にふらつくように運転された状態がC(秒)を超えて継続された場合、この状態に予め設定されていたD(C<D)(秒)を、運転者が第1の状態から第2の状態に陥るまでの時間と予測する。
 運転者の第1の状態を検知するための閾値であるA(秒)またはC(秒)は、運転者ごとに学習された値であってもよい。例えば、検知部14が、運転者の運転履歴データを用いて、運転者の第1の状態を検知するための上記閾値を運転者ごとに学習する。運転者の普段の運転操作を第1の状態の検知に反映させることで、運転者の第1の状態の検知精度が向上する。
 また、運転者が第1の状態から第2の状態に陥るまでの時間であるB(秒)またはD(秒)は、運転者ごとに学習された値であってもよい。例えば、時間予測部15は、運転者の運転履歴データを用いて、運転者が第1の状態から第2の状態に陥るまでの時間を、運転者ごとに学習する。運転者の普段の運転操作を、運転者が第1の状態から第2の状態に陥るまでの時間の予測に反映させることで、当該予測時間の精度が向上する。
 検知部14は、車両の速度、車両の横方向へのふらつき度合いおよび運転者が眼を閉じた度合いに基づいて運転者が第2の状態に陥る尤度を算出し、この尤度が閾値E以上である場合に、運転者が第1の状態であると検知してもよい。なお、走行車両の横方向へのふらつき度合いは、例えば、車両が横方向にふらついた単位時間当たりの頻度であり、運転者が眼を閉じた度合いは、例えば、運転者が眼を閉じていた合計の時間である。上記尤度の算出には一般的な統計的手法または機械学習手法を用いてもよい。時間予測部15は、上記尤度が閾値E以上である場合に、この状態に予め設定されていたF(E<F)(秒)を、第1の状態から第2の状態に陥るまでの時間と予測する。
 また、検知部14は、運転者が第1の状態であると検知するための複数の要因に重みをそれぞれ付与し、重みが付与された複数の要因に基づいて運転者が第1の状態から第2の状態となる尤度を学習してもよい。なお、複数の要因には、例えば、車両の速度、車両の横方向へのふらつき度合いおよび運転者が眼を閉じた度合いがある。
 例えば、運転が上手くない運転者は、普段から車両が横方向にふらつく運転を行う場合が多い。すなわち、このような運転者は、通常の運転状態であっても、車両の横方向へのふらつき度合いが多く、第2の状態に陥ってもふらつき度合いの変化は少ないことが予想される。そこで、検知部14は、車両の横方向へのふらつき度合いについての重みを下げて、上記尤度を学習する。これにより、運転者の普段の運転操作を上記尤度の学習に反映させることができる。
 なお、運転者の第1の状態の検知に用いられる上記尤度の閾値Eは、運転者ごとに学習された値であってもよい。例えば、検知部14は、複数の要因に関するデータを用いて、上記尤度の閾値Eを運転者ごとに学習する。これにより、運転者の普段の運転操作を上記尤度の閾値の学習に反映させることができる。
 さらに、時間予測部15は、複数の要因に関するデータを用いて、運転者が第1の状態から第2の状態に陥るまでの予測時間F(秒)を運転者ごとに学習してもよい。これにより、運転者の普段の運転操作を、運転者が第1の状態から第2の状態に陥るまでの時間の予測に反映させることができる。
 また、検知部14は、運転者が第1の状態であるか、第2の状態であるかを、それぞれ別々の検知方法で検知してもよい。例えば、検知部14は、運転者の頭の動きまたはハンドル操作のぶれに基づいて運転者の第1の状態を検知する。運転者が完全に閉眼した場合に、検知部14は、運転者が第1の状態から第2の状態に陥ったと検知する。
 なお、運転者の第1の状態の検知に用いる閾値は運転者ごとに学習された値であってもよい。例えば、検知部14は、運転者の頭の動きまたはハンドル操作のぶれを示すデータを用いて、上記閾値を運転者ごとに学習する。これにより、運転者の普段の車室内の状況を上記閾値の学習に反映させることができる。
 さらに、時間予測部15は、運転者の頭の動きまたはハンドル操作のぶれを示すデータを用いて、運転者が第1の状態から第2の状態に陥るまでの時間を運転者ごとに学習してもよい。これにより、運転者の普段の車室内の状況を、運転者が第1の状態から第2の状態に陥るまでの時間の予測に反映させることができる。
 位置予測部16は、道路予測部13によって車両の通過が予測された道路上で、検知部14によって運転者が第1の状態であることが検知されてから、時間予測部15によって予測された時間が経過した後の車両の位置を予測する。例えば、位置予測部16は、車載電子制御装置から取得された車両情報に基づいて、道路予測部13によって車両の通過が予測された道路上の位置のうち、時間予測部15によって予測された時間が経過した後に車両が存在する位置を予測する。なお、車両情報には、車両の速度が含まれる。
 エリア予測部17は、通信部12とコールセンター端末2との間の通信状況を監視するとともに、道路予測部13によって車両の通過が予測された道路が、通信部12の通信が不可能となる通信不能エリアに含まれることを予測する。例えば、エリア予測部17は、車両が存在する地域における通信エリアマップに基づいて、車両の通過が予測された道路が含まれる通信不能エリアを予測する。
 なお、エリア予測部17は、通信部12の過去の通信確立履歴データに基づいて、車両の通過が予測された道路が含まれる通信不能エリアを予測してもよい。また、エリア予測部17は、通信部12による現在の通信強度に基づいて、車両の通過が予測された道路が含まれる通信不能エリアを予測してもよい。例えば、車両の走行に伴って通信強度が低下した場合、エリア予測部17は、車両の進行方向に通信不能エリアがあると予測する。
 また、エリア予測部17は、車両の位置情報および地図情報に基づいて、車両の通過が予測される特定のエリアを、通信不能エリアと判断してもよい。例えば、特定のエリアはトンネルである。この場合、トンネルを通信不能エリアと予め設定しておくことにより、通信強度から通信不能エリアを特定する処理に比べて処理負荷が軽減される。
 通報部18は、位置予測部16によって予測された車両の位置が通信不能エリアに含まれる場合、検知部14によって運転者の第1の状態が検知された地点の位置で、通信部12を用いて、運転者が第1の状態であることをコールセンター端末2に通報する。これにより、運転者が異常状態に陥ると予測される地点が通信不能エリアであっても、運転者が第2の状態に陥る予兆があることを通報できる。
 また、通報部18は、運転者が第1の状態であることに加え、位置予測部16によって予測された車両の位置をコールセンター端末2に通報してもよい。なお、通報部18は、位置予測部16によって複数の位置が予測された場合、これらの位置のうちの少なくとも一つが通信不能エリアに含まれれば、コールセンター端末2に通報する。
 次に動作について説明する。
 図2は、実施の形態1に係る通報方法を示すフローチャートである。
 道路予測部13が、位置情報取得部10によって取得された車両の位置情報および地図情報取得部11によって取得された地図情報に基づいて、車両が現在の位置から移動して通過する道路を予測する(ステップST1)。道路予測部13によって車両の通過が予測された道路に関する情報は、位置予測部16およびエリア予測部17に出力される。
 検知部14は、車両の運転者が運転する能力を失う異常状態に陥る予兆を検知する処理を実行している。このとき、時間予測部15は、検知部14によって運転者が第1の状態であることが検知されたか否かを確認する(ステップST2)。運転者が第1の状態であることが検知されなかった場合(ステップST2;NO)、ステップST1に戻る。
 検知部14によって運転者が第1の状態であることが検知された場合(ステップST2;YES)、時間予測部15が、運転者が第1の状態から第2の状態に陥るまでの時間を予測する(ステップST3)。例えば、時間予測部15は、運転者の第1の状態の内容ごとに予め設定された時間を、この運転者が第2の状態に陥ると予測される時間とする。
 位置予測部16が、道路予測部13によって車両の通過が予測された道路上で、検知部14によって運転者が第1の状態であることが検知されてから、時間予測部15によって予測された時間が経過した後の車両の位置を予測する(ステップST4)。例えば、位置予測部16は、車両の速度情報に基づいて車両の通過が予測された道路上の位置のうち、時間予測部15によって予測された時間が経過した後に車両が存在する位置を予測する。
 エリア予測部17が、通信部12の通信が不可能であり、道路予測部13によって車両の通過が予測された道路を含む通信不能エリアを予測する(ステップST5)。例えば、エリア予測部17は、車両の走行に伴って通信部12とコールセンター端末2との間の通信強度が低下した場合、車両の進行方向に通信不能エリアがあると予測する。
 また、エリア予測部17は、車両の位置情報および地図情報に基づいて、車両の通過が予測されるトンネルを通信不能エリアと予測してもよい。
 次に、通報部18は、道路予測部13によって車両の通過が予測された道路が、エリア予測部17によって予測された通信不能エリアに含まれるか否かを確認する(ステップST6)。ここで、車両の通過が予測された道路が通信不能エリアに含まれない場合(ステップST6;NO)、車両が、コールセンター端末2への通報の送信ができないエリアを通過しないので、図2の一連の処理が終了される。
 一方、車両の通過が予測された道路が通信不能エリアに含まれる場合(ステップST6;YES)、通報部18は、検知部14によって運転者の第1の状態が検知された地点の位置で、通信部12を用いて、運転者が第1の状態であることをコールセンター端末2に通報する(ステップST7)。なお、運転者の第1の状態が検知された地点が通信不能エリアであった場合、車両の走行中に、通報部18は、コールセンター端末2への通報を繰り返し実行する。車両が通信不能エリアから抜け出たときに、通報部18は、運転者が第1の状態であることをコールセンター端末2に通報できる。
 また、通報部18は、運転者が第1の状態であることに加え、位置予測部16によって予測された車両の位置を、コールセンター端末2に通報してもよい。これにより、運転者が異常状態に陥って停車または事故を起こしている可能性のある地点がコールセンターに伝えられるので、コールセンターが運転者の救助を依頼することができる。
 前述したように、実施の形態1に係る通報装置1は、車両の通過が予測された道路上で運転者が第2の状態に陥るまでの時間が経過した後の車両の位置を予測し、予測した車両の位置が通信不能エリア内に含まれる場合、運転者の第1の状態が検知された地点の位置で、第1の状態が運転者から検知されたことをコールセンター端末2に通報する。これにより、車両の運転者が第2の状態に陥ると予測される地点が通信不能エリアであっても、運転者が第2の状態に陥る予兆があることを、コールセンター端末2に通報することができる。コールセンターは、運転者が第2の状態に陥る予兆がある段階で通報を受けることにより、通報から一定の時間(運転者が第1の状態から第2の状態に陥るまでの時間)が経過したときに運転者を救助するように消防署、警察署または病院に依頼することが可能となる。
 実施の形態1に係る通報方法は、図2に示した処理を行うことにより、車両の運転者が第2の状態に陥ると予測される地点が通信不能エリアであっても、運転者が第2の状態に陥る予兆があることを、コールセンター端末2に通報することができる。
実施の形態2.
 図3は、実施の形態2に係る通報装置1Aの構成を示すブロック図である。図3において、図1と同一の構成要素には同一の符号を付して説明を省略する。通報装置1Aは、実施の形態1と同様に、車両の運転者の第1の状態を検知すると、無線通信でコールセンター端末2に通報する装置である。通報装置1Aは、位置情報取得部10、地図情報取得部11、通信部12、道路予測部13、検知部14A、時間予測部15、位置予測部16、エリア予測部17Aおよび通報部18Aを備える。
 検知部14Aは、実施の形態1と同様にして運転者の第1の状態を検知するとともに、運転者の第2の状態が解消されたか否かを検知する。例えば、検知部14Aは、車内カメラによって撮影された運転者の映像を画像解析し、その画像解析結果に基づいて運転者の第2の状態が解消されたか否かを検知してもよい。また、検知部14Aは、運転者による車両の運転操作に基づいて、運転者の第2の状態が解消されたか否かを検知してもよいし、生態センサによって運転者から検出された生態情報に基づいて、運転者の第2の状態が解消されたか否かを検知してもよい。
 エリア予測部17Aは、実施の形態1と同様にして車両の通過が予測された道路を含む通信不能エリアを予測するとともに、車両が通信不能エリアを抜け出る時刻を予測する。例えば、エリア予測部17Aは、車速を含む車両情報に基づいて、車両が通信不能エリアを抜け出る時刻を予測する。車両が通信不能エリアを抜け出る時刻が再通報時刻となる。
 通報部18Aは、エリア予測部17Aによって予測された再通報時刻をコールセンター端末2に通報する。また、通報部18Aは、再通報時刻で運転者の第2の状態が解消されていた場合、運転者の第2の状態が解消されたことを、通信部12を用いてコールセンター端末2に通報する。
 前述したように、実施の形態2に係る通報装置1Aにおいて、エリア予測部17Aが、車両が通信不能エリアを抜け出る時刻を予測する。通報部18Aが、エリア予測部17Aによって予測された時刻である再通報時刻を、コールセンター端末2に通報する。
 これにより、コールセンターは、車両が通信不能エリアを抜け出て通信部12との通信が可能になったときに運転者を救助するように、消防署、警察署または病院に依頼することができる。コールセンター端末2が通信部12から受信した運転者の状態に基づいて、コールセンターは、運転者の状態に合わせて救助の出動タイミングを変えることも可能である。
 実施の形態2に係る通報装置1Aにおいて、検知部14Aが、運転者の第2の状態が解消されたか否かを検知する。通報部18Aが、再通報時刻で運転者の第2の状態が解消されていた場合、運転者の第2の状態が解消されたことを、通信部12を用いてコールセンター端末2に通報する。これにより、コールセンターは、再通報時刻前に運転者の第2の状態が解消されていた場合、運転者の救助出動をキャンセルすることができる。
 次に、実施の形態1に係る通報装置1および実施の形態2に係る通報装置1Aの機能を実現するハードウェア構成について説明する。
 通報装置1における、位置情報取得部10、地図情報取得部11、通信部12、道路予測部13、検知部14、時間予測部15、位置予測部16、エリア予測部17および通報部18の機能は、処理回路によって実現される。すなわち、通報装置1は、図2に示したステップST1からステップST7までの処理を実行するための処理回路を備えている。処理回路は、専用のハードウェアであってもよいが、メモリに記憶されたプログラムを実行するCPU(Central Processing Unit)であってもよい。
 同様に、通報装置1Aにおける、位置情報取得部10、地図情報取得部11、通信部12、道路予測部13、検知部14A、時間予測部15、位置予測部16、エリア予測部17Aおよび通報部18Aの機能は、処理回路によって実現される。
 図4Aは、通報装置1および通報装置1Aの機能を実現するハードウェア構成を示すブロック図である。図4Bは、通報装置1および通報装置1Aの機能を実現するソフトウェアを実行するハードウェア構成を示すブロック図である。図4Aおよび図4Bにおいて、GPS受信機インタフェース100は、車両に搭載されたGPS受信機からのGPS情報を中継するインタフェースである。位置情報取得部10は、GPS受信機インタフェース100を介して、GPS受信機から、車両の位置情報であるGPS情報を取得する。
 DBインタフェース101は、地図データベースからの地図情報を中継するインタフェースである。地図データベースは、車両に搭載されたナビゲーション装置が備えてもよいし、クラウド上のデータベースであってもよい。地図情報取得部11は、DBインタフェース101を介して、地図データベースから、車両の位置を含む地図情報を取得する。通信インタフェース102は、車載無線通信装置によって送受信される情報を中継するインタフェースである。通信部12は、通報部18または通報部18Aから入力した通報情報を、通信インタフェース102を介して無線通信装置に出力する。無線通信装置は、コールセンター端末2と通信接続し、通報情報を送信する。
 制御インタフェース103は、車両に搭載された電子制御装置からの車両情報を中継するインタフェースである。例えば、検知部14および検知部14Aは、制御インタフェース103を介して、電子制御装置から車両情報を取得する。検知部14および検知部14Aは、電子制御装置から取得した車両情報を用いて運転者の第1の状態を検知する。
 また、位置予測部16は、制御インタフェース103を介して、車両の速度を含む車両情報を、電子制御装置から取得する。位置予測部16は、電子制御装置から取得した車両情報を用いて、時間予測部15によって予測された時間が経過した後の車両の位置を予測する。
 センサインタフェース104は、車両に搭載された車内カメラまたは生態センサからの検知情報を中継するインタフェースである。検知部14および検知部14Aは、センサインタフェース104を介して、車内カメラまたは生態センサから、検知情報を取得する。検知部14および検知部14Aは、車内カメラまたは生態センサから取得した検知情報を用いて、運転者の第1の状態を検知する。
 処理回路が図4Aに示す専用のハードウェアの処理回路105である場合に、処理回路105は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、または、これらを組み合わせたものが該当する。通報装置1における、位置情報取得部10、地図情報取得部11、通信部12、道路予測部13、検知部14、時間予測部15、位置予測部16、エリア予測部17および通報部18の機能を別々の処理回路で実現してもよく、これらの機能をまとめて1つの処理回路で実現してもよい。これは、通報装置1Aにおける、位置情報取得部10、地図情報取得部11、通信部12、道路予測部13、検知部14A、時間予測部15、位置予測部16、エリア予測部17Aおよび通報部18Aにおいても同様である。
 処理回路が図4Bに示すプロセッサ106である場合、通報装置1における、位置情報取得部10、地図情報取得部11、通信部12、道路予測部13、検知部14、時間予測部15、位置予測部16、エリア予測部17および通報部18の機能は、ソフトウェア、ファームウェアまたはソフトウェアとファームウェアとの組み合わせにより実現される。なお、ソフトウェアまたはファームウェアは、プログラムとして記述されてメモリ107に記憶される。これは、通報装置1Aにおける、位置情報取得部10、地図情報取得部11、通信部12、道路予測部13、検知部14A、時間予測部15、位置予測部16、エリア予測部17Aおよび通報部18Aにおいても同様である。
 プロセッサ106は、メモリ107に記憶されたプログラムを読み出して実行することにより、位置情報取得部10、地図情報取得部11、通信部12、道路予測部13、検知部14、時間予測部15、位置予測部16、エリア予測部17および通報部18の機能を実現する。すなわち、通報装置1は、プロセッサ106によって実行されるときに、図2に示したステップST1からステップST7までの処理が結果的に実行されるプログラムを記憶するためのメモリ107を備えている。
 これらのプログラムは、位置情報取得部10、地図情報取得部11、通信部12、道路予測部13、検知部14、時間予測部15、位置予測部16、エリア予測部17および通報部18の手順または方法をコンピュータに実行させる。メモリ107は、コンピュータを、位置情報取得部10、地図情報取得部11、通信部12、道路予測部13、検知部14、時間予測部15、位置予測部16、エリア予測部17および通報部18として機能させるためのプログラムが記憶されたコンピュータ可読記憶媒体であってもよい。
 これは、通報装置1Aにおける、位置情報取得部10、地図情報取得部11、通信部12、道路予測部13、検知部14A、時間予測部15、位置予測部16、エリア予測部17Aおよび通報部18Aにおいても同様である。
 メモリ107には、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically-EPROM)などの不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVDなどが該当する。
 なお、位置情報取得部10、地図情報取得部11、通信部12、道路予測部13、検知部14、時間予測部15、位置予測部16、エリア予測部17および通報部18の機能について一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現してもよい。例えば、位置情報取得部10、地図情報取得部11、および通信部12は、専用のハードウェアである処理回路で機能を実現し、道路予測部13、検知部14、時間予測部15、位置予測部16、エリア予測部17および通報部18は、プロセッサ106がメモリ107に記憶されたプログラムを読み出して実行することにより機能を実現する。このように、処理回路は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせにより上記機能を実現することができる。
 これは、通報装置1Aにおける、位置情報取得部10、地図情報取得部11、通信部12、道路予測部13、検知部14A、時間予測部15、位置予測部16、エリア予測部17Aおよび通報部18Aにおいても同様である。
 なお、本発明は上記実施の形態に限定されるものではなく、本発明の範囲内において、実施の形態のそれぞれの自由な組み合わせまたは実施の形態のそれぞれの任意の構成要素の変形もしくは実施の形態のそれぞれにおいて任意の構成要素の省略が可能である。
 本発明に係る通報装置は、車両の運転者が異常状態に陥ると予測される地点が通信不能エリアであっても、運転者が異常状態に陥る予兆があることを通報できるので、例えば、車両の運転者の救助を行うヘルプネットワークシステムに利用可能である。
 1,1A 通報装置、2 コールセンター端末、10 位置情報取得部、11 地図情報取得部、12 通信部、13 道路予測部、14,14A 検知部、15 時間予測部、16 位置予測部、17,17A エリア予測部、18,18A 通報部、100 GPS受信機インタフェース、101 DBインタフェース、102 通信インタフェース、103 制御インタフェース、104 センサインタフェース、105 処理回路、106 プロセッサ、107 メモリ。

Claims (6)

  1.  車両の位置情報を取得する位置情報取得部と、
     地図情報を取得する地図情報取得部と、
     無線通信で外部装置と通信を行う通信部と、
     前記位置情報取得部によって取得された前記車両の位置情報および前記地図情報取得部によって取得された地図情報に基づいて、前記車両が現在位置から移動して通過する道路を予測する道路予測部と、
     前記車両の運転者が運転する能力を失う異常状態に陥る予兆を検知する検知部と、
     前記検知部によって異常状態に陥る予兆が検知された前記運転者が異常状態に陥るまでの時間を予測する時間予測部と、
     前記道路予測部によって前記車両の通過が予測された道路上で前記検知部によって前記運転者が異常状態に陥る予兆が検知されてから前記時間予測部によって予測された時間が経過した後の前記車両の位置を予測する位置予測部と、
     前記通信部と前記外部装置との間の通信状況を監視するとともに、前記道路予測部によって前記車両の通過が予測された道路が、前記通信部の通信が不可能となる通信不能エリアに含まれることを予測するエリア予測部と、
     前記位置予測部によって予測された前記車両の位置が前記通信不能エリアに含まれる場合に、前記検知部によって前記運転者が異常状態に陥る予兆が検知された地点の位置で、前記通信部を用いて異常状態に陥る予兆が前記運転者から検知されたことを前記外部装置に通報する通報部とを備えたこと
     を特徴とする通報装置。
  2.  前記エリア予測部は、前記車両が前記通信不能エリアを抜け出る時刻を予測し、
     前記通報部は、前記エリア予測部によって予測された時刻である再通報時刻を前記外部装置に通報すること
     を特徴とする請求項1記載の通報装置。
  3.  前記検知部は、前記運転者の異常状態が解消されたか否かを検知し、
     前記通報部は、前記再通報時刻において前記運転者の異常状態が解消されていた場合、前記運転者の異常状態が解消されたことを、前記通信部を用いて前記外部装置に通報すること
     を特徴とする請求項2記載の通報装置。
  4.  前記通報部は、前記検知部によって前記運転者が異常状態に陥る予兆が検知された地点の位置で、前記通信部を用いて前記位置予測部によって予測された前記車両の位置を前記外部装置に通報すること
     を特徴とする請求項1記載の通報装置。
  5.  前記通信不能エリアは、トンネルであること
     を特徴とする請求項1から請求項4のいずれか1項記載の通報装置。
  6.  車両の位置情報を取得する位置情報取得部と、地図情報を取得する地図情報取得部と、無線通信で外部装置と通信を行う通信部とを備えた通報装置の通報方法であって、
     道路予測部が、前記位置情報取得部によって取得された前記車両の位置情報および前記地図情報取得部によって取得された地図情報に基づいて、前記車両が現在位置から移動して通過する道路を予測するステップと、
     検知部が、前記車両の運転者が運転する能力を失う異常状態に陥る予兆を検知するステップと、
     時間予測部が、前記検知部によって異常状態に陥る予兆が検知された前記運転者が異常状態に陥るまでの時間を予測するステップと、
     位置予測部が、前記道路予測部によって前記車両の通過が予測された道路上で前記検知部によって前記運転者が異常状態に陥る予兆が検知されてから前記時間予測部によって予測された時間が経過した後の前記車両の位置を予測するステップと、
     エリア予測部が、前記通信部と前記外部装置との間の通信状況を監視するとともに、前記道路予測部によって前記車両の通過が予測された道路が、前記通信部の通信が不可能となる通信不能エリアに含まれることを予測するステップと、
     通報部が、前記位置予測部によって予測された前記車両の位置が前記通信不能エリアに含まれる場合に、前記検知部によって前記運転者が異常状態に陥る予兆が検知された地点の位置で、前記通信部を用いて異常状態に陥る予兆が前記運転者から検知されたことを前記外部装置に通報するステップとを備えたこと
     を特徴とする通報方法。
PCT/JP2018/026474 2018-07-13 2018-07-13 通報装置および通報方法 WO2020012635A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020529945A JP6884282B2 (ja) 2018-07-13 2018-07-13 通報装置および通報方法
PCT/JP2018/026474 WO2020012635A1 (ja) 2018-07-13 2018-07-13 通報装置および通報方法
CN201880095513.1A CN112384958B (zh) 2018-07-13 2018-07-13 通知装置和通知方法
US17/252,373 US11364918B2 (en) 2018-07-13 2018-07-13 Notifying device and notifying method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/026474 WO2020012635A1 (ja) 2018-07-13 2018-07-13 通報装置および通報方法

Publications (1)

Publication Number Publication Date
WO2020012635A1 true WO2020012635A1 (ja) 2020-01-16

Family

ID=69141381

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/026474 WO2020012635A1 (ja) 2018-07-13 2018-07-13 通報装置および通報方法

Country Status (4)

Country Link
US (1) US11364918B2 (ja)
JP (1) JP6884282B2 (ja)
CN (1) CN112384958B (ja)
WO (1) WO2020012635A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114043988B (zh) * 2021-11-06 2023-10-10 中科美络科技股份有限公司 一种驾驶员识别策略选择方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008232952A (ja) * 2007-03-22 2008-10-02 Denso Corp 車両用ナビゲーション装置
JP2014206785A (ja) * 2013-04-10 2014-10-30 株式会社デンソー 眠気予測装置及び眠気予測システム
JP2016081079A (ja) * 2014-10-09 2016-05-16 株式会社トランストロン 情報処理装置、警告方法、およびプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8948809B2 (en) * 2012-03-09 2015-02-03 Blackberry Limited Signature based connectivity prediction for portable electronic devices
JP2015141095A (ja) * 2014-01-29 2015-08-03 船井電機株式会社 通信システム
US10415988B2 (en) * 2014-07-08 2019-09-17 Omnitracs, Llc Integration of hours of service and navigation
JP6508137B2 (ja) 2016-06-24 2019-05-08 トヨタ自動車株式会社 車両走行制御装置
JP6489080B2 (ja) * 2016-08-04 2019-03-27 トヨタ自動車株式会社 車両制御装置
JP6323510B2 (ja) * 2016-08-26 2018-05-16 マツダ株式会社 運転者体調検知装置及び方法
CN106571033B (zh) * 2016-10-26 2019-12-10 深圳市元征软件开发有限公司 酒驾检测方法及装置
US10235859B1 (en) * 2017-08-17 2019-03-19 State Farm Mutual Automobile Insurance Company Systems and methods for the mitigation of drowsy or sleepy driving

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008232952A (ja) * 2007-03-22 2008-10-02 Denso Corp 車両用ナビゲーション装置
JP2014206785A (ja) * 2013-04-10 2014-10-30 株式会社デンソー 眠気予測装置及び眠気予測システム
JP2016081079A (ja) * 2014-10-09 2016-05-16 株式会社トランストロン 情報処理装置、警告方法、およびプログラム

Also Published As

Publication number Publication date
CN112384958B (zh) 2022-03-29
US20210261137A1 (en) 2021-08-26
US11364918B2 (en) 2022-06-21
JP6884282B2 (ja) 2021-06-09
CN112384958A (zh) 2021-02-19
JPWO2020012635A1 (ja) 2020-12-17

Similar Documents

Publication Publication Date Title
US11254333B2 (en) Electronic control device, vehicle control method, and vehicle control program product
US11294370B2 (en) Determining driver engagement with autonomous vehicle
US9824588B2 (en) Electronic device, control method for electronic device, and control program for electronic device
CN111361572B (zh) 车辆控制设备、车辆控制方法和车辆控制系统
CN105292036B (zh) 边界检测系统
US20210380127A1 (en) Electronic device and control method therefor
JP2016179810A (ja) 自動走行制御装置及び自動走行制御システム
US11636002B2 (en) Information processing device and information processing method
CN111645674B (zh) 车辆控制装置
CN111754815A (zh) 控制装置、服务器、安全系统以及控制装置的控制方法
WO2020012635A1 (ja) 通報装置および通報方法
US11505182B2 (en) Vehicle and control method thereof
JP2019079150A (ja) 危険予兆判定装置、危険予兆判定システム、車両、およびプログラム
JP2018151970A (ja) 事故抑制装置、事故抑制方法、および事故抑制プログラム
US11716604B2 (en) Inconsistency-determining apparatus for vehicle accident
US10618524B2 (en) Method for determining a reference driving class
US12005923B2 (en) Blockage routing and maneuver arbitration
WO2016152834A1 (ja) 自動走行制御装置及び自動走行制御システム
JP2018173800A (ja) 自動走行制御装置
WO2018022069A1 (en) Determining driver engagement with autonomous vehicle
JP2020071594A (ja) 履歴蓄積装置、及び履歴蓄積プログラム
JP2020013394A (ja) 車両管理システム、車載機、およびセンタ装置
JP7394902B2 (ja) 遠隔監視装置および自動運転車両
JP7335111B2 (ja) 通報装置および通報方法
US20240208496A1 (en) Methods and systems for controlling a vehicle having a lane support system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18926047

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020529945

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18926047

Country of ref document: EP

Kind code of ref document: A1