WO2019146488A1 - 運転状況監視装置、運転状況監視方法、および運転状況監視システム - Google Patents

運転状況監視装置、運転状況監視方法、および運転状況監視システム Download PDF

Info

Publication number
WO2019146488A1
WO2019146488A1 PCT/JP2019/001249 JP2019001249W WO2019146488A1 WO 2019146488 A1 WO2019146488 A1 WO 2019146488A1 JP 2019001249 W JP2019001249 W JP 2019001249W WO 2019146488 A1 WO2019146488 A1 WO 2019146488A1
Authority
WO
WIPO (PCT)
Prior art keywords
driver
driving condition
data
image
driving
Prior art date
Application number
PCT/JP2019/001249
Other languages
English (en)
French (fr)
Inventor
和樹 稲垣
英徳 塚原
奈々 佐久間
一気 尾形
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US16/963,375 priority Critical patent/US20210339755A1/en
Publication of WO2019146488A1 publication Critical patent/WO2019146488A1/ja
Priority to US18/515,537 priority patent/US20240083443A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/043Identity of occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data

Definitions

  • the present invention relates to a driving condition monitoring device, a driving condition monitoring method, and a driving condition monitoring system.
  • Patent Document 1 discloses a technique for capturing a face photograph of a driver, recognizing the driver based on the face photograph, and calculating fuel consumption information for each driver.
  • Patent Document 2 obtains information when a vehicle for information collection has an accident or a near-miss risk event, associates the risk point with the occurrence mode of the risk event at the information distribution center, and creates a database, A technology for distributing support information for safe driving to a vehicle based on the disclosure is disclosed.
  • the present invention provides a driving condition monitoring device, a driving condition monitoring method, and a driving condition monitoring system that can authenticate the driver and monitor the driving condition of each driver in order to solve the above problems.
  • the purpose is to
  • the driving condition monitoring device is based on an acquisition unit for acquiring a photographed image of the driver of the vehicle and driving condition data, and information of the driver included in the photographed image.
  • An identification process for identifying whether the driver matches the driver registered in advance, and identifying identification information related to the driver whose authentication is successful, the driving condition data, and the photographed image corresponding to the driving condition data
  • a recording unit which associates and records the identification information of the driver specified based on the above.
  • a second aspect of the present invention is a driving condition monitoring system comprising a driving condition monitoring device and a driving condition sensing device.
  • the driving condition monitoring device is a driver based on an acquisition unit for acquiring a driving condition image of a driver of a vehicle transmitted from the driving condition sensing device and driving condition data, and driver information included in the photographing image.
  • the authentication process is performed to determine whether the driver matches the driver registered in advance, and the identification unit that identifies the identification information related to the driver whose authentication is successful, the driving condition data, and the captured image corresponding to the driving condition data And a recording unit that records the identification information of the identified driver in association with each other.
  • a third aspect of the present invention is a driving condition monitoring method applied to a driving condition monitoring device communicably connected to a driving condition sensing device.
  • the driving condition monitoring method acquires the photographed image of the driver of the vehicle transmitted from the driving condition sensing device and the driving condition data, and the driver registers in advance based on the driver's information included in the photographed image.
  • the authentication process is performed to determine whether the driver matches the identified driver, the identification information related to the driver whose authentication is successful is identified, and the driver identification identified based on the driving situation data and the photographed image corresponding to the driving situation data Associate and record information.
  • the driving condition of the driver driving a plurality of vehicles is monitored, and the photographed image and driving condition data of the driver acquired from the driving condition sensing device (drive recorder) for each driver are accurately managed. be able to.
  • FIG. 1 is a block diagram of a driving condition monitoring system according to an embodiment of the present invention.
  • the driving condition monitoring system 100 includes a driving condition monitoring device 1 and a drive recorder 2 in one aspect of the driving condition sensing device.
  • the driving condition monitoring device 1 and the drive recorder 2 are connected via a wireless communication network or a wired communication network.
  • the drive recorder 2 is provided in a vehicle.
  • the driving condition monitoring device 1 communicates with a drive recorder 2 installed in each of a plurality of vehicles traveling in a city or a town.
  • FIG. 2 is a hardware configuration diagram of the driving condition monitoring device 1.
  • the driving condition monitoring device 1 includes hardware elements such as a central processing unit (CPU) 101, a read only memory (ROM) 102, a random access memory (RAM) 103, a database 104, and a communication module 105.
  • CPU central processing unit
  • ROM read only memory
  • RAM random access memory
  • FIG. 2 is a hardware configuration diagram of the driving condition monitoring device 1.
  • the driving condition monitoring device 1 includes hardware elements such as a central processing unit (CPU) 101, a read only memory (ROM) 102, a random access memory (RAM) 103, a database 104, and a communication module 105.
  • CPU central processing unit
  • ROM read only memory
  • RAM random access memory
  • FIG. 3 is a functional block diagram of the driving condition monitoring device 1.
  • the driving condition monitoring device 1 is activated when the power is turned on, and executes a driving condition monitoring program stored in advance in the ROM 102 or the like.
  • the control unit 1 the sensing data acquisition unit 12, the dangerous operation data generation unit 13, the image acquisition unit 14, the driver ID identification unit 15, the recording unit 16, and the report document generation unit 17.
  • the functional units of the warning information generation unit 18 and the output unit 19 are embodied.
  • the control unit 11 controls the functional units 12 to 19 of the driving condition monitoring device 1.
  • the sensing data acquisition unit 12 acquires, from the plurality of drive recorders 2 connected in communication, driving condition data including driving conditions of a plurality of items, and event data for notifying occurrence of various events during driving.
  • the dangerous time driving data generation unit 13 generates dangerous time driving data including the driving situation of any item selected from a plurality of items according to the attribute of the driver and the event data.
  • the image acquisition unit 14 acquires the photographed image data for authentication of the driver received from the plurality of communication-connected drive recorders 2.
  • the image acquisition unit 14 acquires, from the drive recorder 2, an upload image determined based on the attribute of the driver among the image data captured by the drive recorder 2 at the acquisition timing corresponding to the generation of the dangerous time drive data. .
  • the driver ID identification unit 15 performs an authentication process to determine whether the driver of the vehicle matches the driver registered in advance, based on the image related to the driver included in the captured image data for authentication. When the authentication is successful, the driver ID identification unit 15 identifies the ID of the driver.
  • the recording unit 16 records the driving condition data transmitted from the drive recorder 2 and the photographed image data for authentication in association with the driver ID specified by the driver ID specifying unit 15.
  • the report document generation unit 17 generates report document data according to the attribute of the driver using at least the dangerous operation data.
  • the warning information generation unit 18 generates warning information according to the attribute of the driver in response to the generation of the dangerous time driving data.
  • the output unit 19 outputs the report document data and the warning data. For example, the output unit 19 outputs these data to an external device or displays the data on the screen of the display unit.
  • FIG. 4 is a hardware configuration diagram of the drive recorder 2.
  • the drive recorder 2 includes a sensor 21, a communication device 22, a camera 23, a control device 24, and a storage device 25.
  • a sensor 21 an acceleration sensor 211, a sound detection sensor 212, a GPS sensor 213 or the like can be used.
  • the sensor 21 may be installed outside the drive recorder 2 in the vehicle. In this case, the drive recorder 2 may acquire the information detected by the sensor 21.
  • the communication device 22 communicates with the driving condition monitoring device 1.
  • the camera 23 captures an image of the outside or inside of the vehicle to generate a moving image or a still image.
  • the control device 24 controls the functional units of the drive recorder 2.
  • the storage device 25 stores a moving image, a still image, and various information detected by the sensor 21.
  • the drive recorder 2 communicates with the driving condition monitoring apparatus 1 via a base station or the like.
  • the control device 24 of the drive recorder 2 is a computer provided with a CPU, a ROM, a RAM, and the like.
  • FIG. 5 is a functional block diagram of the control device 24 of the drive recorder 2.
  • the control device 24 executes a control program stored in advance.
  • the control device 24 receives the vehicle information acquisition unit 241, the position information acquisition unit 242, the acceleration information acquisition unit 243, the event detection unit 244, the upload image generation 245, the driving condition data transmission unit 246, the event data transmission unit 247,
  • the functional units of the upload image transmission unit 248 and the authentication image data generation unit 249 are embodied.
  • the vehicle information acquisition unit 241 includes, as information stored in a memory card or the like inserted in the drive recorder 2 (for example, vehicle type, vehicle ID), and other information, acceleration of the vehicle, and a sensor mounted on the vehicle Vehicle information including sensing information (information other than vehicle position information) detected by
  • the vehicle information acquired by the vehicle information acquisition unit 241 may include the driving start time, the driving stop time, the vehicle speed at each time, the vehicle temperature, and the like.
  • the position information acquisition unit 242 acquires position information (latitude, longitude) of the vehicle at each time from the GPS sensor 213.
  • the acceleration information acquisition unit 243 acquires acceleration information of the vehicle at each time from the acceleration sensor 211.
  • the event detection unit 244 determines whether a desired event has occurred in the vehicle based on the acceleration of the vehicle.
  • a desirable event is a dangerous event. For example, it may be an event such as rapid acceleration or rapid deceleration of a vehicle.
  • the event detection unit 244 detects whether various events have occurred based on the condition (operation condition data) determined according to the driver's attribute.
  • the upload image generation unit 245 acquires a moving image or a still image captured by the camera 23, generates an upload image including a moving image at the time of occurrence of an event or a still image at the time of occurrence of an event, and transmits it via the communication device 22. . Specifically, the upload image generation unit 245 generates a moving image or a still image at the time of the event occurrence based on the condition determined according to the driver's attribute.
  • the driving condition data transmission unit 246 transmits driving condition data including vehicle information, position information, acceleration information, and authentication image data to the driving condition monitoring device 1.
  • the event data transmission unit 247 transmits event data when the event detection unit 244 detects the occurrence of an event.
  • the event data may have an identifier indicating the type of the event.
  • the upload image transmission unit 248 transmits, to the driving condition monitoring apparatus 1, upload image data indicating a moving image or a still image at the time of occurrence of an event generated by the upload image generation unit 245.
  • the authentication image data generation unit 249 acquires a moving image (captured image) captured by the camera 23 of the drive recorder 2 and generates authentication image data.
  • the authentication image data is an aspect of a photographed image.
  • the authentication image data is image data including a face image of the driver.
  • the authentication image data generation unit 249 may generate authentication image data by performing processing such as enlarging a face image in a captured image so as to improve authentication accuracy.
  • the authentication image data may include a plurality of frame images extracted according to the passage of time among the frame images included in the captured image. For example, the authentication image data may include ten frame images of the captured image.
  • the authentication image data generation unit 249 generates authentication image data at predetermined time intervals based on a captured image continuously acquired while the drive recorder 2 is operating.
  • the above-mentioned operating condition data is, for example, a dangerous driving type in which a dangerous degree level in which a dangerous degree identifier, an acceleration condition, a speed condition and an operating flag are linked, a dangerous type identifier, an acceleration direction, a speed and an operating flag And. Whether or not the operation flag is set is set in advance according to the attribute of the driver.
  • the operating condition data defines the danger level and the dangerous driving type based on the acceleration and the speed.
  • the operation flag is set according to the attribute of the driver.
  • a driver attribute for example, a company to which the driver belongs is shown, and a person in charge of the company sets the driver's operation flag and holds it in the operation condition data.
  • FIG. 6 is a flowchart showing a first processing procedure of the drive recorder 2.
  • the processing procedure of the driving condition monitoring system 100 will be described with reference to the flowchart of FIG. 6 (steps S101 to S109).
  • transmission processing of driving condition information in the drive recorder 2 will be described.
  • the drive recorder 2 is activated (S101).
  • the sensor 21 of the drive recorder 2 starts various sensing after the drive recorder 2 is started (S102).
  • the camera 23 starts shooting (S103).
  • the vehicle information acquisition unit 241 of the control device 24 acquires vehicle information (S104).
  • the vehicle information acquisition unit 241 may repeatedly acquire the sensing information included in the vehicle information at predetermined time intervals.
  • the position information acquisition unit 242 acquires longitude and latitude related to the position of the vehicle from the GPS sensor 213 at predetermined time intervals (S105).
  • the acceleration information acquisition unit 243 acquires the acceleration of the vehicle from the acceleration sensor 211 at predetermined time intervals (S106).
  • the authentication image data generation unit 249 generates authentication image data at predetermined time intervals based on the captured image acquired from the camera 23.
  • the predetermined time interval may be, for example, every 0.1 second.
  • the authentication image data generation unit 249 may generate authentication image data every one minute, which is a time interval longer than a time interval for acquiring other sensing information.
  • the driving status data transmission unit 246 acquires vehicle information, position information (longitude, latitude), acceleration, and authentication image data, and includes the information, the generation time of the driving status data, and the ID of the drive recorder 2.
  • Driving condition data is generated (S107).
  • the driving condition data transmission unit 246 instructs the communication device 22 to transmit the driving condition data to the driving condition monitoring device 1.
  • the communication device 22 transmits the driving condition data to the driving condition monitoring device 1 (S108).
  • the control device 24 determines whether to end the transmission process (S109).
  • the drive recorder 2 repeatedly executes steps S102 to S108 until it is determined that the transmission process is completed (determination result "YES" in step S109).
  • FIG. 7 is a flowchart showing a second processing procedure of the drive recorder 2 (steps S201 to S208).
  • the drive recorder 2 performs an event detection process in parallel with the transmission process of the driving condition information.
  • the event detection unit 244 of the control device 24 acquires acceleration information of the vehicle from the acceleration information acquisition unit 243 at predetermined time intervals (S201).
  • the event detection unit 244 acquires vehicle speed information from the vehicle information acquisition unit 241 at predetermined time intervals (S202).
  • the event detection unit 244 detects whether an event has occurred in the vehicle based on temporal changes in acceleration and speed of the vehicle (S203).
  • an event indicating a dangerous event is used as a vehicle event. Note that the determination as to whether or not a vehicle event has occurred may be determined according to the attribute of the driver.
  • the event detection unit 244 acquires the above-described operation condition data.
  • the danger level included in the operating condition data holds an operation flag for each acceleration according to the degree of danger.
  • the dangerous driving type included in the operating condition data holds the operating flag for each of the acceleration direction and the speed according to the type of the dangerous driving.
  • the event detection unit 244 determines that the traveling condition of the vehicle is the first condition that the acceleration of the degree of danger corresponding to the operation flag "1" and the acceleration direction and the speed of the dangerous driving type corresponding to the operation flag "1". When at least one of the second condition and the second condition is satisfied, occurrence of an event of the vehicle may be detected.
  • operation classification is set according to a driver
  • the event detection unit 244 instructs the upload image generation unit 245 to generate upload image data when the event generation of the vehicle is detected.
  • the upload image generation unit 245 acquires a captured image captured by the camera 23 of the drive recorder 2.
  • the upload image generation unit 245 generates upload image data based on the captured image acquired from the camera 23 (S204). Specifically, the upload image generation unit 245 generates a still image or a moving image of a predetermined time.
  • the number of still images, shooting time based on event occurrence time of still image, playback time of moving image, moving image start timing based on event occurrence time of moving image, etc. may be determined according to the driver's attribute .
  • the upload image generation unit 245 temporarily stores upload image data including a still image or a moving image, an image generation time, and an ID of the drive recorder 2 (S205).
  • the upload image generation unit 245 may delete the upload image data after an elapse of a predetermined period of around one week from the generation time of the upload image data.
  • the event detection unit 244 generates event data when detecting an event occurrence of a vehicle (S206).
  • the event data may include an acceleration at the time of detecting an event occurrence of a vehicle, a speed, an event occurrence time, and an ID of the drive recorder 2.
  • the event data may include vehicle position information (longitude, latitude) and other sensing information.
  • the event data transmission unit 247 acquires event data from the event detection unit 244.
  • the event data transmission unit 247 instructs the communication device 22 to transmit the event data to the driving condition monitoring device 1.
  • the communication device 22 transmits event data to the driving condition monitoring device 1 (S207).
  • the control device 24 determines whether to end the event detection process (S208).
  • the drive recorder 2 repeatedly executes steps S201 to S207 until it is determined that the event detection process is completed (determination result "YES" in step S208).
  • FIG. 8 is a flowchart showing the processing procedure of the driving situation monitoring device 1 (steps S301 to S319, S321 to S324).
  • the sensing data acquisition unit 12 acquires the driving condition data transmitted from the communication device 22 of the drive recorder 2 mounted on the vehicle via the communication module 105 (S301). Also, the sensing data acquisition unit 12 acquires event data transmitted from the communication device 22 of the drive recorder 2 via the communication module 105 (S302).
  • the driver ID identification unit 15 acquires authentication image data included in the driving condition data. The driver ID identification unit 15 generates face feature information from the image included in the authentication image data.
  • the driver ID identification unit 15 sequentially acquires combinations of driver IDs and face feature information for a plurality of drivers registered in advance in the database 104.
  • the driver ID identification unit 15 calculates the degree of coincidence between the face feature information acquired from the database 104 and the face feature information generated based on the authentication image data.
  • a publicly known calculation method may be used as a calculation method of the degree of coincidence.
  • the driver ID identification unit 15 performs an authentication process. That is, one or more of the driver IDs acquired from the database 104 are specified as the driver IDs associated with the face feature information provided for calculation of the degree of coincidence equal to or higher than a predetermined threshold value. Further, the driver ID identification unit 15 determines whether the driver ID can be identified based on the degree of coincidence (S303).
  • the driver ID specifying unit 15 specifies one driver ID
  • the driver ID identification unit 15 determines that one driver ID is successfully authenticated.
  • the driver ID identification unit 15 calculates an average value of the degree of coincidence for each driver ID.
  • the driver ID identification unit 15 identifies the driver ID with the highest average value of the degree of coincidence as the driver ID of the driver who drives the vehicle.
  • the driver ID identification unit identifies the driver ID corresponding to the driving condition data acquired from the drive recorder 2 and outputs the driver ID to the recording unit 16.
  • the recording unit 16 links the driver ID, the driving condition data, and the ID of the drive recorder 2 included in the driving condition data, and records them in the database 104 (S305).
  • the dangerous time driving data generation unit 13 detects the occurrence of an event in the vehicle on which the drive recorder 2 is mounted based on the event data (S306). When the occurrence of an event is detected, the dangerous time drive data generation unit 13 analyzes vehicle information at the event occurrence time based on the event occurrence time (S307). For example, the event occurrence time may be one minute before and after the event occurrence time. The dangerous time driving data generation unit 13 calculates an event occurrence time between one minute before and one minute after the event occurrence time, and obtains information (vehicle information, position information, acceleration information, etc.) at the event occurrence time. Extract from driving situation data. The dangerous time operation data generation unit 13 acquires the ID of the drive recorder 2 included in the event data.
  • the dangerous time drive data generation unit 13 reads the driver ID recorded in step S305 from the database 104 based on the ID of the drive recorder 2.
  • the dangerous time drive data generation unit 13 acquires analysis conditions stored in advance in association with the ID of the drive recorder 2 and the driver ID.
  • the analysis conditions are specified by the ID of the drive recorder 2 and the driver ID, so that, for example, analysis results according to the company and driver individual who use the drive recorder 2 mounted on a vehicle can be obtained.
  • the ID of the drive recorder 2 and the driver ID are an aspect of information indicating an attribute of the driver.
  • the at-risk operation data generation unit 13 analyzes information (hereinafter referred to as “extracted information”) extracted from the operation situation data at the event occurrence time according to the analysis condition, and generates at-risk operation data that is the analysis result S308).
  • the analysis conditions include information used for analysis, information indicating a range of the information value, and information indicating an analysis method.
  • the risk driving data generation unit 13 determines whether the event of the vehicle is important information.
  • the analysis condition may be a condition defined by the above-described operating condition data.
  • the dangerous time driving data generation unit 13 reads the vehicle speed information from the extraction information at predetermined time intervals in the event occurrence time.
  • the dangerous time driving data generation unit 13 specifies the dangerous driving type according to the transition of the acceleration information and the speed information at the event occurrence time.
  • the dangerous time operation data generation unit 13 generates dangerous time operation data including identification information of the dangerous operation type.
  • the dangerous time driving data may include acceleration information and speed information at the event occurrence time, and extraction information extracted from other driving situation data.
  • the output unit 19 acquires the dangerous time operation data generated by the dangerous operation data generation unit 13.
  • the output unit 19 links the dangerous operation data to the ID of the drive recorder 2 and the driver ID and records the data in a storage unit such as the database 104 (S309).
  • the dangerous time driving data generation unit 13 determines whether to upload an image based on the dangerous driving type (S310).
  • the image upload determination condition is determined according to the driver attribute such as the ID of the drive recorder 2 or the driver ID, and may be stored in the driving condition data monitoring device 1 in advance.
  • the dangerous time operation data generation unit 13 outputs an image acquisition request including at least the ID of the drive recorder 2 and the event occurrence time to the image acquisition unit 14.
  • the image acquisition unit 14 receives an image acquisition request from the dangerous operation data generation unit 13, the image acquisition unit 14 transmits the image acquisition request to the communication address of the drive recorder 2 linked to the ID of the drive recorder 2 via the communication module 105. To do (S311).
  • the control device 24 of the drive recorder 2 receives the image acquisition request.
  • the upload image transmission unit 248 of the control device 24 specifies the upload image data corresponding to the event occurrence time included in the image acquisition request, and stands by for the transmission process. Temporarily store them in a buffer. For example, when the electric system of the vehicle is activated again and the driving condition monitoring apparatus 1 is restarted, the upload image transmission unit 248 temporarily stores the upload image data temporarily stored in the buffer and waiting for transmission processing, It transmits to the driving
  • the image acquisition unit 14 acquires the upload image data transmitted from the drive recorder 2 (S312).
  • the image acquisition unit 14 records upload image data in association with the at-risk operation data (S313).
  • the driving condition monitoring device 1 can store the dangerous time driving data and the upload image data according to the attribute of the driver.
  • the upload image data is data of a still image or a moving image of a part of the moving image photographed according to the driver attribute. Therefore, the data amount of the upload image data transmitted from the drive recorder 2 to the driving condition monitoring device 1 can be reduced. Further, the drive recorder 2 transmits upload image data to the driving condition monitoring device 1 at the time of restart. For this reason, upload image data with a large capacity can be transmitted to the driving situation monitoring device 1 in a time zone in which the vehicle is at a stop and the communication quality is stable due to the stop of the vehicle.
  • step S303 when the driver ID identification unit 15 can not identify the driver ID for which the degree of coincidence of the face feature information or the average value thereof is equal to or more than a predetermined threshold, it is determined whether authentication processing has been performed a predetermined number of times. (S321). If the authentication process has not been performed a predetermined number of times, the driver ID identification unit 15 repeatedly executes the authentication process (S303) using the authentication image data included in the next driving situation data. If the driver ID identification unit 15 has performed the authentication process a predetermined number of times or more, it determines that the authentication is unsuccessful (S322). If the driver ID identification unit 15 determines that the authentication is unsuccessful, the driver ID identification unit 15 generates a temporary ID (S323). The temporary ID is output to the recording unit 16. The recording unit 16 links the temporary ID and the driving condition data to the ID of the drive recorder 2 included in the driving condition data, and records the temporary ID and the driving condition data in the database 104 (S324). Thereafter, the process proceeds to step S306.
  • the driver ID identification unit 15 notifies the administrator of the temporary ID generated in step S323 at a predetermined timing.
  • the driver ID identification unit 15 includes screen information including a temporary ID on the terminal screen of the administrator at a predetermined time and a recording destination URL of the driving situation data recorded in the database 104 by being linked to the temporary ID. Send. Thereby, the screen information including the temporary ID and the recording destination ULR of the driving condition data is displayed on the terminal of thanks.
  • the administrator accesses the recording destination URL to read the driving condition data, and displays the authentication image data and the upload image data included in the driving condition data on the terminal.
  • the administrator determines whether the feature information of the driver's face image matches the driver registered in the database 104 by referring to the image displayed on the terminal.
  • the administrator When the feature information of the driver's face image is recorded in the database 104, the administrator performs an operation of rewriting the temporary ID recorded in the database 104 into the driver ID of the driver. Alternatively, the administrator inputs the temporary ID and the driver ID into the driving condition monitoring device 1, and the driver ID identification unit 15 operates the administrator to input the temporary ID recorded in the database 104 to the driver of the driver A process of rewriting to an ID may be performed.
  • the administrator specifies the driver displayed in the authentication image data and the upload image data, and performs new driving for the driver. Issue a person ID.
  • the administrator performs an operation of rewriting the temporary ID recorded in the database 104 into a newly issued driver ID.
  • the administrator inputs the temporary ID and the newly issued driver ID into the driving condition monitoring device 1, and the driver ID identification unit 15 records the temporary ID recorded in the database 104 according to the operation of the administrator. May be rewritten to the newly issued driver ID.
  • the driving condition monitoring device 1 can specify the driver ID of the driver based on the authentication image data received from the drive recorder 2. As a result, the driver does not have to insert a memory card or the like into the drive recorder 2 to input identification information such as the driver's ID of the driver itself into the drive recorder 2, and the driving condition monitoring device 1 Driver ID can be recognized.
  • a driver ID specified based on a photographed image of the driver, driving condition data, and upload image data are linked and recorded in the database 104.
  • the ID of a person different from the driver who is actually driving the vehicle is input to the drive recorder 2 so that the ID of the different person is erroneously or disguised as being linked to the driving condition data in a database 104
  • the driver ID specifying unit 15 issues a temporary ID and notifies the administrator, so that the manager is more appropriate
  • a driver ID can be issued, linked to driving condition data, and recorded in the database 104.
  • the warning information generation unit 18 of the driving condition monitoring device 1 generates warning information including at least the dangerous driving type specified by the dangerous driving data generation unit 13 and the ID of the drive recorder 2 that has transmitted the driving condition data. (S314).
  • the output unit 19 transmits warning information to the communication address of the drive recorder 2 specified in advance in association with the ID of the drive recorder 2 via the communication module 105 (S315).
  • the drive recorder 2 receives the warning information from the driving condition monitoring device 1.
  • the drive recorder 2 may output the predetermined information in a mode according to the dangerous driving type included in the warning information.
  • the drive recorder 2 may emit a sound or a sound according to the dangerous driving type.
  • the drive recorder 2 can warn the driver of the vehicle in a mode according to the dangerous driving type.
  • the report document generation unit 17 of the driving condition monitoring apparatus 1 determines whether report document data is to be generated at a predetermined timing (S316). Based on the determination result, the report document generation unit 17 generates report document data according to the driver at a predetermined timing (S317).
  • the predetermined timing for generating the report document data is, for example, a predetermined time such as once a day, 24 o'clock.
  • the report document generation unit 17 acquires a report document generation condition stored in advance based on at least one of the driver ID and the ID of the drive recorder 2.
  • the report document generation conditions include information such as the type of information to be posted on the report document and the destination of the report document.
  • the report document generation unit 17 generates report document data according to the report document generation conditions.
  • the report document data includes, for example, an idling time indicating the time after start of the vehicle included in the vehicle information, a radar chart according to the number of occurrences for each dangerous drive type, and a report document generation based on the dangerous drive type and the number of occurrences
  • the score calculated by the unit 17, the risk ranking ranked by the report document generation unit 17 according to the score, and the like are included.
  • the output unit 19 acquires the report document data generated by the report document generation unit 17, and transmits it to the address of the transmission destination based on the driver ID and the ID of the drive recorder 2 (S318).
  • the control unit 11 of the driving condition monitoring device 1 determines whether the above-described processing has ended (S319).
  • the driving condition monitoring device 1 repeatedly executes steps S302 to S318 and S321 to S324 until the processing completion determination is made. In this way, the driving situation monitoring device 1 can generate report document data according to the driver's attribute and transmit it to a desired destination.
  • FIG. 9 shows the minimum configuration of the driving condition monitoring device 1.
  • the driving condition monitoring device 1 may include at least a sensing data acquisition unit 12, a driver ID identification unit 15, and a recording unit 16.
  • the sensing data acquisition unit 12 acquires a photographed image of the driver and driving condition data from the plurality of drive recorders 2 communicably connected to the driving condition monitoring device 1.
  • the driver ID identification unit 15 performs an authentication process on the driver of the vehicle. That is, based on the information of the driver included in the plurality of images in the captured image of the drive recorder 2, it is determined whether the driver matches the driver registered in advance.
  • the driver ID identification unit 15 identifies a driver ID for the driver for which the authentication is successful.
  • the recording unit 16 associates and records the driving condition data transmitted from the drive recorder 2 and the driver ID specified based on the photographed image corresponding to the driving condition data.
  • the control device 24 of the driving condition monitoring device 1 and the drive recorder 2 has a computer system inside.
  • the above-described process is stored as a computer program in a computer-readable recording medium, and the computer reads and executes the computer program from the recording medium to implement the above-described process.
  • the computer program may be for realizing a part of the functions of the driving situation monitoring device 1 and the drive recorder 2. Also, the computer program may be a difference program (or a difference file) that implements the above functions in combination with a preinstalled program of the computer system.
  • the driving condition sensing device to be communicably connected to the driving condition monitoring device 1 is not limited to the drive recorder 2, and for example, an on-vehicle computer, a vehicle-mounted camera or the like may be used.
  • the driving condition monitoring apparatus and the driving condition monitoring method according to the present invention monitor the driving condition data of the driver of the vehicle and provide the driver with warning information and a report document.
  • the present invention is also applicable to a system that provides various traffic information, such as providing information on a driver who is driving in danger to a management system.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)

Abstract

運転状況監視システムは、運転状況監視装置と運転状況センシング装置と通信接続することにより構成される。運転状況センシング装置(ドライブレコーダ)は、車両の運転者の画像を撮影するとともに、運転状況データを生成する。運転状況監視装置は、運転状況センシング装置から送信された車両の運転者の撮影画像と、運転状況データと、を取得する。撮影画像に含まれる運転者の情報に基づいて、運転者が予め登録された運転者と一致するかの認証処理を行い、認証が成功した前記運転者に係る識別情報を特定する。その後、運転状況データと、運転状況データに対応する撮影画像に基づいて特定した運転者の識別情報と、を関連付けてデータベースに記録する。これにより、複数の運転状況センシング装置より複数の車両を運転する運転者の運転状況を取得し、運転状況監視装置にて複数の車両の運転状況を精度よく管理することができる。

Description

運転状況監視装置、運転状況監視方法、および運転状況監視システム
 本発明は、運転状況監視装置、運転状況監視方法、および運転状況監視システムに関する。
 本願は、2018年1月25日に、日本国に出願された特願2018-10903号に基づき優先権を主張し、その内容をここに援用する。 
自動車等の車両において、運転時の各種データを取得し、運転状況を監視する技術が開発されている。例えば、特許文献1は、運転者の顔写真を撮影し、顔写真に基づいて運転者を認識し、運転者毎の燃費情報を算出する技術を開示している。特許文献2は、情報収集用車両が事故やヒヤリハットの危険事象が発生したときの情報を入手し、情報配信センターにて危険地点と危険事象の発生形態とを紐付けしてデータベース化し、これに基づいて車両に安全運転のための支援情報を配信する技術を開示している。
特開2015-79359号公報 特開2013-117809号公報
上記の技術は、車両の運転者を個別に識別して安全運転支援を行うには不十分であった。例えば、複数の車両を運転する運転者の運転状況を精度よく取得して、情報管理する技術が求められている。
そこで、本発明は、上記の課題を解決すべく、運転者の認証を行い、運転者毎の運転状況を監視することができる運転状況監視装置、運転状況監視方法、および運転状況監視システムを提供することを目的とする。
 本発明の第1の態様によれば、運転状況監視装置は、車両の運転者の撮影画像と、運転状況データと、を取得する取得部と、撮影画像に含まれる運転者の情報に基づいて、運転者が予め登録された運転者と一致するかの認証処理を行い、認証が成功した運転者に係る識別情報を特定する特定部と、運転状況データと、運転状況データに対応する撮影画像に基づいて特定した運転者の識別情報と、を関連付けて記録する記録部と、を具備する。
 本発明の第2の態様は、運転状況監視装置と運転状況センシング装置とよりなる運転状況監視システムである。運転状況監視装置は、運転状況センシング装置から送信された車両の運転者の撮影画像と、運転状況データと、を取得する取得部と、撮影画像に含まれる運転者の情報に基づいて、運転者が予め登録された運転者と一致するかの認証処理を行い、認証が成功した運転者に係る識別情報を特定する特定部と、運転状況データと、運転状況データに対応する撮影画像に基づいて特定した運転者の識別情報と、を関連付けて記録する記録部と、を具備する。
 本発明の第3の態様は、運転状況センシング装置と通信接続される運転状況監視装置に適用される運転状況監視方法である。運転状況監視方法は、運転状況センシング装置から送信された車両の運転者の撮影画像と、運転状況データと、を取得し、撮影画像に含まれる運転者の情報に基づいて、運転者が予め登録された運転者と一致するかの認証処理を行い、認証が成功した運転者に係る識別情報を特定し、運転状況データと、運転状況データに対応する撮影画像に基づいて特定した運転者の識別情報と、を関連付けて記録する。
 本発明の第4の態様として、上記の運転状況監視方法をコンピュータに実施させるプログラム、または、プログラムを記憶した記憶媒体を提供することもできる。
 本発明によれば、複数の車両を運転する運転者の運転状況を監視し、運転者毎に運転状況センシング装置(ドライブレコーダ)から取得した運転者の撮影画像や運転状況データを精度よく管理することができる。
本発明の実施例による運転状況監視システムの構成図である。 本発明の実施例による運転状況監視装置のハードウェア構成図である。 本発明の実施例による運転状況監視装置の機能ブロック図である。 運転状況監視装置と通信接続するドライブレコーダのハードウェア構成図である。 ドライブレコーダの制御装置の機能ブロック図である。 ドライブレコーダの第1の処理手順を示すフローチャートである。 ドライブレコーダの第2の処理手順を示すフローチャートである。 運転状況監視装置の処理手順を示すフローチャートである。 運転状況監視装置の最小構成を示すブロック図である。
 本願発明について、実施例とともに添付図面を参照して詳細に説明する。
 図1は、本発明の実施例に係る運転状況監視システムの構成図である。図1に示すように、運転状況監視システム100は、運転状況監視装置1と、運転状況センシング装置の一態様でドライブレコーダー2と、より構成される。運転状況監視装置1とドライブレコーダ2とは、無線通信ネットワークや有線通信ネットワークを介して接続される。例えば、ドライブレコーダ2は、車両に設けられる。運転状況監視装置1は、都市や町中を走行する複数の車両にそれぞれ設置されたドライブレコーダ2と通信接続する。
 図2は、運転状況監視装置1のハードウェア構成図である。図2に示すように、運転状況監視装置1は、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、データベース104、及び通信モジュール105などのハードウェア要素を備えたコンピュータである。
 図3は、運転状況監視装置1の機能ブロック図である。運転状況監視装置1は、電源が投入されると起動し、ROM102などに予め記憶された運転状況監視プログラムを実行する。これにより、運転状況監視装置1には、制御部1、センシングデータ取得部12、危険時運転データ生成部13、画像取得部14、運転者ID特定部15、記録部16、報告書類生成部17、警告情報生成部18、及び出力部19、の機能部が具現化される。
 制御部11は、運転状況監視装置1の機能部12乃至19を制御する。センシングデータ取得部12は、通信接続された複数のドライブレコーダ2より、複数項目の運転状況を含む運転状況データと、運転時の各種イベントの発生を通知するイベントデータと、を取得する。危険時運転データ生成部13は、運転者の属性とイベントデータとに応じて複数項目から選択したいずれかの項目の運転状況を含む危険時運転データを生成する。
 画像取得部14は、通信接続された複数のドライブレコーダ2より受信した運転者の認証用撮影画像データを取得する。画像取得部14は、ドライブレコーダ2により撮影された画像データのうち、運転者の属性に基づいて定められたアップロード画像を、危険時運転データの生成時に対応する取得タイミングでドライブレコーダ2から取得する。
 運転者ID特定部15は、認証用撮影画像データに含まれる運転者に関する画像に基づいて車両の運転者が予め登録された運転者と一致するかの認証処理を行う。運転者ID特定部15は、認証が成功した場合に、運転者のIDを特定する。記録部16は、ドライブレコーダー2から送信された運転状況データと、認証用撮影画像データとを、運転者ID特定部15により特定された運転者IDに関連付けて記録する。報告書類生成部17は、少なくとも危険時運転データを用いて運転者の属性に応じた報告書類データを生成する。警告情報生成部18は、危険時運転データの生成を契機として、運転者の属性に応じた警告情報を生成する。出力部19は、報告書類データや警告データを出力する。例えば、出力部19は、これらのデータを外部装置に出力し、或いは、表示部の画面に表示する。
 図4は、ドライブレコーダ2のハードウェア構成図である。ドライブレコーダ2は、センサ21、通信装置22、カメラ23、制御装置24、及び記憶装置25、により構成される。例えば、センサ21として、加速度センサ211、音検知センサ212、GPSセンサ213などを用いることができる。センサ21は、車両において、ドライブレコーダ2の外部に設置されてもよい。この場合、ドライブレコーダ2はセンサ21により検知された情報を取得してもよい。
 通信装置22は、運転状況監視装置1と通信接続する。カメラ23は、車両の外部や内部の画像を撮影して、動画像や静止画像を生成する。制御装置24は、ドライブレコーダ2の機能部を制御する。記憶装置25は、動画像、静止画像、センサ21により検知された各種情報を記憶する。ドライブレコーダ2は、基地局などを経由して運転状況監視装置1と通信接続する。なお、ドライブレコーダ2の制御装置24は、CPU、ROM、RAMなどを備えたコンピュータである。
 図5は、ドライブレコーダ2の制御装置24の機能ブロック図である。制御装置24は、ドライブレコーダ2が起動すると、予め記憶された制御プログラムを実行する。これにより、制御装置24には、車両情報取得部241、位置情報取得部242、加速度情報取得部243、イベント検知部244、アップロード画像生成245、運転状況データ送信部246、イベントデータ送信部247、アップロード画像送信部248、及び認証用画像データ生成部249、の機能部が具現化される。
 車両情報取得部241は、ドライブレコーダ2に挿入されたメモリカードなどに記憶されている情報(例えば、車両種別、車両ID)、並びに、その他の情報として、車両の加速度、車両に搭載されたセンサにより検知されたセンシング情報(車両位置情報以外の情報)などを含む車両情報を取得する。例えば、車両情報取得部241により取得される車両情報には、運転始動時刻、運転停止時刻、各時刻における車両速度、及び車両温度などを含めてもよい。
 位置情報取得部242は、各時刻における車両の位置情報(緯度、経度)をGPSセンサ213から取得する。加速度情報取得部243は、各時刻における車両の加速度情報を加速度センサ211から取得する。イベント検知部244は、車両の加速度に基づいて車両に所望のイベントが発生したか判定する。所望インベントとして危険イベントが挙げられる。例えば、車両の急加速や急減速などのイベントであってもよい。具体的には、イベント検知部244は、運転者の属性に応じて決定された条件(動作条件データ)に基づいて、各種のイベントが発生したか検知する。
 アップロード画像生成部245は、カメラ23により撮影した動画像や静止画像を取得し、イベント発生時の動画像やイベント発生時の静止画像を含むアップロード画像を生成し、通信装置22を介して送信する。具体的には、アップロード画像生成部245は、運転者の属性に応じて決定された条件に基づいて、イベント発生時の動画像や静止画像を生成する。
 運転状況データ送信部246は、車両情報、位置情報、加速度情報、及び認証用画像データを含む運転状況データを運転状況監視装置1へ送信する。イベントデータ送信部247は、イベント検知部244によりイベントの発生が検知された場合に、イベントデータを送信する。イベントデータには、イベントの種別を示す識別子が付されてもよい。アップロード画像送信部248は、アップロード画像生成部245により生成されたイベント発生時の動画像や静止画像を示すアップロード画像データを運転状況監視装置1へ送信する。
 認証用画像データ生成部249は、ドライブレコーダ2のカメラ23により撮影された動画像(撮影画像)を取得し、認証用画像データを生成する。なお、認証用画像データは撮影画像の一態様である。本実施例において、認証用画像データは、運転者の顔画像を含む画像データである。認証用画像データ生成部249は、認証精度が向上するように、撮影画像における顔画像を拡大するなどの加工処理を施して認証用画像データを生成してもよい。なお、認証用画像データには、撮影画像に含まれるフレーム画像のうち、時間の経過に従って抽出された複数枚のフレーム画像を含めてもよい。例えば、認証用画像データには、撮影画像のうち10枚のフレーム画像を含めてもよい。認証用画像データ生成部249は、ドライブレコーダ2が動作している間に継続して取得する撮影画像に基づいて、所定の時間間隔で認証用画像データを生成する。
 上述の動作条件データは、例えば、危険度識別子と加速度条件と速度条件と動作フラグとを紐づけた危険度レベルと、危険種別識別子と加速度方向と速度と動作フラグとを紐づけた危険運転種別と、を含む。動作フラグが立っているか否かは、運転者の属性に応じて予め設定されている。このように、動作条件データは、加速度と速度とに基づいて、危険度レベルと危険運転種別とを規定している。動作フラグは、運転者の属性に応じて設定される。運転者の属性として、例えば、運転者の所属する会社を示しており、会社の担当者が運転者の動作フラグを設定して、動作条件データに保持する。
 図6は、ドライブレコーダ2の第1の処理手順を示すフローチャートである。図6のフローチャートを参照して、運転状況監視システム100の処理手順について説明する(ステップS101~S109)。まず、ドライブレコーダ2における運転状況情報の送信処理について説明する。
 車両において、電気系統が起動すると、ドライブレコーダ2は始動する(S101)。ドライブレコーダ2のセンサ21は、ドライブレコーダ2の始動後に各種センシングを開始する(S102)。また、カメラ23は撮影を開始する(S103)。ドライブレコーダ2の動作中、制御装置24の車両情報取得部241は、車両情報を取得する(S104)。車両情報取得部241は、車両情報に含まれるセンシング情報については、所定の時間間隔で繰り返し取得してもよい。位置情報取得部242は、車両の位置に係る経度や緯度をGPSセンサ213から所定の時間間隔で取得する(S105)。加速度情報取得部243は、車両の加速度を加速度センサ211から所定の時間間隔で取得する(S106)。認証用画像データ生成部249は、カメラ23から取得した撮影画像に基づいて、認証用画像データを所定の時間間隔で生成する。所定の時間間隔として、例えば、0.1秒毎としてもよい。認証用画像データ生成部249については、他のセンシング情報を取得する時間間隔よりも長い時間間隔である1分毎に認証用画像データを生成してもよい。運転状況データ送信部246は、車両情報、位置情報(経度、緯度)、加速度、及び認証用画像データを取得し、それらの情報と、運転状況データの生成時刻とドライブレコーダ2のIDとを含む運転状況データを生成する(S107)。運転状況データ送信部246は、運転状況データを運転状況監視装置1へ送信するよう通信装置22に指示する。通信装置22は、運転状況データを運転状況監視装置1へ送信する(S108)。制御装置24は、送信処理を終了するかを判定する(S109)。ドライブレコーダ2は、送信処理の終了判定(ステップS109の判定結果「YES」)がなされるまで、ステップS102~S108を繰り返し実行する。
 図7は、ドライブレコーダ2の第2の処理手順を示すフローチャートである(ステップS201~S208)。ドライブレコーダ2は、運転状況情報の送信処理と並行してイベント検知処理を行う。まず、ドライブレコーダ2が始動すると、制御装置24のイベント検知部244は、車両の加速度情報を所定の時間間隔で加速度情報取得部243から取得する(S201)。イベント検知部244は、車両の速度情報を所定の時間間隔で車両情報取得部241から取得する(S202)。イベント検知部244は、車両の加速度と速度の時間変化に基づいて車両にイベントが発生したか検知する(S203)。本実施例では、車両のイベントとして、危険事象を示すイベントを用いている。なお、車両のイベントが発生したか否かの判定は、運転者の属性に応じて定めてもよい。
 具体的には、イベント検知部244は、上述の動作条件データを取得する。動作条件データに含まれる危険度レベルは、危険度に応じた加速度毎に動作フラグを保持する。動作条件データに含まれる危険運転種別は、危険運転の種別に応じた加速度方向と速度毎に動作フラグを保持する。イベント検知部244は、車両の走行状況が、動作フラグ「1」に対応する危険度の加速度となる第1の条件と、動作フラグ「1」に対応する危険運転種別の加速度方向や速度となる第2の条件と、の少なくとも一方の条件が成立する場合に、車両のイベント発生を検知するようにしてもよい。なお、危険度レベルや危険運転種別に保持される動作フラグは、運転者の属性に応じて設定される。このため、運転者の属性に応じて車両のイベント発生を検知することができる。
 イベント検知部244は、車両のイベント発生を検知した場合、アップロード画像生成部245にアップロード画像データの生成を指示する。アップロード画像生成部245は、ドライブレコーダ2のカメラ23が撮影した撮影画像を取得している。アップロード画像生成部245は、車両のイベント発生を示す検知信号をイベント検知部244から入力すると、カメラ23から取得した撮影画像に基づいて、アップロード画像データを生成する(S204)。具体的には、アップロード画像生成部245は、静止画像や所定時間の動画像を生成する。静止画像の枚数、静止画像のイベント発生時刻を基準とした撮影時刻、動画像の再生時間、動画像のイベント発生時刻を基準とした動画開始タイミングなどは運転者の属性に応じて定めてもよい。アップロード画像生成部245は、静止画像や動画像と、画像生成時刻と、ドライブレコーダ2のIDと、を含むアップロード画像データを一時的に記憶する(S205)。アップロード画像生成部245は、アップロード画像データの生成時点から1週間前後の所定期間経過後にアップロード画像データを削除してもよい。
 イベント検知部244は、車両のイベント発生を検知した場合にイベントデータを生成する(S206)。イベントデータには、車両のイベント発生を検知したときの加速度と、速度と、イベント発生時刻と、ドライブレコーダ2のIDと、を含めてもよい。イベントデータには、車両の位置情報(経度、緯度)や他のセンシング情報を含めてもよい。イベントデータ送信部247は、イベントデータをイベント検知部244から取得する。イベントデータ送信部247は、通信装置22にイベントデータを運転状況監視装置1へ送信するよう指示する。通信装置22は、イベントデータを運転状況監視装置1へ送信する(S207)。制御装置24は、イベント検知処理を終了するか否かを判定する(S208)。ドライブレコーダ2は、イベント検知処理の終了判定(ステップS208の判定結果「YES」)がなされるまで、ステップS201~S207を繰り返し実行する。
 図8は、運転状況監視装置1の処理手順を示すフローチャートである(ステップS301~S319、S321~S324)。運転状況監視装置1において、センシングデータ取得部12は、車両に搭載されたドライブレコーダ2の通信装置22から送信された運転状況データを、通信モジュール105を介して取得する(S301)。また、センシングデータ取得部12は、ドライブレコーダ2の通信装置22から送信されたイベントデータを、通信モジュール105を介して取得する(S302)。運転者ID特定部15は、運転状況データに含まれる認証用画像データを取得する。運転者ID特定部15は、認証用画像データに含まれる画像から顔特徴情報を生成する。運転者ID特定部15は、予めデータベース104に登録されている複数の運転者について、運転者IDと顔特徴情報との組み合わせを順次取得する。運転者ID特定部15は、データベース104から取得した顔特徴情報と、認証用画像データに基づいて生成した顔特徴情報との一致度を算出する。一致度の算出方法として、公知の算出方法を用いてもよい。運転者ID特定部15は、認証処理を行う。すなわち、予め定められた閾値以上の一致度の算出に供した顔特徴情報に紐づく運転者IDを、データベース104から取得した運転者IDの中から一つまたは複数特定する。また、運転者ID特定部15は、一致度に基づいて運転者IDの特定ができたかを判定する(S303)。具体的には、運転者ID特定部15は、一つの運転者IDを特定した場合、その運転者IDに係る一致度が所定の閾値以上であれば、その運転者IDについて認証成功と判定する(S304)。運転者ID特定部15は、複数の運転者IDを特定した場合、その中から一つの運転者IDについて認証成功と判定する。具体的には、運転者ID特定部15は、各運転者IDについて一致度の平均値を算出する。運転者ID特定部15は、一致度の平均値が最も高い運転者IDを、車両を運転する運転者の運転者IDとして特定する。運転者ID特定部は、ドライブレコーダ2から取得した運転状況データに対応する運転者IDを特定して、記録部16へ出力する。記録部16は、運転者IDと、運転状況データと、運転状況データに含まれるドライブレコーダ2のIDと、を紐づけてデータベース104に記録する(S305)。
 危険時運転データ生成部13は、ドライブレコーダ2が搭載される車両におけるイベントの発生をイベントデータに基づいて検知する(S306)。危険時運転データ生成部13は、イベント発生を検知すると、イベント発生時刻を基準としたイベント発生時間における車両情報を解析する(S307)。例えば、イベント発生時間は、イベント発生時刻の前後1分間であってもよい。危険時運転データ生成部13は、イベント発生時刻の1分前と1分後の各時刻間のイベント発生時間を算出し、そのイベント発生時間における情報(車両情報、位置情報、加速度情報など)を運転状況データから抽出する。危険時運転データ生成部13は、イベントデータに含まれるドライブレコーダ2のIDを取得する。また、危険時運転データ生成部13は、ドライブレコーダ2のIDに基づいて、ステップS305で記録された運転者IDをデータベース104から読み取る。危険時運転データ生成部13は、ドライブレコーダ2のIDや運転者IDに紐づいて予め記憶された解析条件を取得する。解析条件は、ドライブレコーダ2のIDや運転者IDによって特定されるため、例えば、ドライブレコーダー2を車両に搭載して使用している企業や運転者個人に応じた解析結果が得られる。なお、ドライブレコーダ2のIDや運転者IDは、運転者の属性を示す情報の一態様である。
 危険時運転データ生成部13は、解析条件に従って、イベント発生時間において運転状況データから抽出した情報(以下、「抽出情報」という)を解析し、その解析結果である危険時運転データを生成する(S308)。解析条件には、解析に利用する情報や、その情報値の範囲などを示す情報や、解析方法などを示す情報が含まれる。危険時運転データ生成部13は、抽出情報を解析条件が示す解析手法に従って解析した結果、車両のイベントが重要な情報であるか否かを判定する。例えば、解析条件は、上述の動作条件データで規定される条件であってもよい。危険時運転データ生成部13は、動作フラグ「1」となる加速度情報が抽出情報に含まれる場合、イベント発生時間における所定時間間隔で車両の速度情報を抽出情報から読み取る。危険時運転データ生成部13は、イベント発生時間における加速度情報と速度情報の遷移に応じて危険運転種別を特定する。危険時運転データ生成部13は、動作フラグ「1」の危険運転種別を特定した場合、その危険運転種別の識別情報を含む危険時運転データを生成する。危険時運転データには、イベント発生時間における加速度情報や速度情報、その他の運転状況データから抽出した抽出情報などを含めてもよい。出力部19は、危険運転データ生成部13により生成された危険時運転データを取得する。出力部19は、危険時運転データを、ドライブレコーダ2のIDや運転者IDに紐づけてデータベース104などの記憶部に記録する(S309)。
 危険時運転データ生成部13は、危険運転種別に基づいて画像をアップロードするか判定する(S310)。画像のアップロード判定条件は、ドライブレコーダ2のIDや運転者IDなどの運転者属性に応じて定められており、予め運転状況データ監視装置1に記憶してもよい。危険時運転データ生成部13は、画像のアップロードを必要とする危険運転種別を特定した場合、ドライブレコーダ2のIDとイベント発生時間とを少なくとも含む画像取得要求を画像取得部14へ出力する。画像取得部14は、危険時運転データ生成部13から画像取得要求を入力すると、通信モジュール105を介して、ドライブレコーダ2のIDに紐づいたドライブレコーダ2の通信アドレス宛に画像取得要求を送信する(S311)。
 ドライブレコーダ2の制御装置24は、画像取得要求を受信する。制御装置24のアップロード画像送信部248は、アップロード画像生成部245によって生成されたアップロード画像データのうち、画像取得要求に含まれるイベント発生時間に対応するアップロード画像データを特定し、その送信処理を待機すべく、バッファなどに一時的に格納する。例えば、アップロード画像送信部248は、車両の電気系統が再び起動し、運転状況監視装置1が再起動したとき、バッファに一時的に格納され送信処理を待機していたアップロード画像データを、通信装置22を介して、運転状況監視装置1へ送信する。運転状況監視装置1において、画像取得部14は、ドライブレコーダ2から送信されたアップロード画像データを取得する(S312)。画像取得部14は、危険時運転データに紐づけてアップロード画像データを記録する(S313)。
 以上の処理により、運転状況監視装置1は、運転者の属性に応じた危険時運転データとアップロード画像データを記憶することができる。上述の処理によれば、アップロード画像データは、運転者属性に応じて撮影された動画像のうちの一部の静止画像や動画像のデータである。したがって、ドライブレコーダ2から運転状況監視装置1に送信されるアップロード画像データのデータ量を削減することができる。また、ドライブレコーダ2は、再起動時にアップロード画像データを運転状況監視装置1へ送信する。このため、容量の大きいアップロード画像データを、車両が停止している時間帯であって、車両の停止により通信品質が安定している時間帯に運転状況監視装置1へ送信することができる。
 ステップS303において、運転者ID特定部15が、顔特徴情報の一致度やその平均値が所定の閾値以上となる運転者IDを特定できなかった場合、認証処理を所定回数行ったか否か判定する(S321)。運転者ID特定部15は、認証処理を所定回数行っていない場合、次の運転状況データに含まれる認証用画像データを用いて認証処理(S303)を繰り返し実行する。運転者ID特定部15は、認証処理を所定回数以上行った場合、認証不成功と判定する(S322)。運転者ID特定部15は、認証不成功と判定した場合、仮IDを生成する(S323)。仮IDは、記録部16へ出力される。記録部16は、仮IDと運転状況データを、運転状況データに含まれるドライブレコーダ2のIDに紐づけてデータベース104に記録する(S324)。その後、処理はステップS306に移行する。
運転者ID特定部15は、ステップS323で生成した仮IDを所定のタイミングで管理者に通知する。例えば、運転者ID特定部15は、所定の時刻に管理者の端末画面に仮IDと、仮IDに紐づいてデータベース104に記録された運転状況データの記録先URLと、を含む画面情報を送信する。これにより、感謝の端末にて、仮IDや運転状況データの記録先ULRを含む画面情報が表示される。管理者は、記録先URLにアクセスして運転状況データを読み出し、その運転状況データに含まれる認証用画像データやアップロード画像データを端末上に表示する。管理者は、端末上に表示された画像を参酌して、運転者の顔画像の特徴情報がデータベース104に登録された運転者と一致するか判定する。管理者は、運転者の顔画像の特徴情報がデータベース104に記録されている場合には、データベース104に記録されている仮IDを運転者の運転者IDに書き換える操作を行う。或いは、管理者は、仮IDと運転者IDとを運転状況監視装置1に入力し、運転者ID特定部15が管理者の操作によりデータベース104に記録されている仮IDを運転者の運転者IDに書き換える処理を行うようにしてもよい。
運転者の顔画像の特徴情報がデータベース104に記録されていない場合には、管理者は、認証用画像データやアップロード画像データに表示されている運転者を特定し、その運転者について新たな運転者IDを発行する。管理者は、データベース104に記録されている仮IDを、新たに発行した運転者IDに書き換える操作を行う。或いは、管理者は、仮IDと新たに発行した運転者IDとを運転状況監視装置1に入力し、運転者ID特定部15が管理者の操作に応じてデータベース104に記録されている仮IDを新たに発行した運転者IDに書き換える処理を行うようにしてもよい。
上述の処理によれば、運転状況監視装置1は、ドライブレコーダ2から受信した認証用画像データに基づいて運転者の運転者IDを特定することができる。これにより、運転者がドライブレコーダ2にメモリカードなどを挿入して運転者自身の運転者IDなどの識別情報をドライブレコーダ2に入力する操作を行う必要が無くなり、運転状況監視装置1は運転者の運転者IDを認識することができる。
本実施例では、運転者の撮影画像に基づいて特定された運転者IDと、運転状況データと、アップロード画像データと、を紐づけてデータベース104に記録される。これにより、車両を実際に運転している運転者とは異なる人物のIDがドライブレコーダ2に入力されることにより、異なる人物のIDが誤ってまたは偽装して運転状況データと紐づいてデータベース104に記録されるような不正行為を防止することができる。また、運転者の撮影画像に基づく認証用画像データによる運転者IDの特定ができない場合にも、運転者ID特定部15が仮IDを発行して管理者に通知するので、管理者により適切な運転者IDを発行して運転状況データと紐づけてデータベース104に記録することができる。これにより、複数の車両を運転する運転者の運転状況を監視して、ドライブレコーダ2から取得した運転状況データなどを運転者毎に精度よく管理することができる。
運転状況監視装置1の警告情報生成部18は、危険時運転データ生成部13によって特定された危険運転種別と、運転状況データを送信したドライブレコーダ2のIDと、を少なくとも含む警告情報を生成する(S314)。出力部19は、通信モジュール105を介して、ドライブレコーダ2のIDに紐づいて予め特定されるドライブレコーダ2の通信アドレス宛に警告情報を送信する(S315)。これにより、ドライブレコーダ2は運転状況監視装置1から警告情報を受信する。ドライブレコーダ2は、警告情報を受信すると、その警告情報に含まれる危険運転種別に応じた態様で所定情報を出力するようにしてもよい。例えば、ドライブレコーダ2は、危険運転種別に応じた音や音声を発するようにしてもよい。これにより、ドライブレコーダ2は、車両の運転者に対して危険運転種別に応じた態様で警告を行うことができる。
運転状況監視装置1の報告書類生成部17は、所定のタイミングで報告書類データを生成するか判定する(S316)。判定結果により、報告書類生成部17は、所定タイミングで運転者に応じた報告書類データを生成する(S317)。報告書類データを生成する所定タイミングは、例えば、一日一回、24時などの所定時刻である。報告書類データの生成方法の具体例として、例えば、報告書類生成部17は、運転者IDとドライブレコーダ2のIDの少なくとも一方に基づいて、予め記憶された報告書類生成条件を取得する。報告書類生成条件には、報告書類に掲載する情報の種別、報告書類の送信先などの情報が含まれる。報告書類生成部17は、報告書類生成条件に従って報告書類データを生成する。報告書類データには、例えば、車両情報に含まれる車両の始動後の時間を示すアイドリング時間、危険運転種別毎の発生回数に応じたレーダーチャート、危険運転種別やその発生回数に基づいて報告書類生成部17が算出した点数、その点数に応じて報告書類生成部17が集計した危険度ランキングなど、が含まれる。出力部19は、報告書類生成部17により生成された報告書類データを取得し、運転者IDやドライブレコーダ2のIDに基づく送信先のアドレス宛に送信する(S318)。運転状況監視装置1の制御部11は、上述の処理が終了したかを判定する(S319)。運転状況監視装置1は、処理終了判定がなされるまで、ステップS302~S318、S321~S324を繰り返し実行する。このようにして、運転状況監視装置1は、運転者の属性に応じた報告書類データを生成して、所望の送信先に送信することができる。
図9は、運転状況監視装置1の最小構成を示す。図9に示すように、運転状況監視装置1は、少なくともセンシングデータ取得部12と、運転者ID特定部15と、記録部16とを備えればよい。センシングデータ取得部12は、運転状況監視装置1に通信接続された複数のドライブレコーダ2より、運転者の撮影画像と運転状況データを取得する。運転者ID特定部15は、車両の運転者について認証処理を行う。すなわち、ドライブレコーダ2の撮影画像中の複数の画像に含まれる運転者の情報に基づいて、その運転者が予め登録した運転者と一致するか判定する。運転者ID特定部15は、認証が成功した運転者について運転者IDを特定する。記録部16は、ドライブレコーダ2から送信された運転状況データと、運転状況データに対応する撮影画像に基づいて特定した運転者IDと、を関連付けて記録する。
上述のように、運転状況監視装置1やドライブレコーダ2について説明したが、本発明は上述の実施例に限定されるものではない。運転状況監視装置1やドライブレコーダ2の制御装置24は、内部にコンピュータシステムを有している。上述の処理過程は、コンピュータプログラムとしてコンピュータ読み取り可能な記録媒体に記憶されており、コンピュータが記録媒体からコンピュータプログラムを読み出して実行することにより、上述の処理過程が実施される。
コンピュータプログラムは、運転状況監視装置1やドライブレコーダ2の機能の一部を実現するためのものでもよい。また、コンピュータプログラムは、コンピュータシステムのプリインストールプログラムと組み合わせて上記の機能を実現するような差分プログラム(又は、差分ファイル)であってもよい。
最後に、本発明は上述の実施例に限定されるものではなく、添付した請求の範囲に規定される発明の範囲内の改変や設計変更をも包含するものである。運転状況監視装置1と通信接続される運転状況センシング装置はドライブレコーダ2に限定されるものではなく、例えば、車載コンピュータや車両搭載カメラなどを用いてもよい。
 本発明に係る運転状況監視装置及び運転状況監視方法は、車両の運転者の運転状況データを監視して、警告情報や報告書類を運転者に提供するものであるが、これ以外にも、交通管理システムに危険走行をする運転者の情報を提供するなど、種々の交通情報を提供するようなシステムにも適用可能である。
1   運転状況監視装置
2   ドライブレコーダ
11 制御部
12 センシングデータ取得部
13 危険時運転データ生成部
14 画像取得部
15 運転者ID特定部
16 記録部
17 報告書類生成部
18 警告情報生成部
19 出力部
21 センサ
22 通信装置
23 カメラ
24 制御装置
25 記憶装置
211 加速度センサ
212 音検知センサ
213 GPSセンサ
241 車両情報取得部
242 位置情報取得部
243 加速度情報取得部
244 イベント検知部
245 画像生成部
246 運転状況データ送信部
247 イベントデータ送信部
248 アップロード画像送信部
249 認証用画像データ生成部
 

Claims (10)

  1.  車両の運転者の撮影画像と、運転状況データと、を取得する取得部と、
     前記撮影画像に含まれる運転者の情報に基づいて、前記運転者が予め登録された運転者と一致するかの認証処理を行い、認証が成功した前記運転者に係る識別情報を特定する特定部と、
     前記運転状況データと、前記運転状況データに対応する前記撮影画像に基づいて特定した前記運転者の識別情報と、を関連付けて記録する記録部と、
     を具備する運転状況監視装置。
  2.  前記撮影画像は前記運転者の顔画像であり、
     前記特定部は、前記運転者の顔画像に基づいて生成した顔特徴情報と、予め登録されている顔特徴情報との一致度を算出し、当該一致度が所定の閾値以上の顔特徴情報に紐づいて登録されている前記運転者の識別情報を特定する、請求項1に記載の運転状況監視装置。
  3.  前記取得部は、複数の運転状況センシング装置により撮影された前記運転者の撮影画像を取得する、請求項1又は2に記載の運転状況監視装置。
  4.  前記取得部は、複数の運転状況センシング装置から送信された前記運転者の撮影画像と前記運転状況データを取得する、請求項1又は2に記載の運転状況監視装置。
  5.  前記特定部は、前記運転者の撮影画像に対する認証が不成功の場合には、前記運転者に対して仮識別情報を生成するとともに、認証不成功を通知し、
     前記記録部は、前記仮識別情報と前記運転状況データとを関連付けて記録する、請求項1又は2に記載の運転状況監視装置。
  6.  運転状況監視装置と運転状況センシング装置とよりなる運転状況監視システムであって、
     前記運転状況監視装置は、前記運転状況センシング装置から送信された車両の運転者の撮影画像と、運転状況データと、を取得する取得部と、
     前記撮影画像に含まれる運転者の情報に基づいて、前記運転者が予め登録された運転者と一致するかの認証処理を行い、認証が成功した前記運転者に係る識別情報を特定する特定部と、
     前記運転状況データと、前記運転状況データに対応する前記撮影画像に基づいて特定した前記運転者の識別情報と、を関連付けて記録する記録部と、
     を具備する運転状況監視システム。
  7.  前記撮影画像は前記運転者の顔画像であり、
     前記特定部は、前記運転者の顔画像に基づいて生成した顔特徴情報と、予め登録されている顔特徴情報との一致度を算出し、当該一致度が所定の閾値以上の顔特徴情報に紐づいて登録されている前記運転者の識別情報を特定する、請求項6に記載の運転状況監視システム。
  8.  運転状況センシング装置と通信接続される運転状況監視装置に適用される運転状況監視方法であって、
     前記運転状況センシング装置から送信された車両の運転者の撮影画像と、運転状況データと、を取得し、
     前記撮影画像に含まれる運転者の情報に基づいて、前記運転者が予め登録された運転者と一致するかの認証処理を行い、認証が成功した前記運転者に係る識別情報を特定し、
     前記運転状況データと、前記運転状況データに対応する前記撮影画像に基づいて特定した前記運転者の識別情報と、を関連付けて記録する、
     運転状況監視方法。
  9.  前記撮影画像は前記運転者の顔画像であり、
     前記認証処理では、前記運転者の顔画像に基づいて生成した顔特徴情報と、予め登録されている顔特徴情報との一致度を算出し、当該一致度が所定の閾値以上の顔特徴情報に紐づいて登録されている前記運転者の識別情報を特定する、請求項8に記載の運転状況監視方法。
  10.  請求項8又は9に記載の運転状況監視方法をコンピュータに実施させるプログラムを記憶した記憶媒体。
     
PCT/JP2019/001249 2018-01-25 2019-01-17 運転状況監視装置、運転状況監視方法、および運転状況監視システム WO2019146488A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/963,375 US20210339755A1 (en) 2018-01-25 2019-01-17 Driving state monitoring device, driving state monitoring method, and driving state monitoring system
US18/515,537 US20240083443A1 (en) 2018-01-25 2023-11-21 Driving state monitoring device, driving state monitoring method, and driving state monitoring system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-010903 2018-01-25
JP2018010903A JP6834998B2 (ja) 2018-01-25 2018-01-25 運転状況監視装置、運転状況監視システム、運転状況監視方法、プログラム

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/963,375 A-371-Of-International US20210339755A1 (en) 2018-01-25 2019-01-17 Driving state monitoring device, driving state monitoring method, and driving state monitoring system
US18/515,537 Continuation US20240083443A1 (en) 2018-01-25 2023-11-21 Driving state monitoring device, driving state monitoring method, and driving state monitoring system

Publications (1)

Publication Number Publication Date
WO2019146488A1 true WO2019146488A1 (ja) 2019-08-01

Family

ID=67394926

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/001249 WO2019146488A1 (ja) 2018-01-25 2019-01-17 運転状況監視装置、運転状況監視方法、および運転状況監視システム

Country Status (3)

Country Link
US (2) US20210339755A1 (ja)
JP (1) JP6834998B2 (ja)
WO (1) WO2019146488A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021024497A1 (ja) * 2019-08-08 2021-02-11
JPWO2021024495A1 (ja) * 2019-08-08 2021-02-11
CN115471826A (zh) * 2022-08-23 2022-12-13 中国航空油料集团有限公司 航空加油车安全驾驶行为判别方法、装置和安全运维系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008296682A (ja) * 2007-05-30 2008-12-11 Katsuya Ikuta 車載危険運転監視装置、危険運転集中監視システム、および、危険運転阻止しシステム
JP2009139231A (ja) * 2007-12-06 2009-06-25 Denso Corp 位置範囲設定装置、移動物体搭載装置の制御方法および制御装置、ならびに車両用空調装置の制御方法および制御装置
JP2016066241A (ja) * 2014-09-25 2016-04-28 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、及びプログラム
WO2017134818A1 (ja) * 2016-02-05 2017-08-10 三菱電機株式会社 施設情報案内装置、サーバ装置及び施設情報案内方法
JP2018154140A (ja) * 2017-03-15 2018-10-04 パナソニックIpマネジメント株式会社 電子機器および車両

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4564320B2 (ja) * 2004-09-29 2010-10-20 アイシン精機株式会社 ドライバモニタシステム
JP4905832B2 (ja) * 2007-03-01 2012-03-28 株式会社エクォス・リサーチ 運転者状態判定装置、及び運転支援装置
KR20120090445A (ko) * 2011-02-08 2012-08-17 삼성전자주식회사 안전한 택시 서비스를 제공하는 방법 및 장치
US9235750B1 (en) * 2011-09-16 2016-01-12 Lytx, Inc. Using passive driver identification and other input for providing real-time alerts or actions
US8744642B2 (en) * 2011-09-16 2014-06-03 Lytx, Inc. Driver identification based on face data
US9766625B2 (en) * 2014-07-25 2017-09-19 Here Global B.V. Personalized driving of autonomously driven vehicles
JP2016162182A (ja) * 2015-03-02 2016-09-05 住友電気工業株式会社 運転者認証システム及び運転者認証装置
US9919648B1 (en) * 2016-09-27 2018-03-20 Robert D. Pedersen Motor vehicle artificial intelligence expert system dangerous driving warning and control system and method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008296682A (ja) * 2007-05-30 2008-12-11 Katsuya Ikuta 車載危険運転監視装置、危険運転集中監視システム、および、危険運転阻止しシステム
JP2009139231A (ja) * 2007-12-06 2009-06-25 Denso Corp 位置範囲設定装置、移動物体搭載装置の制御方法および制御装置、ならびに車両用空調装置の制御方法および制御装置
JP2016066241A (ja) * 2014-09-25 2016-04-28 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、及びプログラム
WO2017134818A1 (ja) * 2016-02-05 2017-08-10 三菱電機株式会社 施設情報案内装置、サーバ装置及び施設情報案内方法
JP2018154140A (ja) * 2017-03-15 2018-10-04 パナソニックIpマネジメント株式会社 電子機器および車両

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021024497A1 (ja) * 2019-08-08 2021-02-11
JPWO2021024495A1 (ja) * 2019-08-08 2021-02-11
WO2021024495A1 (ja) * 2019-08-08 2021-02-11 株式会社日立物流 運転中インシデント通知システム、方法及びプログラム
WO2021024497A1 (ja) * 2019-08-08 2021-02-11 株式会社日立物流 運行インシデント画像表示システム、方法及びプログラム
JP7369775B2 (ja) 2019-08-08 2023-10-26 ロジスティード株式会社 運転中インシデント通知システム、方法及びプログラム
JP7369776B2 (ja) 2019-08-08 2023-10-26 ロジスティード株式会社 運行インシデント画像表示システム、方法及びプログラム
CN115471826A (zh) * 2022-08-23 2022-12-13 中国航空油料集团有限公司 航空加油车安全驾驶行为判别方法、装置和安全运维系统
CN115471826B (zh) * 2022-08-23 2024-03-26 中国航空油料集团有限公司 航空加油车安全驾驶行为判别方法、装置和安全运维系统

Also Published As

Publication number Publication date
JP6834998B2 (ja) 2021-02-24
JP2019128849A (ja) 2019-08-01
US20210339755A1 (en) 2021-11-04
US20240083443A1 (en) 2024-03-14

Similar Documents

Publication Publication Date Title
US20240083443A1 (en) Driving state monitoring device, driving state monitoring method, and driving state monitoring system
JP6853494B2 (ja) ドライブレコーダ
TW201009751A (en) Information recording system and information recording method
CN111368640A (zh) 基于身份认证的违规驾驶辅助识别方法
US20230394943A1 (en) Remote video triggering and tagging
US20230373495A1 (en) Technologies for driver behavior assessment
JP6063189B2 (ja) ドライブレコーダ
JP2024019277A (ja) 運転状況監視装置、運転状況監視システム、運転状況監視方法、ドライブレコーダ
CN111798667A (zh) 非机动车的监控方法、监控服务器及监控系统、存储介质
WO2019146522A1 (ja) 運転状況監視装置、運転状況監視システム、運転状況監視方法、記憶媒体
JP7294381B2 (ja) 情報処理装置、情報処理方法、プログラム
WO2016201867A1 (zh) 一种m2m车联网的识别方法和装置
US11445143B2 (en) Method and system for cooperatively collecting video data from driving recorders
JP6927773B2 (ja) 記録画像処理方法、記録画像処理装置、およびデータ処理システム
CN107123174B (zh) 一种网约车乘坐信息的存储方法及行车记录仪
WO2017179182A1 (ja) ドライブレコーダ撮像画像送信システム、ドライブレコーダ撮像画像送信方法及びプログラム
KR20130057265A (ko) 스마트폰용 블랙박스 영상 제보 시스템 및 방법
JP7444224B2 (ja) 人物特定装置、人物特定方法およびプログラム
CN115278361B (zh) 一种行车视频数据的提取方法、系统、介质及电子设备
CN118135803A (zh) 交通违法取证方法、装置、计算机设备及存储介质
KR101439780B1 (ko) 블랙박스의 영상 데이터에서 이슈 구간을 자동으로 분류하기 위한 이슈 구간 자동 분류 장치 및 그 방법
CN117011677A (zh) 现场数据实时预警的方法、装置及设备
CN115416672A (zh) 一种驾驶员身份匹配方法及车载智能终端
JP2020170374A (ja) 迷惑駐車監視装置、迷惑駐車監視システム、迷惑駐車監視プログラムおよび迷惑駐車監視方法
CN111861051A (zh) 用于处理交通事故的方法和装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19743830

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19743830

Country of ref document: EP

Kind code of ref document: A1