WO2019146522A1 - 運転状況監視装置、運転状況監視システム、運転状況監視方法、記憶媒体 - Google Patents
運転状況監視装置、運転状況監視システム、運転状況監視方法、記憶媒体 Download PDFInfo
- Publication number
- WO2019146522A1 WO2019146522A1 PCT/JP2019/001457 JP2019001457W WO2019146522A1 WO 2019146522 A1 WO2019146522 A1 WO 2019146522A1 JP 2019001457 W JP2019001457 W JP 2019001457W WO 2019146522 A1 WO2019146522 A1 WO 2019146522A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- driving
- data
- driving condition
- event
- condition monitoring
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q9/00—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/44—Event detection
Definitions
- the present invention relates to a driving condition monitoring apparatus, a driving condition monitoring system, a driving condition monitoring method, and a storage medium.
- a drive recorder is used as an aspect of a driving situation sensing device that senses the driving situation of a moving object.
- the drive recorder captures the situation in driving of a mobile body such as a car and stores the image.
- a technology related to a drive recorder is disclosed in Patent Document 1.
- An example of the object of the present invention is to provide a driving condition monitoring apparatus, a driving condition monitoring system, a driving condition monitoring method, and a storage medium, which solve the above-mentioned problems.
- the driving condition monitoring device acquires, from the driving condition sensing device, driving condition data including driving conditions of a plurality of items and event data for notifying occurrence of an event during driving.
- driving condition data including driving conditions of a plurality of items and event data for notifying occurrence of an event during driving.
- An acquisition unit, and a dangerous time driving data generation unit that generates dangerous time driving data including information on the driving condition of any item selected from the plurality of items according to the driver attribute and the event data. .
- a driving condition monitoring system includes a driving condition monitoring device and a driving condition sensing device.
- the driving condition monitoring device includes a sensing data acquisition unit that acquires driving condition data including driving conditions of a plurality of items and event data for notifying occurrence of an event during driving from the driving condition sensing device; And a dangerous time driving data generation unit that generates dangerous time driving data including information on the driving situation of any of the plurality of items selected according to the event data.
- the driving condition monitoring method acquires, from the driving condition sensing device, driving condition data including driving conditions of a plurality of items and event data for notifying occurrence of an event during driving. Generating at-risk driving data including information on the driving status of any of the plurality of items selected according to the driver attribute and the event data.
- the storage medium acquires, from the driving situation sensing device, driving situation data including driving situations of a plurality of items and event data for notifying occurrence of an event during driving from the driving situation sensing device.
- a program is stored for causing the computer to execute at-risk operation data including information on the operation status of any of the plurality of items selected according to the attribute and the event data.
- information contributing to safer driving can be fed back to the driver according to the attribute of the driver using the driving condition sensing device. More specifically, according to the attribute of the driver, the driver is continuously fed back with more detailed data during dangerous driving and data that can be efficiently reviewed. This makes it possible to provide safe driving support that is effective and in line with the driving policy of the belonging company or the like indicated by the attribute of the driver.
- FIG. 1 shows a driving situation monitoring system according to an embodiment of the present invention. It is a hardware block diagram of the driving
- FIG. 7 shows a driving situation monitoring device according to another embodiment of the present invention.
- FIG. 1 is a diagram showing a driving condition monitoring system according to an embodiment of the present invention.
- the driving condition monitoring system 100 includes a driving condition monitoring device 1 and a drive recorder 2 which is an aspect of the driving condition sensing device.
- the driving condition monitoring device 1 and the drive recorder 2 are connected via a wireless communication network or a wired communication network.
- the drive recorder 2 is provided in a vehicle as an example.
- FIG. 2 is a hardware configuration diagram of the driving condition monitoring device.
- the operating condition monitoring apparatus 1 includes a central processing unit (CPU) 101, a read only memory (ROM) 102, a random access memory (RAM) 103, a hard disk drive (HDD) 104, a communication module 105, and the like. It is a computer with hardware.
- FIG. 3 is a functional block diagram of the driving condition monitoring device.
- the driving condition monitoring device 1 is activated when the power is turned on, and executes a driving condition monitoring program stored in advance.
- the driving situation monitoring device 1 functions as the control unit 11, the sensing data acquisition unit 12, the dangerous operation data generation unit 13, the image acquisition unit 14, the report document generation unit 15, the warning information generation unit 16, and the output unit 17. Becomes executable.
- the control unit 11 controls each functional unit of the driving condition monitoring device 1.
- the sensing data acquisition unit 12 acquires driving condition data including driving conditions of a plurality of items, and event data for notifying occurrence of an event during driving.
- the dangerous time driving data generation unit 13 generates dangerous time driving data including the information of the driving situation of any item selected from a plurality of items according to the driver attribute and the event data.
- the image acquisition unit 14 acquires, from the drive recorder 2, image data determined based on the driver's attributes among the image data generated by the drive recorder 2 by shooting, at the acquisition timing based on the generation of the dangerous time drive data.
- the report document generation unit 15 generates report document data according to the driver attribute by using at least the dangerous operation data.
- the warning information generation unit 16 generates warning information according to the driver attribute in response to the generation of the dangerous time driving data.
- the output unit 17 outputs the report document data and the warning data.
- FIG. 4 is a diagram showing a hardware configuration of the drive recorder.
- the drive recorder 2 includes a sensor 21, a communication device 22, a camera 23, a control device 24, a storage device 25, and the like.
- the sensor 21 may be an acceleration sensor 211, a sound detection sensor 212, a GPS sensor 213 or the like. In addition, these sensors 21 may be installed in the vehicle of the drive recorder 2, and the drive recorder 2 may acquire the information which these sensors 21 sensed.
- the communication device 22 is communicably connected to the driving condition monitoring device 1.
- the camera 23 captures the outside and the inside of the vehicle to generate a moving image and a still image.
- the control device 24 controls each function of the drive recorder 2.
- the storage unit 24 stores a moving image, a still image, and various information sensed by the sensor 21.
- the drive recorder 2 communicates with the driving condition monitoring apparatus 1 via a base station or the like.
- the control device 24 of the drive recorder 2 is a computer provided with a CPU, a ROM, a RAM, and the like.
- FIG. 5 is a functional block diagram of a control device provided in the drive recorder.
- the control device 24 executes a control program when the drive recorder is activated.
- the control device 24 includes a vehicle information acquisition unit 241, a position information acquisition unit 242, an acceleration information acquisition unit 243, an event detection unit 244, an upload image generation unit 245, a driving condition data transmission unit 246, an event data transmission unit 247, uploading.
- the function as the image transmission unit 248 can be performed.
- the vehicle information acquisition unit 241 acquires information related to the vehicle (driver ID, vehicle type, vehicle ID) recorded in the memory inserted in the drive recorder, and other information, for example, the acceleration of the vehicle.
- the vehicle information acquisition unit 241 acquires vehicle information including sensing information acquired from a sensor provided on the vehicle, which is information different from position information.
- the vehicle information that can be acquired by the vehicle information acquisition unit 241 may further include, for example, information such as a driving start time, a driving stop time, a vehicle speed according to the time, and an in-vehicle temperature.
- the position information acquisition unit 242 acquires information on a position (latitude, longitude) according to the time of the vehicle from the GPS sensor 213 or the like.
- the acceleration information acquisition unit 243 acquires, from the acceleration sensor 211, information on acceleration according to the time of the vehicle.
- the event detection unit 244 determines whether a desired event has occurred in the vehicle based on the acceleration.
- the desired event is, for example, a dangerous event, and may be an event such as rapid acceleration or rapid deceleration. More specifically, the event detection unit 244 detects whether an event has occurred based on the condition (operating condition data) determined based on the driver attribute.
- the upload image generation unit 245 acquires a moving image and a still image from the camera 23 by shooting with the camera 23, and generates a moving image at the time of an event to be transmitted via the communication device 22 and a still image at the time of the event occurrence.
- the upload image generation unit 245 generates a moving image at the time of the event and a still image at the time of the occurrence of the event based on the condition determined based on the driver attribute.
- the driving condition data transmission unit 246 transmits driving condition data including vehicle information, position information, and acceleration information to the driving condition monitoring device 1.
- the event data transmission unit 247 transmits event data when the event detection unit 244 detects the occurrence of an event.
- the event data may include an identifier indicating the type of event.
- the upload image transmission unit 248 transmits the moving image at the time of occurrence of the event generated by the upload image generation unit 245 and the still image at the time of occurrence of the event to the driving condition monitoring device 1.
- the above-mentioned operating condition data is, for example, linked with a danger level that links a risk identifier, an acceleration condition, a speed condition, and an operation flag, a risk type identifier, an acceleration direction, an acceleration, and an operation flag. Includes information with the dangerous driving type. Whether or not the operation flag is set is set in advance according to the driver attribute.
- the operating condition data is data in which the danger level and the danger type are defined based on the acceleration and the velocity.
- the operation flag is set by the driver attribute.
- the driver attribute indicates, for example, a company to which the driver belongs, and a person in charge of the company sets an operation flag of the driver who belongs to the company, which is held in the operating condition data.
- FIG. 6 is a first diagram showing a process flow of the drive recorder.
- the drive recorder 2 starts operation (step S101).
- Each sensor 21 of the drive recorder 2 starts various sensing after the drive recorder 2 is started (step S102).
- the camera 23 starts shooting (step S103).
- the vehicle information acquisition unit 241 of the control device 24 acquires vehicle information (step S104).
- the vehicle information acquisition unit 241 may repeat and acquire the sensing information included in the vehicle information at predetermined time intervals.
- the position information acquiring unit 242 acquires latitude and longitude from the GPS sensor 213 at predetermined time intervals (step S105).
- the acceleration information acquisition unit 243 acquires acceleration from the acceleration sensor 211 at predetermined time intervals (step S106).
- the predetermined time interval may be, for example, every 0.1 second.
- the driving condition data transmission unit 246 acquires vehicle information, position information (latitude, longitude), and acceleration.
- the driving condition data transmission unit 246 generates driving condition data including the acquired information, the generation time of the driving condition data, the ID of the drive recorder 2 and the driver ID (step S107).
- the driving condition data transmission unit 246 requests the communication device 22 to transmit the driving condition data to the driving condition monitoring device 1.
- the communication device 22 transmits the operating condition data to the operating condition monitoring device 1 (step S108).
- the control device 24 determines whether the processing is completed (step S109), and repeats the processing from step S102 until the processing is completed.
- FIG. 7 is a second diagram showing the process flow of the drive recorder.
- the drive recorder 2 performs an event detection process in parallel with the transmission process of the driving condition information.
- the event detection unit 244 of the control device 24 acquires acceleration information from the acceleration information acquisition unit 243 at predetermined time intervals (step S201).
- the event detection unit 244 also acquires speed information from the vehicle information acquisition unit 241 at predetermined time intervals (step S202).
- the event detection unit 244 detects whether an event has occurred in the vehicle based on temporal changes in acceleration and speed of the vehicle (step S203).
- An event is an event that indicates a dangerous event in the present embodiment. The detection of whether or not this event has occurred may be determined by the driver attribute.
- the event detection unit 244 acquires the operation condition data described above.
- the danger level information contained in the operation condition data holds an operation flag for each acceleration according to the danger.
- the dangerous driving type information included in the operating condition data holds the operating flag for each of the acceleration direction condition and the speed condition according to the type of the dangerous driving.
- the event detection unit 244 detects occurrence of an event when the operation flag indicates acceleration of the degree of danger indicating “1” and the operation flag matches the acceleration direction or speed condition of the dangerous driving type indicating “1”.
- the event detection unit 244 performs an event at least in the case where the acceleration of the danger degree at which the operation flag indicates “1” has been achieved or the operation flag indicates the acceleration direction and the speed condition of the dangerous driving type indicating “1”. The occurrence may be detected. Since the operation flag held in the risk level information and the dangerous driving type information is set according to the driver attribute, the occurrence of an event based on the driver attribute can be detected.
- the event detection unit 244 When the event detection unit 244 detects the occurrence of an event, the event detection unit 244 instructs the upload image generation unit 245 to generate upload image data.
- the upload image generation unit 245 acquires a moving image captured by the drive recorder 2.
- the upload image generation unit 245 receives an input of a detection signal of event occurrence from the event detection unit 244, the upload image generation unit 245 generates upload image data based on the acquired moving image (step S204). Specifically, the upload image generation unit 245 generates a still image or a moving image of a predetermined reproduction time. The number of still images, shooting time based on event occurrence time of still image, playback time of moving image, time to match moving image start timing based on event occurrence time of moving image, etc. are determined according to the driver attribute.
- the upload image generation unit 245 temporarily stores upload image data including the generated still image or moving image, the generation time, the ID of the drive recorder 2, and the driver ID (step S205).
- the upload image generation unit 245 may delete upload image data for which a predetermined period, such as one week, has elapsed since generation.
- the event detection unit 244 When the event detection unit 244 detects the occurrence of an event, the event detection unit 244 generates event data (step S206).
- the event data may include an acceleration at the time of detecting an event occurrence, a speed, an event occurrence time, an ID of the drive recorder 2, and a driver ID.
- the event data may include vehicle position information (latitude, longitude) and other sensing information.
- the event data transmission unit 247 acquires event data from the event detection unit 244.
- the event data transmission unit 247 instructs the communication device 22 to transmit the event data to the driving condition monitoring device 1.
- the communication device 22 transmits the event data to the driving condition monitoring device 1 (step S207).
- the control device 24 determines whether the processing is completed (step S208), and repeats the processing from step S202 until the processing is completed.
- FIG. 8 is a diagram showing a process flow of the driving condition monitoring apparatus.
- the sensing data acquisition unit 12 acquires the driving condition data transmitted by the communication device 22 of the vehicle via the communication module 105 (step S301).
- the sensing data acquisition unit 12 also acquires event data transmitted by the communication device 22 of the vehicle via the communication module 105 (step S302).
- the dangerous time driving data generation unit 13 detects the occurrence of an event in a vehicle equipped with the drive recorder 2 based on the event data (step S303).
- the dangerous time drive data generation unit 13 analyzes vehicle information at the event occurrence time based on the event occurrence time (step S304).
- the event occurrence time may be one minute before and after the event occurrence time.
- the dangerous time driving data generation unit 13 calculates an event occurrence time specified by each time one minute before and one minute after the event occurrence time, and information (vehicle information, position information, acceleration) at the event occurrence time Etc.) are extracted from the received operating condition data.
- the dangerous time driving data generation unit 13 acquires the ID of the drive recorder 2 or the driver ID included in the event data.
- the dangerous time drive data generation unit 13 acquires analysis conditions stored in advance in association with the ID of the drive recorder 2 and the driver ID. Since the analysis conditions are specified by the ID of the drive recorder 2 and the driver ID, for example, analysis conditions corresponding to a company or driver individual who uses the drive recorder 2 mounted on a vehicle can be obtained.
- the ID of the drive recorder 2 and the driver ID are an aspect of information indicating a driver attribute.
- the at-risk operation data generation unit 13 analyzes the information (hereinafter referred to as extracted information) extracted from the driving condition data based on the event occurrence time based on the analysis condition, and generates the at-risk operation data that is the analysis result (step S305).
- the analysis conditions include information used for analysis, information indicating a range indicated by the value of the information, and information indicating an analysis method.
- the risk operation data generation unit 13 determines whether or not the event is an important event.
- the analysis condition may be a condition defined by the above-described operating condition data.
- the dangerous time driving data generation unit 13 reads the speed of the vehicle from the extraction information at each time of a predetermined interval in the event occurrence time.
- the dangerous time driving data generation unit 13 specifies the dangerous driving type based on the transition of the acceleration and the speed at the event occurrence time.
- the risk operation data generation unit 13 generates risk operation data including identification information of the risk type.
- the dangerous time driving data may include acceleration or speed at an event occurrence time, extraction information extracted from other driving situation data, and the like.
- the output unit 17 acquires the generated dangerous time operation data.
- the output unit 17 links the dangerous operation data to the ID of the drive recorder 2 and the driver ID and records the data in the storage unit such as the HDD 104 (step S306).
- the at-risk operation data generation unit 13 determines whether to upload an image based on the identified risk type (step S307).
- the image upload determination condition is determined based on the driver attributes such as the ID of the drive recorder 2 and the driver ID, and may be stored in advance by the driving condition monitoring apparatus 1.
- the dangerous-operation data generation unit 13 outputs an image acquisition request including at least the ID of the drive recorder 2 and the event occurrence time to the image acquisition unit 14 .
- the image acquisition unit 14 receives an image acquisition request from the dangerous operation data generation unit 13, the image acquisition request is addressed to the communication address of the drive recorder 2 specified in advance by the ID of the drive recorder 2 via the communication module 105. Is sent (step S308).
- the control device 24 of the drive recorder 2 receives the image acquisition request. Then, the upload image transmission unit 248 of the control device 24 temporarily stores, out of the upload image data generated by the upload image generation unit 245, the upload image data corresponding to the time included in the event occurrence time extracted from the image acquisition request. Identify from the upload image data to be
- the upload image transmission unit 248 waits for transmission of the specified upload image data, and temporarily stores it in a buffer or the like. As an example, the upload image transmission unit 248 communicates upload image data temporarily stored in the buffer and waiting for transmission when the electric system of the vehicle is activated again and the driving condition monitoring device 1 is restarted. It transmits to the driving condition monitoring device 1 via the device 22.
- the image acquisition unit 14 acquires the upload image data transmitted from the drive recorder 2 (step S309).
- the image acquisition unit 14 records the upload image data in association with the dangerous operation data already generated (step S310).
- the driving condition monitoring device 1 can generate and store the dangerous driving data and the upload image data according to the driver attribute.
- the upload image data is data of a still image or moving image of a part of the captured moving image generated according to the driver attribute. Therefore, the data amount of the upload image data transmitted to the driving condition monitoring device 1 can be reduced.
- the drive recorder 2 transmits upload image data to the driving condition monitoring device 1 at the time of restart. Therefore, during a period of time when the vehicle is likely to stop, it is highly likely that the communication quality is stable due to the vehicle being stopped. It can be sent to the driving status monitoring device 1.
- the warning information generation unit 16 of the driving condition monitoring device 1 generates warning information including at least the hazard type identified by the dangerous time driving data generation unit 13 and the ID of the drive recorder 2 that has transmitted the driving condition data (step S311).
- the output unit 17 acquires the warning information generated by the warning information generation unit 16.
- the output unit 17 transmits warning information to the communication address of the drive recorder 2 specified in advance in association with the ID of the drive recorder 2 via the communication module 105 (step S312).
- the drive recorder 2 receives the warning information.
- the drive recorder 2 may perform an output according to the danger type included in the warning information. For example, the drive recorder 2 emits a sound or a voice corresponding to the type of danger. In this way, the user can be warned according to the risk type.
- the report document generation unit 15 of the driving condition monitoring apparatus 1 determines whether report document data is to be generated at a predetermined timing (step S313), and when the predetermined timing is reached, the report document data corresponding to the driver is It generates (step S314).
- the generation timing of the report document data is, for example, once a day, at a predetermined time such as 24 o'clock.
- a specific example of the generation of the report document is, for example, that the report document generation unit 15 acquires the ID risk operation data and the upload image data of the drive recorder 2 linked to one driver ID recorded in the storage unit such as the HDD 104. . Based on at least one of the driver ID and the ID of the drive recorder 2, the report document generation unit 15 acquires a report document generation condition stored in advance.
- the report document generation conditions include information such as the type of information to be posted on the report document and the destination of the report document.
- the report document generation unit 15 generates report document data based on the report document generation conditions.
- the report document data includes, for example, an idling time indicating the time from the start of the vehicle included in the vehicle information, a radar chart according to the number of occurrences for each hazard type, 15 includes the calculated points, the risk ranking ranked by the report document generation unit 15 according to the points, and the like.
- the output unit 17 acquires the report document data and transmits it to the address of the transmission destination based on the corresponding driver ID or the ID of the drive recorder 2 (step S315).
- the control unit 11 of the driving condition monitoring device 1 determines whether the process is completed (step S316), and repeats the process from step S302 until the process is completed.
- the driving situation monitoring device 1 can generate report document data according to the driver attribute and transmit it to a desired transmission destination.
- FIG. 9 is a view showing a driving condition monitoring apparatus according to another embodiment of the present invention.
- the driving condition monitoring apparatus 1 includes at least a sensing data acquisition unit 12 and a dangerous operation data generation unit 13.
- the sensing data acquisition unit 12 acquires driving condition data including driving conditions of a plurality of items, and event data for notifying occurrence of an event during driving.
- the dangerous time driving data generation unit 13 generates dangerous time driving data including the information of the driving situation of any item selected from a plurality of items according to the driver attribute and the event data.
- the control device 24 of the driving condition monitoring device 1 and the drive recorder 2 described above has a computer system inside. And the process of each process mentioned above is memorize
- the program may be for realizing a part of the functions described above. Furthermore, it may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.
- difference file difference program
- Embodiments of the present invention relate to a driving status monitoring device, a driving status monitoring system, a driving status monitoring method, and a storage medium.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Mechanical Engineering (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Traffic Control Systems (AREA)
- Time Recorders, Dirve Recorders, Access Control (AREA)
Abstract
運転状況監視装置は、複数項目の運転状況を含む運転状況データと、運転時のイベント発生を通知するイベントデータとを運転状況センシング装置から取得するセンシングデータ取得部と、運転者属性と前記イベントデータとに応じて前記複数項目から選択されたいずれかの項目の運転状況の情報を含む危険時運転データを生成する危険時運転データ生成部と、を備える。
Description
本発明は、運転状況監視装置、運転状況監視システム、運転状況監視方法、記憶媒体に関する。
移動体の運転状況をセンシングする運転状況センシング装置の一態様としてドライブレコーダが利用されている。ドライブレコーダは車等の移動体の運転における状況を撮影しその画像を記憶する。ドライブレコーダに関連する技術が特許文献1に開示されている。
上述のような運転状況のセンシング装置を利用してより安全運転に効果を発揮する技術が望まれている。
この発明の目的の一例は、上述の課題を解決する運転状況監視装置、運転状況監視システム、運転状況監視方法、記憶媒体を提供することである。
本発明の第1の態様によれば、運転状況監視装置は、複数項目の運転状況を含む運転状況データと、運転時のイベント発生を通知するイベントデータとを運転状況センシング装置から取得するセンシングデータ取得部と、運転者属性と前記イベントデータとに応じて前記複数項目から選択されたいずれかの項目の運転状況の情報を含む危険時運転データを生成する危険時運転データ生成部と、を備える。
本発明の第2の態様によれば、運転状況監視システムは、運転状況監視装置と運転状況センシング装置とを含む。前記運転状況監視装置は、複数項目の運転状況を含む運転状況データと、運転時のイベント発生を通知するイベントデータとを、前記運転状況センシング装置から取得するセンシングデータ取得部と、運転者属性と前記イベントデータとに応じて前記複数項目から選択されたいずれかの項目の運転状況の情報を含む危険時運転データを生成する危険時運転データ生成部と、を備える。
本発明の第3の態様によれば、運転状況監視方法は、複数項目の運転状況を含む運転状況データと、運転時のイベント発生を通知するイベントデータとを、運転状況センシング装置から取得し、運転者属性と前記イベントデータとに応じて前記複数項目から選択されたいずれかの項目の運転状況の情報を含む危険時運転データを生成することを含む。
本発明の第4の態様によれば、記憶媒体は、複数項目の運転状況を含む運転状況データと、運転時のイベント発生を通知するイベントデータとを、運転状況センシング装置から取得し、運転者属性と前記イベントデータとに応じて前記複数項目から選択されたいずれかの項目の運転状況の情報を含む危険時運転データを生成する、ことをコンピュータに実行させるためのプログラムを記憶している。
本発明の実施形態によれば、運転状況センシング装置を利用してより安全運転に寄与する情報を運転者の属性に応じて運転者にフィードバックすることができる。より具体的には、運転者の属性に応じて、その運転者に対し危険運転時のより詳細なデータであってかつ効率的に振り返りを行うことのできるデータを継続的にフィードバックする。これにより、効果的かつ運転者の属性が示す所属会社等の運転方針に即した安全運転支援を提供することができる。
以下、本発明の実施形態による運転状況監視装置を図面を参照して説明する。
図1は本発明の実施形態による運転状況監視システムを示す図である。
図1で示すように運転状況監視システム100は運転状況監視装置1と、運転状況センシング装置の一態様であるドライブレコーダ2と含む。運転状況監視装置1とドライブレコーダ2とは無線通信ネットワークや有線通信ネットワークを介して接続される。ドライブレコーダ2は一例としては車両に設けられている。
図1は本発明の実施形態による運転状況監視システムを示す図である。
図1で示すように運転状況監視システム100は運転状況監視装置1と、運転状況センシング装置の一態様であるドライブレコーダ2と含む。運転状況監視装置1とドライブレコーダ2とは無線通信ネットワークや有線通信ネットワークを介して接続される。ドライブレコーダ2は一例としては車両に設けられている。
図2は運転状況監視装置のハードウェア構成図である。
この図が示すように運転状況監視装置1はCPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、HDD(Hard Disk Drive)104、通信モジュール105等の各ハードウェアを備えたコンピュータである。
この図が示すように運転状況監視装置1はCPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、HDD(Hard Disk Drive)104、通信モジュール105等の各ハードウェアを備えたコンピュータである。
図3は運転状況監視装置の機能ブロック図である。
運転状況監視装置1は電源が投入されると起動し、予め記憶する運転状況監視プログラムを実行する。これにより運転状況監視装置1は、制御部11、センシングデータ取得部12、危険時運転データ生成部13、画像取得部14、報告書類生成部15、警告情報生成部16、出力部17としての機能が実行可能になる。
運転状況監視装置1は電源が投入されると起動し、予め記憶する運転状況監視プログラムを実行する。これにより運転状況監視装置1は、制御部11、センシングデータ取得部12、危険時運転データ生成部13、画像取得部14、報告書類生成部15、警告情報生成部16、出力部17としての機能が実行可能になる。
制御部11は運転状況監視装置1の各機能部を制御する。
センシングデータ取得部12は、複数項目の運転状況を含む運転状況データと、運転時のイベント発生を通知するイベントデータとを取得する。
危険時運転データ生成部13は、運転者属性とイベントデータとに応じて複数項目から選択したいずれかの項目の運転状況の情報を含む危険時運転データを生成する。
センシングデータ取得部12は、複数項目の運転状況を含む運転状況データと、運転時のイベント発生を通知するイベントデータとを取得する。
危険時運転データ生成部13は、運転者属性とイベントデータとに応じて複数項目から選択したいずれかの項目の運転状況の情報を含む危険時運転データを生成する。
画像取得部14は、ドライブレコーダ2が撮影により生成した画像データのうち運転者属性に基づいて定められた画像データを、危険時運転データの生成に基づく取得タイミングにドライブレコーダ2から取得する。
報告書類生成部15は、危険時運転データを少なくとも用いて運転者属性に応じた報告書類データを生成する。
警告情報生成部16は、危険時運転データの生成を契機に運転者属性に応じた警告情報を生成する。
出力部17は、報告書類データや警告データを出力する。
報告書類生成部15は、危険時運転データを少なくとも用いて運転者属性に応じた報告書類データを生成する。
警告情報生成部16は、危険時運転データの生成を契機に運転者属性に応じた警告情報を生成する。
出力部17は、報告書類データや警告データを出力する。
図4はドライブレコーダのハードウェア構成を示す図である。
ドライブレコーダ2は、センサ21、通信装置22、カメラ23、制御装置24、記憶装置25などを含む。センサ21は加速度センサ211、音検知センサ212、GPSセンサ213などであってよい。なおこれらのセンサ21は、ドライブレコーダ2の外部の車両に設置されて、ドライブレコーダ2がそれらセンサ21のセンシングした情報を取得してもよい。
通信装置22は運転状況監視装置1と通信接続する。カメラ23は車両の外部や内部を撮影して動画像、静止画像を生成する。制御装置24はドライブレコーダ2の各機能を制御する。記憶装置24は動画像、静止画像、センサ21でセンシングされた各種情報を記憶する。ドライブレコーダ2は基地局等を介して運転状況監視装置1と通信接続する。なおドライブレコーダ2の制御装置24は、CPU、ROM、RAM等を備えたコンピュータである。
ドライブレコーダ2は、センサ21、通信装置22、カメラ23、制御装置24、記憶装置25などを含む。センサ21は加速度センサ211、音検知センサ212、GPSセンサ213などであってよい。なおこれらのセンサ21は、ドライブレコーダ2の外部の車両に設置されて、ドライブレコーダ2がそれらセンサ21のセンシングした情報を取得してもよい。
通信装置22は運転状況監視装置1と通信接続する。カメラ23は車両の外部や内部を撮影して動画像、静止画像を生成する。制御装置24はドライブレコーダ2の各機能を制御する。記憶装置24は動画像、静止画像、センサ21でセンシングされた各種情報を記憶する。ドライブレコーダ2は基地局等を介して運転状況監視装置1と通信接続する。なおドライブレコーダ2の制御装置24は、CPU、ROM、RAM等を備えたコンピュータである。
図5はドライブレコーダに備わる制御装置の機能ブロック図である。
制御装置24はドライブレコーダが起動すると制御プログラムを実行する。これにより制御装置24は、車両情報取得部241、位置情報取得部242、加速度情報取得部243、イベント検知部244、アップロード画像生成部245、運転状況データ送信部246、イベントデータ送信部247、アップロード画像送信部248としての機能が実行可能になる。
制御装置24はドライブレコーダが起動すると制御プログラムを実行する。これにより制御装置24は、車両情報取得部241、位置情報取得部242、加速度情報取得部243、イベント検知部244、アップロード画像生成部245、運転状況データ送信部246、イベントデータ送信部247、アップロード画像送信部248としての機能が実行可能になる。
車両情報取得部241は、ドライブレコーダに挿入されたメモリに記録されている車両に関する情報(運転者ID、車両種別、車両ID)や、その他の情報、例えば、車両の加速度を取得する。車両情報取得部241は、位置情報とは異なる情報である、車両に設けられたセンサより取得されたセンシング情報を含む車両情報を取得する。車両情報取得部241の取得できる車両情報としては、例えばさらに、運転始動時刻、運転停止時刻、時刻に応じた車両速度、車内温度などの情報が含まれてよい。
位置情報取得部242は車両の時刻に応じた位置(緯度、経度)の情報をGPSセンサ213などから取得する。
加速度情報取得部243は車両の時刻に応じた加速度の情報を加速度センサ211から取得する。
イベント検知部244は加速度に基づいて車両に所望のイベントが発生したかを判定する。所望のイベントとは例えば危険なイベントであり、急加速、急減速などのイベントであってよい。より具体的にはイベント検知部244は、運転者属性に基づいて決定された条件(動作条件データ)に基づいて、イベントが発生したかを検知する。
アップロード画像生成部245はカメラ23の撮影によりカメラ23から動画像、静止画像を取得し、通信装置22を介して送信するイベント時の動画像、イベント発生時の静止画像を生成する。アップロード画像生成部245は具体的には、運転者属性に基づいて決定された条件に基づいて、イベント時の動画像、イベント発生時の静止画像を生成する。
運転状況データ送信部246は、車両情報、位置情報、加速度情報を含む運転状況データを運転状況監視装置1へ送信する。
イベントデータ送信部247はイベント検知部244によりイベントの発生が検知された場合にイベントデータを送信する。イベントデータにはイベントの種別を示す識別子が含まれてよい。
アップロード画像送信部248はアップロード画像生成部245の生成したイベント発生時の動画像や、イベント発生時の静止画像を運転状況監視装置1へ送信する。
位置情報取得部242は車両の時刻に応じた位置(緯度、経度)の情報をGPSセンサ213などから取得する。
加速度情報取得部243は車両の時刻に応じた加速度の情報を加速度センサ211から取得する。
イベント検知部244は加速度に基づいて車両に所望のイベントが発生したかを判定する。所望のイベントとは例えば危険なイベントであり、急加速、急減速などのイベントであってよい。より具体的にはイベント検知部244は、運転者属性に基づいて決定された条件(動作条件データ)に基づいて、イベントが発生したかを検知する。
アップロード画像生成部245はカメラ23の撮影によりカメラ23から動画像、静止画像を取得し、通信装置22を介して送信するイベント時の動画像、イベント発生時の静止画像を生成する。アップロード画像生成部245は具体的には、運転者属性に基づいて決定された条件に基づいて、イベント時の動画像、イベント発生時の静止画像を生成する。
運転状況データ送信部246は、車両情報、位置情報、加速度情報を含む運転状況データを運転状況監視装置1へ送信する。
イベントデータ送信部247はイベント検知部244によりイベントの発生が検知された場合にイベントデータを送信する。イベントデータにはイベントの種別を示す識別子が含まれてよい。
アップロード画像送信部248はアップロード画像生成部245の生成したイベント発生時の動画像や、イベント発生時の静止画像を運転状況監視装置1へ送信する。
上述した動作条件データは、一例としては危険度識別子と加速度の条件と速度の条件と動作フラグとを紐づけた危険度レベルと、危険種別識別子と加速度方向と速度と動作フラグとを紐づけた危険運転種別との情報を含む。動作フラグが立っているか否かは運転者属性に応じて予め設定されている。このように動作条件データは加速度と速度とに基づいて危険度レベルと危険種別と規定したでデータである。動作フラグは運転者属性によって設定される。運転者属性は例えば運転者の所属する会社を示し、会社の担当者が会社に所属する運転者の動作フラグを設定し、これが動作条件データ内に保持される。
図6はドライブレコーダの処理フローを示す第一の図である。
次に運転状況監視システムの処理フローについて順を追って説明する。
まずドライブレコーダ2における運転状況情報の送信処理について説明する。
車両の電気系統が起動するとドライブレコーダ2が動作を始動する(ステップS101)。ドライブレコーダ2のセンサ21それぞれは、ドライブレコーダ2の始動後に各種センシングを開始する(ステップS102)。またカメラ23は撮影を開始する(ステップS103)。そしてドライブレコーダ2の動作中、制御装置24の車両情報取得部241は車両情報を取得する(ステップS104)。車両情報取得部241は車両情報に含まれるセンシング情報については所定の時間間隔毎に繰り替えし取得してよい。また位置情報取得部242はGPSセンサ213から緯度経度を所定の時間間隔毎に取得する(ステップS105)。また加速度情報取得部243は、加速度センサ211から加速度を所定の時間間隔毎に取得する(ステップS106)。所定の時間間隔毎にとは、例えば0.1秒毎などであってよい。運転状況データ送信部246は、車両情報、位置情報(緯度、経度)、加速度を取得する。運転状況データ送信部246は、それらの取得された情報と運転状況データの生成時刻とドライブレコーダ2のIDと運転者IDとを含む運転状況データを生成する(ステップS107)。運転状況データ送信部246はその運転状況データの運転状況監視装置1への送信を通信装置22へ要求する。通信装置22は運転状況データを運転状況監視装置1へ送信する(ステップS108)。制御装置24は処理終了かを判定し(ステップS109)、処理終了までステップS102からの処理を繰り返す。
次に運転状況監視システムの処理フローについて順を追って説明する。
まずドライブレコーダ2における運転状況情報の送信処理について説明する。
車両の電気系統が起動するとドライブレコーダ2が動作を始動する(ステップS101)。ドライブレコーダ2のセンサ21それぞれは、ドライブレコーダ2の始動後に各種センシングを開始する(ステップS102)。またカメラ23は撮影を開始する(ステップS103)。そしてドライブレコーダ2の動作中、制御装置24の車両情報取得部241は車両情報を取得する(ステップS104)。車両情報取得部241は車両情報に含まれるセンシング情報については所定の時間間隔毎に繰り替えし取得してよい。また位置情報取得部242はGPSセンサ213から緯度経度を所定の時間間隔毎に取得する(ステップS105)。また加速度情報取得部243は、加速度センサ211から加速度を所定の時間間隔毎に取得する(ステップS106)。所定の時間間隔毎にとは、例えば0.1秒毎などであってよい。運転状況データ送信部246は、車両情報、位置情報(緯度、経度)、加速度を取得する。運転状況データ送信部246は、それらの取得された情報と運転状況データの生成時刻とドライブレコーダ2のIDと運転者IDとを含む運転状況データを生成する(ステップS107)。運転状況データ送信部246はその運転状況データの運転状況監視装置1への送信を通信装置22へ要求する。通信装置22は運転状況データを運転状況監視装置1へ送信する(ステップS108)。制御装置24は処理終了かを判定し(ステップS109)、処理終了までステップS102からの処理を繰り返す。
図7はドライブレコーダの処理フローを示す第二の図である。
ドライブレコーダ2は運転状況情報の送信処理と並行してイベント検知処理を行う。まずドライブレコーダ2が始動すると、制御装置24のイベント検知部244は加速度情報取得部243から加速度情報を所定の時間間隔毎に取得する(ステップS201)。またイベント検知部244は車両情報取得部241から速度情報を所定の時間間隔毎に取得する(ステップS202)。イベント検知部244は車両の加速度と速度の時間変化に基づいて車両にイベントが発生したかを検知する(ステップS203)。イベントとは本実施形態においては危険な事象を示すイベントである。このイベントが発生したか否かの検知は運転者属性によって定められてよい。
ドライブレコーダ2は運転状況情報の送信処理と並行してイベント検知処理を行う。まずドライブレコーダ2が始動すると、制御装置24のイベント検知部244は加速度情報取得部243から加速度情報を所定の時間間隔毎に取得する(ステップS201)。またイベント検知部244は車両情報取得部241から速度情報を所定の時間間隔毎に取得する(ステップS202)。イベント検知部244は車両の加速度と速度の時間変化に基づいて車両にイベントが発生したかを検知する(ステップS203)。イベントとは本実施形態においては危険な事象を示すイベントである。このイベントが発生したか否かの検知は運転者属性によって定められてよい。
具体的にはイベント検知部244は上述した動作条件データを取得する。この動作条件データに含まれる危険度レベル情報は危険度に応じた加速度毎に動作フラグを保持する。また動作条件データに含まれる危険運転種別情報は危険運転の種別に応じた加速度方向条件と速度条件毎に動作フラグを保持する。イベント検知部244は動作フラグが「1」を示す危険度の加速度となり、かつ動作フラグが「1」を示す危険運転種別の加速度方向や速度の条件に一致する場合、イベント発生を検知する。イベント検知部244は動作フラグが「1」を示す危険度の加速度となったか、または動作フラグが「1」を示す危険運転種別の加速度方向や速度の条件に一致する場合の少なくとも一方において、イベント発生を検知するようにしてもよい。危険度レベル情報や危険運転種別情報に保持される動作フラグは運転者属性に応じて設定されるため、運転者属性に基づくイベント発生の検知を行うことができる。
イベント検知部244はイベント発生を検知した場合、アップロード画像生成部245にアップロード画像データの生成を指示する。アップロード画像生成部245はドライブレコーダ2の撮影した動画像を取得している。アップロード画像生成部245はイベント発生の検知信号の入力をイベント検知部244から受けると、取得した動画像に基づいてアップロード画像データを生成する(ステップS204)。具体的にはアップロード画像生成部245は静止画像や所定の再生時間の動画像を生成する。静止画像の枚数、静止画像のイベント発生時刻を基準とした撮影時刻、動画像の再生時間、動画像のイベント発生時刻を基準とした動画開始タイミングを合わせる時刻などは運転者属性に応じて定められていてよい。アップロード画像生成部245は生成した静止画像や動画像と、生成時刻と、ドライブレコーダ2のIDと、運転者IDとを含むアップロード画像データを一時的に記憶する(ステップS205)。アップロード画像生成部245は生成から1週間等の所定期間経過したアップロード画像データは削除してもよい。
イベント検知部244はイベント発生を検知した場合、イベントデータを生成する(ステップS206)。イベントデータにはイベント発生を検知した際の加速度と、速度と、イベント発生時刻と、ドライブレコーダ2のIDと、運転者IDとが含まれてよい。イベントデータには、車両の位置情報(緯度、経度)や他のセンシング情報が含まれていてもよい。イベントデータ送信部247はイベントデータをイベント検知部244から取得する。イベントデータ送信部247は、イベントデータの運転状況監視装置1への送信を通信装置22へ指示する。通信装置22はイベントデータを運転状況監視装置1へ送信する(ステップS207)。制御装置24は処理終了かを判定し(ステップS208)、処理終了までステップS202からの処理を繰り返す。
図8は運転状況監視装置の処理フローを示す図である。
運転状況監視装置1において、センシングデータ取得部12は車両の通信装置22の送信した運転状況データを、通信モジュール105を介して取得する(ステップS301)。またセンシングデータ取得部12は車両の通信装置22の送信したイベントデータを、通信モジュール105を介して取得する(ステップS302)。危険時運転データ生成部13はイベントデータに基づいてドライブレコーダ2の備わる車両におけるイベント発生を検知する(ステップS303)。危険時運転データ生成部13はイベント発生を検知すると、イベント発生時刻を基準としたイベント発生時間における車両情報を解析する(ステップS304)。例えばイベント発生時間はイベント発生時刻を基準とする前後1分間などであってよい。危険時運転データ生成部13はイベント発生時刻を基準とする1分前と1分後の各時刻によって特定されるイベント発生時間を算出し、そのイベント発生時間における情報(車両情報、位置情報、加速度など)を受信した運転状況データの中から抽出する。危険時運転データ生成部13はイベントデータに含まれるドライブレコーダ2のIDまたは運転者IDを取得する。危険時運転データ生成部13は、ドライブレコーダ2のIDや運転者IDに紐づいて予め記憶する解析条件を取得する。解析条件はドライブレコーダ2のIDや運転者IDによって特定されるため、例えばドライブレコーダ2を車両に搭載して使用している企業や運転者個人に応じた解析条件が得られる。ドライブレコーダ2のIDや運転者IDは運転者属性を示す情報の一態様である。
運転状況監視装置1において、センシングデータ取得部12は車両の通信装置22の送信した運転状況データを、通信モジュール105を介して取得する(ステップS301)。またセンシングデータ取得部12は車両の通信装置22の送信したイベントデータを、通信モジュール105を介して取得する(ステップS302)。危険時運転データ生成部13はイベントデータに基づいてドライブレコーダ2の備わる車両におけるイベント発生を検知する(ステップS303)。危険時運転データ生成部13はイベント発生を検知すると、イベント発生時刻を基準としたイベント発生時間における車両情報を解析する(ステップS304)。例えばイベント発生時間はイベント発生時刻を基準とする前後1分間などであってよい。危険時運転データ生成部13はイベント発生時刻を基準とする1分前と1分後の各時刻によって特定されるイベント発生時間を算出し、そのイベント発生時間における情報(車両情報、位置情報、加速度など)を受信した運転状況データの中から抽出する。危険時運転データ生成部13はイベントデータに含まれるドライブレコーダ2のIDまたは運転者IDを取得する。危険時運転データ生成部13は、ドライブレコーダ2のIDや運転者IDに紐づいて予め記憶する解析条件を取得する。解析条件はドライブレコーダ2のIDや運転者IDによって特定されるため、例えばドライブレコーダ2を車両に搭載して使用している企業や運転者個人に応じた解析条件が得られる。ドライブレコーダ2のIDや運転者IDは運転者属性を示す情報の一態様である。
危険時運転データ生成部13は解析条件に基づいてイベント発生時間に基づいて運転状況データから抽出した情報(以下、抽出情報)を解析し、その解析結果である危険時運転データを生成する(ステップS305)。解析条件は解析に利用する情報や、その情報の値が示す範囲等を示す情報や、解析手法などを示す情報が含まれる。危険時運転データ生成部13は抽出情報を解析条件が示す解析手法に基づいて解析した結果、重要なイベントであるか否かを判定する。一例としては、解析条件は上述した動作条件データで規定される条件であってよい。危険時運転データ生成部13は動作フラグが「1」となる加速度が抽出情報に含まれる場合、抽出情報から車両の速度をイベント発生時間における所定間隔の各時刻の速度を読み取る。危険時運転データ生成部13はそれら加速度と速度のイベント発生時間における遷移に基づいて、危険運転種別を特定する。危険時運転データ生成部13は特定した危険種別に対応する動作フラグが「1」を示す場合、危険種別の識別情報を含む危険時運転データを生成する。危険時運転データにはイベント発生時間における加速度や速度、その他の運転状況データから抽出した抽出情報等が含まれてよい。出力部17は生成された危険時運転データを取得する。出力部17はその危険時運転データをドライブレコーダ2のIDや運転者IDに紐づけてHDD104等の記憶部に記録する(ステップS306)。
また危険時運転データ生成部13は特定した危険種別に基づいて画像のアップロードの行うかを判定する(ステップS307)。画像のアップロード判定条件はドライブレコーダ2のIDや運転者ID等の運転者属性に基づいて定められており予め運転状況監視装置1が記憶してよい。危険時運転データ生成部13は特定した危険種別が、画像のアップロードを求められる危険種別である場合、画像取得部14にドライブレコーダ2のIDとイベント発生時間とを少なくとも含む画像取得要求を出力する。画像取得部14は画像取得要求を危険時運転データ生成部13から入力すると、通信モジュール105を介してドライブレコーダ2のIDに紐づいて予め特定されるドライブレコーダ2の通信アドレス宛に画像取得要求を送信する(ステップS308)。
ドライブレコーダ2の制御装置24は画像取得要求を受信する。すると制御装置24のアップロード画像送信部248はアップロード画像生成部245によって生成されたアップロード画像データのうち、画像取得要求から抽出したイベント発生時間に含まれる時刻に対応するアップロード画像データを一時的に記憶するアップロード画像データの中から特定する。アップロード画像送信部248は特定したアップロード画像データの送信を待機してバッファなどに一時的に格納する。アップロード画像送信部248は、一例として、車両の電気系統が再び起動し、運転状況監視装置1が再起動した際に、バッファに一時的に格納し送信を待機していたアップロード画像データを、通信装置22を介して運転状況監視装置1へ送信する。画像取得部14はドライブレコーダ2から送信されたアップロード画像データを取得する(ステップS309)。画像取得部14は既に生成されている危険時運転データに紐づけてアップロード画像データを記録する(ステップS310)。
以上の処理により、運転状況監視装置1は、運転者属性に応じた危険時運転データとアップロード画像データを生成して記憶することができる。上述の処理によればアップロード画像データは運転者属性に応じて生成された撮影された動画像のうちの一部の静止画像や動画像のデータである。したがって、運転状況監視装置1に送信されるアップロード画像データのデータ量を削減することができる。またドライブレコーダ2は再起動時にアップロード画像データを運転状況監視装置1へ送信する。したがって容量の大きい可能性のあるアップロード画像データを車両が停止している可能性の高い時間帯であって、車両が停止していることにより通信品質が安定している可能性が高い時間帯に運転状況監視装置1へ送信することができる。
運転状況監視装置1の警告情報生成部16は危険時運転データ生成部13によって特定された危険種別、運転状況データを送信したドライブレコーダ2のIDを少なくとも含む警告情報を生成する(ステップS311)。出力部17は警告情報生成部16の生成した警告情報を取得する。出力部17は、通信モジュール105を介してドライブレコーダ2のIDに紐づいて予め特定されるドライブレコーダ2の通信アドレス宛に警告情報を送信する(ステップS312)。ドライブレコーダ2は警告情報を受信する。ドライブレコーダ2は警告情報を受信すると、その警告情報に含まれる危険種別に応じた出力を行うようにしてもよい。例えばドライブレコーダ2は危険種別に応じた音や音声を発する。これによりユーザに対して危険種別に応じた警告を行うことができる。
運転状況監視装置1の報告書類生成部15は、所定のタイミングで報告書類データを生成するかを判定し(ステップS313)、所定のタイミングに達した場合には運転者に応じた報告書類データを生成する(ステップS314)。報告書類データの生成タイミングは例えば一日一回、24時などの所定の時刻である。報告書類の生成の具体例は、例えば、報告書類生成部15がHDD104等の記憶部に記録される一つの運転者IDに紐づくドライブレコーダ2のID危険時運転データとアップロード画像データを取得する。報告書類生成部15は運転者IDとドライブレコーダ2のIDの少なくとも一方に基づいて、予め記憶する報告書類生成条件を取得する。報告書類生成条件には、報告書類に掲載する情報の種別、報告書類の送信先等の情報が含まれる。報告書類生成部15は、報告書類生成条件に基づいて報告書類データを生成する。報告書類データには、例えば、車両情報に含まれる車両の始動からの時間を示すアイドリング時間、危険種別毎の発生回数に応じたレーダーチャート、危険種別やそれらの発生回数に基づいて報告書類生成部15の算出した点数、その点数に応じて報告書類生成部15が集計した危険度ランキング、等が含まれる。出力部17は報告書類データが生成されると、その報告書類データを取得し、対応する運転者IDやドライブレコーダ2のIDに基づく送信先のアドレス宛に送信する(ステップS315)。運転状況監視装置1の制御部11は処理終了かを判定し(ステップS316)、処理終了までステップS302からの処理を繰り返す。
以上の処理により運転状況監視装置1は運転者属性に応じた報告書類データを生成して、所望の送信先に送信することができる。
図9は本発明の別の実施形態に係る運転状況監視装置を示す図である。
この図が示すように運転状況監視装置1は少なくとも、センシングデータ取得部12と、危険時運転データ生成部13を備える。センシングデータ取得部12は、複数項目の運転状況を含む運転状況データと、運転時のイベント発生を通知するイベントデータとを取得する。危険時運転データ生成部13は、運転者属性とイベントデータとに応じて複数項目から選択したいずれかの項目の運転状況の情報を含む危険時運転データを生成する。
この図が示すように運転状況監視装置1は少なくとも、センシングデータ取得部12と、危険時運転データ生成部13を備える。センシングデータ取得部12は、複数項目の運転状況を含む運転状況データと、運転時のイベント発生を通知するイベントデータとを取得する。危険時運転データ生成部13は、運転者属性とイベントデータとに応じて複数項目から選択したいずれかの項目の運転状況の情報を含む危険時運転データを生成する。
上述の運転状況監視装置1やドライブレコーダ2の制御装置24は内部に、コンピュータシステムを有している。そして、上述した各処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。
上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
この出願は、2018年1月25日に出願された日本国特願2018-010343を基礎とする優先権を主張し、その開示の全てをここに取り込む。
本発明の実施形態は、運転状況監視装置、運転状況監視システム、運転状況監視方法、記憶媒体に関する。
1・・・運転状況監視装置
2・・・ドライブレコーダ
11・・・制御部
12・・・センシングデータ取得部
13・・・危険時運転データ生成部
14・・・画像取得部
15・・・報告書類生成部
16・・・警告情報生成部
17・・・出力部
21・・・センサ
22・・・通信装置
23・・・カメラ
24・・・制御装置
25・・・記憶装置
211・・・加速度センサ
212・・・音検知センサ
213・・・GPSセンサ
241・・・車両情報取得部
242・・・位置情報取得部
243・・・加速度情報取得部
244・・・イベント検知部
245・・・アップロード画像生成部
246・・・運転状況データ送信部
247・・・イベントデータ送信部
248・・・アップロード画像送信部
2・・・ドライブレコーダ
11・・・制御部
12・・・センシングデータ取得部
13・・・危険時運転データ生成部
14・・・画像取得部
15・・・報告書類生成部
16・・・警告情報生成部
17・・・出力部
21・・・センサ
22・・・通信装置
23・・・カメラ
24・・・制御装置
25・・・記憶装置
211・・・加速度センサ
212・・・音検知センサ
213・・・GPSセンサ
241・・・車両情報取得部
242・・・位置情報取得部
243・・・加速度情報取得部
244・・・イベント検知部
245・・・アップロード画像生成部
246・・・運転状況データ送信部
247・・・イベントデータ送信部
248・・・アップロード画像送信部
Claims (8)
- 複数項目の運転状況を含む運転状況データと、運転時のイベント発生を通知するイベントデータとを運転状況センシング装置から取得するセンシングデータ取得部と、
運転者属性と前記イベントデータとに応じて前記複数項目から選択されたいずれかの項目の運転状況の情報を含む危険時運転データを生成する危険時運転データ生成部と、
を備える運転状況監視装置。 - 前記危険時運転データを少なくとも用いて前記運転者属性に応じた報告書類データを生成する報告書類生成部、
をさらに備える請求項1に記載の運転状況監視装置。 - 前記運転状況センシング装置が撮影により生成した画像データのうち前記運転者属性に基づいて定められた画像データを、前記危険時運転データの生成に基づく取得タイミングに前記運転状況センシング装置から取得する画像取得部、
をさらに備える請求項1または請求項2に記載の運転状況監視装置。 - 前記危険時運転データの生成を契機に前記運転者属性に応じた警告情報を生成する警告情報生成部、
をさらに備える請求項1から請求項3の何れか一項に記載の運転状況監視装置。 - 運転状況監視装置と運転状況センシング装置とを含む運転状況監視システムであって、
前記運転状況監視装置は、
複数項目の運転状況を含む運転状況データと、運転時のイベント発生を通知するイベントデータとを、前記運転状況センシング装置から取得するセンシングデータ取得部と、
運転者属性と前記イベントデータとに応じて前記複数項目から選択されたいずれかの項目の運転状況の情報を含む危険時運転データを生成する危険時運転データ生成部と、
を備える運転状況監視システム。 - 前記運転状況センシング装置は、
前記運転状況監視装置による前記危険時運転データの解析結果に基づいて前記運転者属性に応じた画像データを前記運転状況監視装置へ送信する
請求項5に記載の運転状況監視システム。 - 複数項目の運転状況を含む運転状況データと、運転時のイベント発生を通知するイベントデータとを、運転状況センシング装置から取得し、
運転者属性と前記イベントデータとに応じて前記複数項目から選択されたいずれかの項目の運転状況の情報を含む危険時運転データを生成する
ことを含む運転状況監視方法。 - 複数項目の運転状況を含む運転状況データと、運転時のイベント発生を通知するイベントデータとを、運転状況センシング装置から取得し、
運転者属性と前記イベントデータとに応じて前記複数項目から選択されたいずれかの項目の運転状況の情報を含む危険時運転データを生成する、
ことをコンピュータに実行させるためのプログラムを記憶した記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/964,797 US20210056329A1 (en) | 2018-01-25 | 2019-01-18 | Driving state monitoring device, driving state monitoring system, driving state monitoring method and recording medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018010343A JP6988516B2 (ja) | 2018-01-25 | 2018-01-25 | 運転状況監視装置、運転状況監視システム、運転状況監視方法、プログラム、運転状況センシング装置 |
JP2018-010343 | 2018-01-25 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2019146522A1 true WO2019146522A1 (ja) | 2019-08-01 |
Family
ID=67396086
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2019/001457 WO2019146522A1 (ja) | 2018-01-25 | 2019-01-18 | 運転状況監視装置、運転状況監視システム、運転状況監視方法、記憶媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210056329A1 (ja) |
JP (1) | JP6988516B2 (ja) |
WO (1) | WO2019146522A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7062350B1 (ja) * | 2021-02-04 | 2022-05-06 | 三菱電機株式会社 | 通信リソース割当装置、通信リソース割当方法及び通信リソース割当プログラム |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7418694B2 (ja) * | 2020-05-29 | 2024-01-22 | 株式会社Jvcケンウッド | 車両用記録制御装置、記録制御方法およびプログラム |
CN117657186B (zh) * | 2023-12-08 | 2024-09-13 | 无锡梁溪智慧环境发展有限公司 | 一种车载发送端智能调控方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003048447A (ja) * | 2001-08-08 | 2003-02-18 | Fujitsu Ltd | 運行監視システム |
JP2008097376A (ja) * | 2006-10-12 | 2008-04-24 | Nissan Diesel Motor Co Ltd | 安全運転診断装置及び安全運転診断システム |
JP2015014959A (ja) * | 2013-07-05 | 2015-01-22 | キャンバスマップル株式会社 | 情報提供システム、及び情報提供サーバ |
JP2017116998A (ja) * | 2015-12-21 | 2017-06-29 | セゾン自動車火災保険株式会社 | 情報処理装置、情報処理システム、情報処理方法、情報処理プログラム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003167798A (ja) * | 2001-11-30 | 2003-06-13 | Denso Corp | 送信装置 |
US7848863B2 (en) * | 2005-11-29 | 2010-12-07 | Electronics And Telecommunications Research Institute | Apparatus and method for providing audio and video content service in vehicle |
JP2009032143A (ja) * | 2007-07-30 | 2009-02-12 | Seiko Epson Corp | ドライブレコーダ、ドライブレコーダシステム、ドライブレコーダの制御方法およびプログラム |
JP5585193B2 (ja) * | 2010-05-07 | 2014-09-10 | 富士通株式会社 | 事象データ処理方法、プログラム及び装置 |
US20140002651A1 (en) * | 2012-06-30 | 2014-01-02 | James Plante | Vehicle Event Recorder Systems |
JP6385851B2 (ja) * | 2015-02-17 | 2018-09-05 | 株式会社東芝 | 路上監視装置、路上監視システム、方法及びプログラム |
JP6728897B2 (ja) * | 2016-03-31 | 2020-07-22 | 日本電気株式会社 | 画像収集装置、画像収集システム、画像収集方法及びプログラム |
-
2018
- 2018-01-25 JP JP2018010343A patent/JP6988516B2/ja active Active
-
2019
- 2019-01-18 WO PCT/JP2019/001457 patent/WO2019146522A1/ja active Application Filing
- 2019-01-18 US US16/964,797 patent/US20210056329A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003048447A (ja) * | 2001-08-08 | 2003-02-18 | Fujitsu Ltd | 運行監視システム |
JP2008097376A (ja) * | 2006-10-12 | 2008-04-24 | Nissan Diesel Motor Co Ltd | 安全運転診断装置及び安全運転診断システム |
JP2015014959A (ja) * | 2013-07-05 | 2015-01-22 | キャンバスマップル株式会社 | 情報提供システム、及び情報提供サーバ |
JP2017116998A (ja) * | 2015-12-21 | 2017-06-29 | セゾン自動車火災保険株式会社 | 情報処理装置、情報処理システム、情報処理方法、情報処理プログラム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7062350B1 (ja) * | 2021-02-04 | 2022-05-06 | 三菱電機株式会社 | 通信リソース割当装置、通信リソース割当方法及び通信リソース割当プログラム |
WO2022168228A1 (ja) * | 2021-02-04 | 2022-08-11 | 三菱電機株式会社 | 通信リソース割当装置、通信リソース割当方法及び通信リソース割当プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2019128811A (ja) | 2019-08-01 |
JP6988516B2 (ja) | 2022-01-05 |
US20210056329A1 (en) | 2021-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4661734B2 (ja) | 車載用の警告システム | |
WO2019146522A1 (ja) | 運転状況監視装置、運転状況監視システム、運転状況監視方法、記憶媒体 | |
JP4467448B2 (ja) | 移動体用記録装置 | |
JP4971625B2 (ja) | 運転支援装置および運転情報算出システム | |
JP6853494B2 (ja) | ドライブレコーダ | |
JP6834998B2 (ja) | 運転状況監視装置、運転状況監視システム、運転状況監視方法、プログラム | |
JP6992726B2 (ja) | 運転支援装置、運転支援方法、プログラム | |
KR20130109714A (ko) | Obd 정보를 이용한 차량용 영상 기록 장치 및 방법 | |
JP2016100672A (ja) | 記録装置及びプログラム | |
JP2016092531A (ja) | 画像送信装置、画像取得方法、および画像取得プログラム | |
JP7340678B2 (ja) | データ収集方法およびデータ収集装置 | |
JP6063189B2 (ja) | ドライブレコーダ | |
JP2024069586A (ja) | 記録再生制御装置、および記録再生制御方法 | |
JP5180450B2 (ja) | 運転支援方法および運転支援装置 | |
JP2018181043A (ja) | 記録制御装置、記録装置、ナビゲーション装置、記録方法、及びプログラム | |
JP7081700B2 (ja) | 運転状況監視装置、運転状況監視システム、運転状況監視方法、ドライブレコーダ | |
JP2016122328A (ja) | ドライブレコーダーおよび車載システム | |
JP5326717B2 (ja) | 携帯端末、並びにその制御方法及びプログラム | |
WO2021261097A1 (ja) | ドライブレコーダー運用システム | |
JP2009093254A (ja) | ドライブレコーダ、ドライブレコーダシステム、ドライブレコーダの制御方法およびプログラム | |
JP2019016227A (ja) | 情報処理方法、情報処理装置及び情報処理プログラム | |
JP2021149578A (ja) | プログラム、情報記録装置及び情報記録方法 | |
TWI823734B (zh) | 行車紀錄器及其資料備份方法 | |
US20230316823A1 (en) | In-vehicle device, control method, and storage medium | |
JP2023156499A (ja) | 運転支援装置、運転支援方法、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19744596 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 19744596 Country of ref document: EP Kind code of ref document: A1 |