WO2022025244A1 - 車両事故予測システム、車両事故予測方法、車両事故予測プログラム、及び、学習済みモデル生成システム - Google Patents

車両事故予測システム、車両事故予測方法、車両事故予測プログラム、及び、学習済みモデル生成システム Download PDF

Info

Publication number
WO2022025244A1
WO2022025244A1 PCT/JP2021/028315 JP2021028315W WO2022025244A1 WO 2022025244 A1 WO2022025244 A1 WO 2022025244A1 JP 2021028315 W JP2021028315 W JP 2021028315W WO 2022025244 A1 WO2022025244 A1 WO 2022025244A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
accident
feature amount
data
prediction
Prior art date
Application number
PCT/JP2021/028315
Other languages
English (en)
French (fr)
Inventor
拓己 宇津木
秀幸 圖師
肇 島谷
行伸 向田
準二 田中
健一 萩谷
豊 松井
良介 中畑
直也 高橋
真樹 久保田
Original Assignee
矢崎総業株式会社
三井住友海上火災保険株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 矢崎総業株式会社, 三井住友海上火災保険株式会社 filed Critical 矢崎総業株式会社
Priority to CN202180058733.9A priority Critical patent/CN116057595A/zh
Publication of WO2022025244A1 publication Critical patent/WO2022025244A1/ja
Priority to US18/161,327 priority patent/US20230177959A1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0129Traffic data processing for creating historical data or processing based on historical data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/164Centralised systems, e.g. external to vehicles

Definitions

  • the present invention relates to a vehicle accident prediction system, a vehicle accident prediction method, a vehicle accident prediction program, and a learned model generation system.
  • Patent Document 1 discloses a traffic accident occurrence forecasting device including an accident occurrence pattern learning means and an accident occurrence forecasting means.
  • the accident occurrence pattern learning means learns the accident occurrence pattern by a predetermined learning algorithm using the past traffic data.
  • the accident occurrence forecasting means quantitatively outputs the tendency of the occurrence of a traffic accident based on the actual measured value of the traffic data at the current time or the predicted value of the traffic data after the current time and the learning result by the accident occurrence pattern learning means.
  • the traffic accident occurrence forecasting device described in Patent Document 1 described above has room for further improvement in terms of improving the accuracy of accident prediction, for example.
  • the present invention has been made in view of the above circumstances, and provides a vehicle accident prediction system, a vehicle accident prediction method, a vehicle accident prediction program, and a trained model generation system capable of appropriately predicting an accident.
  • the purpose is to do.
  • the vehicle accident prediction system has a first feature amount representing the attributes of the driver of the vehicle, a second feature amount representing the state of the vehicle, and a plurality of the second feature amounts.
  • a preprocessing unit that acquires a learning data set consisting of feature amount group data including a third feature amount that is a combination of the above and accident data related to the vehicle accident, and a plurality of the learning data acquired by the preprocessing unit.
  • a model generation unit that generates a trained model that predicts an accident of the vehicle from the feature amount group data by learning using a set, a prediction target input unit that inputs the feature amount group data to be predicted, and the above. Using the trained model generated by the model generation unit, a prediction unit for predicting an accident of the vehicle from the feature amount group data input by the prediction target input unit is provided.
  • the feature amount group data can include a fourth feature amount representing the driving scene of the vehicle.
  • the vehicle accident prediction program has a first feature amount representing the attributes of the driver of the vehicle, a second feature amount representing the state of the vehicle, and a plurality of the second feature amounts.
  • a learning data set consisting of a feature amount group data including a third feature amount in combination with the above and accident data related to the vehicle accident is acquired, and the feature amount group is used by using the acquired plurality of the learning data sets.
  • a trained model for predicting an accident of the vehicle is generated from the data by training, the feature quantity group data to be predicted is input, and the feature quantity group data input using the generated trained model. It is characterized in that each process for predicting an accident of the vehicle is executed by a computer.
  • the vehicle accident prediction system, the vehicle accident prediction method, the vehicle accident prediction program, and the trained model generation system according to the present invention have the effect of being able to properly predict an accident.
  • FIG. 1 is a block diagram showing a schematic configuration of a vehicle accident prediction system according to an embodiment.
  • FIG. 2 is a schematic diagram showing processing of a learning phase and a usage phase performed by the processing circuit of the vehicle accident prediction system according to the embodiment.
  • FIG. 3 is a flowchart showing an example of processing performed by the processing circuit of the vehicle accident prediction system according to the embodiment.
  • FIG. 4 is a block diagram showing a schematic configuration of a vehicle accident prediction system according to a modified example.
  • the vehicle accident prediction system 1 of the present embodiment shown in FIG. 1 is a system for predicting a vehicle accident.
  • a learning phase for generating a trained model M for predicting a vehicle accident and a process for predicting a vehicle accident using the trained model M are performed.
  • the vehicle accident prediction system 1 is realized by various computer devices such as a personal computer, a workstation, and a tablet terminal.
  • each configuration of the vehicle accident prediction system will be described in detail with reference to FIGS. 1 and 2.
  • the vehicle accident prediction system 1 includes an input device 10, an output device 20, a storage circuit 30, and a processing circuit 40.
  • the input device 10, the output device 20, the storage circuit 30, and the processing circuit 40 are connected to each other so as to be able to communicate with each other via a network.
  • the data input device includes, for example, a communication interface for transmitting and receiving various data to and from the device via communication regardless of whether it is wired or wireless, a flexible disk (FD), a magneto-optical disk (Magnet-Optical disk), and a CD-ROM. It is realized by a recording medium interface or the like that reads various data from a recording medium such as a DVD, a USB memory, an SD card memory, or a flash memory.
  • the output device 20 is a device that outputs various outputs from the vehicle accident prediction system 1.
  • the output device 20 is realized by, for example, a display that outputs and displays various image information, a speaker that outputs sound information, a data output device that outputs data (information) to other devices other than the vehicle accident prediction system 1.
  • the data output device is realized by, for example, a communication interface for transmitting and receiving various data to and from the device via communication regardless of whether it is wired or wireless, a recording medium interface for writing various data to a recording medium similar to the above, and the like. ..
  • the data input device and the data output device may have a part or all of the same configuration.
  • the storage circuit 30 may be realized by a cloud server or the like connected to the vehicle accident prediction system 1 via a network.
  • the processing circuit 40 is a circuit that realizes various processing functions in the vehicle accident prediction system 1.
  • the processing circuit 40 is realized by, for example, a processor.
  • the processor means, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate circuit, etc.).
  • the processing circuit 40 realizes each processing function by, for example, executing a program read from the storage circuit 30.
  • the processing circuit 40 of the present embodiment functionally conceptually includes a preprocessing unit 41, a model generation unit 42, a prediction target input unit 43, a prediction unit 44, and an output unit 45. Consists of including.
  • the processing circuit 40 for example, by executing a program read from the storage circuit 30, each processing function of the preprocessing unit 41, the model generation unit 42, the prediction target input unit 43, the prediction unit 44, and the output unit 45. To realize.
  • the pre-processing unit 41 is a part having a function of executing various pre-processing on the data for training the trained model M in the learning phase.
  • the preprocessing unit 41 of the present embodiment can execute the process of acquiring the learning data set D3 including the feature amount group data D1 and the accident data D2.
  • the learning data set D3 acquired by the preprocessing unit 41 is teacher data used when the trained model M is generated by machine learning.
  • the learning data set D3 is a set of feature quantity group data D1 relating to the running of the vehicle and accident data D2 relating to the accident of the vehicle when the running state of the vehicle is defined by the feature quantity group data D1. It consists of being linked. Furthermore, the learning data set D3 is composed of the feature amount group data D1 quantified as an explanatory variable and the accident data D2 quantified as an objective variable.
  • the feature amount group data D1 is typically data including various feature amounts related to the running of the vehicle.
  • the feature amount group data D1 of the present embodiment is data including the first feature amount D11, the second feature amount D12, the third feature amount D13, and the fourth feature amount D14.
  • the first feature amount D11, the second feature amount D12, the third feature amount D13, and the fourth feature amount D14 are feature amounts that affect the occurrence of vehicle accidents, and are correlated with the occurrence of vehicle accidents. do.
  • the first feature amount D11, the second feature amount D12, the third feature amount D13, and the fourth feature amount D14 are, for example, accidents based on the findings obtained by analyzing the data of accidents of a large number of vehicles. It is set as a feature quantity that correlates with the risk of occurrence.
  • an example of the first feature amount D11, the second feature amount D12, the third feature amount D13, and the fourth feature amount D14 will be described.
  • the first feature amount D11 is a "driver attribute feature amount" representing the attributes of the vehicle driver, and is a value obtained by quantifying the attributes of the vehicle driver.
  • the first feature amount D11 may include, for example, a quantified value of the driver's attendance information and the like.
  • the first feature amount D11 is, for example, the number of days the driver has been enrolled in the business operator who manages the vehicle, the past mileage / running time of the driver, the restraint time within the past predetermined period of the driver, and the driver. Includes quantified values such as the number of days elapsed since the last operation day of.
  • the first feature amount D11 is set, for example, based on the knowledge that the attributes of the driver of the vehicle (for example, the state of recent attendance, etc.) influence the occurrence of the accident of the vehicle.
  • the second feature amount D12 is a "vehicle state feature amount" representing the state of the vehicle, and is a value obtained by quantifying the state of the vehicle.
  • the second feature amount D12 may include, for example, a value obtained by quantifying the detection result detected by various in-vehicle devices, sensors, cameras, position measuring instruments, etc. mounted on the vehicle in the vehicle.
  • the second feature amount D12 typically treats the above detection results as independent data.
  • the second feature amount D12 includes, for example, vehicle speed (maximum, minimum, average, variance), vehicle acceleration, vehicle deceleration, vehicle running power source rotation speed, vehicle direction change amount, and the like. Includes quantified values.
  • the second feature amount D12 is set, for example, based on the knowledge that the state of the vehicle affects the occurrence of an accident in the vehicle.
  • the third feature amount D13 is a "combination feature amount" in which a plurality of second feature amounts D12 are combined, and is a value obtained by quantifying the combination of the plurality of second feature amounts D12.
  • the third feature amount D13 may include, for example, a value quantified by combining a plurality of detection results detected by various in-vehicle devices, sensors, cameras, position measuring instruments, etc. mounted on the vehicle in the vehicle.
  • the third feature amount D13 typically treats the second feature amount D12, which treats the detection results as independent data, as composite data in which a plurality of the second feature amounts D12 are combined so as to represent a specific traveling phase. Is.
  • the third feature quantity D13 is, for example, an acceleration distribution for each speed band, a deceleration distribution for each speed band, an average acceleration / deceleration time for each speed band, a direction change amount distribution for each speed band, and each speed band. Includes quantified values such as direction change time, running power source rotation speed distribution for each acceleration zone, and direction change amount distribution for each deceleration zone.
  • the third feature amount D13 is, for example, a vehicle if the distribution of the first second feature amount D12 (for example, acceleration) is the same, but the distribution of the second second feature amount D12 (for example, the speed band) is different. It is set based on the knowledge that the incidence rate of accidents may differ.
  • the fourth feature amount D14 is a "scene feature amount" representing the driving scene of the vehicle, and is a value obtained by quantifying the driving scene of the vehicle.
  • the fourth feature amount D14 may include, for example, a value quantifying various driving scenes in consideration of the external environment, climate, terrain, psychological state of the driver, etc. surrounding the vehicle in the running of the vehicle.
  • the fourth feature amount D14 may be quantified using, for example, detection results detected by various in-vehicle devices, sensors, cameras, position measuring instruments, etc. mounted on the vehicle, or other values may be used. It may be quantified.
  • the fourth feature amount D14 is, for example, a driving scene in a time zone with heavy traffic, a driving scene after a break, a driving scene behind the prediction of arrival at the destination, and a driving scene when entering a narrow alley.
  • Quantified values such as driving scenes in stormy weather.
  • the fourth feature amount D14 for example, even if the first feature amount D11, the second feature amount D12, and the third feature amount D13 are the same, the occurrence rate of vehicle accidents may differ depending on the driving scene. It is set based on the knowledge that.
  • the accident data D2 is data related to vehicle accidents.
  • the accident data D2 includes information about the accident of the vehicle in the running state of the vehicle defined by the associated feature amount group data D1.
  • the accident data D2 may include at least information indicating the presence or absence of an accident, and may also include information indicating an accident position (latitude / longitude), an accident cause, an accident type, a damage amount, and the like.
  • the preprocessing unit 41 acquires a learning data set D3 configured by associating the feature amount group data D1 with the accident data D2 corresponding to the feature amount group data D1 as a set.
  • the preprocessing unit 41 may directly acquire the learning data set D3 created in advance from another device other than the vehicle accident prediction system 1 via the data input device constituting the input device 10.
  • the preprocessing unit 41 creates and acquires a learning data set D3 by performing various preprocessing on the raw data D0 input from other devices other than the vehicle accident prediction system 1, for example. You may.
  • the pre-processing unit 41 may perform pre-processing on the raw data D0 each time the raw data D0 is input, or the user's operation via the operation input device constituting the input device 10. Preprocessing may be performed on the raw data D0 at a timely timing according to the above.
  • the raw data D0 preprocessed by the preprocessing unit 41 may be input from another device other than the vehicle accident prediction system 1 via the data input device constituting the input device 10, or may be input. It may be input by a user's operation via an operation input device constituting the device 10.
  • the raw data D0 may include, for example, in-vehicle system data, business operator data, accident statistical data, external data, and the like.
  • the in-vehicle system data is data detected by, for example, a vehicle signal of a vehicle, an in-vehicle device such as a drive recorder or a digital tachograph mounted on the vehicle, a sensor, a camera, a position measuring instrument, etc., and the speed (maximum, minimum) of the vehicle.
  • the business operator data is, for example, data held by a business operator such as an exercise company or a bus company, and may include information such as a business operator ID, a vehicle ID, a driver ID, attendance, videos inside and outside the vehicle, and driver vitals.
  • the accident statistics data is, for example, data owned by a non-life insurance company, and may include information such as an accident-occurring business operator ID, an accident-occurring vehicle ID, an accident-occurring date and time, an accident-occurring latitude / longitude, an accident type, and a damage amount.
  • the external data is, for example, data held by other external devices or databases, and may include information such as a map (road type, building / facility type), traffic congestion, weather, traffic distribution / population density, and the like.
  • the preprocessing performed on the raw data D0 by the preprocessing unit 41 is, for example, a process of collecting and combining the raw data D0, a first feature amount D11, a second feature amount D12, and a third feature from the raw data D0. Processing to extract feature data group data D1 such as quantity D13 and fourth feature data D14 and quantify them as explanatory variables, processing to extract accident data D2 from raw data D0 and quantify them as objective variables, and quantified feature quantities. It includes a process of associating and combining the group data D1 and the quantified accident data D2.
  • the preprocessing unit 41 stores the plurality of learning data sets D3 acquired as described above in the storage circuit 30.
  • the model generation unit 42 is a part having a function capable of executing a process of generating a trained model M for predicting a vehicle accident from the feature quantity group data D1 by machine learning in the learning phase.
  • the model generation unit 42 of the present embodiment can execute a process of generating a trained model M by machine learning using a plurality of learning data sets D3 acquired by the preprocessing unit 41.
  • the model generation unit 42 for example, performs a process of learning and generating a trained model M at a timely timing according to a user's operation via an operation input device constituting the input device 10.
  • the model generation unit 42 generates a trained model M by performing machine learning based on various machine learning algorithms AL using a plurality of learning data sets D3 as teacher data.
  • the machine learning algorithm AL to be used include deep learning, neural network, logistic regression, ensemble learning, support vector machine, and random machine learning algorithm.
  • Known algorithms such as Random Forest) and Naive Bays can be mentioned.
  • the model generation unit 42 performs machine learning of the trained model M using the feature amount group data D1 as an explanatory variable and the accident data D2 as an objective variable in the learning data set D3.
  • the model generation unit 42 generates a trained model M obtained by performing machine learning for predicting a vehicle accident from the feature quantity group data D1.
  • the trained model M is realized by, for example, a neural network.
  • the model generation unit 42 learns the learning weighting coefficient used as weighting in the neural network by performing machine learning using a plurality of learning data sets D3, and generates the trained model M.
  • the trained model M generated by the model generation unit 42 is a model in which the input is the feature amount group data D1 and the output is a quantified value of the prediction of the vehicle accident. That is, the trained model M is functioned to accept the input of the feature amount group data D1 and output a quantified value of the vehicle accident prediction from the feature amount group data D1. More specifically, the trained model M performs an operation based on the training weighting coefficient in the neural network on the feature group data D1 input to the input layer of the neural network, and predicts an accident from the output layer of the neural network. Make the computer function to output the quantified value.
  • the value obtained by quantifying the prediction of the accident of the vehicle output from the trained model M corresponds to, in other words, the value of predicting the accident risk of the vehicle.
  • the value that quantifies the prediction of the accident of the vehicle is, for example, the value that quantifies the presence or absence of the accident, but is, for example, the value that quantifies the accident factor, the accident type, the amount of damage, and the like. May be good.
  • the model generation unit 42 stores the trained model M generated as described above in the storage circuit 30. At this time, when the previously generated trained model M is already stored in the storage circuit 30, the model generation unit 42 replaces the stored trained model M with the newly generated trained model M.
  • the prediction target input unit 43 is a part having a function of executing a process of inputting the feature amount group data D1 to be a prediction target in the use phase.
  • the feature amount group data D1 to be predicted may be referred to as “prediction target data (input data) D4”.
  • the prediction target data D4 may be input from another device other than the vehicle accident prediction system 1 via the data input device constituting the input device 10, or may be input by the user via the operation input device constituting the input device 10. It may be entered by operation.
  • the prediction target input unit 43 of the present embodiment can execute a process of inputting the prediction target data D4 received via the input device 10 into the prediction unit 44.
  • the prediction target input unit 43 may input the prediction target data D4 in real time according to the running of the vehicle, or may input the prediction target data D4 ex post facto at a timely timing after the running of the vehicle is completed. good.
  • the prediction target input unit 43 may temporarily store the prediction target data D4 to be input in the storage circuit 30.
  • the prediction unit 44 is a part having a function of executing a process of predicting a vehicle accident using the trained model M in the use phase.
  • the prediction unit 44 of the present embodiment uses the trained model M generated by the model generation unit 42, and the feature quantity group data D1 to be the prediction target input by the prediction target input unit 43, that is, the prediction target data D4. It is possible to execute the process of predicting a vehicle accident from.
  • the prediction unit 44 inputs the prediction target data D4 input by the prediction target input unit 43 as input data to the trained model M generated by the model generation unit 42, and the trained model M responds accordingly. Outputs a quantified value of the vehicle accident prediction from. As a result, the prediction unit 44 predicts an accident of the vehicle when the vehicle is in a running state defined by the prediction target data D4 (feature amount group data D1 for predicting countermeasures). Here, as an example, the prediction unit 44 outputs a value quantifying the presence or absence of a vehicle accident as described above as a quantified value of the vehicle accident prediction, and the presence or absence of the vehicle accident occurrence. Predict. The prediction unit 44 stores the output quantified value of the vehicle accident prediction in the storage circuit 30 as the prediction result data (output data) D5.
  • the output unit 45 is a part having a function capable of executing a process of outputting based on the prediction result of the vehicle accident by the prediction unit 44.
  • the output unit 45 of the present embodiment can execute a process of outputting the prediction result data D5 predicted by the prediction unit 44 via the output device 20.
  • the prediction result data D5 may be output as image information via the display constituting the output device 20, or may be output as sound information via the speaker constituting the output device 20. Further, the prediction result data D5 may be output to another device other than the vehicle accident prediction system 1 via the data output device constituting the output device 20.
  • the output unit 45 may output the prediction result data D5 in real time according to the traveling of the vehicle, or predicts at a timely timing according to the operation of the user via the operation input device constituting the input device 10.
  • the result data D5 may be output.
  • the vehicle accident prediction method in the vehicle accident prediction system 1 shown in FIG. 3 includes an acquisition step (step S1), a generation step (step S2), an input step (step S3), a prediction step (step S4), and an output step (step S5). including.
  • the processing related to each of the above steps is executed by the processing circuit 40 of the vehicle accident prediction system 1.
  • the preprocessing unit 41 of the processing circuit 40 is composed of the feature amount group data D1 including the first feature amount D11, the second feature amount D12, the third feature amount D13, and the fourth feature amount D14, and the accident data D2.
  • the step (step S1) of acquiring the learning data set D3 is executed.
  • the preprocessing unit 41 may directly acquire the learning data set D3 from another device other than the vehicle accident prediction system 1 via the input device 10, or the vehicle accident prediction system via the input device 10.
  • the learning data set D3 may be created and acquired by performing various preprocessing on the raw data D0 input from another device other than 1.
  • the preprocessing unit 41 stores the acquired plurality of learning data sets D3 in the storage circuit 30.
  • the model generation unit 42 of the processing circuit 40 uses the plurality of learning data sets D3 acquired in the acquisition step (step S1) to generate a trained model M by machine learning (step S2). To execute.
  • the model generation unit 42 stores the generated learned model M in the storage circuit 30. At this time, when the previously generated trained model M is already stored in the storage circuit 30, the model generation unit 42 replaces the stored trained model M with the newly generated trained model M.
  • the prediction target input unit 43 of the processing circuit 40 executes an input step (step S3) in which the prediction target data D4, which is the feature quantity group data D1 to be predicted, is input to the prediction unit 44 of the processing circuit 40.
  • the prediction target input unit 43 may input the prediction target data D4 received from another device other than the vehicle accident prediction system 1 via the input device 10, or may be operated by the user via the input device 10.
  • the prediction target data D4 received by may be input.
  • the prediction target input unit 43 may temporarily store the prediction target data D4 to be input in the storage circuit 30.
  • the prediction unit 44 of the processing circuit 40 uses the trained model M generated in the generation step (step S2), and the prediction target data D4 (features to be predicted) input in the input step (step S3).
  • a prediction step (step S4) for predicting a vehicle accident from the quantity group data D1) is executed.
  • the prediction unit 44 inputs the prediction target data D4 to the trained model M, and outputs a quantified value of the vehicle accident prediction from the trained model M accordingly.
  • the prediction unit 44 predicts an accident of the vehicle when the vehicle is in a running state defined by the prediction target data D4.
  • the prediction unit 44 stores the output quantified value of the vehicle accident prediction in the storage circuit 30 as the prediction result data D5.
  • the output unit 45 of the processing circuit 40 executes an output step (step S5) for outputting the prediction result data D5 of the vehicle accident predicted in the prediction step (step S4), and ends the processing according to this flowchart. ..
  • the output unit 45 may output the prediction result data D5 as image information or sound information via the output device 20, or to another device other than the vehicle accident prediction system 1 via the output device 20. It may be output.
  • the above-mentioned vehicle accident prediction method can be realized by executing a vehicle accident prediction program prepared in advance on a computer such as a personal computer or a workstation.
  • This vehicle accident prediction program executes each of the above-mentioned acquisition step (step S1), generation step (step S2), input step (step S3), prediction step (step S4), and output step (step S5) on the computer. Let me.
  • the vehicle accident prediction system 1, the vehicle accident prediction method, and the vehicle accident prediction program described above include not only the second feature amount D12 representing the state of the vehicle, but also the first feature amount D11 representing the attributes of the driver of the vehicle and a plurality of features. It is possible to generate a trained model M with high prediction accuracy and predict vehicle accidents after improving the features themselves to be input by using the third feature amount D13 or the like combined with the second feature amount D12. can. As a result, the vehicle accident prediction system 1, the vehicle accident prediction method, and the vehicle accident prediction program can appropriately predict the accident. Thereby, the vehicle accident prediction system 1, the vehicle accident prediction method, and the vehicle accident prediction program can predict the accident risk more precisely, for example.
  • the vehicle accident prediction system 1, the vehicle accident prediction method, and the vehicle accident prediction program described above include the first feature amount D11, the second feature amount D12, and the third feature amount D13, as well as the vehicle driving scene. Since the trained model M can be generated and the vehicle accident prediction can be performed in consideration of the fourth feature amount D14 representing the above, it is possible to perform higher-order accident prediction according to the driving scene.
  • the vehicle accident prediction system 1, the vehicle accident prediction method, and the vehicle accident prediction program can drive the result of the accident prediction with higher accuracy obtained as described above to, for example, the operator or the driver in real time. It can be used for various purposes such as warning, evaluation of driving skills / driving habits / accident risk, visualization of improvement points, guidance / education of accident risk control actions, and creation of safe operation plans. Further, the vehicle accident prediction system 1, the vehicle accident prediction method, and the vehicle accident prediction program can output, for example, the result of the accident prediction for each operation unit, driver unit, vehicle unit, and operator unit.
  • the vehicle accident prediction system 1A is divided into a trained model generation system 100 that executes each process in the learning phase and a vehicle accident prediction device 200 that executes each process in the use phase. It differs from the vehicle accident prediction system 1 described above in that it is configured.
  • the trained model generation system 100 includes an input device 110, an output device 120, a storage circuit 130, and a processing circuit 140, and performs a process of generating a trained model M by machine learning using the learning data set D3. conduct.
  • the processing circuit 140 is configured to include a preprocessing unit 141 and a model generation unit 142 in a functional concept in order to realize the various processing functions.
  • the pretreatment unit 141 has an accident with the feature amount group data D1 including the first feature amount D11, the second feature amount D12, the third feature amount D13, and the fourth feature amount D14. It is possible to execute the process of acquiring the learning data set D3 including the data D2.
  • the preprocessing unit 141 stores the acquired plurality of learning data sets D3 in the storage circuit 130.
  • the model generation unit 142 can execute a process of generating a trained model M by machine learning using a plurality of training data sets D3 acquired by the preprocessing unit 141. be.
  • the model generation unit 142 stores the generated learned model M in the storage circuit 130.
  • the vehicle accident prediction device 200 includes an input device 210, an output device 220, a storage circuit 230, and a processing circuit 240, and performs processing for predicting a vehicle accident using the trained model M.
  • the processing circuit 240 is functionally configured to include a prediction target input unit 243, a prediction unit 244, and an output unit 245 in order to realize the various processing functions.
  • the prediction target input unit 243 can execute the process of inputting the prediction target data D4, which is the feature amount group data D1 to be the prediction target, in the same manner as the prediction target input unit 43 described above.
  • the prediction unit 244 can execute a process of predicting a vehicle accident from the prediction target data D4 input by the prediction target input unit 243 using the trained model M.
  • the prediction unit 244 uses, for example, the trained model M stored in the storage circuit 230 in advance via the output device 120 of the trained model generation system 100 and the input device 210 of the vehicle accident prediction device 200. Can be done.
  • the trained model M is a model generated by the trained model generation system 100 as described above.
  • the output unit 245 can execute a process of outputting the prediction result data D5 predicted by the prediction unit 44 via the output device 220, similarly to the output unit 45 described above.
  • the vehicle accident prediction system 1A, the trained model generation system 100, and the vehicle accident prediction device 200 can appropriately perform accident prediction in the same manner as the vehicle accident prediction system 1 described above, for example.
  • Accident risk can be predicted more precisely.
  • the trained model M used in the vehicle accident prediction device 200 is not limited to the model generated by the trained model generation system 100 as described above, but is a trained model generated by another system. It may be M.
  • the vehicle accident prediction system, the vehicle accident prediction method, the vehicle accident prediction program, and the trained model generation system according to the above-described embodiment of the present invention are not limited to the above-mentioned embodiments and are described in the claims. Various changes can be made within the range.
  • the feature amount group data D1 has been described as being data including the first feature amount D11, the second feature amount D12, the third feature amount D13, and the fourth feature amount D14, but the present invention is not limited to this.
  • the feature amount group data D1 may include the first feature amount D11 and the second feature amount D12 and may not include the third feature amount D13 and the fourth feature amount D14, and may include the first feature amount D11 and the first feature amount D11.
  • the third feature amount D13 may be included and the second feature amount D12 and the fourth feature amount D14 may not be included, and the first feature amount D11 and the fourth feature amount D14 may be included in the second feature amount D12 and the third.
  • the feature amount D13 may not be included, or a combination other than these may be used.
  • each processing function may be realized by combining a plurality of independent processors and executing a program by each processor. Further, the processing function of the processing circuit 40 may be appropriately distributed or integrated into a single or a plurality of processing circuits. Further, the processing function of the processing circuit 40 may be realized by a program in whole or in any part thereof, or may be realized as hardware by wired logic or the like.
  • the program executed by the processor described above is provided by being incorporated in the storage circuit 30 or the like in advance. It should be noted that this program may be provided as a file in a format that can be installed on these devices or in an executable format, recorded on a storage medium that can be read by a computer. Further, this program may be stored on a computer connected to a network such as the Internet, and may be provided or distributed by being downloaded via the network.
  • the vehicle accident prediction system, the vehicle accident prediction method, the vehicle accident prediction program, and the learned model generation system according to the present embodiment may be configured by appropriately combining the components of the embodiments and modifications described above. good.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Probability & Statistics with Applications (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

車両事故予測システム、車両事故予測方法、車両事故予測プログラム、及び、学習済みモデル生成システムは、車両のドライバの属性を表す第1特徴量(D11)、車両の状態を表す第2特徴量(D12)、及び、複数の第2特徴量(D12)を組み合わせた第3特徴量(D13)を含む特徴量群データ(D1)と車両の事故に関する事故データ(D2)とからなる学習用データセット(D3)を取得し、取得された複数の学習用データセット(D3)を用いて、特徴量群データ(D1)から車両の事故を予測する学習済みモデル(M)を学習により生成し、予測対象となる特徴量群データ(D1)を入力し、生成された学習済みモデル(M)を用いて、入力された特徴量群データ(D1)から車両の事故を予測する。

Description

車両事故予測システム、車両事故予測方法、車両事故予測プログラム、及び、学習済みモデル生成システム
 本発明は、車両事故予測システム、車両事故予測方法、車両事故予測プログラム、及び、学習済みモデル生成システムに関する。
 車両の事故予測するに関する技術として、例えば、特許文献1には、事故発生パターン学習手段と、事故発生予報手段と、を備える交通事故発生予報装置が開示されている。事故発生パターン学習手段は、過去の交通データを用い所定の学習アルゴリズムで事故発生パターンを学習する。事故発生予報手段は、現在時刻の交通データ実測値または現在時刻以降の交通データ予測値と、事故発生パターン学習手段による学習結果とを基に、交通事故発生の傾向を定量的に出力する。
特開2014-35639号公報
 ところで、上述の特許文献1に記載の交通事故発生予報装置は、例えば、事故予測の精度向上の点で更なる改善の余地がある。
 本発明は、上記の事情に鑑みてなされたものであって、適正に事故予測を行うことができる車両事故予測システム、車両事故予測方法、車両事故予測プログラム、及び、学習済みモデル生成システムを提供することを目的とする。
 上記目的を達成するために、本発明に係る車両事故予測システムは、車両のドライバの属性を表す第1特徴量、前記車両の状態を表す第2特徴量、及び、複数の前記第2特徴量を組み合わせた第3特徴量を含む特徴量群データと前記車両の事故に関する事故データとからなる学習用データセットを取得する前処理部と、前記前処理部によって取得された複数の前記学習用データセットを用いて、前記特徴量群データから前記車両の事故を予測する学習済みモデルを学習により生成するモデル生成部と、予測対象となる前記特徴量群データを入力する予測対象入力部と、前記モデル生成部によって生成された前記学習済みモデルを用いて、前記予測対象入力部によって入力された前記特徴量群データから前記車両の事故を予測する予測部とを備えることを特徴とする。
 また、上記車両事故予測システムでは、前記特徴量群データは、前記車両の運転シーンを表す第4特徴量を含むものとすることができる。
 上記目的を達成するために、本発明に係る車両事故予測方法は、車両のドライバの属性を表す第1特徴量、前記車両の状態を表す第2特徴量、及び、複数の前記第2特徴量を組み合わせた第3特徴量を含む特徴量群データと前記車両の事故に関する事故データとからなる学習用データセットを取得するステップと、取得された複数の前記学習用データセットを用いて、前記特徴量群データから前記車両の事故を予測する学習済みモデルを学習により生成するステップと、予測対象となる前記特徴量群データを入力するステップと、生成された前記学習済みモデルを用いて、入力された前記特徴量群データから前記車両の事故を予測するステップとを含むことを特徴とする。
 上記目的を達成するために、本発明に係る車両事故予測プログラムは、車両のドライバの属性を表す第1特徴量、前記車両の状態を表す第2特徴量、及び、複数の前記第2特徴量を組み合わせた第3特徴量を含む特徴量群データと前記車両の事故に関する事故データとからなる学習用データセットを取得し、取得された複数の前記学習用データセットを用いて、前記特徴量群データから前記車両の事故を予測する学習済みモデルを学習により生成し、予測対象となる前記特徴量群データを入力し、生成された前記学習済みモデルを用いて、入力された前記特徴量群データから前記車両の事故を予測する、各処理をコンピュータに実行させることを特徴とする。
 上記目的を達成するために、本発明に係る学習済みモデル生成システムは、車両のドライバの属性を表す第1特徴量、前記車両の状態を表す第2特徴量、及び、複数の前記第2特徴量を組み合わせた第3特徴量を含む特徴量群データと前記車両の事故に関する事故データとからなる学習用データセットを取得する前処理部と、前記前処理部によって取得された複数の前記学習用データセットを用いて、前記特徴量群データから前記車両の事故を予測する学習済みモデルを学習により生成するモデル生成部とを備えることを特徴とする。
 本発明に係る車両事故予測システム、車両事故予測方法、車両事故予測プログラム、及び、学習済みモデル生成システムは、適正に事故予測を行うことができる、という効果を奏する。
図1は、実施形態に係る車両事故予測システムの概略構成を表すブロック図である。 図2は、実施形態に係る車両事故予測システムの処理回路によって行われる学習フェーズ、及び、使用フェーズの処理を示す模式図である。 図3は、実施形態に係る車両事故予測システムの処理回路によって行われる処理の一例を示すフローチャートである。 図4は、変形例に係る車両事故予測システムの概略構成を表すブロック図である。
 以下に、本発明に係る実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。
[実施形態]
 図1に示す本実施形態の車両事故予測システム1は、車両の事故を予測するシステムである。車両事故予測システム1では、図2に示すように、車両の事故を予測するための学習済みモデルMを生成する処理を行う学習フェーズと、学習済みモデルMを用いて車両の事故を予測する処理を行う使用フェーズとがある。車両事故予測システム1は、例えば、パーソナルコンピュータ、ワークステーション、タブレット端末等の種々のコンピュータ機器によって実現される。以下、図1、図2を参照して車両事故予測システムの各構成について詳細に説明する。
 具体的には、車両事故予測システム1は、入力機器10と、出力機器20と、記憶回路30と、処理回路40とを備える。入力機器10、出力機器20、記憶回路30、及び、処理回路40は、ネットワークを介して相互に通信可能に接続されている。
 入力機器10は、車両事故予測システム1に対する種々の入力を行う機器である。入力機器10は、例えば、ユーザからの各種の操作入力を受け付ける操作入力機器、車両事故予測システム1外の他の機器からのデータ(情報)入力を受け付けるデータ入力機器等によって実現される。操作入力機器は、例えば、マウス、キーボード、トラックボール、スイッチ、ボタン、ジョイスティック、タッチパッド、タッチスクリーン、非接触入力回路、音声入力回路等により実現される。データ入力機器は、例えば、有線、無線を問わず通信を介して機器との間で各種データの送受信を行う通信インターフェース、フレキシブルディスク(FD)、光磁気ディスク(Magneto-Optical disk)、CD-ROM、DVD、USBメモリ、SDカードメモリ、Flashメモリ等の記録媒体から各種データを読み出す記録媒体インターフェース等によって実現される。
 出力機器20は、車両事故予測システム1から種々の出力を行う機器である。出力機器20は、例えば、各種画像情報を出力して表示するディスプレイ、音情報を出力するスピーカ、車両事故予測システム1外の他の機器に対するデータ(情報)出力を行うデータ出力機器等によって実現される。データ出力機器は、例えば、有線、無線を問わず通信を介して機器との間で各種データの送受信を行う通信インターフェース、上記と同様の記録媒体に各種データを書き込む記録媒体インターフェース等によって実現される。データ入力機器とデータ出力機器とは、一部又は全部の構成が兼用されてもよい。
 記憶回路30は、各種データを記憶する回路である。記憶回路30は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等によって実現される。 記憶回路30は、例えば、車両事故予測システム1が各種の機能を実現するためのプログラムを記憶する。記憶回路30に記憶されるプログラムには、入力機器10を機能させるプログラム、出力機器20を機能させるプログラム、処理回路40を機能させるプログラム等が含まれる。また、記憶回路30は、入力機器10を介して入力された生データD0、処理回路40での各種処理に必要なデータ、学習済みモデルMの学習に用いる学習用データセットD3、学習済みモデルM、出力機器20を介して出力する予測結果データD5等の各種データを記憶する。記憶回路30は、処理回路40等によってこれらの各種データが必要に応じて読み出される。なお、記憶回路30は、ネットワークを介して車両事故予測システム1に接続されたクラウドサーバ等により実現されてもよい。
 処理回路40は、車両事故予測システム1における各種処理機能を実現する回路である。処理回路40は、例えば、プロセッサによって実現される。プロセッサとは、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の回路を意味する。処理回路40は、例えば、記憶回路30から読み込んだプログラムを実行することにより、各処理機能を実現する。
 以上、本実施形態に係る車両事故予測システム1の全体構成の概略について説明した。このような構成のもと、本実施形態に係る処理回路40は、学習フェーズにおいて、車両の事故を予測するための学習済みモデルMを生成する各種処理を行うための機能を有している。また、本実施形態に係る処理回路40は、使用フェーズにおいて、学習済みモデルMを用いて車両の事故を予測する各種処理を行うための機能を有している。
 本実施形態の処理回路40は、上記各種処理機能を実現するために、機能概念的に、前処理部41、モデル生成部42、予測対象入力部43、予測部44、及び、出力部45を含んで構成される。処理回路40は、例えば、記憶回路30から読み込んだプログラムを実行することにより、これら前処理部41、モデル生成部42、予測対象入力部43、予測部44、及び、出力部45の各処理機能を実現する。
 前処理部41は、学習フェーズにおいて、学習済みモデルMを学習させるためのデータに対して各種前処理を実行可能な機能を有する部分である。本実施形態の前処理部41は、特徴量群データD1と事故データD2とからなる学習用データセットD3を取得する処理を実行可能である。
 前処理部41によって取得される学習用データセットD3は、学習済みモデルMを機械学習によって生成する際に用いられる教師データである。学習用データセットD3は、車両の走行に関する特徴量群データD1と、当該特徴量群データD1によって規定される車両の走行状態の際の当該車両の事故に関する事故データD2とが1組のセットとして紐づけられることで構成される。さらに言えば、学習用データセットD3は、説明変数として定量化された当該特徴量群データD1と、目的変数として定量化された当該事故データD2とから構成される。
 特徴量群データD1は、典型的には、車両の走行に関する様々な特徴量を含むデータである。本実施形態の特徴量群データD1は、第1特徴量D11、第2特徴量D12、第3特徴量D13、及び、第4特徴量D14を含むデータである。第1特徴量D11、第2特徴量D12、第3特徴量D13、及び、第4特徴量D14は、車両の事故の発生に影響を与える特徴量であり、それぞれ車両の事故発生に対して相関する。第1特徴量D11、第2特徴量D12、第3特徴量D13、及び、第4特徴量D14は、例えば、多数の車両の事故のデータを分析することで得られた知見に基づいて、事故発生のリスクと相関を有する特徴量として設定される。以下、第1特徴量D11、第2特徴量D12、第3特徴量D13、及び、第4特徴量D14の一例について説明する。
 第1特徴量D11は、車両のドライバの属性を表す「ドライバ属性特徴量」であり、車両のドライバの属性を定量化した値である。第1特徴量D11は、例えば、ドライバの勤怠情報等を定量化した値を含んでもよい。一例として、第1特徴量D11は、例えば、車両を管理する事業者における当該ドライバの在籍日数、当該ドライバの過去の走行距離・走行時間、当該ドライバの過去の所定期間内の拘束時間、当該ドライバの前回運行日からの経過日数等を定量化した値を含む。第1特徴量D11は、例えば、車両のドライバの属性(例えば、直近の勤怠の状態等)が車両の事故の発生に影響を与えているという知見等に基づいて設定される。
 第2特徴量D12は、車両の状態を表す「車両状態特徴量」であり、車両の状態を定量化した値である。第2特徴量D12は、例えば、車両において、当該車両に搭載された各種車載機器、センサ、カメラ、位置測定器等によって検出された検出結果を定量化した値を含んでもよい。第2特徴量D12は、典型的には、上記検出結果をそれぞれ単独データとして扱ったものである。一例として、第2特徴量D12は、例えば、車両の速度(最大、最小、平均、分散)、車両の加速度、車両の減速度、車両の走行用動力源回転数、車両の方向変化量等を定量化した値を含む。第2特徴量D12は、例えば、車両の状態が車両の事故の発生に影響を与えているという知見等に基づいて設定される。
 第3特徴量D13は、複数の第2特徴量D12を組み合わせた「組み合わせ特徴量」であり、複数の第2特徴量D12の組み合わせを定量化した値である。第3特徴量D13は、例えば、車両において、当該車両に搭載された各種車載機器、センサ、カメラ、位置測定器等によって検出された検出結果を複数組み合わせて定量化した値を含んでもよい。第3特徴量D13は、典型的には、上記検出結果をそれぞれ単独のデータとして扱った第2特徴量D12を、特定の走行局面(フェーズ)を表すように複数組み合わせた複合データとして扱ったものである。一例として、第3特徴量D13は、例えば、速度帯毎の加速度分布、速度帯毎の減速度分布、速度帯毎の平均加速・減速時間、速度帯毎の方向変化量分布、速度帯毎の方向変化時間、加速度帯毎の走行用動力源回転数分布、減速度帯毎の方向変化量分布等を定量化した値を含む。第3特徴量D13は、例えば、第1の第2特徴量D12(例えば、加速度)の分布が同等であっても、第2の第2特徴量D12(例えば、速度帯)が異なると、車両の事故の発生率が異なる場合があるという知見等に基づいて設定される。
 第4特徴量D14は、車両の運転シーンを表す「シーン特徴量」であり、車両の運転シーンを定量化した値である。第4特徴量D14は、例えば、車両の走行において、当該車両の取り巻く外部環境、気候、地形、ドライバの心理状態等を踏まえた種々の運転シーンを定量化した値を含んでもよい。第4特徴量D14は、例えば、車両に搭載された各種車載機器、センサ、カメラ、位置測定器等によって検出された検出結果を用いて定量化されてもよいし、それ以外の値を用いて定量化されてもよい。一例として、第4特徴量D14は、例えば、交通量の多い時間帯における運転シーン、休憩後の運転シーン、目的地への到着予測より遅れている運転シーン、狭い路地に入った際の運転シーン、荒天時の運転シーン等を定量化した値を含む。第4特徴量D14は、例えば、第1特徴量D11、第2特徴量D12、第3特徴量D13が同等であっても、運転シーンが異なると、車両の事故の発生率が異なる場合があるという知見等に基づいて設定される。
 事故データD2は、車両の事故に関するデータである。事故データD2は、紐づけられる特徴量群データD1によって規定された車両の走行状態の際の当該車両の事故についての情報を含む。ここでは一例として、事故データD2は、少なくとも事故の発生の有無を表す情報を含み、この他、事故位置(緯度経度)、事故要因、事故種別、損害額等を表す情報を含んでもよい。
 前処理部41は、上記特徴量群データD1と、当該特徴量群データD1に対応する上記事故データD2とを1組のセットとして紐づけることで構成された学習用データセットD3を取得する。前処理部41は、例えば、入力機器10を構成するデータ入力機器を介して車両事故予測システム1外の他の機器から、予め作成された学習用データセットD3を直接取得してもよい。また、前処理部41は、例えば、車両事故予測システム1外の他の機器等から入力された生データD0に対して、様々な前処理を施すことで学習用データセットD3を作成、取得してもよい。前処理部41は、例えば、生データD0が入力されたタイミングで、都度、生データD0に対して前処理を行ってもよいし、入力機器10を構成する操作入力機器を介したユーザの操作に応じて適時のタイミングで生データD0に対して前処理を行ってもよい。
 この場合、前処理部41によって前処理が施される生データD0は、入力機器10を構成するデータ入力機器を介して車両事故予測システム1外の他の機器から入力されてもよいし、入力機器10を構成する操作入力機器を介してユーザの操作によって入力されてもよい。当該生データD0は、例えば、車載システムデータ、事業者データ、事故統計データ、外部データ等を含んでいてもよい。車載システムデータは、例えば、車両の車両信号や当該車両に搭載されたドライブレコーダ、デジタルタコグラフ等の車載機器、センサ、カメラ、位置測定器等が検出したデータであり、車両の速度(最大、最小、平均、分散)、車両の加速度、車両の減速度、車両の走行用動力源回転数、車両の方向変化量等の情報を含んでもよい。事業者データは、例えば、運動会社・バス会社等の事業者が保有するデータであり、事業者ID、車両ID、ドライバID、勤怠、車内外動画、ドライババイタル等の情報を含んでもよい。事故統計データは、例えば、損害保険会社が保有するデータであり、事故発生事業者ID、事故発生車両ID、事故発生日時、事故発生緯度経度、事故種別、損害額等の情報を含んでもよい。外部データは、例えば、その他の外部機器やデータベースが保有するデータであり、地図(道路種別、建物・施設種別)、交通渋滞、天気、人流分布・人口密度等の情報を含んでもよい。
 また、前処理部41によって生データD0に対して施す前処理とは、例えば、生データD0の収集・結合する処理、生データD0から第1特徴量D11、第2特徴量D12、第3特徴量D13、第4特徴量D14等の特徴量群データD1を抽出し説明変数として定量化する処理、生データD0から事故データD2を抽出し目的変数として定量化する処理、定量化された特徴量群データD1と定量化された事故データD2とを紐づけて組み合わせる処理等を含むものである。
 前処理部41は、上記のようにして取得した複数の学習用データセットD3を記憶回路30に記憶させる。
 モデル生成部42は、学習フェーズにおいて、特徴量群データD1から車両の事故を予測する学習済みモデルMを機械学習により生成する処理を実行可能な機能を有する部分である。本実施形態のモデル生成部42は、前処理部41によって取得された複数の学習用データセットD3を用いて、学習済みモデルMを機械学習により生成する処理を実行可能である。モデル生成部42は、例えば、入力機器10を構成する操作入力機器を介したユーザの操作に応じて適時のタイミングで、学習済みモデルMを学習させ、生成する処理を行う。
 モデル生成部42は、複数の学習用データセットD3を教師データとして、種々の機械学習アルゴリズムALに基づく機械学習を行うことによって、学習済みモデルMを生成する。使用する機械学習アルゴリズムALとしては、例えば、ディープラーニング(Deep Learning)、ニューラルネットワーク(Neural Network)、ロジスティック(Logistic)回帰、アンサンブル学習(Ensemble Learning)、サポートベクターマシン(Support Vector Machine)、ランダムフォレスト(Random Forest)、ナイーブベイズ(Naive Bays)等の公知のアルゴリズムが挙げられる。モデル生成部42は、学習用データセットD3のうち、特徴量群データD1を説明変数とし 、事故データD2を目的変数として、学習済みモデルMの機械学習を行う。モデル生成部42は、当該機械学習の結果として、特徴量群データD1から車両の事故を予測するための機械学習を行った学習済みモデルMを生成する。
 学習済みモデルMは、例えば、ニューラルネットワークにより実現される。この場合、モデル生成部42は、複数の学習用データセットD3を用いた機械学習を行うことにより、当該ニューラルネットワークにおいて重み付けとして用いられる学習重み付け係数を学習し、当該学習済みモデルMを生成する。
 モデル生成部42によって生成された学習済みモデルMは、入力を特徴量群データD1とし、出力を車両の事故の予測を定量化した値としたモデルである。すなわち、学習済みモデルMは、特徴量群データD1の入力を受け付けて当該特徴量群データD1から車両の事故の予測を定量化した値を出力するように機能付けられる。より詳しくは、学習済みモデルMは、ニューラルネットワークの入力層に入力された特徴量群データD1に対して、ニューラルネットワークにおける学習重み付け係数に基づく演算を行い、ニューラルネットワークの出力層から事故の予測を定量化した値を出力するようにコンピュータを機能させる。
 ここで、学習済みモデルMから出力される車両の事故の予測を定量化した値とは、言い換えれば、当該車両の事故リスクを予測した値に相当する。当該車両の事故の予測を定量化した値は、一例として、事故の発生の有無を定量化した値であるが、例えば、事故要因、事故種別、損害額等を定量化した値等であってもよい。
 モデル生成部42は、上記のようにして生成した学習済みモデルMを記憶回路30に記憶させる。このとき、モデル生成部42は、以前に生成した学習済みモデルMが既に記憶回路30に記憶されていた場合には、記憶されている学習済みモデルMを新しく生成した学習済みモデルMで置き換える。
 予測対象入力部43は、使用フェーズにおいて、予測対象となる特徴量群データD1を入力する処理を実行可能な機能を有する部分である。ここでは、予測対象となる特徴量群データD1は、「予測対象データ(入力データ)D4」という場合がある。予測対象データD4は、入力機器10を構成するデータ入力機器を介して車両事故予測システム1外の他の機器から入力されてもよいし、入力機器10を構成する操作入力機器を介してユーザの操作によって入力されてもよい。本実施形態の予測対象入力部43は、入力機器10を介して受け付けた予測対象データD4を予測部44に入力する処理を実行可能である。予測対象入力部43は、例えば、車両の走行にあわせてリアルタイムで予測対象データD4を入力してもよいし、車両の走行終了後に適時のタイミングで事後的に予測対象データD4を入力してもよい。予測対象入力部43は、入力する予測対象データD4を一旦記憶回路30に記憶させるようにしてもよい。
 予測部44は、使用フェーズにおいて、学習済みモデルMを用いて車両の事故を予測する処理を実行可能な機能を有する部分である。本実施形態の予測部44は、モデル生成部42によって生成された学習済みモデルMを用いて、予測対象入力部43によって入力された予測対象となる特徴量群データD1、すなわち、予測対象データD4から車両の事故を予測する処理を実行可能である。
 予測部44は、モデル生成部42によって生成された学習済みモデルMに対して、予測対象入力部43によって入力された予測対象データD4を入力データとして入力し、これに応じて当該学習済みモデルMから車両の事故の予測を定量化した値を出力させる。これにより、予測部44は、当該予測対象データD4(予測対処となる特徴量群データD1)によって規定される車両の走行状態の際の当該車両の事故を予測する。ここでは一例として、予測部44は、車両の事故の予測を定量化した値として、上述したように車両の事故の発生の有無を定量化した値を出力させ、当該車両の事故の発生の有無を予測する。予測部44は、出力された車両の事故の予測を定量化した値を、予測結果データ(出力データ)D5として記憶回路30に記憶させる。
 出力部45は、予測部44による車両の事故の予測結果に基づいて出力を行う処理を実行可能な機能を有する部分である。本実施形態の出力部45は、予測部44によって予測された予測結果データD5を、出力機器20を介して出力する処理を実行可能である。予測結果データD5は、出力機器20を構成するディスプレイを介して画像情報として出力されてもよいし、出力機器20を構成するスピーカを介して音情報として出力されてもよい。また、予測結果データD5は、出力機器20を構成するデータ出力機器を介して車両事故予測システム1外の他の機器に出力されてもよい。出力部45は、例えば、車両の走行にあわせてリアルタイムで予測結果データD5を出力してもよいし、入力機器10を構成する操作入力機器を介したユーザの操作に応じて適時のタイミングで予測結果データD5を出力してもよい。
 次に、図3のフローチャート図を参照して、車両事故予測システム1おける車両事故予測方法の処理手順について説明する。
 図3に示す車両事故予測システム1おける車両事故予測方法は、取得ステップ(ステップS1)、生成ステップ(ステップS2)、入力ステップ(ステップS3)、予測ステップ(ステップS4)、出力ステップ(ステップS5)を含む。ここでは、上記各ステップに関する処理は、車両事故予測システム1の処理回路40によって実行される。
 まず、処理回路40の前処理部41は、第1特徴量D11、第2特徴量D12、第3特徴量D13、及び、第4特徴量D14を含む特徴量群データD1と事故データD2とからなる学習用データセットD3を取得するステップ(ステップS1)を実行する。この場合、前処理部41は、入力機器10を介して車両事故予測システム1外の他の機器から学習用データセットD3を直接取得してもよいし、入力機器10を介して車両事故予測システム1外の他の機器から入力された生データD0に対して、様々な前処理を施すことで学習用データセットD3を作成、取得してもよい。前処理部41は、取得した複数の学習用データセットD3を記憶回路30に記憶させる。
 次に、処理回路40のモデル生成部42は、取得ステップ(ステップS1)で取得された複数の学習用データセットD3を用いて、学習済みモデルMを機械学習により生成する生成ステップ(ステップS2)を実行する。モデル生成部42は、生成した学習済みモデルMを記憶回路30に記憶させる。このとき、モデル生成部42は、以前に生成した学習済みモデルMが既に記憶回路30に記憶されていた場合には、記憶されている学習済みモデルMを新しく生成した学習済みモデルMで置き換える。
 次に、処理回路40の予測対象入力部43は、予測対象となる特徴量群データD1である予測対象データD4を処理回路40の予測部44に入力する入力ステップ(ステップS3)を実行する。この場合、予測対象入力部43は、入力機器10を介して車両事故予測システム1外の他の機器から受け付けた予測対象データD4を入力してもよいし、入力機器10を介してユーザの操作によって受け付けた予測対象データD4を入力してもよい。また、予測対象入力部43は、入力する予測対象データD4を一旦記憶回路30に記憶させるようにしてもよい。
 次に、処理回路40の予測部44は、生成ステップ(ステップS2)で生成された学習済みモデルMを用いて、入力ステップ(ステップS3)で入力された予測対象データD4(予測対象となる特徴量群データD1)から車両の事故を予測する予測ステップ(ステップS4)を実行する。この場合、予測部44は、学習済みモデルMに対して、予測対象データD4を入力し、これに応じて当該学習済みモデルMから車両の事故の予測を定量化した値を出力させる。これにより、予測部44は、当該予測対象データD4によって規定される車両の走行状態の際の当該車両の事故を予測する。予測部44は、出力された車両の事故の予測を定量化した値を、予測結果データD5として記憶回路30に記憶させる。
 次に、処理回路40の出力部45は、予測ステップ(ステップS4)で予測された車両の事故の予測結果データD5を出力する出力ステップ(ステップS5)を実行し、本フローチャートによる処理を終了する。この場合、出力部45は、予測結果データD5を、出力機器20を介して画像情報や音情報として出力してもよいし、出力機器20を介して車両事故予測システム1外の他の機器に出力してもよい。
 上述した車両事故予測方法は、予め用意された車両事故予測プログラムをパーソナルコンピュータやワークステーション等のコンピュータで実行することによって実現することができる。この車両事故予測プログラムは、上述した取得ステップ(ステップS1)、生成ステップ(ステップS2)、入力ステップ(ステップS3)、予測ステップ(ステップS4)、出力ステップ(ステップS5)の各処理をコンピュータに実行させる。
 以上で説明した車両事故予測システム1、車両事故予測方法、車両事故予測プログラムは、車両の状態を表す第2特徴量D12だけでなく、車両のドライバの属性を表す第1特徴量D11や複数の第2特徴量D12を組み合わせた第3特徴量D13等によって、入力する特徴量自体の高度化を図った上で、予測精度の高い学習済みモデルMを生成し、車両の事故予測を行うことができる。この結果、車両事故予測システム1、車両事故予測方法、車両事故予測プログラムは、適正に事故予測を行うことができる。これにより、車両事故予測システム1、車両事故予測方法、車両事故予測プログラムは、例えば、事故リスクをより精緻に予測することができる。
 ここでは、以上で説明した車両事故予測システム1、車両事故予測方法、車両事故予測プログラムは、第1特徴量D11、第2特徴量D12、第3特徴量D13に加えて、さらに車両の運転シーンを表す第4特徴量D14も踏まえて、学習済みモデルMを生成し、車両の事故予測を行うことができるので、運転シーンに応じたより高次な事故予測を行うことができる。
 そして、車両事故予測システム1、車両事故予測方法、車両事故予測プログラムは、上記のようにして得られるより精度の高い事故予測の結果を、例えば、事業者やドライバに対して、リアルタイムでの運転警告、運転技術・運転癖・事故リスクの評価、改善点の可視化、事故リスク抑制行動の指導・教育、安全な運行計画の作成等の様々な目的で供することができる。また、車両事故予測システム1、車両事故予測方法、車両事故予測プログラムは、例えば、事故予測の結果を、1回の運行単位、ドライバ単位、車両単位、事業者単位で出力することもできる。
 なお、以上で説明した実施形態では、車両事故予測システム1として、1つのシステムで学習フェーズと使用フェーズとの双方を行う場合の例を説明したが、実施形態はこれに限られない。
 例えば、図4に例示する変形例に係る車両事故予測システム1Aは、学習フェーズにおける各処理を実行する学習済みモデル生成システム100と、使用フェーズにおける各処理を実行する車両事故予測装置200とに分かれて構成される点で上述した車両事故予測システム1と異なる。
 学習済みモデル生成システム100は、入力機器110と、出力機器120と、記憶回路130と、処理回路140とを備え、学習用データセットD3を用いた機械学習によって学習済みモデルMを生成する処理を行う。処理回路140は、上記各種処理機能を実現するために、機能概念的に、前処理部141、及び、モデル生成部142を含んで構成される。
 前処理部141は、上述した前処理部41と同様に、第1特徴量D11、第2特徴量D12、第3特徴量D13、及び、第4特徴量D14を含む特徴量群データD1と事故データD2とからなる学習用データセットD3を取得する処理を実行可能である。前処理部141は、取得した複数の学習用データセットD3を記憶回路130に記憶させる。
 モデル生成部142は、上述したモデル生成部42と同様に、前処理部141によって取得された複数の学習用データセットD3を用いて、学習済みモデルMを機械学習により生成する処理を実行可能である。モデル生成部142は、生成した学習済みモデルMを記憶回路130に記憶させる。
 車両事故予測装置200は、入力機器210と、出力機器220と、記憶回路230と、処理回路240とを備え、学習済みモデルMを用いて車両の事故を予測する処理を行う。処理回路240は、上記各種処理機能を実現するために、機能概念的に、予測対象入力部243、予測部244、及び、出力部245を含んで構成される。
 予測対象入力部243は、上述した予測対象入力部43と同様に、予測対象となる特徴量群データD1である予測対象データD4を入力する処理を実行可能である。
 予測部244は、上述した予測部44と同様に、学習済みモデルMを用いて、予測対象入力部243によって入力された予測対象データD4から車両の事故を予測する処理を実行可能である。この場合、予測部244は、例えば、学習済みモデル生成システム100の出力機器120、及び、車両事故予測装置200の入力機器210を介して予め記憶回路230に記憶させた学習済みモデルMを用いることができる。この学習済みモデルMは、上述のように学習済みモデル生成システム100によって生成されたモデルである。
 出力部245は、上述した出力部45と同様に、予測部44によって予測された予測結果データD5を出力機器220を介して出力する処理を実行可能である。
 入力機器110、210、出力機器120、220、記憶回路130、230、処理回路140、240のその他の構成は、上述の入力機器10、出力機器20、記憶回路30、処理回路40と略同様の構成である。
 この場合であっても、車両事故予測システム1A、学習済みモデル生成システム100、車両事故予測装置200は、上述した車両事故予測システム1と同様に、適正に事故予測を行うことができ、例えば、事故リスクをより精緻に予測することができる。
 なお、この変形例の場合、車両事故予測装置200で用いる学習済みモデルMは、上述のように学習済みモデル生成システム100によって生成されたモデルに限らず、他のシステムで生成された学習済みモデルMであってもよい。
 なお、上述した本発明の実施形態に係る車両事故予測システム、車両事故予測方法、車両事故予測プログラム、及び、学習済みモデル生成システムは、上述した実施形態に限定されず、請求の範囲に記載された範囲で種々の変更が可能である。
 以上の説明では、特徴量群データD1は、第1特徴量D11、第2特徴量D12、第3特徴量D13、第4特徴量D14を含むデータであるものとして説明したがこれに限らない。例えば、特徴量群データD1は、第1特徴量D11、及び、第2特徴量D12を含み第3特徴量D13、第4特徴量D14を含まなくてもよいし、第1特徴量D11、及び、第3特徴量D13を含み第2特徴量D12、第4特徴量D14を含まなくてもよいし、第1特徴量D11、及び、第4特徴量D14を含み第2特徴量D12、第3特徴量D13を含まなくてもよいし、これら以外の組み合わせであってもよい。
 以上で説明した処理回路40は、単一のプロセッサによって各処理機能が実現されるものとして説明したがこれに限らない。処理回路40は、複数の独立したプロセッサを組み合わせて各プロセッサがプログラムを実行することにより各処理機能が実現されてもよい。また、処理回路40が有する処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。また、処理回路40が有する処理機能は、その全部又は任意の一部をプログラムにて実現してもよく、また、ワイヤードロジック等によるハードウェアとして実現してもよい。
 以上で説明したプロセッサによって実行されるプログラムは、記憶回路30等に予め組み込まれて提供される。なお、このプログラムは、これらの装置にインストール可能な形式又は実行可能な形式のファイルで、コンピュータで読み取り可能な記憶媒体に記録されて提供されてもよい。また、このプログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納され、ネットワーク経由でダウンロードされることにより提供又は配布されてもよい。
 本実施形態に係る車両事故予測システム、車両事故予測方法、車両事故予測プログラム、及び、学習済みモデル生成システムは、以上で説明した実施形態、変形例の構成要素を適宜組み合わせることで構成してもよい。
1、1A 車両事故予測システム
10、110、210 入力機器
20、120、220 出力機器
30、130、230 記憶回路
40、140、240 処理回路
41、141 前処理部
42、142 モデル生成部
43、243 予測対象入力部
44、244 予測部
45、245 出力部
100 学習済みモデル生成システム
200 車両事故予測装置
AL 機械学習アルゴリズム
D0 生データ
D1 特徴量群データ
D11 第1特徴量
D12 第2特徴量
D13 第3特徴量
D14 第4特徴量
D2 事故データ
D3 学習用データセット
D4 予測対象データ
D5 予測結果データ
M 学習済みモデル

Claims (5)

  1.  車両のドライバの属性を表す第1特徴量、前記車両の状態を表す第2特徴量、及び、複数の前記第2特徴量を組み合わせた第3特徴量を含む特徴量群データと前記車両の事故に関する事故データとからなる学習用データセットを取得する前処理部と、
     前記前処理部によって取得された複数の前記学習用データセットを用いて、前記特徴量群データから前記車両の事故を予測する学習済みモデルを学習により生成するモデル生成部と、
     予測対象となる前記特徴量群データを入力する予測対象入力部と、
     前記モデル生成部によって生成された前記学習済みモデルを用いて、前記予測対象入力部によって入力された前記特徴量群データから前記車両の事故を予測する予測部とを備えることを特徴とする、
     車両事故予測システム。
  2.  前記特徴量群データは、前記車両の運転シーンを表す第4特徴量を含む、
     請求項1に記載の車両事故予測システム。
  3.  車両のドライバの属性を表す第1特徴量、前記車両の状態を表す第2特徴量、及び、複数の前記第2特徴量を組み合わせた第3特徴量を含む特徴量群データと前記車両の事故に関する事故データとからなる学習用データセットを取得するステップと、
     取得された複数の前記学習用データセットを用いて、前記特徴量群データから前記車両の事故を予測する学習済みモデルを学習により生成するステップと、
     予測対象となる前記特徴量群データを入力するステップと、
     生成された前記学習済みモデルを用いて、入力された前記特徴量群データから前記車両の事故を予測するステップとを含むことを特徴とする、
     車両事故予測方法。
  4.  車両のドライバの属性を表す第1特徴量、前記車両の状態を表す第2特徴量、及び、複数の前記第2特徴量を組み合わせた第3特徴量を含む特徴量群データと前記車両の事故に関する事故データとからなる学習用データセットを取得し、
     取得された複数の前記学習用データセットを用いて、前記特徴量群データから前記車両の事故を予測する学習済みモデルを学習により生成し、
     予測対象となる前記特徴量群データを入力し、
     生成された前記学習済みモデルを用いて、入力された前記特徴量群データから前記車両の事故を予測する、
     各処理をコンピュータに実行させることを特徴とする、
     車両事故予測プログラム。
  5.  車両のドライバの属性を表す第1特徴量、前記車両の状態を表す第2特徴量、及び、複数の前記第2特徴量を組み合わせた第3特徴量を含む特徴量群データと前記車両の事故に関する事故データとからなる学習用データセットを取得する前処理部と、
     前記前処理部によって取得された複数の前記学習用データセットを用いて、前記特徴量群データから前記車両の事故を予測する学習済みモデルを学習により生成するモデル生成部とを備えることを特徴とする、
     学習済みモデル生成システム。
PCT/JP2021/028315 2020-07-31 2021-07-30 車両事故予測システム、車両事故予測方法、車両事故予測プログラム、及び、学習済みモデル生成システム WO2022025244A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202180058733.9A CN116057595A (zh) 2020-07-31 2021-07-30 车辆事故预测系统、车辆事故预测方法、车辆事故预测程序以及已学习模型生成系统
US18/161,327 US20230177959A1 (en) 2020-07-31 2023-01-30 Vehicle accident prediction system, vehicle accident prediction method, vehicle accident prediction program, and learned model creation system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020129797A JP7281436B2 (ja) 2020-07-31 2020-07-31 車両事故予測システム、車両事故予測プログラム、及び、学習済みモデル生成システム
JP2020-129797 2020-07-31

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/161,327 Continuation US20230177959A1 (en) 2020-07-31 2023-01-30 Vehicle accident prediction system, vehicle accident prediction method, vehicle accident prediction program, and learned model creation system

Publications (1)

Publication Number Publication Date
WO2022025244A1 true WO2022025244A1 (ja) 2022-02-03

Family

ID=80035855

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/028315 WO2022025244A1 (ja) 2020-07-31 2021-07-30 車両事故予測システム、車両事故予測方法、車両事故予測プログラム、及び、学習済みモデル生成システム

Country Status (4)

Country Link
US (1) US20230177959A1 (ja)
JP (1) JP7281436B2 (ja)
CN (1) CN116057595A (ja)
WO (1) WO2022025244A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116343484A (zh) * 2023-05-12 2023-06-27 天津所托瑞安汽车科技有限公司 交通事故识别方法、终端及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010152497A (ja) * 2008-12-24 2010-07-08 Toyota Motor Corp 運転特性取得装置及び交通シミュレーションシステム
JP2012128655A (ja) * 2010-12-15 2012-07-05 Toyota Motor Corp 運転支援装置
JP2018120291A (ja) * 2017-01-23 2018-08-02 パナソニックIpマネジメント株式会社 イベント予測システム、イベント予測方法、プログラム、及び移動体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010152497A (ja) * 2008-12-24 2010-07-08 Toyota Motor Corp 運転特性取得装置及び交通シミュレーションシステム
JP2012128655A (ja) * 2010-12-15 2012-07-05 Toyota Motor Corp 運転支援装置
JP2018120291A (ja) * 2017-01-23 2018-08-02 パナソニックIpマネジメント株式会社 イベント予測システム、イベント予測方法、プログラム、及び移動体

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116343484A (zh) * 2023-05-12 2023-06-27 天津所托瑞安汽车科技有限公司 交通事故识别方法、终端及存储介质
CN116343484B (zh) * 2023-05-12 2023-10-03 天津所托瑞安汽车科技有限公司 交通事故识别方法、终端及存储介质

Also Published As

Publication number Publication date
US20230177959A1 (en) 2023-06-08
JP2022026378A (ja) 2022-02-10
JP7281436B2 (ja) 2023-05-25
CN116057595A (zh) 2023-05-02

Similar Documents

Publication Publication Date Title
US10993647B2 (en) Drowsiness detection for vehicle control
Liu et al. A cellular automata traffic flow model combined with a BP neural network based microscopic lane changing decision model
Castignani et al. Driver behavior profiling using smartphones: A low-cost platform for driver monitoring
JP7228151B2 (ja) 渋滞予測システム、渋滞予測方法、学習装置、予測装置、プログラム、および学習済みモデル
JP7003953B2 (ja) 学習装置、推定装置、データ生成装置、学習方法、及び学習プログラム
US20140380264A1 (en) Computer Platform for Development and Deployment of Sensor-Driven Vehicle Telemetry Applications and Services
Tselentis et al. Driving safety efficiency benchmarking using smartphone data
US20180268305A1 (en) Retrospective event verification using cognitive reasoning and analysis
Warren et al. Clusters of driving behavior from observational smartphone data
US11106969B2 (en) Method and apparatus for driver identification leveraging telematics data
JP2015125775A (ja) システムでの需要の予測のためのマルチタスク学習システムおよび方法
EP3211540A1 (en) Information presentation device, method, and computer program product
Talal et al. Review on car-following sensor based and data-generation mapping for safety and traffic management and road map toward ITS
Balsa-Barreiro et al. Extraction of naturalistic driving patterns with geographic information systems
Taylor et al. Data mining for vehicle telemetry
WO2022025244A1 (ja) 車両事故予測システム、車両事故予測方法、車両事故予測プログラム、及び、学習済みモデル生成システム
US20210271876A1 (en) Determining traffic control features based on telemetry patterns within digital image representations of vehicle telemetry data
Zarei Yazd et al. A robust machine learning structure for driving events recognition using smartphone motion sensors
AlRajie Investigation of using microscopic traffic simulation tools to predict traffic conflicts between right-turning vehicles and through cyclists at signalized intersections
Shaikh et al. Identifying Driver Behaviour Through Obd-Ii Using Android Application
Liu et al. 1 MobileUTDrive: A portable device platform for in-vehicle driving data collection
US11145196B2 (en) Cognitive-based traffic incident snapshot triggering
Marks et al. Identifying and labeling potentially risky driving: A multistage process using real-world driving data
Abdelrahman et al. A robust environment-aware driver profiling framework using ensemble supervised learning
Milardo et al. An unsupervised approach for driving behavior analysis of professional truck drivers

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21851034

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21851034

Country of ref document: EP

Kind code of ref document: A1