WO2024095331A1 - 運転技能評価方法、運転技能評価システム、および記録媒体 - Google Patents
運転技能評価方法、運転技能評価システム、および記録媒体 Download PDFInfo
- Publication number
- WO2024095331A1 WO2024095331A1 PCT/JP2022/040769 JP2022040769W WO2024095331A1 WO 2024095331 A1 WO2024095331 A1 WO 2024095331A1 JP 2022040769 W JP2022040769 W JP 2022040769W WO 2024095331 A1 WO2024095331 A1 WO 2024095331A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- data
- image
- time series
- vehicle
- density estimation
- Prior art date
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 181
- 230000036461 convulsion Effects 0.000 claims abstract description 43
- 230000008859 change Effects 0.000 claims abstract description 19
- 230000001133 acceleration Effects 0.000 claims description 131
- 238000012545 processing Methods 0.000 description 126
- 238000001514 detection method Methods 0.000 description 66
- 238000000034 method Methods 0.000 description 63
- 230000008569 process Effects 0.000 description 58
- 239000008186 active pharmaceutical agent Substances 0.000 description 38
- 230000010365 information processing Effects 0.000 description 36
- 238000004364 calculation method Methods 0.000 description 28
- 238000004891 communication Methods 0.000 description 24
- 230000015654 memory Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 20
- 238000001914 filtration Methods 0.000 description 11
- 238000013075 data extraction Methods 0.000 description 8
- 230000009466 transformation Effects 0.000 description 8
- 230000004048 modification Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 239000004065 semiconductor Substances 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000005401 electroluminescence Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000005358 geomagnetic field Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W40/09—Driving style or behaviour
Definitions
- This disclosure relates to a driving skill evaluation method and driving skill evaluation system for evaluating a driver's driving skills, as well as a recording medium on which software for evaluating a driver's driving skills is recorded.
- Patent Document 1 discloses a technology that evaluates the driving skills of a driver based on the longitudinal acceleration and lateral acceleration when the vehicle turns.
- a driving skill evaluation method includes generating a kernel density estimation image based on time series data of a first parameter corresponding to a directional change in the vehicle's traveling direction and time series data of a second parameter indicating the square of the jerk in the vehicle's traveling direction, and evaluating the driving skill of a driver of the vehicle by comparing the kernel density estimation image with a reference image.
- the driving skill evaluation system includes an image generation circuit and an evaluation circuit.
- the image generation circuit generates a kernel density estimation image based on time series data of a first parameter corresponding to a directional change in the vehicle's traveling direction and time series data of a second parameter indicating the square of the jerk in the vehicle's traveling direction.
- the evaluation circuit evaluates the driving skill of the vehicle driver by comparing the kernel density estimation image with a reference image.
- a recording medium has recorded thereon software that causes a processor to generate a kernel density estimation image based on time series data of a first parameter corresponding to a directional change in the vehicle's traveling direction and time series data of a second parameter indicating the square of the jerk in the vehicle's traveling direction, and to evaluate the driving skill of the vehicle's driver by comparing the kernel density estimation image with a reference image.
- FIG. 1 is an explanatory diagram illustrating an example of the configuration of a driving skill evaluation system in which a driving skill evaluation method according to an embodiment of the present disclosure is used;
- FIG. 2 is a block diagram illustrating a configuration example of the smartphone illustrated in FIG. 1 .
- 2 is a block diagram illustrating an example of a configuration of a server device 30 illustrated in FIG. 1.
- 4 is an explanatory diagram illustrating data stored in a storage unit 32 shown in FIG. 3.
- 5 is an explanatory diagram illustrating an example of yaw angular velocity data and curve data illustrated in FIG. 4 .
- 5 is an image diagram showing an example of a kernel density estimation image indicated by the image data shown in FIG. 4.
- FIG. 7 is an explanatory diagram illustrating an example of parameters in the kernel density estimation image shown in FIG.
- FIG. 2 is an explanatory diagram illustrating a configuration example of the data processing system illustrated in FIG. 1 .
- 9 is a block diagram illustrating an example of a configuration of the in-vehicle device illustrated in FIG. 8 .
- 9 is a block diagram illustrating an example of a configuration of the information processing device illustrated in FIG. 8.
- 9 is a flowchart illustrating an example of an operation of the information processing device illustrated in FIG. 8 .
- 10 is another flowchart illustrating an example of an operation of the information processing device illustrated in FIG. 8 .
- 10 is another flowchart illustrating an example of an operation of the information processing device illustrated in FIG. 8 .
- 10 is another flowchart illustrating an example of an operation of the information processing device illustrated in FIG. 8 .
- 10 is another flowchart illustrating an example of an operation of the information processing device illustrated in FIG. 8 .
- FIG. 8 is another flowchart illustrating an example of an operation of the information processing device illustrated in FIG. 8 .
- FIG. 15 is an explanatory diagram illustrating an example of a process for generating the preprocessed image shown in FIG. 14 .
- 10 is another flowchart illustrating an example of an operation of the information processing device illustrated in FIG. 8 .
- FIG. 9 is an explanatory diagram illustrating an operation example of the information processing device illustrated in FIG. 8 .
- 10 is another flowchart illustrating an example of an operation of the information processing device illustrated in FIG. 8 .
- 2 is a flowchart illustrating an example of an operation of the server device illustrated in FIG. 1 .
- 10 is another flowchart illustrating an example of an operation of the server device illustrated in FIG. 1 .
- FIG. 4 is an explanatory diagram illustrating an example of time-series data of longitudinal acceleration.
- FIG. 4 is an explanatory diagram illustrating an example of time-series data of longitudinal acceleration.
- FIG. 13 is an explanatory diagram illustrating an example of parameters in a kernel density estimation image according to a modified example.
- FIG. 13 is an explanatory diagram illustrating an example of parameters in a kernel density estimation image according to another modified example.
- FIG. 13 is an explanatory diagram illustrating an example of parameters in a kernel density estimation image according to another modified example.
- FIG. 13 is an explanatory diagram illustrating an example of parameters in a kernel density estimation image according to another modified example.
- FIG. 13 is an image diagram illustrating an example of a kernel density estimation image according to another modified example.
- FIG. 26 is an explanatory diagram illustrating an example of parameters in the kernel density estimation image shown in FIG. 25 .
- FIG. 13 is a block diagram illustrating a configuration example of a smartphone according to another modified example.
- FIG. 1 shows an example of the configuration of a driving skill evaluation system 1 in which a driving skill evaluation method according to an embodiment is used.
- the driving skill evaluation system 1 includes a smartphone 10, a server device 30, and a data processing system 2.
- Smartphone 10 is a high-function mobile phone, and is fixedly installed inside vehicle 9 in a predetermined orientation relative to vehicle 9. Smartphone 10 collects driving data of vehicle 9. Smartphone 10 is connected to the Internet (not shown) by communicating with a mobile phone base station (not shown), for example, via mobile phone communication.
- the server device 30 is an information processing device.
- the server device 30 evaluates the driving skills of the driver of the vehicle 9 based on the driving data of the vehicle 9.
- the server device 30 is connected to the Internet (not shown).
- the server device 30 is capable of communicating with the smartphone 10 via the Internet.
- the data processing system 2 includes an information processing device and generates data to be used in the evaluation of driving skills.
- the data processing system 2 is connected to the Internet (not shown).
- the data processing system 2 is capable of communicating with the server device 30 via the Internet.
- the driver to be evaluated drives the vehicle 9 in an evaluation area with many curves, including mountain roads, and the smartphone 10 collects driving data of the vehicle 9 and transmits the driving data to the server device 30.
- This driving data includes information on the acceleration in the traveling direction of the vehicle 9 (longitudinal acceleration), information on the yaw angular velocity of the vehicle 9, and information on the position of the vehicle 9.
- the server device 30 detects multiple curves on the driving route on which the vehicle 9 has traveled based on the time series data of the yaw angular velocity of the vehicle 9.
- the server device 30 then generates a kernel density estimation image for each of the multiple curves based on the time series data of the longitudinal acceleration and the time series data of the yaw angular velocity.
- the server device 30 evaluates the driving skill of the driver by comparing the kernel density estimation image generated by the server device 30 with the kernel density estimation image of an experienced driver generated by the data processing system 2 and registered in advance in the server device 30 for each of the multiple curves.
- the smartphone 10 then presents the evaluation result of the driving skill to the driver. This allows the driver to obtain an objective evaluation of their driving skills using the driving skill evaluation system 1.
- FIG. 2 shows an example configuration of a smartphone 10.
- the smartphone 10 has a touch panel 11, a memory unit 12, a communication unit 13, an acceleration sensor 14, an angular velocity sensor 15, a GNSS (Global Navigation Satellite System) receiver 16, and a processing unit 20.
- GNSS Global Navigation Satellite System
- the touch panel 11 is a user interface and includes, for example, a touch sensor and a display device such as a liquid crystal display or an organic EL (Electro Luminescence) display.
- the touch panel 11 accepts operations by the user of the smartphone 10 and displays the processing results of the smartphone 10.
- the storage unit 12 is a non-volatile memory and is configured to store program data for various application software.
- application software related to the driving skill evaluation system 1 is installed on the smartphone 10.
- the program data for this application software is stored in the storage unit 12.
- the communication unit 13 is configured to communicate with a mobile phone base station by performing mobile phone communication. As a result, the communication unit 13 communicates with a server device 30 connected to the Internet via the mobile phone base station.
- the acceleration sensor 14 is configured to detect acceleration in three directions in the coordinate system of the smartphone 10.
- the angular velocity sensor 15 is configured to detect three angular velocities (yaw angular velocity, roll angular velocity, and pitch angular velocity) in the coordinate system of the smartphone 10.
- the GNSS receiver 16 is configured to acquire the position of the vehicle 9 on the ground using a GNSS such as the Global Positioning System (GPS).
- GPS Global Positioning System
- the processing unit 20 is configured to control the operation of the smartphone 10, and is configured using, for example, one or more processors, one or more memories, etc.
- the processing unit 20 collects time series data of acceleration detected by the acceleration sensor 14, time series data of angular velocity detected by the angular velocity sensor 15, and time series data of the position of the vehicle 9 obtained by the GNSS receiver 16.
- the processing unit 20 can operate as a data processing unit 21 and a display processing unit 22 by executing application software related to the driving skill evaluation system 1 installed in the smartphone 10.
- the data processing unit 21 is configured to perform a predetermined data processing based on the detection results of the acceleration sensor 14 and the angular velocity sensor 15.
- the predetermined data processing includes, for example, filtering the time series data of acceleration detected by the acceleration sensor 14 and filtering the time series data of angular velocity detected by the angular velocity sensor 15.
- the filtering is processing using a low-pass filter.
- the communication unit 13 transmits the time series data of acceleration and the time series data of angular velocity processed by the data processing unit 21 to the server device 30 together with the time series data of the position of the vehicle 9 obtained by the GNSS receiver 16.
- the display processing unit 22 is configured to perform display processing based on the data indicating the evaluation results of the driving skills transmitted from the server device 30.
- the touch panel 11 is configured to display the evaluation results of the driving skills.
- FIG. 3 shows an example of the configuration of the server device 30.
- the server device 30 has a communication unit 31, a storage unit 32, and a processing unit 40.
- the communication unit 31 is configured to communicate with the smartphone 10 via the Internet by performing network communication.
- the memory unit 32 includes, for example, a hard disk drive (HDD) or a solid state drive (SSD), and is configured to store program data for various software.
- HDD hard disk drive
- SSD solid state drive
- server software related to the driving skill evaluation system 1 is installed in the server device 30.
- the program data for this software is stored in the memory unit 32.
- the memory unit 32 also stores various data used by this software.
- FIG. 4 shows an example of data stored in the storage unit 32 and used by the server software.
- the storage unit 32 stores area data DAR, multiple data sets DS (data set DSA and multiple data sets DSB), and evaluation target curve data DTC. These data are generated by the data processing system 2 and stored in the storage unit 32.
- the area data DAR is data that indicates the evaluation area in which driving skills are evaluated.
- the evaluation area can be set to an area with many curves, such as an area that includes mountain roads.
- This area data DAR includes, for example, data on the latitude and longitude of the evaluation area.
- Each of the multiple data sets DS is data corresponding to driving data obtained by an experienced driver driving a vehicle in an area indicated by the area data DAR.
- the multiple data sets DS may include data corresponding to multiple pieces of driving data related to different experienced drivers, or may include data corresponding to multiple pieces of driving data related to a single experienced driver.
- Each of the multiple data sets DS includes acceleration data DA, yaw angular velocity data DY, curve data DC, and multiple image data DP.
- the acceleration data DA is time-series data of the acceleration in the direction of travel (longitudinal acceleration) of a vehicle driven by an experienced driver.
- the yaw angular velocity data DY is time series data of the yaw angular velocity of a vehicle driven by an experienced driver.
- the curve data DC includes curve numbers for multiple curves on the road.
- the curve data DC is generated based on the yaw angular velocity data DY.
- the curve numbers for multiple curves are set in correspondence with the time series data of the yaw angular velocity in the yaw angular velocity data DY.
- FIG. 5 shows an example of yaw angular velocity data DY and curve data DC.
- the yaw angular velocity changes according to the curve of the road.
- the curve data DC includes curve numbers ("1" to "9” in FIG. 5) set based on the time series data of the yaw angular velocity.
- the curve numbers of multiple curves are set in correspondence with the time series data of the yaw angular velocity in the yaw angular velocity data DY.
- the multiple image data DP are image data of kernel density estimation images for multiple curves.
- FIG. 6 shows an example of a kernel density estimation image for a curve.
- FIG. 7 shows the coordinate axes of the kernel density estimation image shown in FIG. 6.
- the horizontal axis (X-axis) of this kernel density estimation image indicates time, and the vertical axis (Y-axis) indicates the square of the yaw angular acceleration.
- the yaw angular acceleration is the time derivative of the yaw angular velocity.
- the pixel value (Z-axis) of the kernel density estimation image indicates the square of the longitudinal jerk.
- the longitudinal jerk is the time derivative of the longitudinal acceleration.
- a darker image portion indicates a larger value of the square of the longitudinal jerk
- a lighter image portion indicates a smaller value of the square of the longitudinal jerk.
- This kernel density estimation image can change depending on the driving skill of the driver.
- a plurality of kernel density estimation images corresponding to a plurality of curves are stored as a plurality of image data DP.
- the data set DSA and each of the multiple data sets DSB thus contain acceleration data DA, yaw angular velocity data DY, curve data DC, and multiple image data DP.
- the data processing system 2 adjusts the curve numbers of the curve data DC in each of the multiple data sets DSB based on the curve data DC in the data set DSA. That is, since the curve numbers are generated based on the yaw angular velocity data DY, it is possible that a different curve number will be assigned to a certain curve depending on the yaw angular velocity data DY.
- the data processing system 2 uses the data set DSA as sample data, and adjusts the curve numbers of the curve data DC in each of the multiple data sets DSB based on the curve data DC in the data set DSA. As a result, the curve numbers of the same curves in the curve data DC of the multiple data sets DSB are adjusted to be the same.
- the evaluation target curve data DTC is data indicating the curve numbers of the multiple curves that are the evaluation targets for the driving skill evaluation among the multiple curves in the area indicated by the area data DAR.
- the memory unit 32 stores multiple data sets DS, evaluation target curve data DTC, and area data DAR for each of the multiple areas.
- the processing unit 40 (FIG. 3) is configured to control the operation of the server device 30, and is configured using, for example, one or more processors, one or more memories, etc.
- the processing unit 40 can operate as a data processing unit 41, a curve detection unit 42, a data extraction unit 43, an image generation unit 44, an image similarity calculation unit 45, and a skill judgment unit 46 by executing server software related to the driving skill evaluation system 1 installed in the server device 30.
- the data processing unit 41 is configured to generate acceleration data DA1 and yaw angular velocity data DY1 by performing a predetermined data processing based on the time series data of acceleration, time series data of angular velocity, and time series data of the position of the vehicle 9 received by the communication unit 31.
- the predetermined data processing includes, for example, a process of checking whether the vehicle 9 is traveling in the evaluation target area based on the time series data of the position of the vehicle 9, a process of generating time series data of acceleration in the traveling direction of the vehicle 9 (longitudinal acceleration) by performing coordinate transformation based on the time series data of acceleration obtained by the smartphone 10, a process of generating time series data of the yaw angular velocity of the vehicle 9 by performing coordinate transformation based on the time series data of angular velocity obtained by the smartphone 10, a filter process for the time series data of the longitudinal acceleration, and a filter process for the time series data of the yaw angular velocity.
- the filter process is a process using a low-pass filter.
- the curve detection unit 42 is configured to generate curve data DC1 by detecting multiple curves based on the yaw angular velocity data DY1 generated by the data processing unit 41.
- the data extraction unit 43 is configured to extract time series data of longitudinal acceleration included in the acceleration data DA1, which is related to multiple curves that are the subject of the driving skill evaluation, based on the evaluation target curve data DTC stored in the memory unit 32, and to extract time series data of yaw angular velocity included in the yaw angular velocity data DY1, which is related to multiple curves that are the subject of the driving skill evaluation.
- the image generation unit 44 is configured to generate a plurality of kernel density estimation images for the plurality of curves based on the time series data of longitudinal acceleration and the time series data of yaw angular velocity for the plurality of curves extracted by the data extraction unit 43, thereby generating a plurality of image data DP1. Specifically, the image generation unit 44 performs kernel density estimation processing based on the time series data of longitudinal acceleration and the time series data of yaw angular velocity for one curve, thereby generating a kernel density estimation image of that curve. In the kernel density estimation processing, original data including data that has not yet been observed is estimated as density data based on actual measurement data.
- the image generation unit 44 performs this processing for each of the plurality of curves, thereby generating a plurality of kernel density estimation images. In this manner, the image generation unit 44 is configured to generate a plurality of image data DP1 for the plurality of curves.
- the image similarity calculation unit 45 is configured to calculate an average value of image similarities (average similarity) based on the multiple kernel density estimation images generated by the image generation unit 44 and the multiple kernel density estimation images included in the multiple data sets DS stored in the storage unit 32. Specifically, the image similarity calculation unit 45 calculates image similarities for each curve by comparing the kernel density estimation image generated by the image generation unit 44 with the multiple kernel density estimation images included in the multiple data sets DS. The image similarity calculation unit 45 calculates multiple image similarities by performing this process for each of the multiple curves. The image similarity calculation unit 45 then calculates an average value (average similarity) of these multiple image similarities.
- the skill assessment unit 46 is configured to assess the driving skill of the driver of the vehicle 9 based on the average similarity calculated by the image similarity calculation unit 45.
- the communication unit 31 is configured to transmit data indicating the evaluation result of the driving skill generated by the skill assessment unit 46 to the smartphone 10.
- the multiple data sets DS, evaluation target curve data DTC, and area data DAR stored in the storage unit 32 are generated by the data processing system 2. This data processing system 2 will be described below.
- FIG. 8 shows an example of the configuration of the data processing system 2.
- the data processing system 2 includes an in-vehicle device 110 and an information processing device 130.
- the in-vehicle device 110 is a device installed in a vehicle 109 driven by an experienced driver.
- the information processing device 130 is a so-called personal computer.
- FIG. 9 shows an example of the configuration of the in-vehicle device 110.
- the in-vehicle device 110 has an acceleration sensor 114, a yaw angular velocity sensor 115, a GNSS receiver 116, and a processing unit 120.
- the acceleration sensor 114 is configured to detect the acceleration in the direction of travel of the vehicle 109 (longitudinal acceleration).
- the yaw angular velocity sensor 115 is configured to detect the yaw angular velocity of the vehicle 109.
- the GNSS receiver 116 is configured to obtain the position of the vehicle 109 on the ground using a GNSS such as GPS.
- the processing unit 120 is a so-called ECU (Electronic Control Unit) and is configured using, for example, one or more processors and one or more memories.
- the processing unit 120 collects time series data of longitudinal acceleration detected by the acceleration sensor 114, time series data of yaw angular velocity detected by the yaw angular velocity sensor 115, and time series data of the position of the vehicle 109 obtained by the GNSS receiver 116.
- the engineer stores the time series data collected by the processing unit 120 in an external recording medium such as a semiconductor memory.
- FIG. 10 shows an example of the configuration of the information processing device 130.
- the information processing device 130 reads data recorded on an external recording medium based on the engineer's operation, and generates multiple data sets DS, evaluation target curve data DTC, and area data DAR to be stored in the storage unit 32 of the server device 30 based on the read data.
- the information processing device 130 includes a user interface unit 131, a storage unit 132, a communication unit 133, and a processing unit 140.
- the user interface unit 131 includes, for example, a keyboard, a mouse, and a display unit such as a liquid crystal display or an organic EL display.
- the user interface unit 131 accepts operations by a user of the information processing device 130 (an engineer in this example), and displays the processing results of the information processing device 130.
- the storage unit 132 includes, for example, an HDD or SSD, and is configured to store program data for various software.
- software related to the data processing system 2 is installed in the information processing device 130.
- the program data for this software is stored in the storage unit 132.
- the communication unit 133 is configured to communicate with the server device 30 via the Internet by performing network communication.
- the processing unit 140 is configured to control the operation of the information processing device 130, and is configured using, for example, one or more processors, one or more memories, etc.
- the processing unit 140 can operate as a data processing unit 141, a curve detection unit 142, an image generation unit 144, an image similarity calculation unit 145, an evaluation target data generation unit 147, an area data generation unit 148, and a data registration unit 149 by executing software related to the data processing system 2 installed in the information processing device 130.
- the data processing unit 141 is configured to generate acceleration data DA and yaw angular velocity data DY by performing a predetermined data processing based on the time series data of longitudinal acceleration and the time series data of yaw angular velocity read from the external recording medium.
- the predetermined data processing includes, for example, filtering the time series data of longitudinal acceleration, filtering the time series data of yaw angular velocity, and processing for generating area data DAR based on the operation of an engineer.
- the filtering is processing using a low-pass filter.
- the curve detection unit 142 is configured to generate curve data DC by detecting multiple curves based on the yaw angular velocity data DY generated by the data processing unit 141.
- the processing of the curve detection unit 142 is similar to the processing of the curve detection unit 42 in the server device 30.
- the image generating unit 144 is configured to generate a plurality of image data DP by generating a plurality of kernel density estimation images for the plurality of curves based on the time series data of longitudinal acceleration and the time series data of yaw angular velocity for the plurality of curves.
- the processing of the image generating unit 144 is similar to the processing of the image generating unit 44 in the server device 30.
- the image similarity calculation unit 145 is configured to calculate the image similarity based on a plurality of kernel density estimated images.
- the image similarity calculation process in the image similarity calculation unit 145 is similar to the image similarity calculation process in the image similarity calculation unit 45 of the server device 30.
- the evaluation target data generation unit 147 is configured to generate evaluation target curve data DTC by determining multiple curves that are targets for evaluating driving skills based on the processing results of the image similarity calculation unit 145.
- the area data generation unit 148 is configured to generate area data DAR, which is data indicating the area to be evaluated, based on the engineer's operations.
- the data registration unit 149 is configured to store in the memory unit 132 a data set DS including acceleration data DA, yaw angular velocity data DY, curve data DC, and multiple image data DP, evaluation target curve data DTC, and area data DAR.
- the data processing system 2 generates multiple data sets DS, evaluation target curve data DTC, and area data DAR based on the driving data of the skilled driver.
- the data processing system 2 then transmits the multiple data sets DS, evaluation target curve data DTC, and area data DAR to the server device 30.
- the server device 30 then stores these data in the storage unit 32.
- the image generation unit 44 corresponds to a specific example of an "image generation circuit” in the present disclosure.
- the image similarity calculation unit 45 and the skill assessment unit 46 correspond to a specific example of an "evaluation circuit” in the present disclosure.
- the square of the yaw angular acceleration corresponds to a specific example of a "first parameter” in the present disclosure.
- the square of the forward/backward jerk corresponds to a specific example of a "second parameter” in the present disclosure.
- the kernel density estimation image indicated by the image data DP of the dataset DS stored in the memory unit 32 corresponds to a specific example of a "reference image” in the present disclosure.
- the driving skill evaluation system 1 generates multiple data sets DS, evaluation target curve data DTC, and area data DAR based on driving data when an experienced driver drives the vehicle 109.
- an experienced driver drives the vehicle 109 of the data processing system 2, and the processing unit 120 of the in-vehicle device 110 collects driving data of the vehicle 109.
- the engineer stores the driving data collected by the processing unit 120 in an external recording medium such as a semiconductor memory.
- the information processing device 130 generates acceleration data DA, yaw angular velocity data DY, curve data DC, and multiple image data DP based on this driving data, and stores a data set DS including these data in the storage unit 132.
- the information processing device 130 repeats this process to store multiple data sets DS in the storage unit 132.
- the information processing device 130 also generates evaluation target curve data DTC, which is data indicating multiple curves that are the subject of evaluation of driving skills, based on the multiple data sets DS, and generates area data DAR, which is data indicating the evaluation target area, based on the engineer's operation, and stores these data in the storage unit 132. Then, the information processing device 130 transmits the multiple data sets DS, the evaluation target curve data DTC, and the area data DAR to the server device 30.
- the server device 30 stores the multiple data sets DS, the evaluation target curve data DTC, and the area data DAR transmitted from the information processing device 130 in the storage unit 32.
- the driving skill evaluation system 1 evaluates the driving skill of a driver using the multiple data sets DS, evaluation target curve data DTC, and area data DAR generated in this manner by an experienced driver driving the vehicle 109.
- the smartphone 10 collects driving data of the vehicle 9 while the driver to be evaluated drives the vehicle 9.
- the smartphone 10 then transmits the collected driving data to the server device 30.
- the server device 30 generates acceleration data DA1, yaw angular velocity data DY1, curve data DC1, and multiple image data DP1 based on this driving data.
- the server device 30 calculates an average value (average similarity) of image similarities based on multiple kernel density estimation images indicated by the multiple image data DP1 and multiple kernel density estimation images indicated by multiple image data DP included in multiple data sets DS stored in the storage unit 32, and judges the driving skill of the driver of the vehicle 9 based on this average similarity.
- the server device 30 transmits data indicating the evaluation result of the driving skill to the smartphone 10.
- the smartphone 10 displays the judgment result of the driving skill transmitted from the server device 30.
- the data processing system 2 generates a plurality of data sets DS based on driving data obtained by an experienced driver driving the vehicle 109.
- the operation of generating the plurality of data sets DS will be described in detail below.
- the acceleration sensor 114 of the in-vehicle device 110 detects the acceleration in the traveling direction of the vehicle 109 (longitudinal acceleration), the yaw angular velocity sensor 115 detects the yaw angular velocity of the vehicle 109, and the GNSS receiver 116 acquires the position of the vehicle 109 on the ground.
- the processing unit 120 collects time series data of the longitudinal acceleration detected by the acceleration sensor 114, time series data of the yaw angular velocity detected by the yaw angular velocity sensor 115, and time series data of the position of the vehicle 109 obtained by the GNSS receiver 116.
- the engineer stores the time series data collected by the processing unit 120 in an external recording medium such as a semiconductor memory.
- the information processing device 130 generates a data set DS based on the time series data of the longitudinal acceleration, the time series data of the yaw angular velocity, and the time series data of the position of the vehicle 109 read from this external recording medium, and stores this data set DS in the storage unit 132. The operation of this information processing device 130 will be described in detail below.
- FIG. 11 shows an example of the operation of the information processing device 130 in the data processing system 2.
- the area data generation unit 148 has already generated the area data DAR based on the engineer's operation.
- the data processing unit 141 of the information processing device 130 uses the area data DAR stored in the storage unit 132 based on the time series data of the position of the vehicle 109 to check whether the vehicle 109 has traveled through the area to be evaluated (step S101). If the vehicle 109 has not traveled through the area to be evaluated ("N" in step S101), this process ends.
- step S101 If the vehicle 109 travels through the evaluation area ("Y" in step S101), the data processing unit 141 performs filter processing on the time series data of longitudinal acceleration and the time series data of yaw angular velocity in the evaluation area to generate acceleration data DA and yaw angular velocity data DY, respectively (step S102).
- the curve detection unit 142 generates curve data DC by performing a curve division process based on the yaw angular velocity data DY generated in step S102 (step S103).
- the curve division process includes the following two-stage process.
- FIG. 12 shows a specific example of the first stage of the curve division process.
- the curve detection unit 142 performs the process shown in FIG. 12 while sequentially reading the yaw angular velocities included in the yaw angular velocity data DY in chronological order.
- the curve detection unit 142 checks whether a yaw angular velocity equal to or greater than a predetermined value A (e.g., equal to or greater than 0.02 rad/sec.) continues for a period of equal to or greater than a predetermined time B (e.g., equal to or greater than 2 seconds) (step S201).
- a predetermined value A e.g., equal to or greater than 0.02 rad/sec.
- a predetermined time B e.g., equal to or greater than 2 seconds
- step S201 If the condition in step S201 is met ("Y" in step S201), the curve detection unit 142 checks whether the polarity of the yaw angular velocity is the same as the polarity of the yaw angular velocity at the immediately preceding curve, and whether the vehicle 109 has been traveling on a straight road for less than a predetermined time C (e.g., less than 9 seconds) after the immediately preceding curve (step S202).
- a predetermined time C e.g., less than 9 seconds
- step S203 the curve detection unit 142 detects a curve (step S203). That is, in step S201, the basic conditions for curve detection are met and the new curve is far from the previous curve, so the curve detection unit 142 detects a new curve in addition to the previous curve. The curve detection unit 142 assigns a curve number to the detected curve. Then, the process proceeds to step S205.
- step S202 determines that the previous curve continues (step S203). That is, in step S201, the basic conditions for curve detection are met, but since the distance from the previous curve is short, the previous curve is determined to continue. Then, the process proceeds to step S205.
- the curve detection unit 142 checks whether the yaw angular velocity is equal to or less than a predetermined value A (for example, equal to or less than 0.02 rad/sec) (step S205). In other words, the curve detection unit 142 checks whether the basic conditions for curve detection are no longer satisfied. If the yaw angular velocity is not equal to or less than the predetermined value A ("N" in step S205), the process of step S205 is repeated until the yaw angular velocity becomes equal to or less than the predetermined value A.
- a predetermined value A for example, equal to or less than 0.02 rad/sec
- the curve detection unit 142 checks whether the yaw angular velocity becomes equal to or greater than the predetermined value A (e.g., equal to or greater than 0.02 rad/sec) after the yaw angular velocity remains below the predetermined value A (e.g., less than 0.02 rad/sec) for less than a predetermined time B (e.g., less than 2 seconds) (step S206). If this condition is met ("Y" in step S206), the curve detection unit 142 determines that the previous curve is continuing (step S207).
- the predetermined value A e.g., equal to or greater than 0.02 rad/sec
- a predetermined time B e.g., less than 2 seconds
- the curve detection unit 142 determines that the driver has adjusted the steering operation immediately after the curve has ended, causing the vehicle 109 to wobble, and determines that the previous curve is continuing. Then, the process returns to step S205.
- step S206 If the condition of step S206 is not met ("N" in step S206), the curve detection unit 142 detects the end of the curve (step S208).
- the curve detection unit 142 checks whether all the yaw angular velocity data included in the yaw angular velocity data DY has been read (step S209). If all the data has not yet been read ("N" in step S209), the process returns to step S201.
- step S209 If all data has been read in step S209 ("Y" in step S209), this process ends.
- the curve detection unit 142 basically detects a curve when a yaw angular velocity equal to or greater than a predetermined value A (e.g., equal to or greater than 0.02 rad/sec) continues for a predetermined time period B or longer (e.g., 2 seconds or longer) (step S201).
- a predetermined value A e.g., equal to or greater than 0.02 rad/sec
- the curve detection unit 142 considers the previous curve to be continuing (steps S205 to S207). Also, when the straight road between two curves that turn in the same direction is short, the curve detection unit 142 considers these two curves to be one curve (steps S201, S202, S204).
- FIG. 13 shows a specific example of the second stage of curve division processing.
- the curve detection unit 142 performs this second stage of processing using the results of the first stage of processing. In this way, the curve detection unit 142 determines whether or not each of the multiple curves detected by the first stage of processing should be evaluated in the driving skill evaluation.
- the curve detection unit 142 selects the first curve from among the multiple curves obtained by the first stage of processing (step S221).
- the curve detection unit 142 checks whether the average value of the yaw angular velocity on the selected curve is less than a predetermined value D (e.g., less than 0.05 rad/sec.) (step S222).
- a predetermined value D e.g., less than 0.05 rad/sec.
- step S222 If, in step S222, the average value of the yaw angular velocity is less than the predetermined value D ("Y" in step S222), the curve detection unit 142 checks whether the maximum value of the yaw angular velocity is equal to or greater than a predetermined value E (e.g., equal to or greater than 0.07 rad/sec) (step S223).
- a predetermined value E e.g., equal to or greater than 0.07 rad/sec
- step S222 If in step S222 the average value of the yaw angular velocity is not less than the predetermined value D ("N" in step S222), or if in step S223 the maximum value of the yaw angular velocity is equal to or greater than the predetermined value E ("Y" in step S223), the curve detection unit 142 selects this curve as a target for the driving skill evaluation (step S224). Also, if in step S223 the maximum value of the yaw angular velocity is not equal to or greater than the predetermined value E ("N" in step S223), the curve detection unit 142 does not select this curve as a target for the driving skill evaluation (step S225).
- the curve detection unit 142 checks whether all the curves have been selected (step S226). If all the curves have not yet been selected ("N" in step S226), the curve detection unit 142 selects one of the unselected curves (step S227). Then, the process returns to step S221. The curve detection unit 142 repeats the process of steps S221 to S227 until all the curves have been selected.
- the curve detection unit 142 performs the curve division process to generate the curve data DC.
- the curve detection unit 142 checks whether there is sample data (step S104). Specifically, the curve detection unit 142 checks whether the data set DSA, which is the sample data, is stored in the storage unit 132.
- step S104 If there is no sample data in step S104 ("N" in step S104), the image generation unit 144 generates multiple image data DP by generating a kernel density estimation image for each of the multiple curves (step S105).
- Figure 14 shows an example of a process for generating a kernel density estimation image.
- the image generating unit 144 performs preprocessing (step S241). Specifically, the image generating unit 44 first calculates time series data of the longitudinal jerk by time-differentiating the time series data of the longitudinal acceleration included in the acceleration data DA, and calculates time series data of the square of the longitudinal jerk based on this time series data of the longitudinal jerk. The image generating unit 144 also calculates time series data of the yaw angular acceleration by time-differentiating the time series data of the yaw angular velocity included in the yaw angular velocity data DY, and calculates time series data of the square of the yaw angular acceleration based on this time series data of the yaw angular acceleration. The image generating unit 144 then generates a preprocessed image based on the time series data of the square of the longitudinal jerk and the time series data of the square of the yaw angular acceleration.
- FIG. 15 shows an example of a process for generating a preprocessed image.
- the horizontal axis (X-axis) of this preprocessed image indicates time, and the vertical axis (Y-axis) indicates the square of the yaw angular acceleration.
- the preprocessed image is divided into 100 regions in the X-axis direction and 100 regions in the Y-axis direction.
- the preprocessed image has 10,000 regions.
- the full scale in the X-axis direction in the preprocessed image is set to, for example, 5 seconds, assuming the travel time of the vehicle 109 around one curve.
- the full scale in the Y-axis direction in the preprocessed image is set based on the time series data of the square of the yaw angular acceleration.
- the value of the square of the yaw angular acceleration generally varies widely, and may become a value that deviates significantly due to, for example, detection accuracy. Therefore, in this example, the image generating unit 144 performs a process to remove the values that deviate significantly from the values of the square of the yaw angular acceleration.
- the image generating unit 44 can remove the values that deviate significantly by using, for example, a box-and-whisker plot.
- the image generating unit 144 finds the minimum and maximum values from the data from which the values that deviate significantly have been removed, and determines the full scale in the Y-axis direction so that the range R of values from the minimum value to the maximum value falls within the Y-axis direction of FIG. 15 with an appropriate margin M.
- the margin M can be, for example, about 3% of the width of the values from the minimum value to the maximum value.
- the image generator 144 maps the value of the square of the forward and backward jerk to 10,000 regions in the preprocessed image based on the time and the value of the square of the yaw angular acceleration.
- the image generating unit 144 sets the squared value of the forward and backward jerk for that piece of data as the value of that region. In the 10,000 regions where multiple pieces of data are mapped, the image generating unit 144 adds the squared values of the forward and backward jerk for those multiple pieces of data together and sets the summed value as the value of that region. In this way, the image generating unit 144 generates pixel values (Z axis) of the preprocessed image.
- the image generating unit 144 scales this pixel value so that it is an integer between 0 and 255, for example, and so that the larger the squared value of the forward and backward jerk, the smaller the pixel value, and so that the smaller the squared value of the forward and backward jerk, the larger the pixel value. In this way, the image generating unit 144 generates a preprocessed image.
- the image generating unit 144 performs kernel density estimation processing based on this preprocessed image, as shown in FIG. 14 (step S242).
- kernel density estimation processing original data including data that has not yet been observed is estimated as density data based on actual measurement data.
- the image generating unit 144 performs kernel density estimation processing using known techniques. In this way, the image generating unit 144 generates a kernel density estimated image.
- the image generation unit 144 generates multiple image data DP by generating a kernel density estimation image for each of the multiple curves.
- the data registration unit 149 stores the acceleration data DA and yaw angular velocity data DY generated in step S102, the curve data DC generated in step S103, and the multiple image data DP generated in step S105 in the storage unit 132 as a data set DSA (step S106). This ends the process.
- step S104 If sample data is available in step S104 ("Y" in step S104), the curve detection unit 142 corrects the curve data DC by identifying the correspondence of the curve based on the similarity between the yaw angular velocity data DY generated in step S102 and the yaw angular velocity data DY of the data set DSA stored in the memory unit 132 (step S107).
- FIG. 16 shows an example of the processing in step S107.
- the curve detection unit 142 identifies the entire driving section to be processed based on the yaw angular velocity data DY generated in step S102 and the yaw angular velocity data DY of the data set DSA (step S261). Specifically, the curve detection unit 142 identifies similar entire driving sections based on the yaw angular velocity data DY generated in step S102 and the yaw angular velocity data DY of the data set DSA using dynamic time wrapping (DTW). That is, since both of these yaw angular velocity data DY are time series data of yaw angular velocity in the evaluation target area, it is desirable that they are almost the same.
- DTW dynamic time wrapping
- the curve detection unit 142 uses the dynamic time warping method based on the yaw angular velocity data DY generated in step S102 and the yaw angular velocity data DY of the data set DSA to identify an entire driving section in which the number of curves is approximately the same. As a result, the yaw angular velocity data DY generated in step S102 and the yaw angular velocity data DY of the data set DSA can be compared with each other in this entire driving section. In this way, the curve detection unit 142 identifies the entire driving section to be processed.
- the curve detection unit 142 identifies the correspondence between the curves in the entire driving section to be processed obtained from the yaw angular velocity data DY generated in step S102 and the curves in the entire driving section to be processed obtained from the yaw angular velocity data DY of the dataset DSA (step S262). Specifically, the curve detection unit 142 identifies the correspondence between the curves by identifying multiple sections that are similar to each other using a dynamic time warping method based on the yaw angular velocity data DY generated in step S102 and the yaw angular velocity data DY of the dataset DSA.
- FIG. 17 shows an example of the processing of step S262, where (A) shows the yaw angular velocity data DY generated in step S102, and (B) shows the yaw angular velocity data DY of the data set DSA.
- This FIG. 17 shows the yaw angular velocity data DY for a portion of the driving section to be processed.
- the numbers indicate the curve numbers in the curve data DC.
- the curve detection unit 142 changes the curve number of the curve in portion W1 in the yaw angular velocity data DY (FIG. 17(A)) generated in step S102 from “6" to "6, 7, 8", and changes the curve numbers of the curves following this curve. That is, the curve detection unit 142 identifies the curve correspondence so that the curve numbers of the multiple curves in the yaw angular velocity data DY (FIG. 17(A)) generated in step S102 match the curve numbers of the multiple curves in the yaw angular velocity data DY (FIG. 17(B)) of the data set DSA. Then, the curve detection unit 142 corrects the curve data DC generated in step S103 based on the results of this processing.
- the curve detection unit 142 excludes curves with low similarity between the multiple curves in the yaw angular velocity data DY generated in step S102 and the multiple curves in the yaw angular velocity data DY of the data set DSA from the evaluation targets for the driving skill evaluation (step S263). Specifically, the curve detection unit 142 calculates the similarity between the multiple curves in the yaw angular velocity data DY generated in step S102 and the multiple curves in the yaw angular velocity data DY of the data set DSA that correspond to each other using a dynamic time warping method. Then, the curve detection unit 142 excludes curves with similarity lower than a predetermined amount from the evaluation targets for the driving skill evaluation.
- the curve detection unit 142 corrects the curve data DC by identifying the correspondence of the curve based on the similarity between the yaw angular velocity data DY generated in step S102 and the yaw angular velocity data DY of the data set DSA.
- the image generating unit 144 generates a plurality of image data DP by generating a kernel density estimation image for each of the plurality of curves (step S108). This process is similar to the process of step S105.
- the data registration unit 149 stores the acceleration data DA and yaw angular velocity data DY generated in step S102, the curve data DC generated in step S103 and corrected in step S107, and the multiple image data DP generated in step S108 as a data set DSB in the storage unit 132 (step S109). This ends the process.
- the data processing system 2 generates a data set DS including acceleration data DA, yaw angular velocity data DY, curve data DC, and multiple image data DP based on driving data obtained by an experienced driver driving the vehicle 109. By repeating this process, the data processing system 2 can generate multiple data sets DS based on multiple driving data.
- the data processing system 2 performs processing based on driving data obtained by an experienced driver driving the vehicle 109, but it is also possible to perform processing based on driving data obtained by an unskilled driver driving the vehicle 109. In this way, the data processing system 2 can obtain a kernel density estimation image related to the experienced driver and a kernel density estimation image related to the unskilled driver.
- This kernel density estimation image may change depending on the driving skill of the driver.
- the driving skill evaluation system 1 evaluates the driving skill of the driver based on the kernel density estimation image.
- FIG. 18 shows an example of a process for generating evaluation target curve data DTC.
- the data processing system 2 has already acquired multiple data sets DS related to an experienced driver and multiple data sets DS related to an unskilled driver.
- the evaluation target data generation unit 147 selects one of the multiple curves (step S301).
- the image similarity calculation unit 145 calculates an average value F1 of image similarities between multiple kernel density estimation images related to an experienced driver and multiple kernel density estimation images related to an unskilled driver for the selected curve (step S302). Specifically, the image similarity calculation unit 145 calculates image similarities of kernel density estimation images for all combinations between multiple kernel density estimation images related to one or more experienced drivers and multiple kernel density estimation images related to one or more unskilled drivers for the selected curve. Then, the image similarity calculation unit 145 calculates the average value F1 of these image similarities.
- the image similarity calculation unit 145 calculates the average value F2 of the image similarities between each of the multiple kernel density estimation images related to the skilled driver for the selected curve (step S303). Specifically, the image similarity calculation unit 145 calculates the image similarities of the kernel density estimation images for all combinations between each of the multiple kernel density estimation images related to one or more skilled drivers for the selected curve. Then, the image similarity calculation unit 145 calculates the average value F2 of these image similarities.
- the evaluation target data generating unit 147 checks whether there is a significant difference between the average values F1 and F2 (step S304). Specifically, if the difference between the average values F1 and F2 is equal to or greater than a predetermined amount, the evaluation target data generating unit 147 determines that there is a significant difference between the average values F1 and F2. If there is a significant difference between the average values F1 and F2 ("Y" in step S304), the evaluation target data generating unit 147 sets the curve selected in step S301 as the evaluation target for the driving skill evaluation (step S305). If there is no significant difference between the average values F1 and F2 ("N" in step S304), the evaluation target data generating unit 147 does not set the curve selected in step S301 as the evaluation target for the driving skill evaluation (step S306).
- the evaluation target data generation unit 147 checks whether all curves have been selected (step S307). If all curves have not yet been selected ("N" in step S307), the evaluation target data generation unit 147 selects one of the unselected curves (step S308). Then, the process returns to step S302. The evaluation target data generation unit 147 repeats the process of steps S302 to S308 until all curves have been selected.
- the evaluation target data generation unit 147 If all curves have been selected in step S307 ("Y" in step S307), the evaluation target data generation unit 147 generates evaluation target curve data DTC based on the processing results of steps S305 and S306 (step S309). Specifically, the evaluation target data generation unit 147 generates evaluation target curve data DTC including the curve numbers of the curves that are the evaluation targets for the driving skill evaluation in steps S305 and S306.
- the data processing system 2 generates the evaluation target curve data DTC based on the driving data obtained by an experienced driver and an unskilled driver driving the vehicle 109.
- the data processing system 2 transmits the multiple data sets DS, the evaluation target curve data DTC, and the area data DAR to the server device 30.
- the server device 30 stores these data in the storage unit 32.
- the processing unit 140 calculates the average values F1 and F2 in steps S302 to S304, and checks whether there is a significant difference between the average values F1 and F2 to determine whether the selected curve is to be evaluated, but this is not limited to the above.
- the processing unit 140 may determine whether the selected curve is to be evaluated by performing, for example, a non-parametric U-test based on the multiple image similarities used to calculate the average value F1 and the multiple image similarities used to calculate the average value F2, without using the average values F1 and F2.
- the image similarity calculation unit 145 calculates the image similarities of the kernel density estimation images for all combinations between the multiple kernel density estimation images related to one or more skilled drivers and the multiple kernel density estimation images related to one or more non-skilled drivers for the selected curve.
- the image similarity calculation unit 145 calculates the image similarity of the kernel density estimation image for all combinations between the multiple kernel density estimation images related to one or more skilled drivers for one selected curve.
- the evaluation target data generation unit 147 performs, for example, a non-parametric U-test process based on the multiple image similarities obtained in the first step and the multiple image similarities obtained in the subsequent steps to determine whether there is a significant difference between the multiple image similarities obtained in the first step and the multiple image similarities obtained in the subsequent steps. If there is a significant difference, the evaluation target data generation unit 147 sets the curve selected in step S301 as the evaluation target for the driving skill evaluation (step S305). If there is no significant difference ("N" in step S304), the evaluation target data generation unit 147 does not set the curve selected in step S301 as the evaluation target for the driving skill evaluation (step S306).
- the driving skill evaluation system 1 evaluates the driving skill of a driver based on driving data generated by the driver driving the vehicle 9, using a plurality of data sets DS, evaluation target curve data DTC, and area data DAR stored in the storage unit 32 of the server device 30. This operation will be described in detail below.
- the acceleration sensor 14 of the smartphone 10 in the vehicle 9 detects the acceleration in each of the three directions in the coordinate system of the smartphone 10
- the angular velocity sensor 15 detects each of the three angular velocities (yaw angular velocity, roll angular velocity, pitch angular velocity) in the coordinate system of the smartphone 10
- the GNSS receiver 16 obtains the position of the vehicle 9 on the ground.
- the data processing unit 21 performs predetermined data processing such as filtering based on the detection results of the acceleration sensor 14 and the detection results of the angular velocity sensor 15. Specifically, the data processing unit 21 performs filtering on the time series data of acceleration detected by the acceleration sensor 14, and performs filtering on the time series data of angular velocity detected by the angular velocity sensor 15. Note that this is not limited to this, and the data processing unit 21 may perform downsampling on the time series data that has been subjected to filtering.
- the communication unit 13 transmits the acceleration time series data and angular velocity time series data processed by the data processing unit 21 to the server device 30 together with the position time series data of the vehicle 9 obtained by the GNSS receiver 16.
- the communication unit 31 receives the data transmitted from the smartphone 10.
- the server device 30 evaluates the driver's driving skills based on the data received by the communication unit 31. The operation of the server device 30 will be described in detail below.
- FIGS. 19A and 19B show an example of the operation of the server device 30.
- the data processing unit 41 of the server device 30 uses the area data DAR stored in the storage unit 32 based on the time series data of the position of the vehicle 9 to check whether the vehicle 9 has traveled through the area to be evaluated (step S401). If the vehicle 9 has not traveled through the area to be evaluated ("N" in step S401), this process ends.
- the data processing unit 41 When the vehicle 9 travels through the evaluation area ("Y" in step S401), the data processing unit 41 performs coordinate transformation to generate time series data of longitudinal acceleration and time series data of yaw angular velocity (step S402). Specifically, the data processing unit 41 performs coordinate transformation based on the time series data of acceleration in the evaluation area to generate time series data of acceleration in the traveling direction of the vehicle 9 (longitudinal acceleration). The data processing unit 41 also performs coordinate transformation based on the time series data of angular velocity in the evaluation area to generate time series data of yaw angular velocity of the vehicle 9.
- the data processing unit 41 may perform upsampling processing on the time series data of acceleration and the time series data of angular velocity received by the communication unit 31, and perform coordinate transformation based on the time series data of longitudinal acceleration and the time series data of yaw angular velocity that have been subjected to upsampling processing.
- the data processing unit 41 performs filtering on the time series data of longitudinal acceleration and the time series data of yaw angular velocity generated in step S402 to generate acceleration data DA1 and yaw angular velocity data DY1, respectively (step S403).
- the curve detection unit 42 generates curve data DC1 by performing a curve division process based on the yaw angular velocity data DY1 generated in step S403 (step S404).
- This curve division process is similar to the process of step S103 shown in FIG. 11.
- the curve detection unit 42 corrects the curve data DC1 by identifying the correspondence of the curve based on the similarity between the yaw angular velocity data DY1 generated in step S403 and the yaw angular velocity data DY of the data set DSA stored in the storage unit 32 (step S405). This process is similar to the process of step S107 shown in FIG. 11.
- the data extraction unit 43 extracts time series data of longitudinal acceleration and time series data of yaw angular velocity related to the curve that is the evaluation target of the driving skill evaluation based on the evaluation target curve data DTC stored in the memory unit 32 (step S406). Specifically, the data extraction unit 43 extracts time series data of longitudinal acceleration related to the multiple curves used in the evaluation of the driving skill from the time series data of longitudinal acceleration included in the acceleration data DA1. In addition, the data extraction unit 43 extracts time series data of yaw angular velocity related to the multiple curves used in the evaluation of the driving skill from the time series data of yaw angular velocity included in the yaw angular velocity data DY1.
- the image generating unit 44 generates a plurality of image data DP by generating a kernel density estimation image for each of the plurality of curves based on the time series data of the longitudinal acceleration and the time series data of the yaw angular velocity extracted in step S406 (step S407). This process is similar to the process of step S108. In this step S406, the image generating unit 44 generates a kernel density estimation image for the curve that is the subject of the driving skill evaluation.
- the image similarity calculation unit 45 calculates an average value of image similarities (average similarity) based on the multiple kernel density estimation images generated in step S407 and the multiple kernel density estimation images included in the multiple data sets DS related to the skilled driver stored in the storage unit 32 (step S408). Specifically, the image similarity calculation unit 45 calculates the image similarity for each of the multiple curves by comparing the kernel density estimation image generated by the image generation unit 44 with the multiple kernel density estimation images included in the multiple data sets DS related to the skilled driver. The image similarity calculation unit 45 calculates multiple image similarities by performing this process for each of the multiple curves. Then, the image similarity calculation unit 45 calculates the average value (average similarity) of these multiple image similarities. In this example, the image similarity value is a positive value, and the more similar the kernel density estimation images are, the smaller the image similarity value is, and the more dissimilar the kernel density estimation images are, the larger the image similarity value is.
- the skill assessment unit 46 checks whether the number of curves detected by the curve detection unit 42 in steps S404 and S405 is equal to or greater than the predetermined number G1 (step S409). That is, when the curve detection unit 42 detects curves in steps S404 and S405, there may be cases where some curves cannot be detected depending on the yaw angular velocity data DY1. For example, if the driver's driving skill is low and the yaw angular velocity data DY1 differs greatly from the yaw angular velocity data DY of an experienced driver, the number of curves that cannot be detected may increase. Therefore, the skill assessment unit 46 checks whether the number of curves detected based on the yaw angular velocity data DY1 is equal to or greater than the predetermined number G1.
- step S409 If, in step S409, the number of detected curves is equal to or greater than the predetermined number G1 ("Y" in step S109), the skill assessment unit 46 checks whether the average similarity value calculated in step S408 is less than the threshold value G2 (step S410).
- step S410 determines that the driving skill of the driver of vehicle 9 is high (step S411). That is, since the average similarity value is less than the threshold value G2 in step S410, the kernel density estimation image of the driver resembles the kernel density estimation image of an experienced driver. Therefore, the skill assessment unit 46 determines that the driving skill of the driver of vehicle 9 is high.
- step S409 if the number of detected curves is not equal to or greater than the predetermined number G1 ("N" in step S409), or if the value of the average similarity is not less than the threshold value G2 ("N" in step S410), the skill assessment unit 46 determines that the skill level of the driver of the vehicle 9 is low (step S412). That is, in step S409, if the number of detected curves is not equal to or greater than the predetermined number G1, the difference between the yaw angular velocity data DY1 of the driver and the yaw angular velocity data DY of the skilled driver is large, so the skill assessment unit 46 determines that the driver's driving skill is low.
- step S410 if the value of the average similarity is not less than the threshold value G2, the kernel density estimation image of the driver is not similar to the kernel density estimation image of the skilled driver, so the skill assessment unit 46 determines that the driver's driving skill is low.
- the communication unit 31 of the server device 30 transmits data including the evaluation results of the driving skills to the smartphone 10.
- the communication unit 13 of the smartphone 10 receives the data transmitted from the smartphone 10.
- the display processing unit 22 performs display processing based on the data indicating the evaluation results of the driving skills transmitted from the server device 30.
- the touch panel 11 displays the evaluation results of the driving skills. This allows the driver to obtain an objective evaluation of his or her driving skills.
- the driving skill evaluation method in the driving skill evaluation system 1 includes generating a kernel density estimation image based on time series data of a first parameter (in this example, the square of the yaw angular velocity) corresponding to the change in the direction of travel of the vehicle 9 and time series data of a second parameter indicating the square of the jerk (forward and backward jerk) in the direction of travel of the vehicle 9, and evaluating the driving skill of the driver of the vehicle by comparing the kernel image estimation image with a reference image related to an experienced driver.
- the driving skill evaluation method can improve the evaluation accuracy of the driver's driving skill. That is, in the kernel density estimation process, original data including data that has not yet been observed is estimated as density data based on actual measurement data. Therefore, the kernel image estimation image can include the driver's original unique characteristics according to the driving skill of the driver. Therefore, in this driving skill evaluation method, the kernel image estimation image can be used to improve the evaluation accuracy of the driver's driving skill.
- the kernel density estimation image is generated based on the time series data of the second parameter indicating the square of the jerk in the traveling direction of the vehicle 9, so that the evaluation accuracy of the driver's driving skill can be improved. That is, for example, when the kernel density estimation image is generated based on the time series data of the acceleration (longitudinal acceleration) in the traveling direction of the vehicle 9, the pixel value of the preprocessed image may become negative, so that the kernel density estimation process cannot be performed.
- this longitudinal acceleration is easily affected by gravitational acceleration, for example, on a gradient, so that a trend occurs in the longitudinal acceleration.
- the kernel density estimation image is generated based on the time series data of the absolute value of this longitudinal acceleration, the kernel density estimation image is affected by gravitational acceleration, so that the evaluation accuracy of the driver's driving skill may be reduced.
- the kernel density estimation image is generated based on the time series data of the second parameter indicating the square of the jerk in the traveling direction of the vehicle 9 (longitudinal jerk).
- the longitudinal jerk is calculated by time-differentiating the longitudinal acceleration
- the square of this longitudinal jerk is calculated
- a kernel density estimation image is generated based on the time series data of the square of this longitudinal jerk.
- the time series data of the first parameter in this example, the square of the yaw angular velocity
- the time series data of the second parameter in this example, the square of the longitudinal jerk
- the time series data on the curve includes information about the various operations of the driver. Therefore, this driving skill evaluation method can improve the accuracy of the evaluation of the driver's driving skills.
- the first image direction in the kernel density estimation image indicates time
- the second image direction in the kernel density estimation image indicates the first parameter (in this example, the square of the yaw angular velocity)
- the pixel value of the kernel density estimation image is set to a value according to the data of the second parameter (in this example, the square of the longitudinal jerk).
- this driving skill evaluation method further includes presenting the evaluation results of the driver's driving skills to the driver. This allows the driver to obtain an objective evaluation of his or her driving skills. As a result, the driver can pay attention to his or her driving and improve his or her driving skills.
- the driving skill evaluation method includes generating a kernel density estimation image based on time series data of a first parameter corresponding to a directional change in the vehicle's direction of travel and time series data of a second parameter indicating the square of the jerk in the vehicle's direction of travel, and evaluating the driving skill of the vehicle's driver by comparing the kernel density estimation image with a reference image related to an experienced driver, thereby improving the accuracy of the evaluation of the driver's driving skill.
- a kernel density estimation image is generated based on time series data of a second parameter that indicates the square of the jerk in the vehicle's traveling direction, thereby improving the accuracy of the evaluation of the driver's driving skills.
- the time series data of the first parameter and the time series data of the second parameter are data obtained when the vehicle is traveling around a curve, which can improve the accuracy of the evaluation of the driver's driving skills.
- the first image direction in the kernel density estimation image indicates time
- the second image direction in the kernel density estimation image indicates a first parameter
- the pixel values of the kernel density estimation image correspond to the data of the second parameter
- the driving skill evaluation method further includes presenting the evaluation results of the driver's driving skills to the driver, so that the driver can obtain an objective evaluation of his or her driving skills. As a result, the driver can pay attention to his or her driving and improve his or her driving skills.
- the vertical axis (Y axis) of the kernel density estimation image indicates the square of the yaw angular acceleration, but is not limited to this.
- the vertical axis (Y axis) of the kernel density estimation image may indicate the yaw angular acceleration as shown in Fig. 21, or may indicate the absolute value of the yaw angular acceleration.
- the vertical axis (Y axis) of the kernel density estimation image may indicate the yaw angular velocity as shown in Fig. 22, or may indicate the absolute value of the yaw angular velocity.
- the vertical axis (Y axis) of the kernel density estimation image may indicate the square of the acceleration (lateral acceleration) in the direction intersecting the traveling direction of the vehicle as shown in Fig. 23, or may indicate the lateral acceleration as shown in Fig. 24, or may indicate the absolute value of the lateral acceleration.
- the vertical axis (Y axis) of the kernel density estimation image indicates the square of the yaw angular acceleration
- the pixel value (Z axis) of the kernel density estimation image indicates the square of the longitudinal jerk
- the vertical axis (Y axis) of the kernel density estimation image may indicate the square of the longitudinal jerk
- the pixel value (Z axis) of the kernel density estimation image may indicate the square of the yaw angular acceleration.
- Fig. 25 shows an example of a kernel density estimation image in a certain curve.
- FIG. 26 shows the coordinate axes of the kernel density estimation image shown in Fig. 25.
- the driving skill evaluation system 1 may be configured to perform processing based on both the kernel density estimation images shown in Figures 6 and 7 and the kernel density estimation images shown in Figures 25 and 26.
- the information processing device 130 of the data processing system 2 may determine whether to generate the kernel density estimation images shown in Figures 6 and 7 or the kernel density estimation images shown in Figures 25 and 26 based on the operation of an engineer.
- the information processing device 130 may also determine which of these kernel density estimation images to generate based on the acceleration data DA including time series data of longitudinal acceleration and the yaw angular velocity data DY including time series data of yaw angular velocity.
- the information processing device 130 checks whether the road on which the vehicle 109 has traveled is a road on which the speed of the vehicle 109 changes significantly based on the acceleration data DA and the yaw angular velocity data DY. Then, if the road on which the vehicle 109 has traveled is one on which the speed of the vehicle 109 changes significantly, the information processing device 130 decides to generate the kernel density estimation image shown in FIGS. 6 and 7, and if the road on which the vehicle 109 has traveled is not one on which the speed of the vehicle 109 changes significantly, the information processing device 130 decides to generate the kernel density estimation image shown in FIGS. 25 and 26.
- the information processing device 130 may determine to generate the kernel density estimation image shown in Figures 6 and 7 for all curves, or may determine to generate the kernel density estimation image shown in Figures 25 and 26 for all curves. Furthermore, the information processing device 130 may individually determine which kernel density estimation image to generate for each of the multiple curves, the kernel density estimation image shown in Figures 6 and 7 or the kernel density estimation image shown in Figures 25 and 26.
- the server device 30 If the kernel density estimation image for an experienced driver in the dataset DS is the kernel density estimation image shown in Figures 6 and 7, the server device 30 generates the kernel density estimation image shown in Figures 6 and 7 based on the driver's driving data, and if the kernel density estimation image for an experienced driver in the dataset DS is the kernel density estimation image shown in Figures 25 and 26, the server device 30 generates the kernel density estimation image shown in Figures 25 and 26 based on the driver's driving data.
- the pixel values (Z-axis) of the kernel density estimation image indicate the square of the yaw angular acceleration, but this is not limited to this. Instead, for example, as in variant example 1, the pixel values (Z-axis) of the kernel density estimation image may indicate the absolute value of the yaw angular acceleration, the square of the lateral acceleration, or the absolute value of the lateral acceleration.
- the smartphone 10 transmits the time series data of acceleration, the time series data of angular velocity, and the time series data of the position of the vehicle 9 to the server device 30, but this is not limited to this. Instead of this, for example, the smartphone 10 may further transmit the time series data of geomagnetism to the server device 30. This example will be described in detail below.
- FIG. 27 shows an example of the configuration of a smartphone 10A according to this modified example.
- the smartphone 10A has a geomagnetic sensor 17A and a processing unit 20A.
- the geomagnetic sensor 17A is configured to detect geomagnetism.
- the processing unit 20A collects time series data of acceleration detected by the acceleration sensor 14, time series data of angular velocity detected by the angular velocity sensor 15, time series data of the position of the vehicle 9 obtained by the GNSS receiver 16, and time series data of geomagnetism detected by the geomagnetic sensor 17A.
- the communication unit 13 transmits the time series data of acceleration and time series data of angular velocity processed by the data processing unit 21 to the server device 30 together with the time series data of the position of the vehicle 9 obtained by the GNSS receiver 16 and the time series data of geomagnetism detected by the geomagnetic sensor 17A.
- the data processing unit 41 of the server device 30 generates time series data of acceleration in the traveling direction of the vehicle 9 (longitudinal acceleration) by performing coordinate transformation based on the time series data of acceleration received by the communication unit 31. It also generates time series data of the yaw angular velocity of the vehicle 9 by performing coordinate transformation based on the time series data of angular velocity received by the communication unit 31. The data processing unit 41 then corrects the time series data of the longitudinal acceleration and the time series data of the yaw angular velocity based on the time series data of geomagnetic field received by the communication unit 31. This makes it possible to improve the accuracy of the time series data of the longitudinal acceleration and the time series data of the yaw angular velocity.
- the server device 30 evaluates the driving skills based on the driving data transmitted from the smartphone 10, but this is not limited to the above.
- the smartphone 10 may evaluate the driving skills based on the driving data.
- the processing unit 20 of the smartphone 10 may operate as a data processing unit 41, a curve detection unit 42, a data extraction unit 43, an image generation unit 44, an image similarity calculation unit 45, and a skill assessment unit 46.
- the storage unit 12 of the smartphone 10 stores a plurality of data sets DS (data set DSA and a plurality of data sets DSB), evaluation target curve data DTC, and area data DAR.
- the on-board device of the vehicle 9 may collect driving data of the vehicle 9 and evaluate the driving skill based on this driving data.
- the on-board device of the vehicle 9 collects time series data of longitudinal acceleration detected by an acceleration sensor, time series data of yaw angular velocity detected by a yaw angular velocity sensor, and time series data of the position of the vehicle 9 obtained by a GNSS receiver.
- the processing units of the on-board device of the vehicle 9 may operate as a data processing unit 41, a curve detection unit 42, a data extraction unit 43, an image generation unit 44, an image similarity calculation unit 45, and a skill determination unit 46.
- the storage unit of the on-board device stores a plurality of data sets DS (data set DSA and a plurality of data sets DSB), evaluation target curve data DTC, and area data DAR.
- a first image direction in the kernel density estimation image indicates time;
- the driving skill evaluation method according to any one of (1) to (3), wherein the first parameter is a parameter related to lateral acceleration.
- a first image direction in the kernel density estimation image indicates time;
- a second image direction in the kernel density estimation image indicates the second parameter, and pixel values of the kernel density estimation image are values corresponding to data of the first parameter.
- the driving skill evaluation method according to any one of (1) to (8), further comprising presenting an evaluation result of the driver's driving skill to the driver.
- an image generating circuit that generates a kernel density estimation image based on time series data of a first parameter corresponding to a directional change in a traveling direction of the vehicle and time series data of a second parameter indicating a square of a jerk in the traveling direction of the vehicle; and an evaluation circuit that evaluates the driving skill of a driver of the vehicle by comparing the kernel density estimation image with a reference image.
- (11) generating a kernel density estimation image based on time series data of a first parameter corresponding to a directional change in a traveling direction of the vehicle and time series data of a second parameter indicating a square of a jerk in the traveling direction of the vehicle; and evaluating the driving skill of a driver of the vehicle by comparing the kernel density estimation image with a reference image.
- At least one processor e.g., a central processing unit (CPU)), at least one application specific integrated circuit (ASIC), and/or at least one field programmable gate array (FPGA).
- the at least one processor may be configured to perform all or a portion of the various functions of the processing unit 40 shown in FIG. 3 by reading instructions from at least one non-transitory and tangible computer readable medium.
- Such media may take a variety of forms, including, but not limited to, various magnetic media such as hard disks, various optical media such as CDs or DVDs, various semiconductor memories such as volatile or non-volatile memories (i.e., semiconductor circuits). Volatile memories may include DRAM and SRAM.
- Non-volatile memories may include ROM and NVRAM.
- An ASIC is an integrated circuit (IC) specialized to perform all or a portion of the various functions of the processing unit 40 shown in FIG. 3.
- An FPGA is an integrated circuit designed to be configurable after manufacture to perform all or a portion of the various functions of the processing unit 40 shown in FIG. 3.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Mathematical Physics (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
Abstract
本開示の一実施の形態に係る運転技能評価方法は、車両の進行方向の方向変化に応じた第1のパラメータの時系列データ、および車両の進行方向の躍度の2乗を示す第2のパラメータの時系列データに基づいてカーネル密度推定画像を生成することと、カーネル密度推定画像をリファレンス画像と比較することにより、車両のドライバの運転技能を評価することとを含む。
Description
本開示は、ドライバの運転技能を評価する運転技能評価方法および運転技能評価システム、ならびにドライバの運転技能を評価するソフトウェアが記録された記録媒体に関する。
近年、自動車などの車両では、ドライバの運転技能を評価する技術が開発されている。例えば特許文献1には、車両が旋回する場合における前後加速度および横加速度に基づいて、ドライバの運転技能を評価する技術が開示されている。
本開示の一実施の形態に係る運転技能評価方法は、車両の進行方向の方向変化に応じた第1のパラメータの時系列データ、および車両の進行方向の躍度の2乗を示す第2のパラメータの時系列データに基づいてカーネル密度推定画像を生成することと、カーネル密度推定画像をリファレンス画像と比較することにより、車両のドライバの運転技能を評価することとを含む。
本開示の一実施の形態に係る運転技能評価システムは、画像生成回路と、評価回路とを備えている。画像生成回路は、車両の進行方向の方向変化に応じた第1のパラメータの時系列データ、および車両の進行方向の躍度の2乗を示す第2のパラメータの時系列データに基づいてカーネル密度推定画像を生成するものである。評価回路は、カーネル密度推定画像をリファレンス画像と比較することにより、車両のドライバの運転技能を評価するものである。
本開示の一実施の形態に係る記録媒体は、車両の進行方向の方向変化に応じた第1のパラメータの時系列データ、および車両の進行方向の躍度の2乗を示す第2のパラメータの時系列データに基づいてカーネル密度推定画像を生成することと、カーネル密度推定画像をリファレンス画像と比較することにより、車両のドライバの運転技能を評価することとをプロセッサに行わせるソフトウェアが記録されたものである。
添付図面は、本開示をさらに理解するために設けられており、本明細書に組み込まれるとともに、本明細書の一部を構成するものである。図面は、一実施の形態を示し、明細書とともに、本開示の原理を説明する役割を果たす。
ドライバの運転技能の評価では、評価精度が高いことが望まれており、さらなる評価精度の向上が期待されている。
ドライバの運転技能の評価精度を高めることができる運転技能評価方法、運転技能評価システム、および記録媒体を提供することが望ましい。
以下、本開示のいくつかの例示的な実施の形態を、添付図面を参照して詳細に説明する。なお、以下の説明は、本開示の一具体例を示すものであり、本開示を限定するものと解釈されてはならない。例えば、数値、形状、材料、部品、各部品の位置および各部品の接続方法等を含む各要素は、一例にすぎず、本開示を限定するものと解釈されてはならない。また、以下の例示的な実施の形態において、本開示の最上位概念に基づく独立項に記載されていない構成要素は、任意的なものであり、必要に応じて設けられ得る。図面は模式的なものであり、原寸通りの図示を意図してはいない。本明細書および図面の全般において、略同じ機能および略同じ構成を有する構成要素については、同一の参照符号を付し、重複する説明を省略する。また、本開示の一実施の形態に直接関係の無い構成要素は、図面に図示してはいない。
<実施の形態>
[構成例]
図1は、一実施の形態に係る運転技能評価方法が用いられる運転技能評価システム1の一構成例を表すものである。運転技能評価システム1は、スマートフォン10と、サーバ装置30と、データ処理システム2とを備えている。
[構成例]
図1は、一実施の形態に係る運転技能評価方法が用いられる運転技能評価システム1の一構成例を表すものである。運転技能評価システム1は、スマートフォン10と、サーバ装置30と、データ処理システム2とを備えている。
スマートフォン10は、高機能携帯電話であり、車両9の車両内に、車両9に対して所定の向きで固定設置されている。スマートフォン10は、車両9の走行データを収集する。スマートフォン10は、例えば携帯電話通信を介して、図示しない携帯電話の基地局と通信を行うことにより、図示しないインターネットに接続される。
サーバ装置30は、情報処理装置である。サーバ装置30は、車両9の走行データに基づいて、車両9のドライバの運転技能を評価する。サーバ装置30は、図示しないインターネットに接続される。サーバ装置30は、インターネットを介して、スマートフォン10との間で通信を行うことができるようになっている。
データ処理システム2は、情報処理装置を含み、運転技能の評価において使用するデータを生成する。データ処理システム2は、図示しないインターネットに接続される。データ処理システム2は、インターネットを介して、サーバ装置30との間で通信を行うことができるようになっている。
運転技能評価システム1では、例えば山道などを含む、カーブが多い評価対象エリアにおいて、評価対象であるドライバが車両9を運転することにより、スマートフォン10が車両9の走行データを収集し、その走行データをサーバ装置30に送信する。この走行データは、車両9の進行方向における加速度(前後加速度)についての情報、車両9のヨー角速度についての情報、および車両9の位置についての情報を含む。サーバ装置30は、車両9のヨー角速度の時系列データに基づいて、車両9が走行した走行路における、複数のカーブを検出する。そして、サーバ装置30は、前後加速度の時系列データ、およびヨー角速度の時系列データに基づいて、複数のカーブのそれぞれにおけるカーネル密度推定画像を生成する。そして、サーバ装置30は、複数のカーブのそれぞれについて、サーバ装置30が生成したこのカーネル密度推定画像と、データ処理システム2により生成され、予めサーバ装置30に登録された、熟練ドライバに係るカーネル密度推定画像とを比較することにより、ドライバの運転技能を評価する。そして、スマートフォン10は、ドライバに対して、運転技能の評価結果を提示する。これにより、運転技能評価システム1では、ドライバは、自分の運転技能についての客観的な評価を得ることができるようになっている。
図2は、スマートフォン10の一構成例を表すものである。スマートフォン10は、タッチパネル11と、記憶部12と、通信部13と、加速度センサ14と、角速度センサ15と、GNSS(Global Navigation Satellite System)受信機16と、処理部20とを有している。
タッチパネル11は、ユーザインタフェースであり、例えば、タッチセンサと、液晶ディスプレイや有機EL(Electro Luminescence)ディスプレイなどのディスプレイ装置とを含んで構成される。タッチパネル11は、スマートフォン10のユーザの操作を受け付けるとともに、スマートフォン10の処理結果を表示するようになっている。
記憶部12は、不揮発性のメモリであり、様々なアプリケーションソフトウェアのプログラムデータなどが記憶されるように構成される。この例では、スマートフォン10には、運転技能評価システム1に係るアプリケーションソフトウェアがインストールされている。このアプリケーションソフトウェアのプログラムデータは、記憶部12に記憶されている。
通信部13は、携帯電話通信を行うことにより、携帯電話の基地局と通信を行うように構成される。これにより、通信部13は、携帯電話の基地局を介して、インターネットに接続されたサーバ装置30と通信を行うようになっている。
加速度センサ14は、スマートフォン10の座標系における3つの方向の加速度をそれぞれ検出するように構成される。
角速度センサ15は、スマートフォン10の座標系における3つの角速度(ヨー角速度、ロール角速度、ピッチ角速度)をそれぞれ検出するように構成される。
GNSS受信機16は、GPS(Global Positioning System)などのGNSSを用いて、地上での車両9の位置を取得するように構成される。
処理部20は、スマートフォン10の動作を制御するように構成され、例えば、1または複数のプロセッサ、1または複数のメモリなどを用いて構成される。処理部20は、加速度センサ14により検出された加速度の時系列データ、角速度センサ15により検出された角速度の時系列データ、およびGNSS受信機16により得られた車両9の位置の時系列データを収集する。処理部20は、スマートフォン10にインストールされた、運転技能評価システム1に係るアプリケーションソフトウェアを実行することにより、データ処理部21および表示処理部22として動作し得る。
データ処理部21は、加速度センサ14の検出結果、および角速度センサ15の検出結果に基づいて、所定のデータ処理を行うように構成される。所定のデータ処理は、例えば、加速度センサ14により検出された加速度の時系列データに対するフィルタ処理や、角速度センサ15により検出された角速度の時系列データに対するフィルタ処理などを含む。ここで、フィルタ処理は、ローパスフィルタによる処理である。そして、通信部13は、走行終了後に、データ処理部21により処理された加速度の時系列データおよび角速度の時系列データを、GNSS受信機16により得られた車両9の位置の時系列データとともに、サーバ装置30に送信するようになっている。
表示処理部22は、サーバ装置30から送信された、運転技能の評価結果を示すデータに基づいて、表示処理を行うように構成される。これにより、タッチパネル11は、運転技能の評価結果を表示するようになっている。
図3は、サーバ装置30の一構成例を表すものである。サーバ装置30は、通信部31と、記憶部32と、処理部40とを有している。
通信部31は、ネットワーク通信を行うことにより、インターネットを介してスマートフォン10と通信を行うように構成される。
記憶部32は、例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)などを含み、様々なソフトウェアのプログラムデータなどが記憶されるように構成される。この例では、サーバ装置30には、運転技能評価システム1に係るサーバ用のソフトウェアがインストールされている。このソフトウェアのプログラムデータは、記憶部32に記憶されている。また、記憶部32には、このソフトウェアが使用する様々なデータが記憶されている。
図4は、記憶部32に記憶された、サーバ用のソフトウェアが使用するデータの一例を表すものである。記憶部32には、エリアデータDARと、複数のデータセットDS(データセットDSAおよび複数のデータセットDSB)と、評価対象カーブデータDTCとが記憶されている。これらのデータは、データ処理システム2により生成され、この記憶部32に記憶される。
エリアデータDARは、運転技能の評価を行う、評価対象エリアを示すデータである。評価対象エリアは、例えば、山道を含むエリアなど、カーブが多いエリアを設定することができる。このエリアデータDARは、例えば、この評価対象エリアの緯度および経度についてのデータを含んでいる。
複数のデータセットDSのそれぞれは、熟練ドライバが、エリアデータDARが示すエリアにおいて車両を運転することにより得られた走行データに応じたデータである。複数のデータセットDSは、互いに異なる熟練ドライバに係る複数の走行データに応じたデータを含んでいてもよいし、一人の熟練ドライバに係る複数の走行データに応じたデータを含んでいてもよい。複数のデータセットDSのそれぞれは、加速度データDAと、ヨー角速度データDYと、カーブデータDCと、複数の画像データDPとを含んでいる。
加速度データDAは、熟練ドライバが運転した車両の進行方向の加速度(前後加速度)の時系列データである。
ヨー角速度データDYは、熟練ドライバが運転した車両のヨー角速度の時系列データである。
カーブデータDCは、走行路における複数のカーブについてのカーブ番号を含むデータである。カーブデータDCは、ヨー角速度データDYに基づいて生成される。カーブデータDCでは、複数のカーブのカーブ番号が、ヨー角速度データDYにおけるヨー角速度の時系列データと対応づけて設定される。
図5は、ヨー角速度データDYおよびカーブデータDCの一例を表すものである。ヨー角速度は、走行路のカーブに応じて変化する。カーブデータDCは、このヨー角速度の時系列データに基づいて設定された、カーブ番号(図5における“1”~“9”)を含む。カーブデータDCでは、複数のカーブのカーブ番号が、ヨー角速度データDYにおけるヨー角速度の時系列データと対応づけて設定されている。
複数の画像データDPは、複数のカーブにおけるカーネル密度推定画像の画像データである。
図6は、あるカーブにおけるカーネル密度推定画像の一例を表すものである。図7は、図6に示したカーネル密度推定画像の座標軸を表すものである。このカーネル密度推定画像の横軸(X軸)は時間を示し、縦軸(Y軸)はヨー角加速度の2乗を示す。ヨー角加速度は、ヨー角速度の時間微分である。カーネル密度推定画像の画素値(Z軸)は前後躍度の2乗を示す。前後躍度は、前後加速度の時間微分である。カーネル密度推定画像における、色が濃い画像部分は、前後躍度の2乗の値が大きいことを示し、色が薄い画像部分は、前後躍度の2乗の値が小さいことを示す。この例では、前後躍度の2乗の値が大きいほど画素値が小さく、前後躍度の2乗の値が小さいほど画素値が大きい。このカーネル密度推定画像は、ドライバの運転技能に応じて変化し得る。記憶部32には、複数のカーブに対応した複数のカーネル密度推定画像が、複数の画像データDPとしてそれぞれ記憶される。
データセットDSAおよび複数のデータセットDSBのそれぞれは、このように、加速度データDA、ヨー角速度データDY、カーブデータDC、および複数の画像データDPを含んでいる。後述するように、データ処理システム2は、複数のデータセットDSBのそれぞれにおけるカーブデータDCのカーブ番号を、データセットDSAにおけるカーブデータDCに基づいて調整する。すなわち、カーブ番号は、ヨー角速度データDYに基づいて生成されるので、ヨー角速度データDYに応じて、あるカーブに互いに異なるカーブ番号が付される可能性がある。よって、データ処理システム2は、データセットDSAを見本データとして用い、複数のデータセットDSBのそれぞれにおけるカーブデータDCのカーブ番号を、データセットDSAにおけるカーブデータDCに基づいて調整する。これにより、複数のデータセットDSBのカーブデータDCにおいて、互いに同じカーブのカーブ番号が、互いに同じになるように調節されるようになっている。
評価対象カーブデータDTCは、エリアデータDARが示すエリアにおける複数のカーブのうち、運転技能評価の評価対象である複数のカーブのカーブ番号を示すデータである。
記憶部32には、このようなデータが記憶される。なお、以上では、記憶部32には、1つのエリアについてのデータが記憶される例で説明したが、これに限定されるものではなく、複数のエリアについてのデータが記憶されてもよい。この場合には、記憶部32には、複数のエリアのそれぞれについて、複数のデータセットDS、評価対象カーブデータDTC、およびエリアデータDARが記憶される。
処理部40(図3)は、サーバ装置30の動作を制御するように構成され、例えば、1または複数のプロセッサ、1または複数のメモリなどを用いて構成される。処理部40は、サーバ装置30にインストールされた、運転技能評価システム1に係るサーバ用のソフトウェアを実行することにより、データ処理部41、カーブ検出部42、データ抽出部43、画像生成部44、画像類似度算出部45、および技能判定部46として動作し得る。
データ処理部41は、通信部31により受信された、加速度の時系列データ、角速度の時系列データ、および車両9の位置の時系列データに基づいて、所定のデータ処理を行うことにより、加速度データDA1およびヨー角速度データDY1を生成するように構成される。所定のデータ処理は、例えば、車両9の位置の時系列データに基づいて、車両9が評価対象エリアを走行しているかどうかを確認する処理、スマートフォン10により得られた加速度の時系列データに基づいて座標変換を行うことにより、車両9の進行方向における加速度(前後加速度)の時系列データを生成する処理、スマートフォン10により得られた角速度の時系列データに基づいて座標変換を行うことにより、車両9のヨー角速度の時系列データを生成する処理、前後加速度の時系列データに対するフィルタ処理、およびヨー角速度の時系列データに対するフィルタ処理などを含む。ここで、フィルタ処理は、ローパスフィルタによる処理である。
カーブ検出部42は、データ処理部41により生成されたヨー角速度データDY1に基づいて、複数のカーブを検出することにより、カーブデータDC1を生成するように構成される。
データ抽出部43は、記憶部32に記憶された評価対象カーブデータDTCに基づいて、加速度データDA1に含まれる前後加速度の時系列データのうちの、運転技能評価の評価対象である複数のカーブに係る、前後加速度の時系列データを抽出するとともに、ヨー角速度データDY1に含まれるヨー角速度の時系列データのうちの、運転技能評価の評価対象である複数のカーブに係る、ヨー角速度の時系列データを抽出するように構成される。
画像生成部44は、データ抽出部43により抽出された、複数のカーブに係る前後加速度の時系列データおよびヨー角速度の時系列データに基づいて、複数のカーブに係る複数のカーネル密度推定画像をそれぞれ生成することにより、複数の画像データDP1をそれぞれ生成するように構成される。具体的には、画像生成部44は、1つのカーブに係る前後加速度の時系列データおよびヨー角速度の時系列データに基づいて、カーネル密度推定処理を行うことにより、そのカーブのカーネル密度推定画像を生成する。カーネル密度推定処理では、実測データに基づいて、いまだ観測されていないデータを含む本来のデータが、密度データとして推定される。画像生成部44は、複数のカーブのそれぞれについて、この処理を行うことにより、複数のカーネル密度推定画像を生成する。このようにして、画像生成部44は、複数のカーブに係る複数の画像データDP1を生成するようになっている。
画像類似度算出部45は、画像生成部44が生成した複数のカーネル密度推定画像と、記憶部32に記憶された複数のデータセットDSに含まれる複数のカーネル密度推定画像とに基づいて、画像類似度の平均値(平均類似度)を算出するように構成される。具体的には、画像類似度算出部45は、1つのカーブについて、画像生成部44が生成したカーネル密度推定画像と、複数のデータセットDSに含まれる複数のカーネル密度推定画像とを比較することにより画像類似度をそれぞれ算出する。画像類似度算出部45は、複数のカーブのそれぞれについて、この処理を行うことにより、複数の画像類似度を算出する。そして、画像類似度算出部45は、これらの複数の画像類似度の平均値(平均類似度)を算出するようになっている。
技能判定部46は、画像類似度算出部45が算出した平均類似度に基づいて、車両9のドライバの運転技能を判定するように構成される。そして、通信部31は、技能判定部46により生成された運転技能の評価結果を示すデータをスマートフォン10に送信するようになっている。
記憶部32に記憶された複数のデータセットDS、評価対象カーブデータDTC、およびエリアデータDARは、データ処理システム2により生成される。以下に、このデータ処理システム2について説明する。
図8は、データ処理システム2の一構成例を表すものである。データ処理システム2は、車載装置110と、情報処理装置130とを備えている。車載装置110は、熟練ドライバが運転する車両109に搭載された装置である。情報処理装置130は、この例では、いわゆるパーソナルコンピュータである。
図9は、車載装置110の一構成例を表すものである。車載装置110は、加速度センサ114と、ヨー角速度センサ115と、GNSS受信機116と、処理部120とを有している。
加速度センサ114は、車両109の進行方向の加速度(前後加速度)を検出するように構成される。
ヨー角速度センサ115は、車両109のヨー角速度を検出するように構成される。
GNSS受信機116は、GPSなどのGNSSを用いて、地上での車両109の位置を取得するように構成される。
処理部120は、いわゆるECU(Electronic Control Unit)であり、例えば、1または複数のプロセッサ、1または複数のメモリなどを用いて構成される。処理部120は、加速度センサ114により検出された前後加速度の時系列データ、ヨー角速度センサ115により検出されたヨー角速度の時系列データ、およびGNSS受信機116により得られた車両109の位置の時系列データを収集する。
例えば、エンジニアは、走行終了後に、処理部120が収集したこれらの時系列データを、例えば半導体メモリなどの外部記録媒体に記憶させる。
図10は、情報処理装置130の一構成例を表すものである。情報処理装置130は、エンジニアの操作に基づいて、外部記録媒体に記録されたデータを読み出し、読み出されたデータに基づいて、サーバ装置30の記憶部32に記憶される複数のデータセットDS、評価対象カーブデータDTC、およびエリアデータDARを生成する。情報処理装置130は、ユーザインタフェース部131と、記憶部132と、通信部133と、処理部140とを備えている。
ユーザインタフェース部131は、例えば、キーボード、マウス、液晶ディスプレイや有機ELディスプレイなどの表示部とを含んで構成される。ユーザインタフェース部131は、情報処理装置130のユーザ(この例ではエンジニア)の操作を受け付けるとともに、情報処理装置130の処理結果を表示するようになっている。
記憶部132は、例えばHDDやSSDなどを含み、様々なソフトウェアのプログラムデータなどが記憶されるように構成される。この例では、情報処理装置130には、データ処理システム2に係るソフトウェアがインストールされている。このソフトウェアのプログラムデータは、記憶部132に記憶されている。
通信部133は、ネットワーク通信を行うことにより、インターネットを介してサーバ装置30と通信を行うように構成される。
処理部140は、情報処理装置130の動作を制御するように構成され、例えば、1または複数のプロセッサ、1または複数のメモリなどを用いて構成される。処理部140は、情報処理装置130にインストールされた、データ処理システム2に係るソフトウェアを実行することにより、データ処理部141、カーブ検出部142、画像生成部144、画像類似度算出部145、評価対象データ生成部147、エリアデータ生成部148、およびデータ登録部149として動作し得る。
データ処理部141は、外部記録媒体から読み出された、前後加速度の時系列データおよびヨー角速度の時系列データに基づいて、所定のデータ処理を行うことにより、加速度データDAおよびヨー角速度データDYを生成するように構成される。所定のデータ処理は、例えば、前後加速度の時系列データに対するフィルタ処理、ヨー角速度の時系列データに対するフィルタ処理、エンジニアの操作に基づいてエリアデータDARを生成する処理などを含む。ここで、フィルタ処理は、ローパスフィルタによる処理である。
カーブ検出部142は、データ処理部141により生成されたヨー角速度データDYに基づいて、複数のカーブを検出することにより、カーブデータDCを生成するように構成される。カーブ検出部142の処理は、サーバ装置30におけるカーブ検出部42の処理と同様である。
画像生成部144は、複数のカーブに係る前後加速度の時系列データおよびヨー角速度の時系列データに基づいて、複数のカーブに係る複数のカーネル密度推定画像をそれぞれ生成することにより、複数の画像データDPをそれぞれ生成するように構成される。画像生成部144の処理は、サーバ装置30における画像生成部44の処理と同様である。
画像類似度算出部145は、複数のカーネル密度推定画像に基づいて、画像類似度を算出するように構成される。画像類似度算出部145における画像類似度の算出処理は、サーバ装置30の画像類似度算出部45における画像類似度の算出処理と同様である。
評価対象データ生成部147は、画像類似度算出部145の処理結果に基づいて、運転技能の評価対象である複数のカーブを決定することにより、評価対象カーブデータDTCを生成するように構成される。
エリアデータ生成部148は、エンジニアの操作に基づいて、評価対象エリアを示すデータであるエリアデータDARを生成するように構成される。
データ登録部149は、加速度データDA、ヨー角速度データDY、カーブデータDC、および複数の画像データDPを含むデータセットDSと、評価対象カーブデータDTCと、エリアデータDARとを記憶部132に記憶させるように構成される。
この構成により、データ処理システム2は、熟練ドライバの走行データに基づいて、複数のデータセットDS、評価対象カーブデータDTC、およびエリアデータDARを生成する。そして、データ処理システム2は、複数のデータセットDS、評価対象カーブデータDTC、およびエリアデータDARを、サーバ装置30に送信する。そして、サーバ装置30は、これらのデータを記憶部32に記憶させるようになっている。
ここで、画像生成部44は、本開示における「画像生成回路」の一具体例に対応する。画像類似度算出部45および技能判定部46は、本開示における「評価回路」の一具体例に対応する。ヨー角加速度の2乗は、本開示における「第1のパラメータ」の一具体例に対応する。前後躍度の2乗は、本開示における「第2のパラメータ」の一具体例に対応する。記憶部32に記憶されたデータセットDSの画像データDPが示すカーネル密度推定画像は、本開示における「リファレンス画像」の一具体例に対応する。
[動作および作用]
続いて、本実施の形態の運転技能評価システム1の動作および作用について説明する。
続いて、本実施の形態の運転技能評価システム1の動作および作用について説明する。
(全体動作概要)
図1~4,8~10を参照して、運転技能評価システム1の動作を説明する。
図1~4,8~10を参照して、運転技能評価システム1の動作を説明する。
まず、運転技能評価システム1は、熟練ドライバが車両109を運転したときの走行データに基づいて、複数のデータセットDS、評価対象カーブデータDTC、およびエリアデータDARを生成する。
具体的には、熟練ドライバがデータ処理システム2の車両109を運転することにより、車載装置110の処理部120は、車両109の走行データを収集する。例えば、エンジニアは、走行終了後に、処理部120が収集した走行データを、例えば半導体メモリなどの外部記録媒体に記憶させる。情報処理装置130は、この走行データに基づいて、加速度データDA、ヨー角速度データDY、カーブデータDC、および複数の画像データDPを生成し、これらのデータを含むデータセットDSを、記憶部132に記憶させる。情報処理装置130は、この処理を繰り返すことにより、複数のデータセットDSを記憶部132に記憶させる。また、情報処理装置130は、複数のデータセットDSに基づいて運転技能の評価対象である複数のカーブを示すデータである評価対象カーブデータDTCを生成するとともに、エンジニアの操作に基づいて評価対象エリアを示すデータであるエリアデータDARを生成し、これらのデータを記憶部132に記憶させる。そして、情報処理装置130は、複数のデータセットDS、評価対象カーブデータDTC、およびエリアデータDARを、サーバ装置30に送信する。サーバ装置30は、情報処理装置130から送信された複数のデータセットDS、評価対象カーブデータDTC、およびエリアデータDARを記憶部32に記憶させる。
運転技能評価システム1は、このようにして熟練ドライバが車両109を運転することにより生成された、複数のデータセットDS、評価対象カーブデータDTC、およびエリアデータDARを用いて、ドライバの運転技能を評価する。
具体的には、評価対象であるドライバが車両9を運転することにより、スマートフォン10は、車両9の走行データを収集する。そして、スマートフォン10は、収集した走行データをサーバ装置30に送信する。サーバ装置30は、この走行データに基づいて、加速度データDA1、ヨー角速度データDY1、カーブデータDC1、および複数の画像データDP1を生成する。サーバ装置30は、複数の画像データDP1が示す複数のカーネル密度推定画像と、記憶部32に記憶された複数のデータセットDSに含まれる複数の画像データDPが示す複数のカーネル密度推定画像とに基づいて、画像類似度の平均値(平均類似度)を算出し、この平均類似度に基づいて、車両9のドライバの運転技能を判定する。そして、サーバ装置30は、運転技能の評価結果を示すデータをスマートフォン10に送信する。そして、スマートフォン10は、サーバ装置30から送信された運転技能の判定結果を表示する。
(詳細動作)
以下に、運転技能評価システム1の動作について、詳細に説明する。
以下に、運転技能評価システム1の動作について、詳細に説明する。
(複数のデータセットDSの生成について)
まず、データ処理システム2は、熟練ドライバが車両109を運転することにより得られた走行データに基づいて、複数のデータセットDSを生成する。以下に、複数のデータセットDSを生成する動作について詳細に説明する。
まず、データ処理システム2は、熟練ドライバが車両109を運転することにより得られた走行データに基づいて、複数のデータセットDSを生成する。以下に、複数のデータセットDSを生成する動作について詳細に説明する。
熟練ドライバが車両109を運転すると、車両109では、車載装置110の加速度センサ114は、車両109の進行方向の加速度(前後加速度)を検出し、ヨー角速度センサ115は、車両109のヨー角速度を検出し、GNSS受信機116は、地上での車両109の位置を取得する。処理部120は、加速度センサ114により検出された前後加速度の時系列データ、ヨー角速度センサ115により検出されたヨー角速度の時系列データ、およびGNSS受信機116により得られた車両109の位置の時系列データを収集する。
例えば、エンジニアは、走行終了後に、処理部120が収集したこれらの時系列データを、例えば半導体メモリなどの外部記録媒体に記憶させる。
情報処理装置130は、この外部記録媒体から読み出された、前後加速度の時系列データ、ヨー角速度の時系列データ、および車両109の位置の時系列データに基づいて、データセットDSを生成し、このデータセットDSを記憶部132に記憶させる。以下に、この情報処理装置130の動作について、詳細に説明する。
図11は、データ処理システム2における情報処理装置130の一動作例を表すものである。この例では、エリアデータ生成部148は、エンジニアの操作に基づいて、エリアデータDARをすでに生成している。
まず、情報処理装置130のデータ処理部141は、車両109の位置の時系列データに基づいて、記憶部132に記憶されているエリアデータDARを用いて、車両109が評価対象エリアを走行したかどうかを確認する(ステップS101)。車両109が評価対象エリアを走行していない場合(ステップS101において“N”)には、この処理は終了する。
車両109が評価対象エリアを走行した場合(ステップS101において“Y”)には、データ処理部141は、評価対象エリアにおける前後加速度の時系列データおよびヨー角速度の時系列データに対してフィルタ処理を行うことにより、加速度データDAおよびヨー角速度データDYをそれぞれ生成する(ステップS102)。
次に、カーブ検出部142は、ステップS102において生成したヨー角速度データDYに基づいて、カーブ分割処理を行うことによりカーブデータDCを生成する(ステップS103)。カーブ分割処理は、以下に示す2段階の処理を含む。
図12は、カーブ分割処理における1段階目の処理の一具体例を表すものである。カーブ検出部142は、ヨー角速度データDYに含まれるヨー角速度を、時系列順に順次読み込みつつ、この図12に示す処理を行う。
まず、カーブ検出部142は、所定値A以上(例えば0.02rad/sec.以上)のヨー角速度が所定時間B以上(例えば2秒以上)の時間にわたり継続しているかどうかを確認する(ステップS201)。この条件は、カーブ検出部142が、カーブ検出の基本条件である。なお、この例では、所定時間Bを用いて評価したが、所定時間Bの代わりに所定距離を用いて評価してもよい。この条件を満たさない場合(ステップS201において“N”)には、この条件が満たすまで、ステップS201の処理を繰り返す。
ステップS201に示した条件を満たす場合(ステップS201において“Y”)には、カーブ検出部142は、ヨー角速度の極性が、直前のカーブでのヨー角速度の極性と同じであり、かつ、直前のカーブの後に所定時間C未満(例えば9秒未満)の時間にわたり車両109が直線道路を走行しているかどうかを確認する(ステップS202)。なお、この例では、所定時間Cを用いて評価したが、所定時間Cの代わりに所定距離を用いて評価してもよい。
ステップS202において、この条件を満たさない場合(ステップS202において“N”)には、カーブ検出部142は、カーブを検出する(ステップS203)。すなわち、ステップS201において、カーブ検出の基本条件を満たしており、直前のカーブからの距離が離れているので、カーブ検出部142は、直前のカーブとは別に、新しいカーブを検出する。カーブ検出部142は、検出したカーブに、カーブ番号を付する。そして、処理はステップS205に進む。
ステップS202において、この条件を満たす場合(ステップS202において“Y”)には、カーブ検出部142は、直前のカーブが継続しているとみなす(ステップS203)。すなわち、ステップS201において、カーブ検出の基本条件を満たしているが、直前のカーブからの距離が短いので、直前のカーブが継続しているとみなす。そして、処理はステップS205に進む。
次に、カーブ検出部142は、ヨー角速度が所定値A以下(例えば0.02rad/sec.以下)であるかどうかを確認する(ステップS205)。すなわち、カーブ検出部142は、カーブ検出の基本条件を満たさなくなったかどうかを確認する。ヨー角速度が所定値A以下ではない場合(ステップS205において“N”)には、ヨー角速度が所定値A以下になるまで、ステップS205の処理を繰り返す。
ヨー角速度が所定値A以下である場合(ステップS205において“Y”)には、カーブ検出部142は、所定値A未満(例えば0.02rad/sec.未満)のヨー角速度が所定時間B未満(例えば2秒未満)の時間にわたり継続した後にヨー角速度が所定値A以上(例えば0.02rad/sec.以上)になったかどうかを確認する(ステップS206)。この条件を満たす場合(ステップS206において“Y”)には、カーブ検出部142は、直前のカーブが継続しているとみなす(ステップS207)。すなわち、この条件を満たす場合には、カーブ検出部142は、カーブ終了直後にドライバがステアリング操作を調整することにより車両109がふらついたと判断し、直前のカーブが継続しているとみなす。そして、処理はステップS205に戻る。
ステップS206の条件を満たさない場合(ステップS206において“N”)には、カーブ検出部142は、カーブの終了を検出する(ステップS208)。
そして、カーブ検出部142は、ヨー角速度データDYに含まれる全てのヨー角速度のデータを読み込んだかどうかを確認する(ステップS209)。まだ全てのデータを読み込んでいない場合(ステップS209において“N”)には、処理はステップS201に戻る。
ステップS209において、全てのデータを読み込んだ場合(ステップS209において“Y”)には、この処理は終了する。
このように、カーブ分割処理における1段階目の処理では、カーブ検出部142は、基本的には、所定値A以上(例えば0.02rad/sec.以上)のヨー角速度が所定時間B以上(例えば2秒以上)の時間にわたり継続している場合に、カーブを検出する(ステップS201)。また、カーブ検出部142は、カーブが終了した後に、所定値A未満(例えば0.02rad/sec.未満)のヨー角速度が所定時間B未満(例えば2秒未満)の時間にわたり継続し、その後に、ヨー角速度が所定値A以上(例えば0.02rad/sec.以上)になった場合に、直前のカーブが継続しているとみなす(ステップS205~S207)。また、カーブ検出部142は、同じ方向に曲がる2つのカーブに挟まれた直線道路が短い場合には、これらの2つのカーブを1つのカーブとみなす(ステップS201,S202,S204)。
図13は、カーブ分割処理における2段階目の処理の一具体例を表すものである。カーブ検出部142は、1段階目の処理結果を用いて、この2段階目の処理を行う。これにより、カーブ検出部142は、1段階目の処理により検出された複数のカーブのそれぞれについて、運転技能評価の評価対象とするかどうかを決定する。
まず、カーブ検出部142は、1段階目の処理により得られた複数のカーブのうちの最初のカーブを選択する(ステップS221)。
次に、カーブ検出部142は、選択したカーブにおけるヨー角速度の平均値は所定値D未満(例えば0.05rad/sec.未満)であるかどうかを確認する(ステップS222)。
ステップS222において、ヨー角速度の平均値が所定値D未満である場合(ステップS222において“Y”)には、カーブ検出部142は、ヨー角速度の最大値は所定値E以上(例えば0.07rad/sec.以上)であるかどうかを確認する(ステップS223)。
ステップS222において、ヨー角速度の平均値が所定値D未満ではない場合(ステップS222において“N”)、もしくはステップS223において、ヨー角速度の最大値は所定値E以上である場合(ステップS223において“Y”)には、カーブ検出部142は、このカーブを運転技能評価の評価対象とする(ステップS224)。また、ステップS223において、ヨー角速度の最大値は所定値E以上ではない場合(ステップS223において“N”)には、カーブ検出部142は、このカーブを運転技能評価の評価対象としない(ステップS225)。
次に、カーブ検出部142は、全てのカーブを選択したかどうかを確認する(ステップS226)。まだ全てのカーブを選択していない場合(ステップS226において“N”)には、カーブ検出部142は、選択されていないカーブのうちの1つを選択する(ステップS227)。そして、処理はステップS221に戻る。カーブ検出部142は、全てのカーブが選択されるまで、ステップS221~S227の処理を繰り返す。
そして、カーブ検出部142は、すでに全てのカーブを選択した場合(ステップS226において“Y”)には、この処理は終了する。
このようにして、図11のステップS103に示したように、カーブ検出部142は、カーブ分割処理を行うことにより、カーブデータDCを生成する。
次に、カーブ検出部142は、見本データがあるかどうかを確認する(ステップS104)。具体的には、カーブ検出部142は、記憶部132に、見本データであるデータセットDSAが記憶されているかどうかを確認する。
ステップS104において、見本データがない場合(ステップS104において“N”)には、画像生成部144は、複数のカーブのそれぞれについて、カーネル密度推定画像を生成することにより、複数の画像データDPを生成する(ステップS105)。
図14は、カーネル密度推定画像を生成する処理の一例を表すものである。
まず、画像生成部144は、前処理を行う(ステップS241)。具体的には、画像生成部44は、まず、加速度データDAに含まれる前後加速度の時系列データを時間微分することにより、前後躍度の時系列データを算出し、この前後躍度の時系列データに基づいて、前後躍度の2乗の時系列データを算出する。また、画像生成部144は、ヨー角速度データDYに含まれるヨー角速度の時系列データを時間微分することにより、ヨー角加速度の時系列データを算出し、このヨー角加速度の時系列データに基づいて、ヨー角加速度の2乗の時系列データを算出する。そして、画像生成部144は、前後躍度の2乗の時系列データ、およびヨー角加速度の2乗の時系列データに基づいて、前処理画像を生成する。
図15は、前処理画像を生成する処理の一例を表すものである。この前処理画像の横軸(X軸)は時間を示し、縦軸(Y軸)はヨー角加速度の2乗を示す。この例では、前処理画像が、X軸方向において100個の領域に区分され、Y軸方向において100個の領域に区分される。よって、前処理画像には、10000個の領域が設けられる。
前処理画像におけるX軸方向のフルスケールは、1つのカーブにおける車両109の走行時間を想定し、例えば5秒に設定される。
前処理画像におけるY軸方向のフルスケールは、ヨー角加速度の2乗の時系列データに基づいて設定される。ヨー角加速度の2乗の値は、一般に大きくばらついており、例えば検出精度などに起因して、大きく外れた値になることもあり得る。よって、この例では、画像生成部144は、ヨー角加速度の2乗の値のうち、大きく外れた値を除去する処理を行う。画像生成部44は、例えば箱ひげ図を用いて、大きく外れた値を除去することができる。そして、画像生成部144は、大きく外れた値が除去されたデータのうちの、最小値および最大値を求め、最小値から最大値までの値の範囲Rが、図15のY軸方向に、適度のマージンMをもって収まるように、Y軸方向のフルスケールを決定する。マージンMは、例えば、最小値から最大値までの値の幅の3%程度にすることができる。
例えば、X軸方向におけるフルスケールが5秒であり、時系列データのサンプリング周期が10msec.である場合には、前後躍度の2乗の時系列データにおけるデータ数は500個(=5sec./10msec.)であり、ヨー角加速度の2乗の時系列データにおけるデータ数は500個である。なお、実際には、上述したように、これらのデータのうちの外れ値に係るデータが除去される。画像生成部144は、時間、およびヨー角加速度の2乗の値に基づいて、前後躍度の2乗の値を、前処理画像における10000個の領域にマッピングする。
画像生成部144は、10000個の領域のうち、1つのデータがマッピングされた領域では、その1つのデータに係る前後躍度の2乗の値を、その領域の値とする。また、画像生成部144は、10000個の領域のうち、複数のデータがマッピングされた領域では、その複数のデータに係る前後躍度の2乗の値を互いに足し合わせ、足し合わされた値を、その領域の値とする。このようにして、画像生成部144は、前処理画像の画素値(Z軸)を生成する。そして、画像生成部144は、この画素値を、例えば0以上255以下の整数になるように、そして、前後躍度の2乗の値が大きいほど画素値が小さく、前後躍度の2乗の値が小さいほど画素値が大きくなるように、スケーリングする。このようにして、画像生成部144は、前処理画像を生成する。
次に、画像生成部144は、図14に示すように、この前処理画像に基づいてカーネル密度推定処理を行う(ステップS242)。カーネル密度推定処理では、実測データに基づいて、いまだ観測されていないデータを含む本来のデータが、密度データとして推定される。画像生成部144は、公知の技術を用いて、カーネル密度推定処理を行う。これにより、画像生成部144は、カーネル密度推定画像を生成する。
以上で、この処理は終了する。
このようにして、図11のステップS105に示したように、画像生成部144は、複数のカーブのそれぞれについて、カーネル密度推定画像を生成することにより、複数の画像データDPを生成する。
そして、データ登録部149は、ステップS102において生成された加速度データDAおよびヨー角速度データDY、ステップS103において生成されたカーブデータDC、ステップS105において生成された複数の画像データDPを、データセットDSAとして記憶部132に記憶させる(ステップS106)。以上で、この処理は終了する。
ステップS104において、見本データがある場合(ステップS104において“Y”)には、カーブ検出部142は、ステップS102において生成されたヨー角速度データDYと、記憶部132に記憶されたデータセットDSAのヨー角速度データDYとの類似性に基づいてカーブの対応関係を特定することにより、カーブデータDCを修正する(ステップS107)。
図16は、ステップS107の処理の一例を表すものである。
まず、カーブ検出部142は、ステップS102において生成されたヨー角速度データDYと、データセットDSAのヨー角速度データDYとに基づいて、処理対象となる全体走行区間を特定する(ステップS261)。具体的には、カーブ検出部142は、ステップS102において生成されたヨー角速度データDYと、データセットDSAのヨー角速度データDYとに基づいて、動的時間伸縮法(DTW:Dynamic Time Wrapping)を用いて、互いに類似している全体走行区間を特定する。すなわち、これらのヨー角速度データDYは、ともに、評価対象エリアにおけるヨー角速度の時系列データであるので、ほぼ同じであることが望まれる。しかしながら、GNSSにより得られた車両109の位置の精度があまり良くない場合には、ヨー角速度データDYは、時系列データの最初または最後において、不要なデータを含む場合や、データが欠落している場合があり得る。よって、カーブ検出部142は、ステップS102において生成されたヨー角速度データDYと、データセットDSAのヨー角速度データDYとに基づいて、動的時間伸縮法を用いて、カーブの数がほぼ同じになるような全体走行区間を特定する。これにより、この全体走行区間において、ステップS102において生成されたヨー角速度データDYと、データセットDSAのヨー角速度データDYとは、互いに比較できるようになる。カーブ検出部142は、このようにして、処理対象となる全体走行区間を特定する。
次に、カーブ検出部142は、ステップS102において生成されたヨー角速度データDYにより得られた処理対象となる全体走行区間における複数のカーブと、データセットDSAのヨー角速度データDYにより得られた処理対象となる全体走行区間における複数のカーブとの間の、カーブの対応関係を特定する(ステップS262)。具体的には、カーブ検出部142は、ステップS102において生成されたヨー角速度データDY、および、データセットDSAのヨー角速度データDYに基づいて、動的時間伸縮法を用いて、互いに類似している複数の区間をそれぞれ特定することにより、カーブの対応関係を特定する。
図17は、ステップS262の処理の一例を表すものであり、(A)はステップS102において生成されたヨー角速度データDYを示し、(B)はデータセットDSAのヨー角速度データDYを示す。この図17は、処理対象となる走行区間の一部でのヨー角速度データDYを示している。図17において、数字は、カーブデータDCにおけるカーブ番号を示す。
これらの2つのヨー角速度データDYでは、部分W1において相違がある。すなわち、図17(A)に示したヨー角速度データDYでは、部分W1において、カーブ番号が“6”である1つのカーブが検出されている。一方、図17(B)に示したヨー角速度データDYでは、部分W1において、カーブ番号が“6”~“8”である3つのカーブが検出されている。
よって、この例では、カーブ検出部142は、ステップS102において生成されたヨー角速度データDY(図17(A))において、部分W1におけるカーブのカーブ番号を、“6”から“6,7,8”に変更するとともに、このカーブ以降のカーブのカーブ番号を変更する。すなわち、カーブ検出部142は、ステップS102において生成されたヨー角速度データDY(図17(A))における複数のカーブのカーブ番号と、データセットDSAのヨー角速度データDY(図17(B))における複数のカーブのカーブ番号とを一致させるように、カーブの対応関係を特定する。そして、カーブ検出部142は、この処理結果に基づいて、ステップS103により生成されたカーブデータDCを修正する。
次に、カーブ検出部142は、ステップS102において生成されたヨー角速度データDYにおける複数のカーブと、データセットDSAのヨー角速度データDYにおける複数のカーブとの間の、類似度が低いカーブを、運転技能評価の評価対象から除外する(ステップS263)。具体的には、カーブ検出部142は、ステップS102において生成されたヨー角速度データDYにおける複数のカーブ、およびデータセットDSAのヨー角速度データDYにおける複数のカーブのうちの、互いに対応関係があるカーブについて、動的時間伸縮法を用いて、類似度をそれぞれ算出する。そして、カーブ検出部142は、類似度が所定量よりも低いカーブを、運転技能評価の評価対象から除外する。
以上で、この処理は終了する。
このようにして、図11のステップS107に示したように、カーブ検出部142は、ステップS102において生成されたヨー角速度データDYと、データセットDSAのヨー角速度データDYとの類似性に基づいてカーブの対応関係を特定することにより、カーブデータDCを修正する。
次に、画像生成部144は、複数のカーブのそれぞれについて、カーネル密度推定画像を生成することにより、複数の画像データDPを生成する(ステップS108)。この処理は、ステップS105の処理と同様である。
そして、データ登録部149は、ステップS102において生成された加速度データDAおよびヨー角速度データDY、ステップS103において生成され、ステップS107において修正されたカーブデータDC、ステップS108において生成された複数の画像データDPを、データセットDSBとして記憶部132に記憶させる(ステップS109)。以上で、この処理は終了する。
このようにして、データ処理システム2は、熟練ドライバが車両109を運転することにより得られた走行データに基づいて、加速度データDA、ヨー角速度データDY、カーブデータDC、および複数の画像データDPを含むデータセットDSを生成する。データ処理システム2は、このような処理を繰り返すことにより、複数の走行データに基づいて、複数のデータセットDSを生成することができる。
(評価対象カーブデータDTCの生成について)
以上では、データ処理システム2は、熟練ドライバが車両109を運転することにより得られた走行データに基づいて、処理を行うようにしたが、例えば、非熟練ドライバが車両109を運転することにより得られた走行データに基づいて、処理を行うことも可能である。これにより、データ処理システム2は、熟練ドライバに係るカーネル密度推定画像と、非熟練ドライバに係るカーネル密度推定画像とを得ることができる。
以上では、データ処理システム2は、熟練ドライバが車両109を運転することにより得られた走行データに基づいて、処理を行うようにしたが、例えば、非熟練ドライバが車両109を運転することにより得られた走行データに基づいて、処理を行うことも可能である。これにより、データ処理システム2は、熟練ドライバに係るカーネル密度推定画像と、非熟練ドライバに係るカーネル密度推定画像とを得ることができる。
このカーネル密度推定画像は、ドライバの運転技能に応じて変化し得る。後述するように、運転技能評価システム1では、カーネル密度推定画像に基づいて、ドライバの運転技能を評価する。あるカーブでは、例えば、熟練ドライバに係るカーネル密度推定画像と、非熟練ドライバに係るカーネル密度推定画像との間に、大きな差がある場合があり得る。また、他のあるカーブでは、例えば、熟練ドライバに係るカーネル密度推定画像と、非熟練ドライバに係るカーネル密度推定画像との間に、差がほとんど無い場合があり得る。よって、運転技能評価システム1では、熟練ドライバに係るカーネル密度推定画像と、非熟練ドライバに係るカーネル密度推定画像との間に、大きな差があるようなカーブを、運転技能評価の評価対象とする。
以下に、運転技能評価の評価対象とするカーブを決定することにより、評価対象カーブデータDTCを生成する処理について、詳細に説明する。
図18は、評価対象カーブデータDTCを生成する処理の一例を表すものである。この例では、データ処理システム2は、熟練ドライバに係る複数のデータセットDS、および非熟練ドライバに係る複数のデータセットDSをすでに取得している。
評価対象データ生成部147は、複数のカーブのうちの1つを選択する(ステップS301)。
次に、画像類似度算出部145は、選択した1つのカーブについての、熟練ドライバに係る複数のカーネル密度推定画像と、非熟練ドライバに係る複数のカーネル密度推定画像との間の画像類似度の平均値F1を算出する(ステップS302)。具体的には、画像類似度算出部145は、選択した1つのカーブについての、1または複数の熟練ドライバに係る複数のカーネル密度推定画像と、1または複数の非熟練ドライバに係る複数のカーネル密度推定画像との間の全ての組合せについて、カーネル密度推定画像の画像類似度を算出する。そして、画像類似度算出部145は、これらの画像類似度の平均値F1を算出する。
次に、画像類似度算出部145は、選択した1つのカーブについての、熟練ドライバに係る複数のカーネル密度推定画像のそれぞれの間の画像類似度の平均値F2を算出する(ステップS303)。具体的には、画像類似度算出部145は、選択した1つのカーブについての、1または複数の熟練ドライバに係る複数のカーネル密度推定画像のそれぞれの間の全ての組合せについて、カーネル密度推定画像の画像類似度を算出する。そして、画像類似度算出部145は、これらの画像類似度の平均値F2を算出する。
次に、評価対象データ生成部147は、平均値F1と平均値F2との間に有意差があるかどうかを確認する(ステップS304)。具体的には、評価対象データ生成部147は、平均値F1と平均値F2との差が所定量以上である場合には、平均値F1と平均値F2との間に有意差があると判断する。平均値F1と平均値F2との間に有意差がある場合(ステップS304において“Y”)には、評価対象データ生成部147は、ステップS301において選択したカーブを運転技能評価の評価対象とする(ステップS305)。また、平均値F1と平均値F2との間に有意差がない場合(ステップS304において“N”)には、評価対象データ生成部147は、ステップS301において選択したカーブを運転技能評価の評価対象としない(ステップS306)。
次に、評価対象データ生成部147は、全てのカーブを選択したかどうかを確認する(ステップS307)。まだ全てのカーブを選択していない場合(ステップS307において“N”)には、評価対象データ生成部147は、選択されていないカーブのうちの1つを選択する(ステップS308)。そして、処理はステップS302に戻る。評価対象データ生成部147は、全てのカーブが選択されるまで、ステップS302~S308の処理を繰り返す。
ステップS307において、全てのカーブを選択した場合(ステップS307において“Y”)には、評価対象データ生成部147は、ステップS305,S306の処理結果に基づいて、評価対象カーブデータDTCを生成する(ステップS309)。具体的には、評価対象データ生成部147は、ステップS305,S306において、運転技能評価の評価対象とされたカーブのカーブ番号を含む評価対象カーブデータDTCを生成する。
以上で、この処理は終了する。
このようにして、データ処理システム2は、熟練ドライバや非熟練ドライバが車両109を運転することにより得られた走行データに基づいて、評価対象カーブデータDTCを生成する。
そして、データ処理システム2は、複数のデータセットDS、評価対象カーブデータDTC、およびエリアデータDARを、サーバ装置30に送信する。サーバ装置30は、これらのデータを、記憶部32に記憶させる。
なお、この例では、処理部140は、ステップS302~S304において、平均値F1,F2を算出し、これらの平均値F1と平均値F2との間に有意差があるかどうかを確認することにより、選択したカーブを評価対象にするかどうかを判断したが、これに限定されるものではない。これに代えて、処理部140は、例えば、平均値F1,F2を用いずに、平均値F1の算出に使用した複数の画像類似度と、平均値F2の算出に使用した複数の画像類似度とに基づいて、例えばノンパラメトリックU検定の処理を行うことにより、選択したカーブを評価対象にするかどうかを判断してもよい。具体的には、まず、ステップS302と同様に、画像類似度算出部145は、選択した1つのカーブについての、1または複数の熟練ドライバに係る複数のカーネル密度推定画像と、1または複数の非熟練ドライバに係る複数のカーネル密度推定画像との間の全ての組合せについて、カーネル密度推定画像の画像類似度を算出する。次に、ステップS303と同様に、画像類似度算出部145は、選択した1つのカーブについての、1または複数の熟練ドライバに係る複数のカーネル密度推定画像のそれぞれの間の全ての組合せについて、カーネル密度推定画像の画像類似度を算出する。そして、評価対象データ生成部147は、最初のステップで得られた複数の画像類似度と、後のステップで得られた複数の画像類似度とに基づいて、例えばノンパラメトリックU検定の処理を行うことにより、最初のステップで得られた複数の画像類似度と、後のステップで得られた複数の画像類似度との間に有意差があるかどうかを判断する。有意差がある場合には、評価対象データ生成部147は、ステップS301において選択したカーブを運転技能評価の評価対象とする(ステップS305)。また、有意差がない場合(ステップS304において“N”)には、評価対象データ生成部147は、ステップS301において選択したカーブを運転技能評価の評価対象としない(ステップS306)。
(運転技能の評価について)
運転技能評価システム1は、ドライバが車両9を運転することにより生成された走行データに基づいて、サーバ装置30の記憶部32に記憶された複数のデータセットDS、評価対象カーブデータDTC、およびエリアデータDARを用いて、そのドライバの運転技能を評価する。以下に、この動作について詳細に説明する。
運転技能評価システム1は、ドライバが車両9を運転することにより生成された走行データに基づいて、サーバ装置30の記憶部32に記憶された複数のデータセットDS、評価対象カーブデータDTC、およびエリアデータDARを用いて、そのドライバの運転技能を評価する。以下に、この動作について詳細に説明する。
ドライバが車両9を運転すると、車両9では、スマートフォン10の加速度センサ14は、スマートフォン10の座標系における3つの方向の加速度をそれぞれ検出し、角速度センサ15は、スマートフォン10の座標系における3つの角速度(ヨー角速度、ロール角速度、ピッチ角速度)をそれぞれ検出し、GNSS受信機16は、地上での車両9の位置を取得する。
データ処理部21は、加速度センサ14の検出結果、および角速度センサ15の検出結果に基づいて、フィルタ処理などの所定のデータ処理を行う。具体的には、データ処理部21は、加速度センサ14により検出された加速度の時系列データに対して、フィルタ処理を行い、角速度センサ15により検出された角速度の時系列データに対して、フィルタ処理を行う。なお、これに限定されるものではなく、データ処理部21は、フィルタ処理が施されたこれらの時系列データに対して、ダウンサンプリング処理を行ってもよい。
そして、通信部13は、走行終了後に、データ処理部21により処理された加速度の時系列データおよび角速度の時系列データを、GNSS受信機16により得られた車両9の位置の時系列データとともに、サーバ装置30に送信する。
サーバ装置30では、通信部31は、スマートフォン10から送信されたデータを受信する。そして、サーバ装置30は、通信部31が受信したデータに基づいて、ドライバの運転技能を評価する。以下に、このサーバ装置30の動作について、詳細に説明する。
図19A,19Bは、サーバ装置30の一動作例を表すものである。
まず、サーバ装置30のデータ処理部41は、車両9の位置の時系列データに基づいて、記憶部32に記憶されているエリアデータDARを用いて、車両9が評価対象エリアを走行したかどうかを確認する(ステップS401)。車両9が評価対象エリアを走行していない場合(ステップS401において“N”)には、この処理は終了する。
車両9が評価対象エリアを走行した場合(ステップS401において“Y”)には、データ処理部41は、座標変換を行うことにより、前後加速度の時系列データおよびヨー角速度の時系列データを生成する(ステップS402)。具体的には、データ処理部41は、評価対象エリアにおける加速度の時系列データに基づいて座標変換を行うことにより、車両9の進行方向における加速度(前後加速度)の時系列データを生成する。また、データ処理部41は、評価対象エリアにおける角速度の時系列データに基づいて座標変換を行うことにより、車両9のヨー角速度の時系列データを生成する。なお、これに限定されるものではなく、例えば、スマートフォン10においてダウンサンプリング処理が行われている場合には、データ処理部41は、通信部31が受信した加速度の時系列データおよび角速度の時系列データに対してアップサンプリング処理を行い、アップサンプリング処理が施された前後加速度の時系列データおよびヨー角速度の時系列データに基づいて座標変換を行ってもよい。
次に、データ処理部41は、ステップS402において生成された前後加速度の時系列データおよびヨー角速度の時系列データに対してフィルタ処理を行うことにより、加速度データDA1およびヨー角速度データDY1をそれぞれ生成する(ステップS403)。
次に、カーブ検出部42は、ステップS403において生成したヨー角速度データDY1に基づいて、カーブ分割処理を行うことによりカーブデータDC1を生成する(ステップS404)。このカーブ分割処理は、図11に示したステップS103の処理と同様である。
次に、カーブ検出部42は、ステップS403において生成されたヨー角速度データDY1と、記憶部32に記憶されたデータセットDSAのヨー角速度データDYとの類似性に基づいてカーブの対応関係を特定することにより、カーブデータDC1を修正する(ステップS405)。この処理は、図11に示したステップS107の処理と同様である。
データ抽出部43は、記憶部32に記憶された評価対象カーブデータDTCに基づいて、運転技能評価の評価対象であるカーブに係る前後加速度の時系列データおよびヨー角速度の時系列データを抽出する(ステップS406)。具体的には、データ抽出部43は、加速度データDA1に含まれる前後加速度の時系列データのうちの、運転技能の評価に使用する複数のカーブに係る、前後加速度の時系列データを抽出する。また、データ抽出部43は、ヨー角速度データDY1に含まれるヨー角速度の時系列データのうちの、運転技能の評価に使用する複数のカーブに係る、ヨー角速度の時系列データを抽出する。
次に、画像生成部44は、ステップS406において抽出された前後加速度の時系列データおよびヨー角速度の時系列データに基づいて、複数のカーブのそれぞれについて、カーネル密度推定画像を生成することにより、複数の画像データDPを生成する(ステップS407)。この処理は、ステップS108の処理と同様である。このステップS406では、画像生成部44は、運転技能評価の評価対象であるカーブに係るカーネル密度推定画像を生成する。
次に、画像類似度算出部45は、ステップS407において生成された複数のカーネル密度推定画像と、記憶部32に記憶された熟練ドライバに係る複数のデータセットDSに含まれる複数のカーネル密度推定画像とに基づいて、画像類似度の平均値(平均類似度)を算出する(ステップS408)。具体的には、画像類似度算出部45は、複数のカーブの1つについて、画像生成部44が生成したカーネル密度推定画像と、熟練ドライバに係る複数のデータセットDSに含まれる複数のカーネル密度推定画像とを比較することにより画像類似度をそれぞれ算出する。画像類似度算出部45は、複数のカーブのそれぞれについて、この処理を行うことにより、複数の画像類似度を算出する。そして、画像類似度算出部45は、これらの複数の画像類似度の平均値(平均類似度)を算出する。この例では、画像類似度の値は正の値であり、カーネル密度推定画像が類似しているほど、画像類似度の値は小さく、カーネル密度推定画像が類似していないほど、画像類似度の値は大きい。
次に、技能判定部46は、ステップS404,S405においてカーブ検出部42により検出されたカーブの数が所定数G1以上であるかどうかを確認する(ステップS409)。すなわち、カーブ検出部42は、ステップS404,S405においてカーブを検出する際、ヨー角速度データDY1によっては一部のカーブを検出できない場合があり得る。例えば、ドライバの運転技能が低く、ヨー角速度データDY1が、熟練ドライバのヨー角速度データDYとの差異が大きい場合には、検出できないカーブの数が多くなり得る。よって、技能判定部46は、ヨー角速度データDY1に基づいて検出されたカーブの数が所定数G1以上であるかどうかを確認する。
ステップS409において、検出されたカーブの数が所定数G1以上である場合(ステップS109において“Y”)には、技能判定部46は、ステップS408において算出された平均類似度の値がしきい値G2未満であるかどうかを確認する(ステップS410)。
ステップS410において、平均類似度の値がしきい値G2未満である場合(ステップS410において“Y”)には、技能判定部46は、車両9のドライバの運転技能は高いと判定する(ステップS411)。すなわち、ステップS410において、平均類似度の値がしきい値G2未満であるので、ドライバのカーネル密度推定画像は、熟練ドライバのカーネル密度推定画像と似ている。よって、技能判定部46は、車両9のドライバの運転技能は高いと判定する。
また、ステップS409において、検出されたカーブの数が所定数G1以上ではない場合(ステップS409において“N”)、またはステップS410において、平均類似度の値がしきい値G2未満ではない場合(ステップS410において“N”)には、技能判定部46は、車両9のドライバの技能レベルは低いと判定する(ステップS412)。すなわち、ステップS409において、検出されたカーブの数が所定数G1以上ではない場合には、そのドライバのヨー角速度データDY1が、熟練ドライバのヨー角速度データDYとの差異が大きいので、技能判定部46は、ドライバの運転技能が低いと判断する。また、ステップS410において、平均類似度の値がしきい値G2未満ではない場合には、ドライバのカーネル密度推定画像は、熟練ドライバのカーネル密度推定画像と似ていないので、技能判定部46は、ドライバの運転技能が低いと判断する。
以上で、この処理は終了する。
サーバ装置30の通信部31は、運転技能の評価結果を含むデータをスマートフォン10に送信する。スマートフォン10の通信部13は、スマートフォン10から送信されたデータを受信する。表示処理部22は、サーバ装置30から送信された、運転技能の評価結果を示すデータに基づいて、表示処理を行う。タッチパネル11は、運転技能の評価結果を表示する。これにより、ドライバは、自分の運転技能についての客観的な評価を得ることができる。
このように、運転技能評価システム1における運転技能評価方法では、車両9の進行方向の方向変化に応じた第1のパラメータ(この例ではヨー角速度の2乗)の時系列データ、および車両9の進行方向の躍度(前後躍度)の2乗を示す第2のパラメータの時系列データに基づいてカーネル密度推定画像を生成することと、カーネル画像推定画像を、熟練ドライバに係るリファレンス画像と比較することにより、車両のドライバの運転技能を評価することとを含むようにした。これにより、運転技能評価方法では、ドライバの運転技能の評価精度を高めることができる。すなわち、カーネル密度推定処理では、実測データに基づいて、いまだ観測されていないデータを含む本来のデータが、密度データとして推定される。よって、カーネル画像推定画像は、そのドライバの運転技能に応じた、そのドライバ本来の固有の特徴を含み得る。よって、この運転技能評価方法では、カーネル画像推定画像を用いることにより、ドライバの運転技能の評価精度を高めることができる。
また、この運転技能評価方法では、車両9の進行方向の躍度の2乗を示す第2のパラメータの時系列データに基づいてカーネル密度推定画像を生成するようにしたので、ドライバの運転技能の評価精度を高めることができる。すなわち、例えば、車両9の進行方向の加速度(前後加速度)の時系列データに基づいてカーネル密度推定画像を生成した場合には、前処理画像の画素値が負になる場合があるので、カーネル密度推定処理を行うことができない。また、例えば、この前後加速度は、図20に示すように、例えば勾配などにおいて、重力加速度の影響を受けやすいので、前後加速度にトレンドが発生してしまう。よって、例えば、この前後加速度の絶対値の時系列データに基づいてカーネル密度推定画像を生成した場合には、カーネル密度推定画像は重力加速度の影響を受けるので、ドライバの運転技能の評価精度が低くなる可能性がある。一方、この運転技能評価方法では、車両9の進行方向の躍度(前後躍度)の2乗を示す第2のパラメータの時系列データに基づいてカーネル密度推定画像を生成するようにした。具体的には、前後加速度を時間微分することにより前後躍度を算出し、この前後躍度の2乗を算出し、この前後躍度の2乗の時系列データに基づいて、カーネル密度推定画像を生成するようにした。これにより、前処理画像の画素値を正にすることができ、重力加速度の影響を抑えることができるので、ドライバの運転技能の評価精度を高めることができる。
また、この運転技能評価方法では、第1のパラメータ(この例ではヨー角速度の2乗)の時系列データ、および第2のパラメータ(この例では前後躍度の2乗)の時系列データは、車両9がカーブを走行しているときのデータにした。カーブでは、ドライバは、ステアリング操作、制動操作、加速操作などの様々な操作を行うので、カーブにおける時系列データは、ドライバの様々な操作についての情報を含む。よって、この運転技能評価方法では、ドライバの運転技能の評価精度を高めることができる。
また、この運転技能評価方法では、図6,7に示したように、カーネル密度推定画像における第1の画像方向は時間を示し、カーネル密度推定画像における第2の画像方向は第1のパラメータ(この例ではヨー角速度の2乗)を示し、カーネル密度推定画像の画素値は、第2のパラメータ(この例では前後躍度の2乗)のデータに応じた値にした。これにより、例えば、車両9の速度の変化が大きい走行路において、ドライバの運転技能の評価精度を高めることができる。すなわち、例えば、起伏が激しい走行路では、車両9の速度の変化が大きく、前後躍度の2乗の値が大きく変化し得るので、カーネル密度推定画像の画素値は大きく変化し得る。よって、この運転技能評価方法では、特に、車両9の速度の変化が大きい走行路において、ドライバの運転技能の評価精度を高めることができる。
また、この運転技能評価方法では、ドライバの運転技能の評価結果をドライバに提示することをさらに含むようにした。これにより、ドライバは、自分の運転技能についての客観的な評価を得ることができる。その結果、ドライバは、自分の運転について注意を払うとともに、自分の運転技能の向上を図ることができる。
[効果]
以上のように本実施の形態では、運転技能評価方法は、車両の進行方向の方向変化に応じた第1のパラメータの時系列データ、および車両の進行方向の躍度の2乗を示す第2のパラメータの時系列データに基づいてカーネル密度推定画像を生成することと、カーネル画像推定画像を、熟練ドライバに係るリファレンス画像と比較することにより、車両のドライバの運転技能を評価することとを含むようにしたので、ドライバの運転技能の評価精度を高めることができる。
以上のように本実施の形態では、運転技能評価方法は、車両の進行方向の方向変化に応じた第1のパラメータの時系列データ、および車両の進行方向の躍度の2乗を示す第2のパラメータの時系列データに基づいてカーネル密度推定画像を生成することと、カーネル画像推定画像を、熟練ドライバに係るリファレンス画像と比較することにより、車両のドライバの運転技能を評価することとを含むようにしたので、ドライバの運転技能の評価精度を高めることができる。
本実施の形態では、車両の進行方向の躍度の2乗を示す第2のパラメータの時系列データに基づいてカーネル密度推定画像を生成するようにしたので、ドライバの運転技能の評価精度を高めることができる。
本実施の形態では、第1のパラメータの時系列データ、および第2のパラメータの時系列データは、車両がカーブを走行しているときのデータにしたので、ドライバの運転技能の評価精度を高めることができる。
本実施の形態では、カーネル密度推定画像における第1の画像方向は時間を示し、カーネル密度推定画像における第2の画像方向は第1のパラメータを示し、カーネル密度推定画像の画素値は、第2のパラメータのデータに応じた値にしたので、例えば、車両の速度の変化が大きい走行路において、ドライバの運転技能の評価精度を高めることができる。
本実施の形態では、運転技能評価方法は、ドライバの運転技能の評価結果をドライバに提示することをさらに含むようにしたので、ドライバは、自分の運転技能についての客観的な評価を得ることができる。その結果、ドライバは、自分の運転について注意を払うとともに、自分の運転技能の向上を図ることができる。
[変形例1]
上記実施の形態では、図6,7に示したように、カーネル密度推定画像の縦軸(Y軸)はヨー角加速度の2乗を示すようにしたが、これに限定されるものではない。これに代えて、例えば、カーネル密度推定画像の縦軸(Y軸)は、図21に示すようにヨー角加速度を示してもよいし、ヨー角加速度の絶対値を示してもよい。また、例えば、カーネル密度推定画像の縦軸(Y軸)は、図22に示すようにヨー角速度を示してもよいし、ヨー角速度の絶対値を示してもよい。また、カーネル密度推定画像の縦軸(Y軸)は、図23に示すように車両の進行方向と交差する方向の加速度(横加速度)の2乗を示してもよいし、図24に示すように横加速度を示してもよいし、横加速度の絶対値を示してもよい。
上記実施の形態では、図6,7に示したように、カーネル密度推定画像の縦軸(Y軸)はヨー角加速度の2乗を示すようにしたが、これに限定されるものではない。これに代えて、例えば、カーネル密度推定画像の縦軸(Y軸)は、図21に示すようにヨー角加速度を示してもよいし、ヨー角加速度の絶対値を示してもよい。また、例えば、カーネル密度推定画像の縦軸(Y軸)は、図22に示すようにヨー角速度を示してもよいし、ヨー角速度の絶対値を示してもよい。また、カーネル密度推定画像の縦軸(Y軸)は、図23に示すように車両の進行方向と交差する方向の加速度(横加速度)の2乗を示してもよいし、図24に示すように横加速度を示してもよいし、横加速度の絶対値を示してもよい。
[変形例2]
上記実施の形態では、図6,7に示したように、カーネル密度推定画像の縦軸(Y軸)はヨー角加速度の2乗を示し、カーネル密度推定画像の画素値(Z軸)は前後躍度の2乗を示すようにしたが、これに限定されるものではない。これに代えて、例えば、図25,26に示すように、カーネル密度推定画像の縦軸(Y軸)は前後躍度の2乗を示し、カーネル密度推定画像の画素値(Z軸)はヨー角加速度の2乗を示すようにしてもよい。図25は、あるカーブにおけるカーネル密度推定画像の一例を表すものである。図26は、図25に示したカーネル密度推定画像の座標軸を表すものである。これにより、例えば、特に、車両9の速度の変化が小さい走行路において、ドライバの運転技能の評価精度を高めることができる。すなわち、例えば、起伏が緩やかな走行路では、車両9の速度の変化が小さく、前後躍度の2乗の値は大きく変化しにくいので、図6,7に示したカーネル密度推定画像の画素値は大きく変化しにくい。このような場合には、図25,26に示したカーネル密度推定画像を用いることにより、ドライバの運転技能の評価精度を高めることができる。
上記実施の形態では、図6,7に示したように、カーネル密度推定画像の縦軸(Y軸)はヨー角加速度の2乗を示し、カーネル密度推定画像の画素値(Z軸)は前後躍度の2乗を示すようにしたが、これに限定されるものではない。これに代えて、例えば、図25,26に示すように、カーネル密度推定画像の縦軸(Y軸)は前後躍度の2乗を示し、カーネル密度推定画像の画素値(Z軸)はヨー角加速度の2乗を示すようにしてもよい。図25は、あるカーブにおけるカーネル密度推定画像の一例を表すものである。図26は、図25に示したカーネル密度推定画像の座標軸を表すものである。これにより、例えば、特に、車両9の速度の変化が小さい走行路において、ドライバの運転技能の評価精度を高めることができる。すなわち、例えば、起伏が緩やかな走行路では、車両9の速度の変化が小さく、前後躍度の2乗の値は大きく変化しにくいので、図6,7に示したカーネル密度推定画像の画素値は大きく変化しにくい。このような場合には、図25,26に示したカーネル密度推定画像を用いることにより、ドライバの運転技能の評価精度を高めることができる。
運転技能評価システム1は、図6,7に示したカーネル密度推定画像、および図25,26に示したカーネル密度推定画像の両方に基づいて処理を行うことができるようにしてもよい。例えば、データ処理システム2の情報処理装置130は、エンジニアの操作に基づいて、図6,7に示したカーネル密度推定画像を生成するか、もしくは図25,26に示したカーネル密度推定画像を生成するかを決定することができる。また、情報処理装置130は、前後加速度の時系列データを含む加速度データDAおよびヨー角速度の時系列データを含むヨー角速度データDYに基づいて、これらのカーネル密度推定画像のうちのどちらを生成するかを決定してもよい。具体的には、情報処理装置130は、加速度データDAおよびヨー角速度データDYに基づいて、車両109が走行した走行路が、車両109の速度の変化が大きい走行路であるかどうかを確認する。そして、情報処理装置130は、車両109が走行した走行路が、車両109の速度の変化が大きい走行路である場合には、図6,7に示したカーネル密度推定画像を生成することを決定し、車両109が走行した走行路が、車両109の速度の変化が大きい走行路ではない場合には、図25,26に示したカーネル密度推定画像を生成することを決定する。
情報処理装置130は、全てのカーブについて、図6,7に示したカーネル密度推定画像を生成するように決定してもよいし、全てのカーブについて、図25,26に示したカーネル密度推定画像を生成するように決定してもよい。また、情報処理装置130は、複数のカーブのそれぞれについて、図6,7に示したカーネル密度推定画像、および図25,26に示したカーネル密度推定画像のうちのどちらのカーネル密度推定画像を生成するかを個別に決定してもよい。
サーバ装置30は、データセットDSにおける熟練ドライバに係るカーネル密度推定画像が図6,7に示したカーネル密度推定画像である場合には、ドライバの走行データに基づいて、図6,7に示したカーネル密度推定画像を生成し、データセットDSにおける熟練ドライバに係るカーネル密度推定画像が図25,26に示したカーネル密度推定画像である場合には、ドライバの走行データに基づいて、図25,26に示したカーネル密度推定画像を生成する。
また、図25,26の例では、カーネル密度推定画像の画素値(Z軸)はヨー角加速度の2乗を示すようにしたが、これに限定されるものではない。これに代えて、例えば、変形例1と同様に、カーネル密度推定画像の画素値(Z軸)は、ヨー角加速度の絶対値を示してもよいし、横加速度の2乗を示してもよいし、横加速度の絶対値を示してもよい。
[変形例3]
上記実施の形態では、図2に示したように、スマートフォン10は、加速度の時系列データ、角速度の時系列データ、および車両9の位置の時系列データをサーバ装置30に送信したが、これに限定されるものではない。これに代えて、例えば、スマートフォン10は、さらに、地磁気の時系列データをサーバ装置30に送信してもよい。以下に、この例について詳細に説明する。
上記実施の形態では、図2に示したように、スマートフォン10は、加速度の時系列データ、角速度の時系列データ、および車両9の位置の時系列データをサーバ装置30に送信したが、これに限定されるものではない。これに代えて、例えば、スマートフォン10は、さらに、地磁気の時系列データをサーバ装置30に送信してもよい。以下に、この例について詳細に説明する。
図27は、本変形例に係るスマートフォン10Aの一構成例を表すものである。スマートフォン10Aは、地磁気センサ17Aと、処理部20Aとを有している。地磁気センサ17Aは、地磁気を検出するように構成される。処理部20Aは、加速度センサ14により検出された加速度の時系列データ、角速度センサ15により検出された角速度の時系列データ、GNSS受信機16により得られた車両9の位置の時系列データ、および地磁気センサ17Aにより検出された地磁気の時系列データを収集する。通信部13は、走行終了後に、データ処理部21により処理された加速度の時系列データおよび角速度の時系列データを、GNSS受信機16により得られた車両9の位置の時系列データ、および地磁気センサ17Aにより検出された地磁気の時系列データとともに、サーバ装置30に送信する
サーバ装置30のデータ処理部41は、通信部31により受信された加速度の時系列データに基づいて座標変換を行うことにより、車両9の進行方向における加速度(前後加速度)の時系列データを生成する。また、通信部31により受信された角速度の時系列データに基づいて座標変換を行うことにより、車両9のヨー角速度の時系列データを生成する。そして、データ処理部41は、通信部31により受信された地磁気の時系列データに基づいて、前後加速度の時系列データ、およびヨー角速度の時系列データを補正する。これにより、前後加速度の時系列データ、およびヨー角速度の時系列データの精度を高めることができる。
[その他の変形例]
また、これらの変形例のうちの2以上を組み合わせてもよい。
また、これらの変形例のうちの2以上を組み合わせてもよい。
以上、本開示のいくつかの実施の形態について添付図面を参照しつつ一例を説明したが、本開示は上記実施の形態に決して限定されるものではない。当業者であれば、添付の請求の範囲によって定義される範囲から逸脱することなく、各種変形や変更をなし得ることが理解される。本開示は、そのような各種変形や変更が、添付の請求の範囲およびその均等物の範囲に属する限り、それらを包含することを意図するものである。
例えば、上記実施の形態では、サーバ装置30が、スマートフォン10から送信された走行データに基づいて運転技能の評価を行うようにしたが、これに限定されるものではない。これに代えて、例えば、スマートフォン10が、走行データに基づいて運転技能の評価を行うようにしてもよい。この場合には、スマートフォン10の処理部20は、データ処理部41、カーブ検出部42、データ抽出部43、画像生成部44、画像類似度算出部45、および技能判定部46として動作し得る。また、スマートフォン10の記憶部12には、複数のデータセットDS(データセットDSAおよび複数のデータセットDSB)、評価対象カーブデータDTC、およびエリアデータDARが記憶される。
また、車両9の車載装置が、車両9の走行データを収集し、この走行データに基づいて運転技能の評価を行うようにしてもよい。この車両9の車載装置は、車載装置110(図9)と同様に、加速度センサにより検出された前後加速度の時系列データ、ヨー角速度センサにより検出されたヨー角速度の時系列データ、およびGNSS受信機により得られた車両9の位置の時系列データを収集する。車両9の車載装置の処理部は、データ処理部41、カーブ検出部42、データ抽出部43、画像生成部44、画像類似度算出部45、および技能判定部46として動作し得る。また、この車載装置の記憶部には、複数のデータセットDS(データセットDSAおよび複数のデータセットDSB)、評価対象カーブデータDTC、およびエリアデータDARが記憶される。
本明細書中に記載された効果はあくまで例示であり、本開示の効果は、本明細書中に記載された効果に限定されない。よって、本開示に関して、他の効果が得られてもよい。
さらに、本開示は、以下の態様を取り得る。
(1)
車両の進行方向の方向変化に応じた第1のパラメータの時系列データ、および前記車両の進行方向の躍度の2乗を示す第2のパラメータの時系列データに基づいてカーネル密度推定画像を生成することと、
前記カーネル密度推定画像をリファレンス画像と比較することにより、前記車両のドライバの運転技能を評価することと
を含む運転技能評価方法。
(2)
前記第1のパラメータの時系列データ、および前記第2のパラメータの時系列データは、前記車両がカーブを走行しているときのデータである
前記(1)に記載の運転技能評価方法。
(3)
前記カーネル密度推定画像における第1の画像方向は時間を示し、
前記カーネル密度推定画像における第2の画像方向は前記第1のパラメータを示し
前記カーネル密度推定画像の画素値は、前記第2のパラメータのデータに応じた値である
前記(1)または(2)に記載の運転技能評価方法。
(4)
前記第1のパラメータは、ヨー角速度に関するパラメータである
前記(1)から(3)のいずれかに記載の運転技能評価方法。
(5)
前記第1のパラメータは、ヨー角加速度に関するパラメータである
前記(4)に記載の運転技能評価方法。
(6)
前記第1のパラメータは、ヨー角加速度の2乗に関するパラメータである
前記(5)に記載の運転技能評価方法。
(7)
前記第1のパラメータは、横加速度に関するパラメータである
前記(1)から(3)のいずれかに記載の運転技能評価方法。
(8)
前記カーネル密度推定画像における第1の画像方向は時間を示し、
前記カーネル密度推定画像における第2の画像方向は前記第2のパラメータを示し
前記カーネル密度推定画像の画素値は、前記第1のパラメータのデータに応じた値である
前記(1)または(2)に記載の運転技能評価方法。
(9)
前記ドライバの運転技能の評価結果を前記ドライバに提示することをさらに含む
前記(1)から(8)のいずれかに記載の運転技能評価方法。
(10)
車両の進行方向の方向変化に応じた第1のパラメータの時系列データ、および前記車両の進行方向の躍度の2乗を示す第2のパラメータの時系列データに基づいてカーネル密度推定画像を生成する画像生成回路と、
前記カーネル密度推定画像をリファレンス画像と比較することにより、前記車両のドライバの運転技能を評価する評価回路と
を備えた運転技能評価システム。
(11)
車両の進行方向の方向変化に応じた第1のパラメータの時系列データ、および前記車両の進行方向の躍度の2乗を示す第2のパラメータの時系列データに基づいてカーネル密度推定画像を生成することと、
前記カーネル密度推定画像をリファレンス画像と比較することにより、前記車両のドライバの運転技能を評価することと
をプロセッサに行わせるソフトウェアが記録された
記録媒体。
車両の進行方向の方向変化に応じた第1のパラメータの時系列データ、および前記車両の進行方向の躍度の2乗を示す第2のパラメータの時系列データに基づいてカーネル密度推定画像を生成することと、
前記カーネル密度推定画像をリファレンス画像と比較することにより、前記車両のドライバの運転技能を評価することと
を含む運転技能評価方法。
(2)
前記第1のパラメータの時系列データ、および前記第2のパラメータの時系列データは、前記車両がカーブを走行しているときのデータである
前記(1)に記載の運転技能評価方法。
(3)
前記カーネル密度推定画像における第1の画像方向は時間を示し、
前記カーネル密度推定画像における第2の画像方向は前記第1のパラメータを示し
前記カーネル密度推定画像の画素値は、前記第2のパラメータのデータに応じた値である
前記(1)または(2)に記載の運転技能評価方法。
(4)
前記第1のパラメータは、ヨー角速度に関するパラメータである
前記(1)から(3)のいずれかに記載の運転技能評価方法。
(5)
前記第1のパラメータは、ヨー角加速度に関するパラメータである
前記(4)に記載の運転技能評価方法。
(6)
前記第1のパラメータは、ヨー角加速度の2乗に関するパラメータである
前記(5)に記載の運転技能評価方法。
(7)
前記第1のパラメータは、横加速度に関するパラメータである
前記(1)から(3)のいずれかに記載の運転技能評価方法。
(8)
前記カーネル密度推定画像における第1の画像方向は時間を示し、
前記カーネル密度推定画像における第2の画像方向は前記第2のパラメータを示し
前記カーネル密度推定画像の画素値は、前記第1のパラメータのデータに応じた値である
前記(1)または(2)に記載の運転技能評価方法。
(9)
前記ドライバの運転技能の評価結果を前記ドライバに提示することをさらに含む
前記(1)から(8)のいずれかに記載の運転技能評価方法。
(10)
車両の進行方向の方向変化に応じた第1のパラメータの時系列データ、および前記車両の進行方向の躍度の2乗を示す第2のパラメータの時系列データに基づいてカーネル密度推定画像を生成する画像生成回路と、
前記カーネル密度推定画像をリファレンス画像と比較することにより、前記車両のドライバの運転技能を評価する評価回路と
を備えた運転技能評価システム。
(11)
車両の進行方向の方向変化に応じた第1のパラメータの時系列データ、および前記車両の進行方向の躍度の2乗を示す第2のパラメータの時系列データに基づいてカーネル密度推定画像を生成することと、
前記カーネル密度推定画像をリファレンス画像と比較することにより、前記車両のドライバの運転技能を評価することと
をプロセッサに行わせるソフトウェアが記録された
記録媒体。
図3に示す処理部40は、少なくとも1つのプロセッサ(例えば、中央演算処理装置(CPU))、少なくとも1つの特定用途向け集積回路(ASIC)および/または少なくとも1つのフィールドプログラマブルゲートアレイ(FPGA)等の、少なくとも1つの半導体集積回路を含む回路によって実施可能である。少なくとも1つのプロセッサは、少なくとも1つの非一時的かつ有形のコンピュータ可読媒体から指示を読み込むことによって、図3に示す処理部40における各種機能のうちの全部または一部を実行するように構成可能である。そのような媒体は、ハードディスク等の各種磁気媒体、CDまたはDVD等の各種光媒体、揮発性メモリまたは不揮発性メモリ等の各種半導体メモリ(すなわち、半導体回路)を含む様々な形態をとり得るが、これらには限定されない。揮発性メモリは、DRAMおよびSRAMを含み得る。不揮発性メモリは、ROMおよびNVRAMを含み得る。ASICは、図3に示す処理部40における各種機能のうちの全部または一部を実行するように特化された集積回路(IC)である。FPGAは、図3に示す処理部40における各種機能のうちの全部または一部を実行するように、製造後に構成可能に設計された集積回路である。
Claims (11)
- 車両の進行方向の方向変化に応じた第1のパラメータの時系列データ、および前記車両の進行方向の躍度の2乗を示す第2のパラメータの時系列データに基づいてカーネル密度推定画像を生成することと、
前記カーネル密度推定画像をリファレンス画像と比較することにより、前記車両のドライバの運転技能を評価することと
を含む運転技能評価方法。 - 前記第1のパラメータの時系列データ、および前記第2のパラメータの時系列データは、前記車両がカーブを走行しているときのデータである
請求項1に記載の運転技能評価方法。 - 前記カーネル密度推定画像における第1の画像方向は時間を示し、
前記カーネル密度推定画像における第2の画像方向は前記第1のパラメータを示し
前記カーネル密度推定画像の画素値は、前記第2のパラメータのデータに応じた値である
請求項1に記載の運転技能評価方法。 - 前記第1のパラメータは、ヨー角速度に関するパラメータである
請求項1に記載の運転技能評価方法。 - 前記第1のパラメータは、ヨー角加速度に関するパラメータである
請求項4に記載の運転技能評価方法。 - 前記第1のパラメータは、ヨー角加速度の2乗に関するパラメータである
請求項5に記載の運転技能評価方法。 - 前記第1のパラメータは、横加速度に関するパラメータである
請求項1に記載の運転技能評価方法。 - 前記カーネル密度推定画像における第1の画像方向は時間を示し、
前記カーネル密度推定画像における第2の画像方向は前記第2のパラメータを示し
前記カーネル密度推定画像の画素値は、前記第1のパラメータのデータに応じた値である
請求項1に記載の運転技能評価方法。 - 前記ドライバの運転技能の評価結果を前記ドライバに提示することをさらに含む
請求項1に記載の運転技能評価方法。 - 車両の進行方向の方向変化に応じた第1のパラメータの時系列データ、および前記車両の進行方向の躍度の2乗を示す第2のパラメータの時系列データに基づいてカーネル密度推定画像を生成する画像生成回路と、
前記カーネル密度推定画像をリファレンス画像と比較することにより、前記車両のドライバの運転技能を評価する評価回路と
を備えた運転技能評価システム。 - 車両の進行方向の方向変化に応じた第1のパラメータの時系列データ、および前記車両の進行方向の躍度の2乗を示す第2のパラメータの時系列データに基づいてカーネル密度推定画像を生成することと、
前記カーネル密度推定画像をリファレンス画像と比較することにより、前記車両のドライバの運転技能を評価することと
をプロセッサに行わせるソフトウェアが記録された
記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2022/040769 WO2024095331A1 (ja) | 2022-10-31 | 2022-10-31 | 運転技能評価方法、運転技能評価システム、および記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2022/040769 WO2024095331A1 (ja) | 2022-10-31 | 2022-10-31 | 運転技能評価方法、運転技能評価システム、および記録媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2024095331A1 true WO2024095331A1 (ja) | 2024-05-10 |
Family
ID=90930004
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2022/040769 WO2024095331A1 (ja) | 2022-10-31 | 2022-10-31 | 運転技能評価方法、運転技能評価システム、および記録媒体 |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2024095331A1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011065527A (ja) * | 2009-09-18 | 2011-03-31 | Toyota Motor Corp | 運転評価システム、車載機及び情報処理センター |
US20200356773A1 (en) * | 2019-05-09 | 2020-11-12 | Lyft, Inc. | Determining traffic control features based on telemetry patterns within digital image representations of vehicle telemetry data |
-
2022
- 2022-10-31 WO PCT/JP2022/040769 patent/WO2024095331A1/ja unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011065527A (ja) * | 2009-09-18 | 2011-03-31 | Toyota Motor Corp | 運転評価システム、車載機及び情報処理センター |
US20200356773A1 (en) * | 2019-05-09 | 2020-11-12 | Lyft, Inc. | Determining traffic control features based on telemetry patterns within digital image representations of vehicle telemetry data |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108162974B (zh) | 使用道路角度数据的车辆控制 | |
JP2018084573A (ja) | 頑健で効率的な車両測位用のアルゴリズム及びインフラ | |
JP2010509585A (ja) | 2次元及び3次元の正確な場所及び方位を判定する装置及び方法 | |
CN106289275A (zh) | 用于改进定位精度的单元和方法 | |
JP2019522830A (ja) | 車線縁石補助による自律走行車の車線逸脱検出及び車線維持システム | |
CN110146910A (zh) | 一种基于gps与激光雷达数据融合的定位方法及装置 | |
CN111351502B (zh) | 用于从透视图生成环境的俯视图的方法,装置和计算机程序产品 | |
JP2013140448A (ja) | 路面調査プログラム及び路面調査装置 | |
CN107430813A (zh) | 驾驶辅助信息生成装置、驾驶辅助信息生成方法、驾驶辅助装置、及驾驶辅助方法 | |
WO2020184013A1 (ja) | 車両制御装置 | |
US20220057218A1 (en) | Method and apparatus for automatic generation of context-based guidance information from behavior and context-based machine learning models | |
CN113465615B (zh) | 车道线的生成方法及相关装置 | |
CN111982158B (zh) | 一种惯性测量单元标定方法及装置 | |
JP4392074B2 (ja) | 車載用ナビゲーション装置 | |
JP2021026596A (ja) | 運転行動評価装置、運転行動評価方法、及び運転行動評価プログラム | |
US20210350817A1 (en) | Method, apparatus, and computer program product for vehicle localization via frequency audio features | |
CN105378811B (zh) | 行驶线路显示装置、行驶线路显示方法,以及行驶线路显示程序 | |
CN113306559A (zh) | 在路形估计中对于垂直道路曲度的补偿 | |
EP4001844A1 (en) | Method and apparatus with localization | |
KR20230048324A (ko) | 확장된 데드 레커닝 정확성 | |
WO2024095331A1 (ja) | 運転技能評価方法、運転技能評価システム、および記録媒体 | |
WO2024095332A1 (ja) | 運転技能評価方法、運転技能評価システム、および記録媒体 | |
WO2024095333A1 (ja) | 運転技能評価方法、運転技能評価システム、および記録媒体 | |
WO2024202006A1 (ja) | 運転技能評価方法、運転技能評価システム、および非一過性記録媒体 | |
CN109710594B (zh) | 地图数据的有效性判断方法、装置及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22964354 Country of ref document: EP Kind code of ref document: A1 |