WO2024095334A1 - 運転技能評価方法、運転技能評価システム、および記録媒体 - Google Patents

運転技能評価方法、運転技能評価システム、および記録媒体 Download PDF

Info

Publication number
WO2024095334A1
WO2024095334A1 PCT/JP2022/040776 JP2022040776W WO2024095334A1 WO 2024095334 A1 WO2024095334 A1 WO 2024095334A1 JP 2022040776 W JP2022040776 W JP 2022040776W WO 2024095334 A1 WO2024095334 A1 WO 2024095334A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
advice
driving
evaluation
driver
Prior art date
Application number
PCT/JP2022/040776
Other languages
English (en)
French (fr)
Inventor
能英瑠 佐藤
武史 鳥居
Original Assignee
株式会社Subaru
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Subaru filed Critical 株式会社Subaru
Priority to PCT/JP2022/040776 priority Critical patent/WO2024095334A1/ja
Publication of WO2024095334A1 publication Critical patent/WO2024095334A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour

Definitions

  • This disclosure relates to a driving skill evaluation method and driving skill evaluation system for evaluating a driver's driving skills, as well as a recording medium on which software for evaluating a driver's driving skills is recorded.
  • Patent Document 1 discloses a technology that evaluates the driving skills of a driver based on the longitudinal acceleration and lateral acceleration when the vehicle turns.
  • the driving skill evaluation method includes performing an evaluation process to evaluate the driving skill of a driver of a vehicle based on driving data of the vehicle, and performing an advice process to give advice to the driver based on the evaluation result of the driver's driving skill.
  • the advice process includes providing the driver with first advice not based on the driving data when the driving skill evaluated by the evaluation process is at a first skill level, and providing the driver with second advice based on the driving data when the driving skill evaluated by the evaluation process is at a second skill level higher than the first skill level.
  • the driving skill evaluation system includes an evaluation circuit and an advice circuit.
  • the evaluation circuit evaluates the driving skill of a driver of a vehicle based on driving data of the vehicle.
  • the advice circuit provides advice to the driver based on the evaluation result of the driver's driving skill.
  • the advice circuit When the driving skill evaluated by the evaluation circuit is at a first skill level, the advice circuit provides the driver with first advice that is not based on the driving data, and when the driving skill evaluated by the evaluation circuit is at a second skill level higher than the first skill level, the advice circuit provides the driver with second advice that is based on the driving data.
  • a recording medium has recorded thereon software that causes a processor to perform an evaluation process for evaluating the driving skills of a driver of a vehicle based on driving data of the vehicle, and an advice process for providing advice to the driver based on the evaluation result of the driver's driving skills.
  • the advice process includes providing the driver with first advice that is not based on the driving data when the driving skills evaluated by the evaluation process are at a first skill level, and providing the driver with second advice based on the driving data when the driving skills evaluated by the evaluation process are at a second skill level higher than the first skill level.
  • FIG. 1 is an explanatory diagram illustrating an example of the configuration of a driving skill evaluation system in which a driving skill evaluation method according to an embodiment of the present disclosure is used;
  • FIG. 2 is a block diagram illustrating a configuration example of the smartphone illustrated in FIG. 1 .
  • 2 is a block diagram illustrating an example of a configuration of a server device 30 illustrated in FIG. 1.
  • 4 is an explanatory diagram illustrating data stored in a storage unit 32 shown in FIG. 3.
  • 5 is an explanatory diagram illustrating an example of yaw angular velocity data and curve data illustrated in FIG. 4 .
  • 5 is an image diagram showing an example of a kernel density estimation image indicated by the image data shown in FIG. 4.
  • FIG. 7 is an explanatory diagram illustrating an example of parameters in the kernel density estimation image shown in FIG.
  • FIG. 2 is an explanatory diagram illustrating a configuration example of the data processing system illustrated in FIG. 1 .
  • 9 is a block diagram illustrating an example of a configuration of the in-vehicle device illustrated in FIG. 8 .
  • 9 is a block diagram illustrating an example of a configuration of the information processing device illustrated in FIG. 8.
  • 9 is a flowchart illustrating an example of an operation of the information processing device illustrated in FIG. 8 .
  • 10 is another flowchart illustrating an example of an operation of the information processing device illustrated in FIG. 8 .
  • 10 is another flowchart illustrating an example of an operation of the information processing device illustrated in FIG. 8 .
  • 10 is another flowchart illustrating an example of an operation of the information processing device illustrated in FIG. 8 .
  • 10 is another flowchart illustrating an example of an operation of the information processing device illustrated in FIG. 8 .
  • FIG. 8 is another flowchart illustrating an example of an operation of the information processing device illustrated in FIG. 8 .
  • FIG. 15 is an explanatory diagram illustrating an example of a process for generating the preprocessed image shown in FIG. 14 .
  • 10 is another flowchart illustrating an example of an operation of the information processing device illustrated in FIG. 8 .
  • FIG. 9 is an explanatory diagram illustrating an operation example of the information processing device illustrated in FIG. 8 .
  • 10 is another flowchart illustrating an example of an operation of the information processing device illustrated in FIG. 8 .
  • 10 is another flowchart illustrating an example of an operation of the information processing device illustrated in FIG. 8 .
  • 2 is a flowchart illustrating an example of an operation of the server device illustrated in FIG. 1 .
  • 10 is another flowchart illustrating an example of an operation of the server device illustrated in FIG. 1 .
  • FIG. 10 is another flowchart illustrating an example of an operation of the server device illustrated in FIG. 1 .
  • FIG. 13 is an explanatory diagram illustrating an example of parameters in a kernel density estimation image according to a modified example.
  • FIG. 13 is an explanatory diagram illustrating an example of parameters in a kernel density estimation image according to another modified example.
  • FIG. 13 is an explanatory diagram illustrating an example of parameters in a kernel density estimation image according to another modified example.
  • FIG. 13 is an explanatory diagram illustrating an example of parameters in a kernel density estimation image according to another modified example.
  • FIG. 13 is an image diagram illustrating an example of a kernel density estimation image according to another modified example.
  • FIG. 27 is an explanatory diagram illustrating an example of parameters in the kernel density estimation image shown in FIG. 26 .
  • FIG. 13 is a block diagram illustrating a configuration example of a smartphone according to another modified example.
  • FIG. 1 shows an example of the configuration of a driving skill evaluation system 1 in which a driving skill evaluation method according to an embodiment is used.
  • the driving skill evaluation system 1 includes a smartphone 10, a server device 30, and a data processing system 2.
  • Smartphone 10 is a high-function mobile phone, and is fixedly installed inside vehicle 9 in a predetermined orientation relative to vehicle 9. Smartphone 10 collects driving data of vehicle 9. Smartphone 10 is connected to the Internet (not shown) by communicating with a mobile phone base station (not shown), for example, using mobile phone communication.
  • the server device 30 is an information processing device.
  • the server device 30 evaluates the driving skills of the driver of the vehicle 9 based on the driving data of the vehicle 9.
  • the server device 30 is connected to the Internet (not shown).
  • the server device 30 is capable of communicating with the smartphone 10 via the Internet.
  • the data processing system 2 includes an information processing device and generates data to be used in the evaluation of driving skills.
  • the data processing system 2 is connected to the Internet (not shown).
  • the data processing system 2 is capable of communicating with the server device 30 via the Internet.
  • the driver to be evaluated drives the vehicle 9 in an evaluation area with many curves, including mountain roads, and the smartphone 10 collects driving data of the vehicle 9 and transmits the driving data to the server device 30.
  • This driving data includes information on the acceleration in the traveling direction of the vehicle 9 (longitudinal acceleration), information on the yaw angular velocity of the vehicle 9, and information on the position of the vehicle 9.
  • the server device 30 detects multiple curves on the driving route on which the vehicle 9 has traveled based on the time series data of the yaw angular velocity of the vehicle 9.
  • the server device 30 then generates a kernel density estimation image for each of the multiple curves based on the time series data of the longitudinal acceleration and the time series data of the yaw angular velocity.
  • the server device 30 compares the generated kernel density estimation image for each of the multiple curves with the kernel density estimation image for an experienced driver generated by the data processing system 2 and registered in advance in the server device 30, thereby evaluating the driver's driving skill and generating driving advice according to the driver's driving skill.
  • the smartphone 10 then presents the evaluation result of the driving skill and driving advice to the driver.
  • the driving skill evaluation system 1 allows drivers to obtain an objective evaluation of their driving skills and receive advice tailored to their driving skills.
  • FIG. 2 shows an example configuration of a smartphone 10.
  • the smartphone 10 has a touch panel 11, a memory unit 12, a communication unit 13, an acceleration sensor 14, an angular velocity sensor 15, a GNSS (Global Navigation Satellite System) receiver 16, and a processing unit 20.
  • GNSS Global Navigation Satellite System
  • the touch panel 11 is a user interface and includes, for example, a touch sensor and a display device such as a liquid crystal display or an organic EL (Electro Luminescence) display.
  • the touch panel 11 accepts operations by the user of the smartphone 10 and displays the processing results of the smartphone 10.
  • the storage unit 12 is a non-volatile memory and is configured to store program data for various application software.
  • application software related to the driving skill evaluation system 1 is installed on the smartphone 10.
  • the program data for this application software is stored in the storage unit 12.
  • the communication unit 13 is configured to communicate with a mobile phone base station by performing mobile phone communication. As a result, the communication unit 13 communicates with a server device 30 connected to the Internet via the mobile phone base station.
  • the acceleration sensor 14 is configured to detect acceleration in three directions in the coordinate system of the smartphone 10.
  • the angular velocity sensor 15 is configured to detect three angular velocities (yaw angular velocity, roll angular velocity, and pitch angular velocity) in the coordinate system of the smartphone 10.
  • the GNSS receiver 16 is configured to acquire the position of the vehicle 9 on the ground using a GNSS such as the Global Positioning System (GPS).
  • GPS Global Positioning System
  • the processing unit 20 is configured to control the operation of the smartphone 10, and is configured using, for example, one or more processors, one or more memories, etc.
  • the processing unit 20 collects time series data of acceleration detected by the acceleration sensor 14, time series data of angular velocity detected by the angular velocity sensor 15, and time series data of the position of the vehicle 9 obtained by the GNSS receiver 16.
  • the processing unit 20 can operate as a data processing unit 21 and a display processing unit 22 by executing application software related to the driving skill evaluation system 1 installed in the smartphone 10.
  • the data processing unit 21 is configured to perform a predetermined data processing based on the detection results of the acceleration sensor 14 and the angular velocity sensor 15.
  • the predetermined data processing includes, for example, filtering the time series data of acceleration detected by the acceleration sensor 14 and filtering the time series data of angular velocity detected by the angular velocity sensor 15.
  • the filtering is processing using a low-pass filter.
  • the communication unit 13 transmits the time series data of acceleration and the time series data of angular velocity processed by the data processing unit 21 to the server device 30 together with the time series data of the position of the vehicle 9 obtained by the GNSS receiver 16.
  • the display processing unit 22 is configured to perform display processing based on the data indicating the evaluation results of the driving skills transmitted from the server device 30.
  • the touch panel 11 is configured to display the evaluation results of the driving skills.
  • FIG. 3 shows an example of the configuration of the server device 30.
  • the server device 30 has a communication unit 31, a storage unit 32, and a processing unit 40.
  • the communication unit 31 is configured to communicate with the smartphone 10 via the Internet by performing network communication.
  • the memory unit 32 includes, for example, a hard disk drive (HDD) or a solid state drive (SSD), and is configured to store program data for various software.
  • HDD hard disk drive
  • SSD solid state drive
  • server software related to the driving skill evaluation system 1 is installed in the server device 30.
  • the program data for this software is stored in the memory unit 32.
  • the memory unit 32 also stores various data used by this software.
  • FIG. 4 shows an example of data stored in the memory unit 32 and used by the server software.
  • the memory unit 32 stores area data DAR, multiple data sets DS (data set DSA and multiple data sets DSB), evaluation target curve data DTC, and analysis target curve data DTD. These data are generated by the data processing system 2 and stored in the memory unit 32.
  • the area data DAR is data that indicates the evaluation area in which driving skills are evaluated.
  • the evaluation area can be set to an area with many curves, such as an area that includes mountain roads.
  • This area data DAR includes, for example, data on the latitude and longitude of the evaluation area.
  • Each of the multiple data sets DS is data corresponding to driving data obtained by an experienced driver driving a vehicle in an area indicated by the area data DAR.
  • the multiple data sets DS may include data corresponding to multiple pieces of driving data related to different experienced drivers, or may include data corresponding to multiple pieces of driving data related to a single experienced driver.
  • Each of the multiple data sets DS includes acceleration data DA, yaw angular velocity data DY, curve data DC, and multiple pieces of image data DP.
  • the acceleration data DA is time-series data of the acceleration in the direction of travel (longitudinal acceleration) of a vehicle driven by an experienced driver.
  • the yaw angular velocity data DY is time series data of the yaw angular velocity of a vehicle driven by an experienced driver.
  • the curve data DC includes curve numbers for multiple curves on the road.
  • the curve data DC is generated based on the yaw angular velocity data DY.
  • the curve numbers for multiple curves are set in correspondence with the time series data of the yaw angular velocity in the yaw angular velocity data DY.
  • FIG. 5 shows an example of yaw angular velocity data DY and curve data DC.
  • the yaw angular velocity changes according to the curve of the road.
  • the curve data DC includes curve numbers ("1" to "9” in FIG. 5) set based on the time series data of the yaw angular velocity.
  • the curve numbers of multiple curves are set in correspondence with the time series data of the yaw angular velocity in the yaw angular velocity data DY.
  • the multiple image data DP are image data of kernel density estimation images for multiple curves.
  • FIG. 6 shows an example of a kernel density estimation image for a curve.
  • FIG. 7 shows the coordinate axes of the kernel density estimation image shown in FIG. 6.
  • the horizontal axis (X-axis) of this kernel density estimation image indicates time, and the vertical axis (Y-axis) indicates the square of the yaw angular acceleration.
  • the yaw angular acceleration is the time derivative of the yaw angular velocity.
  • the pixel value (Z-axis) of the kernel density estimation image indicates the square of the longitudinal jerk.
  • the longitudinal jerk is the time derivative of the longitudinal acceleration.
  • a darker image portion indicates a larger value of the square of the longitudinal jerk
  • a lighter image portion indicates a smaller value of the square of the longitudinal jerk.
  • This kernel density estimation image can change depending on the driving skill of the driver.
  • a plurality of kernel density estimation images corresponding to a plurality of curves are stored as a plurality of image data DP.
  • the data set DSA and each of the multiple data sets DSB thus contain acceleration data DA, yaw angular velocity data DY, curve data DC, and multiple image data DP.
  • the data processing system 2 adjusts the curve numbers of the curve data DC in each of the multiple data sets DSB based on the curve data DC in the data set DSA. That is, since the curve numbers are generated based on the yaw angular velocity data DY, it is possible that a different curve number will be assigned to a certain curve depending on the yaw angular velocity data DY.
  • the data processing system 2 uses the data set DSA as sample data, and adjusts the curve numbers of the curve data DC in each of the multiple data sets DSB based on the curve data DC in the data set DSA. As a result, the curve numbers of the same curves in the curve data DC of the multiple data sets DSB are adjusted to be the same.
  • the evaluation target curve data DTC is data indicating the curve numbers of the multiple curves that are the evaluation targets for the driving skill evaluation among the multiple curves in the area indicated by the area data DAR.
  • the analysis target curve data DTD is data indicating the curve numbers of the curves that are the targets of the analysis process that analyzes the driver's driving operation, among the curves in the area indicated by the area data DAR.
  • the memory unit 32 stores multiple data sets DS, evaluation target curve data DTC, analysis target curve data DTD, and area data DAR for each of the multiple areas.
  • the processing unit 40 (FIG. 3) is configured to control the operation of the server device 30, and is configured using, for example, one or more processors, one or more memories, etc.
  • the processing unit 40 can operate as a data processing unit 41, a curve detection unit 42, a data extraction unit 43, an image generation unit 44, an image similarity calculation unit 45, and a skill judgment unit 46 by executing server software related to the driving skill evaluation system 1 installed in the server device 30.
  • the data processing unit 41 is configured to generate acceleration data DA1 and yaw angular velocity data DY1 by performing a predetermined data processing based on the time series data of acceleration, the time series data of angular velocity, and the time series data of the position of the vehicle 9 received by the communication unit 31.
  • the predetermined data processing includes, for example, a process of checking whether the vehicle 9 is traveling in the evaluation target area based on the time series data of the position of the vehicle 9, a process of generating time series data of acceleration in the traveling direction of the vehicle 9 (longitudinal acceleration) by performing coordinate transformation based on the time series data of acceleration obtained by the smartphone 10, a process of generating time series data of the yaw angular velocity of the vehicle 9 by performing coordinate transformation based on the time series data of angular velocity obtained by the smartphone 10, a filter process for the time series data of the longitudinal acceleration, and a filter process for the time series data of the yaw angular velocity.
  • the filter process is a process using a low-pass filter.
  • the curve detection unit 42 is configured to generate curve data DC1 by detecting multiple curves based on the yaw angular velocity data DY1 generated by the data processing unit 41.
  • the data extraction unit 43 is configured to extract time series data of longitudinal acceleration included in the acceleration data DA1, which is related to multiple curves that are the subject of the driving skill evaluation, based on the evaluation target curve data DTC stored in the memory unit 32, and to extract time series data of yaw angular velocity included in the yaw angular velocity data DY1, which is related to multiple curves that are the subject of the driving skill evaluation.
  • the image generation unit 44 is configured to generate a plurality of kernel density estimation images for the plurality of curves based on the time series data of longitudinal acceleration and the time series data of yaw angular velocity for the plurality of curves extracted by the data extraction unit 43, thereby generating a plurality of image data DP1. Specifically, the image generation unit 44 performs kernel density estimation processing based on the time series data of longitudinal acceleration and the time series data of yaw angular velocity for one curve, thereby generating a kernel density estimation image of that curve. In the kernel density estimation processing, original data including data that has not yet been observed is estimated as density data based on actual measurement data.
  • the image generation unit 44 performs this processing for each of the plurality of curves, thereby generating a plurality of kernel density estimation images. In this manner, the image generation unit 44 is configured to generate a plurality of image data DP1 for the plurality of curves.
  • the image similarity calculation unit 45 is configured to calculate an average value of image similarities (average similarity) based on the multiple kernel density estimation images generated by the image generation unit 44 and the multiple kernel density estimation images included in the multiple data sets DS stored in the storage unit 32. Specifically, the image similarity calculation unit 45 calculates image similarities for each curve by comparing the kernel density estimation image generated by the image generation unit 44 with the multiple kernel density estimation images included in the multiple data sets DS. The image similarity calculation unit 45 calculates multiple image similarities by performing this process for each of the multiple curves. The image similarity calculation unit 45 then calculates an average value (average similarity) of these multiple image similarities.
  • the skill assessment unit 46 is configured to assess the driving skill of the driver of the vehicle 9 based on the average similarity calculated by the image similarity calculation unit 45.
  • the communication unit 31 is configured to transmit data indicating the evaluation result of the driving skill generated by the skill assessment unit 46 to the smartphone 10.
  • the advice generating unit 47 is configured to generate driving advice according to the driving skill of the driver obtained by the skill determining unit 46.
  • the communication unit 31 is configured to transmit data indicating the driving advice generated by the advice generating unit 47 to the smartphone 10.
  • the multiple data sets DS, evaluation target curve data DTC, and area data DAR stored in the storage unit 32 are generated by the data processing system 2. This data processing system 2 will be described below.
  • FIG. 8 shows an example of the configuration of the data processing system 2.
  • the data processing system 2 includes an in-vehicle device 110 and an information processing device 130.
  • the in-vehicle device 110 is a device installed in a vehicle 109 driven by an experienced driver.
  • the information processing device 130 is a so-called personal computer.
  • FIG. 9 shows an example of the configuration of the in-vehicle device 110.
  • the in-vehicle device 110 has an acceleration sensor 114, a yaw angular velocity sensor 115, a GNSS receiver 116, and a processing unit 120.
  • the acceleration sensor 114 is configured to detect the acceleration in the direction of travel of the vehicle 109 (longitudinal acceleration).
  • the yaw angular velocity sensor 115 is configured to detect the yaw angular velocity of the vehicle 109.
  • the GNSS receiver 116 is configured to obtain the position of the vehicle 109 on the ground using a GNSS such as GPS.
  • the processing unit 120 is a so-called ECU (Electronic Control Unit) and is configured using, for example, one or more processors and one or more memories.
  • the processing unit 120 collects time series data of longitudinal acceleration detected by the acceleration sensor 114, time series data of yaw angular velocity detected by the yaw angular velocity sensor 115, and time series data of the position of the vehicle 109 obtained by the GNSS receiver 116.
  • the engineer stores the time series data collected by the processing unit 120 in an external recording medium such as a semiconductor memory.
  • FIG. 10 shows an example of the configuration of the information processing device 130.
  • the information processing device 130 reads data recorded on an external recording medium based on the engineer's operation, and generates multiple data sets DS, evaluation target curve data DTC, and area data DAR to be stored in the storage unit 32 of the server device 30 based on the read data.
  • the information processing device 130 includes a user interface unit 131, a storage unit 132, a communication unit 133, and a processing unit 140.
  • the user interface unit 131 includes, for example, a keyboard, a mouse, and a display unit such as a liquid crystal display or an organic EL display.
  • the user interface unit 131 accepts operations by a user of the information processing device 130 (an engineer in this example), and displays the processing results of the information processing device 130.
  • the storage unit 132 includes, for example, an HDD or SSD, and is configured to store program data for various software.
  • software related to the data processing system 2 is installed in the information processing device 130.
  • the program data for this software is stored in the storage unit 132.
  • the communication unit 133 is configured to communicate with the server device 30 via the Internet by performing network communication.
  • the processing unit 140 is configured to control the operation of the information processing device 130, and is configured using, for example, one or more processors, one or more memories, etc.
  • the processing unit 140 can operate as a data processing unit 141, a curve detection unit 142, an image generation unit 144, an image similarity calculation unit 145, an evaluation target data generation unit 147, an analysis target data generation unit 157, an area data generation unit 148, and a data registration unit 149 by executing software related to the data processing system 2 installed in the information processing device 130.
  • the data processing unit 141 is configured to generate acceleration data DA and yaw angular velocity data DY by performing a predetermined data processing based on the time series data of longitudinal acceleration and the time series data of yaw angular velocity read from the external recording medium.
  • the predetermined data processing includes, for example, filtering the time series data of longitudinal acceleration, filtering the time series data of yaw angular velocity, and processing for generating area data DAR based on the operation of an engineer.
  • the filtering is processing using a low-pass filter.
  • the curve detection unit 142 is configured to generate curve data DC by detecting multiple curves based on the yaw angular velocity data DY generated by the data processing unit 141.
  • the processing of the curve detection unit 142 is similar to the processing of the curve detection unit 42 in the server device 30.
  • the image generating unit 144 is configured to generate a plurality of image data DP by generating a plurality of kernel density estimation images for the plurality of curves based on the time series data of longitudinal acceleration and the time series data of yaw angular velocity for the plurality of curves.
  • the processing of the image generating unit 144 is similar to the processing of the image generating unit 44 in the server device 30.
  • the image similarity calculation unit 145 is configured to calculate the image similarity based on a plurality of kernel density estimated images.
  • the image similarity calculation process in the image similarity calculation unit 145 is similar to the image similarity calculation process in the image similarity calculation unit 45 of the server device 30.
  • the evaluation target data generation unit 147 is configured to generate evaluation target curve data DTC by determining multiple curves that are targets for evaluating driving skills based on the processing results of the image similarity calculation unit 145.
  • the analysis target data generation unit 157 is configured to generate analysis target curve data DTD by determining multiple curves to be processed in the analysis process that analyzes the driver's driving operation based on the processing results of the image similarity calculation unit 145.
  • the area data generation unit 148 is configured to generate area data DAR, which is data indicating the area to be evaluated, based on the engineer's operations.
  • the data registration unit 149 is configured to store in the memory unit 132 a data set DS including acceleration data DA, yaw angular velocity data DY, curve data DC, and multiple image data DP, evaluation target curve data DTC, analysis target curve data DTD, and area data DAR.
  • the data processing system 2 generates multiple data sets DS, evaluation target curve data DTC, analysis target curve data DTD, and area data DAR based on the driving data of the experienced driver.
  • the data processing system 2 then transmits the multiple data sets DS, evaluation target curve data DTC, analysis target curve data DTD, and area data DAR to the server device 30.
  • the server device 30 then stores these data in the memory unit 32.
  • the image generation unit 44, the image similarity calculation unit 45, and the skill assessment unit 46 correspond to a specific example of an "evaluation circuit" in this disclosure.
  • the advice generation unit 47 corresponds to a specific example of an "advice circuit” in this disclosure.
  • the acceleration data DA, DA1 and the yaw angular velocity data DY, DY1 correspond to a specific example of "driving data” in this disclosure.
  • the kernel density estimation image generated by the image generation unit 44 corresponds to a specific example of "evaluation data” in this disclosure.
  • the kernel density estimation image indicated by the image data DP of the dataset DS stored in the storage unit 32 corresponds to a specific example of a "reference image” in this disclosure.
  • the yaw angular velocity corresponds to a specific example of a "first parameter” in this disclosure.
  • the longitudinal acceleration corresponds to a specific example of a "second parameter” in this disclosure.
  • the driving skill evaluation system 1 generates multiple data sets DS, evaluation target curve data DTC, and area data DAR based on driving data when an experienced driver drives the vehicle 109.
  • an experienced driver drives the vehicle 109 of the data processing system 2, and the processing unit 120 of the in-vehicle device 110 collects driving data of the vehicle 109.
  • the engineer stores the driving data collected by the processing unit 120 in an external recording medium such as a semiconductor memory.
  • the information processing device 130 generates acceleration data DA, yaw angular velocity data DY, curve data DC, and multiple image data DP based on this driving data, and stores a data set DS including these data in the storage unit 132.
  • the information processing device 130 repeats this process to store multiple data sets DS in the storage unit 132.
  • the information processing device 130 also generates evaluation target curve data DTC, which is data indicating multiple curves that are targets for evaluation of driving skills, based on the multiple data sets DS, generates analysis target curve data DTD, which is data indicating multiple curves that are targets for analysis processing that analyzes the driver's driving operation, and generates area data DAR, which is data indicating an evaluation target area, based on the engineer's operation, and stores these data in the storage unit 132. Then, the information processing device 130 transmits the multiple data sets DS, the evaluation target curve data DTC, the analysis target curve data DTD, and the area data DAR to the server device 30.
  • the server device 30 stores the multiple data sets DS, the evaluation target curve data DTC, the analysis target curve data DTD, and the area data DAR transmitted from the information processing device 130 in the memory unit 32.
  • the driving skill evaluation system 1 evaluates the driving skill of a driver using multiple data sets DS, evaluation target curve data DTC, and area data DAR generated in this manner by an experienced driver driving the vehicle 109.
  • the smartphone 10 collects driving data of the vehicle 9 by the driver to be evaluated driving the vehicle 9.
  • the smartphone 10 transmits the collected driving data to the server device 30.
  • the server device 30 generates acceleration data DA1, yaw angular velocity data DY1, curve data DC1, and multiple image data DP1 based on this driving data.
  • the server device 30 calculates an average value (average similarity) of image similarity based on multiple kernel density estimation images indicated by the multiple image data DP1 and multiple kernel density estimation images indicated by multiple image data DP included in multiple data sets DS stored in the storage unit 32, and judges the driving skill of the driver of the vehicle 9 based on this average similarity, and generates driving advice according to the driver's driving skill.
  • the server device 30 transmits data indicating the evaluation result of the driving skill and the driving advice to the smartphone 10.
  • the smartphone 10 displays the driving skill judgment result and the driving advice transmitted from the server device 30.
  • the data processing system 2 generates a plurality of data sets DS based on driving data obtained by an experienced driver driving the vehicle 109.
  • the operation of generating the plurality of data sets DS will be described in detail below.
  • the acceleration sensor 114 of the in-vehicle device 110 detects the acceleration in the traveling direction of the vehicle 109 (longitudinal acceleration), the yaw angular velocity sensor 115 detects the yaw angular velocity of the vehicle 109, and the GNSS receiver 116 acquires the position of the vehicle 109 on the ground.
  • the processing unit 120 collects time series data of the longitudinal acceleration detected by the acceleration sensor 114, time series data of the yaw angular velocity detected by the yaw angular velocity sensor 115, and time series data of the position of the vehicle 109 obtained by the GNSS receiver 116.
  • the engineer stores the time series data collected by the processing unit 120 in an external recording medium such as a semiconductor memory.
  • the information processing device 130 generates a data set DS based on the time series data of the longitudinal acceleration, the time series data of the yaw angular velocity, and the time series data of the position of the vehicle 109 read from this external recording medium, and stores this data set DS in the storage unit 132. The operation of this information processing device 130 will be described in detail below.
  • FIG. 11 shows an example of the operation of the information processing device 130 in the data processing system 2.
  • the area data generation unit 148 has already generated the area data DAR based on the engineer's operation.
  • the data processing unit 141 of the information processing device 130 uses the area data DAR stored in the storage unit 132 based on the time series data of the position of the vehicle 109 to check whether the vehicle 109 has traveled through the area to be evaluated (step S101). If the vehicle 109 has not traveled through the area to be evaluated ("N" in step S101), this process ends.
  • step S101 If the vehicle 109 travels through the evaluation area ("Y" in step S101), the data processing unit 141 performs filter processing on the time series data of longitudinal acceleration and the time series data of yaw angular velocity in the evaluation area to generate acceleration data DA and yaw angular velocity data DY, respectively (step S102).
  • the curve detection unit 142 generates curve data DC by performing a curve division process based on the yaw angular velocity data DY generated in step S102 (step S103).
  • the curve division process includes the following two-stage process.
  • FIG. 12 shows a specific example of the first stage of the curve division process.
  • the curve detection unit 142 performs the process shown in FIG. 12 while sequentially reading the yaw angular velocities included in the yaw angular velocity data DY in chronological order.
  • the curve detection unit 142 checks whether a yaw angular velocity equal to or greater than a predetermined value A (e.g., equal to or greater than 0.02 rad/sec.) continues for a period of equal to or greater than a predetermined time B (e.g., equal to or greater than 2 seconds) (step S201).
  • a predetermined value A e.g., equal to or greater than 0.02 rad/sec.
  • a predetermined time B e.g., equal to or greater than 2 seconds
  • step S201 If the condition in step S201 is met ("Y" in step S201), the curve detection unit 142 checks whether the polarity of the yaw angular velocity is the same as the polarity of the yaw angular velocity at the immediately preceding curve, and whether the vehicle 109 has been traveling on a straight road for less than a predetermined time C (e.g., less than 9 seconds) after the immediately preceding curve (step S202).
  • a predetermined time C e.g., less than 9 seconds
  • step S203 the curve detection unit 142 detects a curve (step S203). That is, in step S201, the basic conditions for curve detection are met and the new curve is far from the previous curve, so the curve detection unit 142 detects a new curve in addition to the previous curve. The curve detection unit 142 assigns a curve number to the detected curve. Then, the process proceeds to step S205.
  • step S202 determines that the previous curve continues (step S203). That is, in step S201, the basic conditions for curve detection are met, but since the distance from the previous curve is short, the previous curve is determined to continue. Then, the process proceeds to step S205.
  • the curve detection unit 142 checks whether the yaw angular velocity is equal to or less than a predetermined value A (for example, equal to or less than 0.02 rad/sec) (step S205). In other words, the curve detection unit 142 checks whether the basic conditions for curve detection are no longer satisfied. If the yaw angular velocity is not equal to or less than the predetermined value A ("N" in step S205), the process of step S205 is repeated until the yaw angular velocity becomes equal to or less than the predetermined value A.
  • a predetermined value A for example, equal to or less than 0.02 rad/sec
  • the curve detection unit 142 checks whether the yaw angular velocity becomes equal to or greater than the predetermined value A (e.g., equal to or greater than 0.02 rad/sec) after the yaw angular velocity remains below the predetermined value A (e.g., less than 0.02 rad/sec) for less than a predetermined time B (e.g., less than 2 seconds) (step S206). If this condition is met ("Y" in step S206), the curve detection unit 142 determines that the previous curve is continuing (step S207).
  • the predetermined value A e.g., equal to or greater than 0.02 rad/sec
  • a predetermined time B e.g., less than 2 seconds
  • the curve detection unit 142 determines that the driver has adjusted the steering operation immediately after the curve has ended, causing the vehicle 109 to wobble, and determines that the previous curve is continuing. Then, the process returns to step S205.
  • step S206 If the condition of step S206 is not met ("N" in step S206), the curve detection unit 142 detects the end of the curve (step S208).
  • the curve detection unit 142 checks whether all the yaw angular velocity data included in the yaw angular velocity data DY has been read (step S209). If all the data has not yet been read ("N" in step S209), the process returns to step S201.
  • step S209 If all data has been read in step S209 ("Y" in step S209), this process ends.
  • the curve detection unit 142 basically detects a curve when a yaw angular velocity equal to or greater than a predetermined value A (e.g., equal to or greater than 0.02 rad/sec) continues for a predetermined time period B or longer (e.g., 2 seconds or longer) (step S201).
  • a predetermined value A e.g., equal to or greater than 0.02 rad/sec
  • the curve detection unit 142 considers the previous curve to be continuing (steps S205 to S207). Also, when the straight road between two curves that turn in the same direction is short, the curve detection unit 142 considers these two curves to be one curve (steps S201, S202, S204).
  • FIG. 13 shows a specific example of the second stage of curve division processing.
  • the curve detection unit 142 performs this second stage of processing using the results of the first stage of processing. In this way, the curve detection unit 142 determines whether or not each of the multiple curves detected by the first stage of processing should be included in the driving skill evaluation.
  • the curve detection unit 142 selects the first curve from among the multiple curves obtained by the first stage of processing (step S221).
  • the curve detection unit 142 checks whether the average value of the yaw angular velocity on the selected curve is less than a predetermined value D (e.g., less than 0.05 rad/sec.) (step S222).
  • a predetermined value D e.g., less than 0.05 rad/sec.
  • step S222 If, in step S222, the average value of the yaw angular velocity is less than the predetermined value D ("Y" in step S222), the curve detection unit 142 checks whether the maximum value of the yaw angular velocity is equal to or greater than a predetermined value E (e.g., equal to or greater than 0.07 rad/sec) (step S223).
  • a predetermined value E e.g., equal to or greater than 0.07 rad/sec
  • step S222 If in step S222 the average value of the yaw angular velocity is not less than the predetermined value D ("N" in step S222), or if in step S223 the maximum value of the yaw angular velocity is equal to or greater than the predetermined value E ("Y" in step S223), the curve detection unit 142 selects this curve as a target for the driving skill evaluation (step S224). Also, if in step S223 the maximum value of the yaw angular velocity is not equal to or greater than the predetermined value E ("N" in step S223), the curve detection unit 142 does not select this curve as a target for the driving skill evaluation (step S225).
  • the curve detection unit 142 checks whether all the curves have been selected (step S226). If all the curves have not yet been selected ("N" in step S226), the curve detection unit 142 selects one of the unselected curves (step S227). Then, the process returns to step S221. The curve detection unit 142 repeats the process of steps S221 to S227 until all the curves have been selected.
  • the curve detection unit 142 performs the curve division process to generate the curve data DC.
  • the curve detection unit 142 checks whether there is sample data (step S104). Specifically, the curve detection unit 142 checks whether the data set DSA, which is the sample data, is stored in the storage unit 132.
  • step S104 If there is no sample data in step S104 ("N" in step S104), the image generation unit 144 generates multiple image data DP by generating a kernel density estimation image for each of the multiple curves (step S105).
  • Figure 14 shows an example of a process for generating a kernel density estimation image.
  • the image generating unit 144 performs preprocessing (step S241). Specifically, the image generating unit 44 first calculates time series data of the longitudinal jerk by time-differentiating the time series data of the longitudinal acceleration included in the acceleration data DA, and calculates time series data of the square of the longitudinal jerk based on this time series data of the longitudinal jerk. The image generating unit 144 also calculates time series data of the yaw angular acceleration by time-differentiating the time series data of the yaw angular velocity included in the yaw angular velocity data DY, and calculates time series data of the square of the yaw angular acceleration based on this time series data of the yaw angular acceleration. The image generating unit 144 then generates a preprocessed image based on the time series data of the square of the longitudinal jerk and the time series data of the square of the yaw angular acceleration.
  • FIG. 15 shows an example of a process for generating a preprocessed image.
  • the horizontal axis (X-axis) of this preprocessed image indicates time, and the vertical axis (Y-axis) indicates the square of the yaw angular acceleration.
  • the preprocessed image is divided into 100 regions in the X-axis direction and 100 regions in the Y-axis direction.
  • the preprocessed image has 10,000 regions.
  • the full scale in the X-axis direction in the preprocessed image is set to, for example, 5 seconds, assuming the travel time of the vehicle 109 around one curve.
  • the full scale in the Y-axis direction in the preprocessed image is set based on the time series data of the square of the yaw angular acceleration.
  • the value of the square of the yaw angular acceleration generally varies widely, and may become a value that deviates significantly due to, for example, detection accuracy. Therefore, in this example, the image generation unit 144 performs a process to remove the values that deviate significantly from the values of the square of the yaw angular acceleration.
  • the image generation unit 44 can remove the values that deviate significantly by using, for example, a box-and-whisker plot.
  • the image generation unit 144 finds the minimum and maximum values from the data from which the values that deviate significantly have been removed, and determines the full scale in the Y-axis direction so that the range R of values from the minimum value to the maximum value falls within the Y-axis direction of FIG. 15 with an appropriate margin M.
  • the margin M can be, for example, about 3% of the width of the values from the minimum value to the maximum value.
  • the image generator 144 maps the value of the square of the forward and backward jerk to 10,000 regions in the preprocessed image based on the time and the value of the square of the yaw angular acceleration.
  • the image generating unit 144 sets the squared value of the forward and backward jerk for that piece of data as the value of that region. In the 10,000 regions where multiple pieces of data are mapped, the image generating unit 144 adds the squared values of the forward and backward jerk for those multiple pieces of data together and sets the summed value as the value of that region. In this way, the image generating unit 144 generates pixel values (Z axis) of the preprocessed image.
  • the image generating unit 144 scales this pixel value so that it is an integer between 0 and 255, for example, and so that the larger the squared value of the forward and backward jerk, the smaller the pixel value, and so that the smaller the squared value of the forward and backward jerk, the larger the pixel value. In this way, the image generating unit 144 generates a preprocessed image.
  • the image generating unit 144 performs kernel density estimation processing based on this preprocessed image, as shown in FIG. 14 (step S242).
  • kernel density estimation processing original data including data that has not yet been observed is estimated as density data based on actual measurement data.
  • the image generating unit 144 performs kernel density estimation processing using known techniques. In this way, the image generating unit 144 generates a kernel density estimated image.
  • the image generation unit 144 generates multiple image data DP by generating a kernel density estimation image for each of the multiple curves.
  • the data registration unit 149 stores the acceleration data DA and yaw angular velocity data DY generated in step S102, the curve data DC generated in step S103, and the multiple image data DP generated in step S105 in the storage unit 132 as a data set DSA (step S106). This ends the process.
  • step S104 If sample data is available in step S104 ("Y" in step S104), the curve detection unit 142 corrects the curve data DC by identifying the correspondence of the curve based on the similarity between the yaw angular velocity data DY generated in step S102 and the yaw angular velocity data DY of the data set DSA stored in the memory unit 132 (step S107).
  • FIG. 16 shows an example of the processing in step S107.
  • the curve detection unit 142 identifies the entire driving section to be processed based on the yaw angular velocity data DY generated in step S102 and the yaw angular velocity data DY of the data set DSA (step S261). Specifically, the curve detection unit 142 identifies similar entire driving sections based on the yaw angular velocity data DY generated in step S102 and the yaw angular velocity data DY of the data set DSA using dynamic time wrapping (DTW). That is, since both of these yaw angular velocity data DY are time series data of yaw angular velocity in the evaluation target area, it is desirable that they are almost the same.
  • DTW dynamic time wrapping
  • the curve detection unit 142 uses the dynamic time warping method based on the yaw angular velocity data DY generated in step S102 and the yaw angular velocity data DY of the data set DSA to identify an entire driving section in which the number of curves is approximately the same. As a result, the yaw angular velocity data DY generated in step S102 and the yaw angular velocity data DY of the data set DSA can be compared with each other in this entire driving section. In this way, the curve detection unit 142 identifies the entire driving section to be processed.
  • the curve detection unit 142 identifies the correspondence between the curves in the entire driving section to be processed obtained from the yaw angular velocity data DY generated in step S102 and the curves in the entire driving section to be processed obtained from the yaw angular velocity data DY of the dataset DSA (step S262). Specifically, the curve detection unit 142 identifies the correspondence between the curves by identifying multiple sections that are similar to each other using a dynamic time warping method based on the yaw angular velocity data DY generated in step S102 and the yaw angular velocity data DY of the dataset DSA.
  • FIG. 17 shows an example of the processing of step S262, where (A) shows the yaw angular velocity data DY generated in step S102, and (B) shows the yaw angular velocity data DY of the data set DSA.
  • This FIG. 17 shows the yaw angular velocity data DY for a portion of the driving section to be processed.
  • the numbers indicate the curve numbers in the curve data DC.
  • the curve detection unit 142 changes the curve number of the curve in portion W1 in the yaw angular velocity data DY (FIG. 17(A)) generated in step S102 from “6" to "6, 7, 8", and changes the curve numbers of the curves following this curve. That is, the curve detection unit 142 identifies the curve correspondence so that the curve numbers of the multiple curves in the yaw angular velocity data DY (FIG. 17(A)) generated in step S102 match the curve numbers of the multiple curves in the yaw angular velocity data DY (FIG. 17(B)) of the data set DSA. Then, the curve detection unit 142 corrects the curve data DC generated in step S103 based on the results of this processing.
  • the curve detection unit 142 excludes curves with low similarity between the multiple curves in the yaw angular velocity data DY generated in step S102 and the multiple curves in the yaw angular velocity data DY of the data set DSA from the evaluation targets for the driving skill evaluation (step S263). Specifically, the curve detection unit 142 calculates the similarity between the multiple curves in the yaw angular velocity data DY generated in step S102 and the multiple curves in the yaw angular velocity data DY of the data set DSA that correspond to each other using a dynamic time warping method. Then, the curve detection unit 142 excludes curves with similarity lower than a predetermined amount from the evaluation targets for the driving skill evaluation.
  • the curve detection unit 142 corrects the curve data DC by identifying the correspondence of the curve based on the similarity between the yaw angular velocity data DY generated in step S102 and the yaw angular velocity data DY of the data set DSA.
  • the image generator 144 generates a plurality of image data DP by generating a kernel density estimation image for each of the plurality of curves (step S108). This process is similar to the process of step S105.
  • the data registration unit 149 stores the acceleration data DA and yaw angular velocity data DY generated in step S102, the curve data DC generated in step S103 and corrected in step S107, and the multiple image data DP generated in step S108 as a data set DSB in the storage unit 132 (step S109). This ends the process.
  • the data processing system 2 generates a data set DS including acceleration data DA, yaw angular velocity data DY, curve data DC, and multiple image data DP based on driving data obtained by an experienced driver driving the vehicle 109. By repeating this process, the data processing system 2 can generate multiple data sets DS based on multiple driving data.
  • the data processing system 2 performs processing based on driving data obtained by an experienced driver driving the vehicle 109, but it is also possible to perform processing based on driving data obtained by an unskilled driver driving the vehicle 109. In this way, the data processing system 2 can obtain a kernel density estimation image related to the experienced driver and a kernel density estimation image related to the unskilled driver.
  • This kernel density estimation image may change depending on the driving skill of the driver.
  • the driving skill evaluation system 1 evaluates the driving skill of the driver based on the kernel density estimation image.
  • FIG. 18 shows an example of a process for generating evaluation target curve data DTC.
  • the data processing system 2 has already acquired multiple data sets DS related to an experienced driver and multiple data sets DS related to an unskilled driver.
  • the evaluation target data generation unit 147 selects one of the multiple curves (step S301).
  • the image similarity calculation unit 145 calculates an average value F1 of image similarities between multiple kernel density estimation images related to an experienced driver and multiple kernel density estimation images related to an unskilled driver for the selected curve (step S302). Specifically, the image similarity calculation unit 145 calculates image similarities of kernel density estimation images for all combinations between multiple kernel density estimation images related to one or more experienced drivers and multiple kernel density estimation images related to one or more unskilled drivers for the selected curve. Then, the image similarity calculation unit 145 calculates the average value F1 of these image similarities.
  • the image similarity calculation unit 145 calculates the average value F2 of the image similarities between each of the multiple kernel density estimation images related to the skilled driver for the selected curve (step S303). Specifically, the image similarity calculation unit 145 calculates the image similarities of the kernel density estimation images for all combinations between each of the multiple kernel density estimation images related to one or more skilled drivers for the selected curve. Then, the image similarity calculation unit 145 calculates the average value F2 of these image similarities.
  • the evaluation target data generation unit 147 checks whether there is a significant difference between the average values F1 and F2 (step S304). Specifically, if the difference between the average values F1 and F2 is equal to or greater than a predetermined amount, the evaluation target data generation unit 147 determines that there is a significant difference between the average values F1 and F2. If there is a significant difference between the average values F1 and F2 ("Y" in step S304), the evaluation target data generation unit 147 sets the curve selected in step S301 as the evaluation target for the driving skill evaluation. If there is no significant difference between the average values F1 and F2 ("N" in step S304), the evaluation target data generation unit 147 does not set the curve selected in step S301 as the evaluation target for the driving skill evaluation.
  • the evaluation target data generation unit 147 checks whether all curves have been selected (step S307). If all curves have not yet been selected ("N" in step S307), the evaluation target data generation unit 147 selects one of the unselected curves (step S308). Then, the process returns to step S302. The evaluation target data generation unit 147 repeats the process of steps S302 to S308 until all curves have been selected.
  • the evaluation target data generation unit 147 If all curves have been selected in step S307 ("Y" in step S307), the evaluation target data generation unit 147 generates evaluation target curve data DTC based on the processing results of steps S305 and S306 (step S309). Specifically, the evaluation target data generation unit 147 generates evaluation target curve data DTC including the curve numbers of the curves that are the evaluation targets for the driving skill evaluation in steps S305 and S306.
  • the data processing system 2 generates the evaluation target curve data DTC based on the driving data obtained by an experienced driver and an unskilled driver driving the vehicle 109.
  • the processing unit 140 calculates the average values F1 and F2 in steps S302 to S304, and checks whether there is a significant difference between the average values F1 and F2 to determine whether the selected curve is to be evaluated, but this is not limited to the above.
  • the processing unit 140 may determine whether the selected curve is to be evaluated by performing, for example, a non-parametric U-test based on the multiple image similarities used to calculate the average value F1 and the multiple image similarities used to calculate the average value F2, without using the average values F1 and F2.
  • the image similarity calculation unit 145 calculates the image similarities of the kernel density estimation images for all combinations between the multiple kernel density estimation images related to one or more skilled drivers and the multiple kernel density estimation images related to one or more non-skilled drivers for the selected curve.
  • the image similarity calculation unit 145 calculates the image similarity of the kernel density estimation image for all combinations between the multiple kernel density estimation images related to one or more skilled drivers for one selected curve.
  • the evaluation target data generation unit 147 performs, for example, a non-parametric U-test process based on the multiple image similarities obtained in the first step and the multiple image similarities obtained in the subsequent steps to determine whether there is a significant difference between the multiple image similarities obtained in the first step and the multiple image similarities obtained in the subsequent steps. If there is a significant difference, the evaluation target data generation unit 147 sets the curve selected in step S301 as the evaluation target for the driving skill evaluation (step S305). If there is no significant difference ("N" in step S304), the evaluation target data generation unit 147 does not set the curve selected in step S301 as the evaluation target for the driving skill evaluation (step S306).
  • the driving skill evaluation system 1 evaluates the driving skill of a driver and generates driving advice corresponding to the driving skill of the driver. To generate this advice, the driving skill evaluation system 1 analyzes the driving operation of the driver based on a plurality of kernel density estimation images related to certain specific curves among a plurality of curves.
  • FIG. 19 shows an example of a process for generating analysis target curve data DTD.
  • the analysis target data generation unit 157 classifies the multiple curves into multiple classes based on the image similarity between each of the multiple kernel density estimation images included in the multiple data sets DS (step S321). Specifically, first, the analysis target data generation unit 157 calculates the image similarity of the kernel density estimation image for all combinations between each of the multiple kernel density estimation images related to one or more drivers included in the multiple data sets DS.
  • the multiple kernel density estimation images include kernel density estimation images related to multiple curves. For example, two kernel density estimation images related to the same curve among the multiple curves are similar to each other, so the image similarity is high. Also, two kernel density estimation images related to two curves that are similar to each other among the multiple curves are similar to each other, so the image similarity is high.
  • the analysis target data generation unit 157 calculates the image similarity of the kernel density estimation image for all combinations between each of the multiple kernel density estimation images. Then, the analysis target data generation unit 157 classifies the multiple curves into multiple classes based on these image similarities. Specifically, the analysis target data generation unit 157 classifies the multiple curves into multiple classes such that two curves associated with two kernel density estimation images with high image similarity belong to the same class, and two curves associated with two kernel density estimation images with low image similarity belong to different classes. The analysis target data generation unit 157 can classify the multiple curves into, for example, about five classes.
  • the analysis target data generation unit 157 selects the class that has the largest number of curves from among the multiple classes (step S322).
  • the analysis target data generation unit 157 selects, from among all the curves belonging to the class selected in step S322, multiple curves for which curve detection has been successful (step S323). That is, when the curve detection unit 142 detects curves in steps S103 and S107, it may not be possible to detect some curves depending on the yaw angular velocity data DY.
  • the analysis target data generation unit 157 determines multiple curves to be analyzed, for example, by checking whether each of all the curves belonging to the selected class is included in the curve data DC of all data sets DS. In this way, the analysis target data generation unit 157 can select, from among the multiple curves, multiple curves that are similar to each other and easy to detect as analysis targets.
  • the analysis target data generation unit 157 generates analysis target curve data DTD including the curve number of the curve that was selected as the analysis target in step S323 (step S324).
  • the data processing system 2 generates the analysis target curve data DTD based on the driving data obtained by an experienced driver driving the vehicle 109.
  • the data processing system 2 transmits the multiple data sets DS, the evaluation target curve data DTC, the analysis target curve data DTD, and the area data DAR to the server device 30.
  • the server device 30 stores these data in the storage unit 32.
  • the driving skill evaluation system 1 evaluates the driving skill of a driver based on driving data generated by the driver driving the vehicle 9, using a plurality of data sets DS, evaluation target curve data DTC, analysis target curve data DTD, and area data DAR stored in the storage unit 32 of the server device 30. This operation will be described in detail below.
  • the acceleration sensor 14 of the smartphone 10 in the vehicle 9 detects the acceleration in each of the three directions in the coordinate system of the smartphone 10
  • the angular velocity sensor 15 detects each of the three angular velocities (yaw angular velocity, roll angular velocity, pitch angular velocity) in the coordinate system of the smartphone 10
  • the GNSS receiver 16 obtains the position of the vehicle 9 on the ground.
  • the data processing unit 21 performs predetermined data processing such as filtering based on the detection results of the acceleration sensor 14 and the detection results of the angular velocity sensor 15. Specifically, the data processing unit 21 performs filtering on the time series data of acceleration detected by the acceleration sensor 14, and performs filtering on the time series data of angular velocity detected by the angular velocity sensor 15. Note that this is not limited to this, and the data processing unit 21 may perform downsampling on the time series data that has been subjected to filtering.
  • the communication unit 13 transmits the acceleration time series data and angular velocity time series data processed by the data processing unit 21 to the server device 30 together with the position time series data of the vehicle 9 obtained by the GNSS receiver 16.
  • the communication unit 31 receives the data transmitted from the smartphone 10.
  • the server device 30 evaluates the driver's driving skills based on the data received by the communication unit 31. The operation of the server device 30 will be described in detail below.
  • FIGS. 20A and 20B show an example of the operation of the server device 30.
  • the data processing unit 41 of the server device 30 uses the area data DAR stored in the storage unit 32 based on the time series data of the position of the vehicle 9 to check whether the vehicle 9 has traveled through the area to be evaluated (step S401). If the vehicle 9 has not traveled through the area to be evaluated ("N" in step S401), this process ends.
  • the data processing unit 41 When the vehicle 9 travels through the evaluation area ("Y" in step S401), the data processing unit 41 performs coordinate transformation to generate time series data of longitudinal acceleration and time series data of yaw angular velocity (step S402). Specifically, the data processing unit 41 performs coordinate transformation based on the time series data of acceleration in the evaluation area to generate time series data of acceleration in the traveling direction of the vehicle 9 (longitudinal acceleration). The data processing unit 41 also performs coordinate transformation based on the time series data of angular velocity in the evaluation area to generate time series data of yaw angular velocity of the vehicle 9.
  • the data processing unit 41 may perform upsampling processing on the time series data of acceleration and the time series data of angular velocity received by the communication unit 31, and perform coordinate transformation based on the time series data of longitudinal acceleration and the time series data of yaw angular velocity that have been subjected to upsampling processing.
  • the data processing unit 41 performs filtering on the time series data of longitudinal acceleration and the time series data of yaw angular velocity generated in step S402 to generate acceleration data DA1 and yaw angular velocity data DY1, respectively (step S403).
  • the curve detection unit 42 generates curve data DC1 by performing a curve division process based on the yaw angular velocity data DY1 generated in step S403 (step S404).
  • This curve division process is similar to the process of step S103 shown in FIG. 11.
  • the curve detection unit 42 corrects the curve data DC1 by identifying the correspondence of the curve based on the similarity between the yaw angular velocity data DY1 generated in step S403 and the yaw angular velocity data DY of the data set DSA stored in the storage unit 32 (step S405). This process is similar to the process of step S107 shown in FIG. 11.
  • the data extraction unit 43 extracts time series data of longitudinal acceleration and time series data of yaw angular velocity related to the curve that is the evaluation target of the driving skill evaluation based on the evaluation target curve data DTC stored in the memory unit 32 (step S406). Specifically, the data extraction unit 43 extracts time series data of longitudinal acceleration related to the multiple curves used in the evaluation of the driving skill from the time series data of longitudinal acceleration included in the acceleration data DA1. In addition, the data extraction unit 43 extracts time series data of yaw angular velocity related to the multiple curves used in the evaluation of the driving skill from the time series data of yaw angular velocity included in the yaw angular velocity data DY1.
  • the image generating unit 44 generates a plurality of image data DP by generating a kernel density estimation image for each of the plurality of curves based on the time series data of the longitudinal acceleration and the time series data of the yaw angular velocity extracted in step S406 (step S407). This process is similar to the process of step S108. In this step S406, the image generating unit 44 generates a kernel density estimation image for the curve that is the subject of the driving skill evaluation.
  • the image similarity calculation unit 45 calculates an average value of image similarities (average similarity) based on the multiple kernel density estimation images generated in step S407 and the multiple kernel density estimation images included in the multiple data sets DS related to the skilled driver stored in the storage unit 32 (step S408). Specifically, the image similarity calculation unit 45 calculates the image similarity for each of the multiple curves by comparing the kernel density estimation image generated by the image generation unit 44 with the multiple kernel density estimation images included in the multiple data sets DS related to the skilled driver. The image similarity calculation unit 45 calculates multiple image similarities by performing this process for each of the multiple curves. Then, the image similarity calculation unit 45 calculates the average value (average similarity) of these multiple image similarities. In this example, the image similarity value is a positive value, and the more similar the kernel density estimation images are, the smaller the image similarity value is, and the more dissimilar the kernel density estimation images are, the larger the image similarity value is.
  • the skill assessment unit 46 checks whether all the curves indicated by the analysis target curve data DTD have been detected in steps S404 and S405 (step S429). That is, when the curve detection unit 42 detects curves in steps S404 and S405, it may not be possible to detect some curves depending on the yaw angular velocity data DY1. For example, if the driver's driving skill is low and the yaw angular velocity data DY1 differs greatly from the yaw angular velocity data DY of an experienced driver, it may not be possible to detect some of the multiple curves indicated by the analysis target curve data DTD. Therefore, the skill assessment unit 46 checks whether all the curves indicated by the analysis target curve data DTD have been detected. If all the curves indicated by the analysis target curve data DTD have not been detected ("N" in step S429), the process proceeds to step S433.
  • step S429 If all curves indicated by the analysis target curve data DTD can be detected in step S429 ("Y" in step S429), the skill assessment unit 46 checks whether the average similarity value calculated in step S408 is less than the threshold value H1 (step S430).
  • step S430 if the value of the average similarity is less than the threshold value H1 ("Y" in step S430), the skill assessment unit 46 determines that the driver of the vehicle 9 has high driving skills, and the advice generation unit 47 notifies the driver that the driving skills are high and provides advice for further improving the driving skills (step S431). That is, in step S430, since the value of the average similarity is less than the threshold value H1, the kernel density estimation image of the driver resembles the kernel density estimation image of an experienced driver. Therefore, the skill assessment unit 46 determines that the driver of the vehicle 9 has high driving skills. Then, the advice generation unit 47 notifies the driver that the driving skills are high and provides advice for further improving the driving skills. Then, this process ends.
  • step S430 If, in step S430, the average similarity value is not less than the threshold value H1 ("N" in step S430), the skill assessment unit 46 checks whether the average similarity value calculated in step S408 is greater than or equal to the threshold value H2 (step S432).
  • step S432 if the value of the average similarity is equal to or greater than the threshold value H2 ("Y" in step S432), the skill determination unit 46 determines that the driver of the vehicle 9 has low driving skills, and the advice generation unit 47 provides basic advice on driving (step S433).
  • the threshold value H2 is greater than the threshold value H1.
  • the skill determination unit 46 determines that the driver of the vehicle 9 has low driving skills.
  • the advice generation unit 47 provides advice, for example, to maintain a driving posture that can make it easier to drive the vehicle appropriately and to encourage the acquisition of a vehicle sense.
  • the advice generation unit 47 provides advice to maintain a driving posture that can make it easier to drive the vehicle appropriately and to encourage the acquisition of a vehicle sense by presenting information about the driver's driving posture and seat settings that maintain the driver's field of vision appropriately.
  • the advice generating unit 47 can, for example, prepare a plurality of such basic advice in advance and randomly select one of them.
  • the advice generating unit 47 can randomly provide such basic advice, thereby reducing the possibility that the driver will feel uncomfortable.
  • step S432 If the average similarity value is not equal to or greater than the threshold value H2 in step S432 ("N" in step S432), the skill assessment unit 46 performs an analysis process to analyze the driver's driving operation, and the advice generation unit 47 provides advice according to the analysis results (step S434).
  • FIG. 21 shows an example of the processing in step S434.
  • the skill assessment unit 46 calculates the average value (average percentage) of the percentage of the parts with large squared values of the forward and backward jerk in the multiple kernel density estimation images related to the multiple curves indicated by the analysis target curve data DTD among the multiple kernel density estimation images generated in step S407 (step S441). Specifically, the skill assessment unit 46 calculates the area percentage of the parts (dark parts) with particularly large squared values of the forward and backward jerk among the parts with a certain value or more of the squared value of the forward and backward jerk in one kernel density estimation image shown in FIG. 6.
  • the skill assessment unit 46 calculates the area percentage of the parts (dark parts) with particularly small pixel values among the parts with pixel values below a certain value in one kernel density estimation image shown in FIG. 6. That is, in this example, the larger the squared value of the forward and backward jerk, the smaller the pixel value, and the smaller the squared value of the forward and backward jerk, the larger the pixel value, so the skill assessment unit 46 calculates the average value of the percentage of the parts with small pixel values in the multiple kernel density estimation images.
  • the area ratio is calculated by dividing the image area of the portion whose pixel value is equal to or less than a first predetermined value by the image area of the portion whose pixel value is equal to or less than a second predetermined value.
  • the second predetermined value is a value larger than the first predetermined value.
  • the skill assessment unit 46 calculates this area ratio for multiple kernel density estimation images. Then, the skill assessment unit 46 calculates the average value of these area ratios as the ratio average value.
  • the skill assessment unit 46 checks whether the average ratio is equal to or greater than the threshold value L (step S442).
  • the skill assessment unit 46 determines that the longitudinal acceleration of the vehicle 9 is not smooth, and provides advice regarding the acceleration and deceleration of the vehicle 9 (step S443). That is, because the percentage average value is equal to or greater than the threshold value L, the square of the longitudinal jerk is large. In other words, the longitudinal acceleration is changing significantly. Therefore, the skill assessment unit 46 determines that the longitudinal acceleration of the vehicle 9 is not smooth, and provides advice regarding the acceleration and deceleration of the vehicle 9. Specifically, the skill assessment unit 46 provides advice regarding, for example, the driver's operation of the accelerator pedal or brake pedal. Then, this process ends.
  • step S442 if the average percentage value is not equal to or greater than the threshold value L ("N" in step S442), the skill assessment unit 46 determines that the yaw angular velocity of the vehicle 9 is not smooth, and provides advice regarding the steering of the vehicle 9 (step S443). That is, because the average percentage value is not equal to or greater than the threshold value L, the squared value of the longitudinal jerk is not large. Therefore, the skill assessment unit 46 determines that there is room for improvement in the yaw angular velocity, not the longitudinal acceleration. The skill assessment unit 46 determines that the yaw angular velocity of the vehicle 9 is not smooth, and provides advice regarding the steering of the vehicle 9. Specifically, the skill assessment unit 46 provides advice regarding, for example, the driver's operation of the steering wheel. Then, this process ends.
  • step S434 of FIG. 20B the skill assessment unit 46 performs an analysis process to analyze the driver's driving operation, and the advice generation unit 47 provides advice based on the analysis results.
  • the skill assessment unit 46 provides either advice regarding acceleration and deceleration of the vehicle 9 or advice regarding steering of the vehicle, but this is not limited to this, and for example, both of these pieces of advice may be provided.
  • the advice in step S433 corresponds to a specific example of "first advice” in this disclosure.
  • the advice in step S434 corresponds to a specific example of "second advice” in this disclosure.
  • the advice in step S431 corresponds to a specific example of "third advice” in this disclosure.
  • the communication unit 31 of the server device 30 transmits data including the driving skill evaluation results and driving advice to the smartphone 10.
  • the communication unit 13 of the smartphone 10 receives the data transmitted from the smartphone 10.
  • the display processing unit 22 performs display processing based on the data indicating the driving skill evaluation results and driving advice transmitted from the server device 30.
  • the touch panel 11 displays the driving skill evaluation results and driving advice. This allows the driver to obtain an objective evaluation of his or her driving skills and improve his or her driving skills based on the advice.
  • the driving skill evaluation method in the driving skill evaluation system 1 includes performing an evaluation process to evaluate the driving skill of the driver of the vehicle 9 based on the driving data of the vehicle 9 (e.g., the acceleration data DA1 and the yaw angular velocity data DY1), and performing an advice process to give advice to the driver based on the evaluation result of the driver's driving skill.
  • the advice process includes providing the driver with a first advice not based on the driving data when the driving skill evaluated by the evaluation process is at a first skill level, and providing the driver with a second advice based on the driving data when the driving skill evaluated by the evaluation process is at a second skill level higher than the first skill level.
  • appropriate advice is provided to the driver according to the driver's driving skill, so that the driver's driving skill can be improved.
  • basic advice is provided that is not based on the driving data and that encourages the driver to maintain a driving posture that makes it easier to drive the vehicle appropriately and to acquire a sense of the vehicle.
  • advice is provided based on the driving data, for example, to drive more smoothly.
  • the second advice includes one or both of a first detailed advice, which is advice on acceleration or deceleration of the vehicle 9, and a second detailed advice, which is advice on steering the vehicle 9.
  • a first detailed advice which is advice on acceleration or deceleration of the vehicle 9
  • a second detailed advice which is advice on steering the vehicle 9.
  • an analysis process is performed to analyze the driving operation of the driver based on the driving data of the vehicle 9, so that one or both of the first detailed advice, which is advice on acceleration or deceleration of the vehicle 9, and the second detailed advice, which is advice on steering the vehicle 9, can be provided.
  • appropriate advice is provided to the driver in accordance with the driver's driving skill, so that the driver's driving skill can be improved.
  • the driving data includes time series data of a first parameter (yaw angular velocity in this example) corresponding to a change in the direction of travel of the vehicle 9, and time series data of a second parameter (longitudinal acceleration in this example) corresponding to a change in speed in the direction of travel of the vehicle 9.
  • the second advice includes one of the first detailed advice and the second detailed advice.
  • the evaluation process includes determining whether the second advice includes the first detailed advice or the second detailed advice based on the driving data when the driving skill evaluated by the evaluation process is at the second skill level.
  • the evaluation process includes determining whether the second advice should include a predetermined advice that is one of the first detailed advice and the second detailed advice, and, when it is determined that the second advice should include the predetermined advice, determining that the second advice includes the predetermined advice, and, when it is determined that the second advice should not include the predetermined advice, determining that the second advice includes the other of the first detailed advice and the second detailed advice.
  • the kernel density estimation image is an image of the square of the forward/reverse jerk. Therefore, in step S442 of FIG.
  • checking whether the percentage average value is equal to or greater than the threshold value L is checking whether the forward/reverse acceleration of the vehicle 9 is smooth, and is determining whether to provide advice on acceleration and deceleration of the vehicle 9.
  • the first detailed advice which is advice on acceleration or deceleration of the vehicle 9
  • the second detailed advice which is advice on steering the vehicle 9
  • the advice process further includes providing the driver with third advice different from the first advice and the second advice when the driving skill evaluated by the evaluation process is at a third skill level higher than the second skill level.
  • the traveling data data when the vehicle is traveling around a curve is used as the traveling data.
  • the evaluation process includes generating evaluation data (in this example, a kernel density estimation image) based on the traveling data (in this example, for example, acceleration data DA1 and yaw angular velocity data DY1), and evaluating the driving skill of the driver of the vehicle 9 by comparing the evaluation data with reference data.
  • the driving skill evaluation method can evaluate driving skills using a clear standard, namely the reference data, and therefore the accuracy of the evaluation of driving skills can be improved.
  • advice processing can be performed based on the evaluation results of driving skills evaluated with such high accuracy, and appropriate advice can be given to the driver. As a result, the driving skill of the driver can be improved.
  • image data of the kernel density estimation image is used as evaluation data.
  • original data including data that has not yet been observed
  • the kernel density estimation image can contain the original unique characteristics of the driver according to the driving skill of the driver. Therefore, in this driving skill evaluation method, by using the kernel density estimation image, the accuracy of the evaluation of the driver's driving skill can be improved.
  • advice processing can be performed based on the evaluation results of driving skills evaluated with such high accuracy, so appropriate advice can be given to the driver. As a result, the driver's driving skill can be improved.
  • this driving skill evaluation method further includes detecting curves based on the driving data of the vehicle 9.
  • the evaluation process also includes evaluating the driving skill of the driver of the vehicle 9 based on whether or not a curve can be detected based on the driving data when the vehicle 9 is traveling around a curve. As a result, for example, as shown in step S429 of FIG. 20B, if the driver's driving skill is low and a curve is not properly detected based on the yaw angular velocity, it can be determined that the driving skill is low. In this way, the accuracy of the evaluation of the driver's driving skill can be improved, and therefore the driver's driving skill can be improved.
  • the driving skill evaluation method includes performing an evaluation process for evaluating the driving skill of a driver of a vehicle based on the driving data of the vehicle, and performing an advice process for giving advice to the driver based on the evaluation result of the driver's driving skill.
  • the advice process includes providing the driver with a first advice not based on the driving data when the driving skill evaluated by the evaluation process is at a first skill level, and providing the driver with a second advice based on the driving data when the driving skill evaluated by the evaluation process is at a second skill level higher than the first skill level. This makes it possible to improve the driver's driving skill.
  • the second advice includes one or both of the first detailed advice, which is advice on accelerating or decelerating the vehicle 9, and the second detailed advice, which is advice on steering the vehicle 9, so that the driver's driving skills can be improved.
  • the driving data includes time series data of a first parameter corresponding to a change in direction of travel of the vehicle, and time series data of a second parameter corresponding to a change in speed of the vehicle in the direction of travel.
  • the second advice includes one of first detailed advice and second detailed advice.
  • the evaluation process includes determining, based on the driving data, whether the second advice includes the first detailed advice or the second detailed advice. This makes it possible to improve the driver's driving skill.
  • the evaluation process includes determining whether the second advice should include a specified advice that is one of the first detailed advice and the second detailed advice, and, if it is determined that the second advice should include the specified advice, determining that the second advice includes the specified advice, and, if it is determined that the second advice should not include the specified advice, determining that the second advice includes the other of the first detailed advice and the second detailed advice.
  • the advice process further includes providing the driver with a third piece of advice that is different from the first and second advice when the driving skill evaluated by the evaluation process is at a third skill level that is higher than the second skill level, thereby improving the driver's driving skill.
  • the evaluation process includes generating evaluation data based on the traveling data, and evaluating the driving skills of the vehicle's driver by comparing the evaluation data with reference data. This makes it possible to improve the accuracy of the evaluation of the driver's driving skills, and as a result, the driver's driving skills can be improved.
  • image data of the kernel density estimation image is used as evaluation data, which can improve the accuracy of the evaluation of the driver's driving skills, and as a result, the driver's driving skills can be improved.
  • the method further includes detecting curves based on the vehicle's driving data.
  • the evaluation process also includes evaluating the driving skills of the driver of the vehicle based on whether or not a curve could be detected based on the driving data when the vehicle is driving around a curve. This makes it possible to improve the accuracy of the evaluation of the driver's driving skills, and as a result, the driver's driving skills can be improved.
  • the vertical axis (Y axis) of the kernel density estimation image indicates the square of the yaw angular acceleration, but is not limited to this.
  • the vertical axis (Y axis) of the kernel density estimation image may indicate the yaw angular acceleration as shown in Fig. 22, or may indicate the absolute value of the yaw angular acceleration.
  • the vertical axis (Y axis) of the kernel density estimation image may indicate the yaw angular velocity as shown in Fig. 23, or may indicate the absolute value of the yaw angular velocity.
  • the vertical axis (Y axis) of the kernel density estimation image may indicate the square of the acceleration (lateral acceleration) in the direction intersecting the traveling direction of the vehicle as shown in Fig. 24, or may indicate the lateral acceleration as shown in Fig. 25, or may indicate the absolute value of the lateral acceleration.
  • the vertical axis (Y axis) of the kernel density estimation image indicates the square of the yaw angular acceleration
  • the pixel value (Z axis) of the kernel density estimation image indicates the square of the longitudinal jerk
  • the vertical axis (Y axis) of the kernel density estimation image may indicate the square of the longitudinal jerk
  • the pixel value (Z axis) of the kernel density estimation image may indicate the square of the yaw angular acceleration.
  • Fig. 26 shows an example of a kernel density estimation image in a certain curve.
  • FIG. 27 shows the coordinate axes of the kernel density estimation image shown in Fig. 26.
  • the process shown in FIG. 21 is performed based on this kernel density estimation image. Specifically, first, the skill assessment unit 46 calculates the average value (average percentage value) of the percentage of the part with a large value of the squared yaw angular acceleration in the multiple kernel density estimation images related to the multiple curves indicated by the analysis target curve data DTD among the multiple kernel density estimation images generated in step S407, as in step S441. Next, the skill assessment unit 46 checks whether the average percentage value is equal to or greater than the threshold value L, as in step S442. If the average percentage value is equal to or greater than the threshold value L, the skill assessment unit 46 determines that the yaw angular velocity of the vehicle 9 is not smooth, and provides advice on the steering of the vehicle 9.
  • the average percentage value average percentage value
  • the skill assessment unit 46 determines that the longitudinal acceleration of the vehicle 9 is not smooth, and provides advice on the acceleration and deceleration of the vehicle 9. That is, in this example, the kernel density estimation image is an image of the squared yaw angular acceleration. Therefore, checking whether the average ratio is equal to or greater than the threshold value L is a check to see whether the yaw angular acceleration of the vehicle 9 is smooth, and is a determination of whether to provide advice regarding the steering of the vehicle 9.
  • the driving skill evaluation system 1 may be configured to perform processing based on both the kernel density estimation images shown in Figures 6 and 7 and the kernel density estimation images shown in Figures 26 and 27.
  • the information processing device 130 of the data processing system 2 may determine whether to generate the kernel density estimation images shown in Figures 6 and 7 or the kernel density estimation images shown in Figures 26 and 27 based on the operation of an engineer.
  • the information processing device 130 may also determine which of these kernel density estimation images to generate based on the acceleration data DA including time series data of longitudinal acceleration and the yaw angular velocity data DY including time series data of yaw angular velocity.
  • the information processing device 130 checks whether the road on which the vehicle 109 has traveled is a road on which the speed of the vehicle 109 changes significantly based on the acceleration data DA and the yaw angular velocity data DY. Then, if the road on which the vehicle 109 has traveled is one on which the speed of the vehicle 109 changes significantly, the information processing device 130 decides to generate the kernel density estimation image shown in FIGS. 6 and 7, and if the road on which the vehicle 109 has traveled is not one on which the speed of the vehicle 109 changes significantly, the information processing device 130 decides to generate the kernel density estimation image shown in FIGS. 26 and 27.
  • the information processing device 130 may determine to generate the kernel density estimation image shown in Figures 6 and 7 for all curves, or may determine to generate the kernel density estimation image shown in Figures 26 and 27 for all curves. Furthermore, the information processing device 130 may individually determine which kernel density estimation image to generate for each of the multiple curves, the kernel density estimation image shown in Figures 6 and 7 or the kernel density estimation image shown in Figures 26 and 27.
  • the server device 30 If the kernel density estimation image for an experienced driver in the dataset DS is the kernel density estimation image shown in Figures 6 and 7, the server device 30 generates the kernel density estimation image shown in Figures 6 and 7 based on the driver's driving data, and if the kernel density estimation image for an experienced driver in the dataset DS is the kernel density estimation image shown in Figures 26 and 27, the server device 30 generates the kernel density estimation image shown in Figures 26 and 27 based on the driver's driving data.
  • the pixel value (Z axis) of the kernel density estimation image indicates the square of the yaw angular acceleration, but this is not limited to this. Instead, for example, as in variant example 1, the pixel value (Z axis) of the kernel density estimation image may indicate the absolute value of the yaw angular acceleration, the square of the lateral acceleration, or the absolute value of the lateral acceleration.
  • the smartphone 10 transmits the time series data of acceleration, the time series data of angular velocity, and the time series data of the position of the vehicle 9 to the server device 30, but this is not limited to this. Instead of this, for example, the smartphone 10 may further transmit the time series data of geomagnetism to the server device 30. This example will be described in detail below.
  • FIG. 28 shows an example of the configuration of a smartphone 10A according to this modified example.
  • the smartphone 10A has a geomagnetic sensor 17A and a processing unit 20A.
  • the geomagnetic sensor 17A is configured to detect geomagnetism.
  • the processing unit 20A collects time series data of acceleration detected by the acceleration sensor 14, time series data of angular velocity detected by the angular velocity sensor 15, time series data of the position of the vehicle 9 obtained by the GNSS receiver 16, and time series data of geomagnetism detected by the geomagnetic sensor 17A.
  • the communication unit 13 transmits the time series data of acceleration and time series data of angular velocity processed by the data processing unit 21 to the server device 30 together with the time series data of the position of the vehicle 9 obtained by the GNSS receiver 16 and the time series data of geomagnetism detected by the geomagnetic sensor 17A.
  • the data processing unit 41 of the server device 30 generates time series data of acceleration in the traveling direction of the vehicle 9 (longitudinal acceleration) by performing coordinate transformation based on the time series data of acceleration received by the communication unit 31. It also generates time series data of the yaw angular velocity of the vehicle 9 by performing coordinate transformation based on the time series data of angular velocity received by the communication unit 31. The data processing unit 41 then corrects the time series data of the longitudinal acceleration and the time series data of the yaw angular velocity based on the time series data of geomagnetic field received by the communication unit 31. This makes it possible to improve the accuracy of the time series data of the longitudinal acceleration and the time series data of the yaw angular velocity.
  • the server device 30 evaluates the driving skills based on the driving data transmitted from the smartphone 10, but this is not limited to the above.
  • the smartphone 10 may evaluate the driving skills based on the driving data.
  • the processing unit 20 of the smartphone 10 may operate as a data processing unit 41, a curve detection unit 42, a data extraction unit 43, an image generation unit 44, an image similarity calculation unit 45, and a skill assessment unit 46.
  • the storage unit 12 of the smartphone 10 stores a plurality of data sets DS (data set DSA and a plurality of data sets DSB), evaluation target curve data DTC, and area data DAR.
  • the on-board device of the vehicle 9 may collect driving data of the vehicle 9 and evaluate the driving skill based on this driving data.
  • the on-board device of the vehicle 9 collects time series data of longitudinal acceleration detected by an acceleration sensor, time series data of yaw angular velocity detected by a yaw angular velocity sensor, and time series data of the position of the vehicle 9 obtained by a GNSS receiver.
  • the processing units of the on-board device of the vehicle 9 may operate as a data processing unit 41, a curve detection unit 42, a data extraction unit 43, an image generation unit 44, an image similarity calculation unit 45, and a skill determination unit 46.
  • the storage unit of the on-board device stores a plurality of data sets DS (data set DSA and a plurality of data sets DSB), evaluation target curve data DTC, and area data DAR.
  • the advice process includes: When the driving skill evaluated by the evaluation process is at a first skill level, a first advice not based on the driving data is provided to the driver. and when the driving skill evaluated by the evaluation process is a second skill level higher than the first skill level, providing the driver with second advice based on the driving data.
  • the second advice includes one or both of a first detailed advice which is advice on accelerating or decelerating the vehicle, and a second detailed advice which is advice on steering the vehicle.
  • the travel data includes time series data of a first parameter corresponding to a change in a traveling direction of the vehicle, and time series data of a second parameter corresponding to a change in a speed of the vehicle in the traveling direction, the second advice includes one of the first detailed advice and the second detailed advice;
  • the evaluation process includes: determining whether the second advice should include a predetermined advice, the predetermined advice being one of the first detailed advice and the second detailed advice;
  • the driving skill evaluation method described in (3) comprising: determining that the second advice includes the specified advice when it is determined that the second advice should include the specified advice; and determining that the second advice includes the other of the first detailed advice and the second detailed advice when it is determined that the second advice should not include the specified advice.
  • the traveling data is data when the vehicle is traveling around a curve
  • the evaluation process includes: generating evaluation data based on the running data; The driving skill evaluation method according to any one of (1) to (5), further comprising evaluating the driving skill of the driver of the vehicle by comparing the evaluation data with reference data.
  • the evaluation data is image data of a kernel density estimation image
  • the driving skill evaluation method according to (6), wherein the reference data is image data of a reference image.
  • an evaluation circuit for evaluating the driving skill of a driver of the vehicle based on driving data of the vehicle; an advice circuit for giving advice to the driver based on a result of the evaluation of the driving skill of the driver;
  • the advice circuit comprises: when the driving skill evaluated by the evaluation circuit is at a first skill level, a first advice not based on the driving data is provided to the driver; a driving skill evaluation system that provides the driver with second advice based on the driving data when the driving skill evaluated by the evaluation circuit is at a second skill level higher than the first skill level.
  • the advice process includes: When the driving skill evaluated by the evaluation process is at a first skill level, providing the driver with a first advice not based on the driving data; and when the driving skill evaluated by the evaluation process is at a second skill level higher than the first skill level, providing the driver with second advice based on the driving data.
  • At least one processor e.g., a central processing unit (CPU)), at least one application specific integrated circuit (ASIC), and/or at least one field programmable gate array (FPGA).
  • the at least one processor may be configured to perform all or a portion of the various functions of the processing unit 40 shown in FIG. 3 by reading instructions from at least one non-transitory and tangible computer readable medium.
  • Such media may take a variety of forms, including, but not limited to, various magnetic media such as hard disks, various optical media such as CDs or DVDs, various semiconductor memories such as volatile or non-volatile memories (i.e., semiconductor circuits). Volatile memories may include DRAM and SRAM.
  • Non-volatile memories may include ROM and NVRAM.
  • An ASIC is an integrated circuit (IC) specialized to perform all or a portion of the various functions of the processing unit 40 shown in FIG. 3.
  • An FPGA is an integrated circuit designed to be configurable after manufacture to perform all or a portion of the various functions of the processing unit 40 shown in FIG. 3.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

本開示の一実施の形態に係る運転技能評価方法は、車両の走行データに基づいて、車両のドライバの運転技能を評価する評価処理を行うことと、ドライバの運転技能の評価結果に基づいてドライバにアドバイスを行うアドバイス処理を行うこととを含む。アドバイス処理は、評価処理により評価された運転技能が第1の技能レベルである場合に、ドライバに対して、走行データに基づかない第1のアドバイスを行うことと、評価処理により評価された運転技能が第1の技能レベルよりも高い第2の技能レベルである場合に、ドライバに対して、走行データに基づく第2のアドバイスを行うこととを含む。

Description

運転技能評価方法、運転技能評価システム、および記録媒体
 本開示は、ドライバの運転技能を評価する運転技能評価方法および運転技能評価システム、ならびにドライバの運転技能を評価するソフトウェアが記録された記録媒体に関する。
 近年、自動車などの車両では、ドライバの運転技能を評価する技術が開発されている。例えば特許文献1には、車両が旋回する場合における前後加速度および横加速度に基づいて、ドライバの運転技能を評価する技術が開示されている。
特開2020-019289号公報
 本開示の一実施の形態に係る運転技能評価方法は、車両の走行データに基づいて、車両のドライバの運転技能を評価する評価処理を行うことと、ドライバの運転技能の評価結果に基づいてドライバにアドバイスを行うアドバイス処理を行うこととを含む。上記アドバイス処理は、評価処理により評価された運転技能が第1の技能レベルである場合に、ドライバに対して、走行データに基づかない第1のアドバイスを行うことと、評価処理により評価された運転技能が第1の技能レベルよりも高い第2の技能レベルである場合に、ドライバに対して、走行データに基づく第2のアドバイスを行うこととを含む。
 本開示の一実施の形態に係る運転技能評価システムは、評価回路と、アドバイス回路とを備えている。評価回路は、車両の走行データに基づいて、車両のドライバの運転技能を評価するものである。アドバイス回路は、ドライバの運転技能の評価結果に基づいてドライバにアドバイスを行うものである。上記アドバイス回路は、評価回路により評価された運転技能が第1の技能レベルである場合に、ドライバに対して、走行データに基づかない第1のアドバイスを行い、評価回路により評価された運転技能が第1の技能レベルよりも高い第2の技能レベルである場合に、ドライバに対して、走行データに基づく第2のアドバイスを行うものである。
 本開示の一実施の形態に係る記録媒体は、車両の走行データに基づいて、車両のドライバの運転技能を評価する評価処理を行うことと、ドライバの運転技能の評価結果に基づいてドライバにアドバイスを行うアドバイス処理を行うことと をプロセッサに行わせるソフトウェアが記録されたものである。上記アドバイス処理は、評価処理により評価された運転技能が第1の技能レベルである場合に、ドライバに対して、走行データに基づかない第1のアドバイスを行うことと、評価処理により評価された運転技能が第1の技能レベルよりも高い第2の技能レベルである場合に、ドライバに対して、走行データに基づく第2のアドバイスを行うこととを含む。
 添付図面は、本開示をさらに理解するために設けられており、本明細書に組み込まれるとともに、本明細書の一部を構成するものである。図面は、一実施の形態を示し、明細書とともに、本開示の原理を説明する役割を果たす。
本開示の一実施の形態に係る運転技能評価方法が用いられる運転技術評価システムの一構成例を表す説明図である。 図1に示したスマートフォンの一構成例を表すブロック図である。 図1に示したサーバ装置30の一構成例を表すブロック図である。 図3に示した記憶部32に記憶されるデータを表す説明図である。 図4に示したヨー角速度データおよびカーブデータの一例を表す説明図である。 図4に示した画像データが示すカーネル密度推定画像の一例を表す画像図である。 図6に示したカーネル密度推定画像におけるパラメータの一例を表す説明図である。 図1に示したデータ処理システムの一構成例を表す説明図である。 図8に示した車載装置の一構成例を表すブロック図である。 図8に示した情報処理装置の一構成例を表すブロック図である。 図8に示した情報処理装置の一動作例を表すフローチャートである。 図8に示した情報処理装置の一動作例を表す他のフローチャートである。 図8に示した情報処理装置の一動作例を表す他のフローチャートである。 図8に示した情報処理装置の一動作例を表す他のフローチャートである。 図14に示した前処理画像を生成する処理の一例を表す説明図である。 図8に示した情報処理装置の一動作例を表す他のフローチャートである。 図8に示した情報処理装置の一動作例を表す説明図である。 図8に示した情報処理装置の一動作例を表す他のフローチャートである。 図8に示した情報処理装置の一動作例を表す他のフローチャートである。 図1に示したサーバ装置の一動作例を表すフローチャートである。 図1に示したサーバ装置の一動作例を表す他のフローチャートである。 図1に示したサーバ装置の一動作例を表す他のフローチャートである。 変形例に係るカーネル密度推定画像におけるパラメータの一例を表す説明図である。 他の変形例に係るカーネル密度推定画像におけるパラメータの一例を表す説明図である。 他の変形例に係るカーネル密度推定画像におけるパラメータの一例を表す説明図である。 他の変形例に係るカーネル密度推定画像におけるパラメータの一例を表す説明図である。 他の変形例に係るカーネル密度推定画像の一例を表す画像図である。 図26に示したカーネル密度推定画像におけるパラメータの一例を表す説明図である。 他の変形例に係るスマートフォンの一構成例を表すブロック図である。
 このような運転技能の評価により、ドライバの運転技能を高めることが望まれており、さらなるドライバの運転技能の向上が期待される。
 ドライバの運転技能を高めることができる運転技能評価方法、運転技能評価システム、および記録媒体を提供することが望ましい。
 以下、本開示のいくつかの例示的な実施の形態を、添付図面を参照して詳細に説明する。なお、以下の説明は、本開示の一具体例を示すものであり、本開示を限定するものと解釈されてはならない。例えば、数値、形状、材料、部品、各部品の位置および各部品の接続方法等を含む各要素は、一例にすぎず、本開示を限定するものと解釈されてはならない。また、以下の例示的な実施の形態において、本開示の最上位概念に基づく独立項に記載されていない構成要素は、任意的なものであり、必要に応じて設けられ得る。図面は模式的なものであり、原寸通りの図示を意図してはいない。本明細書および図面の全般において、略同じ機能および略同じ構成を有する構成要素については、同一の参照符号を付し、重複する説明を省略する。また、本開示の一実施の形態に直接関係の無い構成要素は、図面に図示してはいない。
<実施の形態>
[構成例]
 図1は、一実施の形態に係る運転技能評価方法が用いられる運転技能評価システム1の一構成例を表すものである。運転技能評価システム1は、スマートフォン10と、サーバ装置30と、データ処理システム2とを備えている。
 スマートフォン10は、高機能携帯電話であり、車両9の車両内に、車両9に対して所定の向きで固定設置されている。スマートフォン10は、車両9の走行データを収集する。スマートフォン10は、例えば携帯電話通信を用いて、図示しない携帯電話の基地局と通信を行うことにより、図示しないインターネットに接続される。
 サーバ装置30は、情報処理装置である。サーバ装置30は、車両9の走行データに基づいて、車両9のドライバの運転技能を評価する。サーバ装置30は、図示しないインターネットに接続される。サーバ装置30は、インターネットを介して、スマートフォン10との間で通信を行うことができるようになっている。
 データ処理システム2は、情報処理装置を含み、運転技能の評価において使用するデータを生成する。データ処理システム2は、図示しないインターネットに接続される。データ処理システム2は、インターネットを介して、サーバ装置30との間で通信を行うことができるようになっている。
 運転技能評価システム1では、例えば山道などを含む、カーブが多い評価対象エリアにおいて、評価対象であるドライバが車両9を運転することにより、スマートフォン10が車両9の走行データを収集し、その走行データをサーバ装置30に送信する。この走行データは、車両9の進行方向における加速度(前後加速度)についての情報、車両9のヨー角速度についての情報、および車両9の位置についての情報を含む。サーバ装置30は、車両9のヨー角速度の時系列データに基づいて、車両9が走行した走行路における、複数のカーブを検出する。そして、サーバ装置30は、前後加速度の時系列データ、およびヨー角速度の時系列データに基づいて、複数のカーブのそれぞれにおけるカーネル密度推定画像を生成する。そして、サーバ装置30は、複数のカーブのそれぞれについて、生成したこのカーネル密度推定画像と、データ処理システム2により生成され、予めサーバ装置30に登録された、熟練ドライバに係るカーネル密度推定画像とを比較することにより、ドライバの運転技能を評価するとともに、そのドライバの運転技能に応じた、運転についてのアドバイスを生成する。そして、スマートフォン10は、ドライバに対して、運転技能の評価結果および運転についてのアドバイスを提示する。これにより、運転技能評価システム1では、ドライバは、自分の運転技能についての客観的な評価を得ることができるとともに、自分の運転技能に応じたアドバイスを受けることができるようになっている。
 図2は、スマートフォン10の一構成例を表すものである。スマートフォン10は、タッチパネル11と、記憶部12と、通信部13と、加速度センサ14と、角速度センサ15と、GNSS(Global Navigation Satellite System)受信機16と、処理部20とを有している。
 タッチパネル11は、ユーザインタフェースであり、例えば、タッチセンサと、液晶ディスプレイや有機EL(Electro Luminescence)ディスプレイなどのディスプレイ装置とを含んで構成される。タッチパネル11は、スマートフォン10のユーザの操作を受け付けるとともに、スマートフォン10の処理結果を表示するようになっている。
 記憶部12は、不揮発性のメモリであり、様々なアプリケーションソフトウェアのプログラムデータなどが記憶されるように構成される。この例では、スマートフォン10には、運転技能評価システム1に係るアプリケーションソフトウェアがインストールされている。このアプリケーションソフトウェアのプログラムデータは、記憶部12に記憶されている。
 通信部13は、携帯電話通信を行うことにより、携帯電話の基地局と通信を行うように構成される。これにより、通信部13は、携帯電話の基地局を介して、インターネットに接続されたサーバ装置30と通信を行うようになっている。
 加速度センサ14は、スマートフォン10の座標系における3つの方向の加速度をそれぞれ検出するように構成される。
 角速度センサ15は、スマートフォン10の座標系における3つの角速度(ヨー角速度、ロール角速度、ピッチ角速度)をそれぞれ検出するように構成される。
 GNSS受信機16は、GPS(Global Positioning System)などのGNSSを用いて、地上での車両9の位置を取得するように構成される。
 処理部20は、スマートフォン10の動作を制御するように構成され、例えば、1または複数のプロセッサ、1または複数のメモリなどを用いて構成される。処理部20は、加速度センサ14により検出された加速度の時系列データ、角速度センサ15により検出された角速度の時系列データ、およびGNSS受信機16により得られた車両9の位置の時系列データを収集する。処理部20は、スマートフォン10にインストールされた、運転技能評価システム1に係るアプリケーションソフトウェアを実行することにより、データ処理部21および表示処理部22として動作し得る。
 データ処理部21は、加速度センサ14の検出結果、および角速度センサ15の検出結果に基づいて、所定のデータ処理を行うように構成される。所定のデータ処理は、例えば、加速度センサ14により検出された加速度の時系列データに対するフィルタ処理や、角速度センサ15により検出された角速度の時系列データに対するフィルタ処理などを含む。ここで、フィルタ処理は、ローパスフィルタによる処理である。そして、通信部13は、走行終了後に、データ処理部21により処理された加速度の時系列データおよび角速度の時系列データを、GNSS受信機16により得られた車両9の位置の時系列データとともに、サーバ装置30に送信するようになっている。
 表示処理部22は、サーバ装置30から送信された、運転技能の評価結果を示すデータに基づいて、表示処理を行うように構成される。これにより、タッチパネル11は、運転技能の評価結果を表示するようになっている。
 図3は、サーバ装置30の一構成例を表すものである。サーバ装置30は、通信部31と、記憶部32と、処理部40とを有している。
 通信部31は、ネットワーク通信を行うことにより、インターネットを介してスマートフォン10と通信を行うように構成される。
 記憶部32は、例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)などを含み、様々なソフトウェアのプログラムデータなどが記憶されるように構成される。この例では、サーバ装置30には、運転技能評価システム1に係るサーバ用のソフトウェアがインストールされている。このソフトウェアのプログラムデータは、記憶部32に記憶されている。また、記憶部32には、このソフトウェアが使用する様々なデータが記憶されている。
 図4は、記憶部32に記憶された、サーバ用のソフトウェアが使用するデータの一例を表すものである。記憶部32には、エリアデータDARと、複数のデータセットDS(データセットDSAおよび複数のデータセットDSB)と、評価対象カーブデータDTCと、分析対象カーブデータDTDとが記憶されている。これらのデータは、データ処理システム2により生成され、この記憶部32に記憶される。
 エリアデータDARは、運転技能の評価を行う、評価対象エリアを示すデータである。評価対象エリアは、例えば、山道を含むエリアなど、カーブが多いエリアを設定することができる。このエリアデータDARは、例えば、この評価対象エリアの緯度および経度についてのデータを含んでいる。
 複数のデータセットDSのそれぞれは、熟練ドライバが、エリアデータDARが示すエリアにおいて車両を運転することにより得られた走行データに応じたデータである。複数のデータセットDSは、互いに異なる熟練ドライバに係る複数の走行データに応じたデータを含んでいてもよいし、一人の熟練ドライバに係る複数の走行データに応じたデータを含んでいてもよい。複数のデータセットDSのそれぞれは、加速度データDAと、ヨー角速度データDYと、カーブデータDCと、複数の画像データDPとを含んでいる。
 加速度データDAは、熟練ドライバが運転した車両の進行方向の加速度(前後加速度)の時系列データである。
 ヨー角速度データDYは、熟練ドライバが運転した車両のヨー角速度の時系列データである。
 カーブデータDCは、走行路における複数のカーブについてのカーブ番号を含むデータである。カーブデータDCは、ヨー角速度データDYに基づいて生成される。カーブデータDCでは、複数のカーブのカーブ番号が、ヨー角速度データDYにおけるヨー角速度の時系列データと対応づけて設定される。
 図5は、ヨー角速度データDYおよびカーブデータDCの一例を表すものである。ヨー角速度は、走行路のカーブに応じて変化する。カーブデータDCは、このヨー角速度の時系列データに基づいて設定された、カーブ番号(図5における“1”~“9”)を含む。カーブデータDCでは、複数のカーブのカーブ番号が、ヨー角速度データDYにおけるヨー角速度の時系列データと対応づけて設定されている。
 複数の画像データDPは、複数のカーブにおけるカーネル密度推定画像の画像データである。
 図6は、あるカーブにおけるカーネル密度推定画像の一例を表すものである。図7は、図6に示したカーネル密度推定画像の座標軸を表すものである。このカーネル密度推定画像の横軸(X軸)は時間を示し、縦軸(Y軸)はヨー角加速度の2乗を示す。ヨー角加速度は、ヨー角速度の時間微分である。カーネル密度推定画像の画素値(Z軸)は前後躍度の2乗を示す。前後躍度は、前後加速度の時間微分である。カーネル密度推定画像における、色が濃い画像部分は、前後躍度の2乗の値が大きいことを示し、色が薄い画像部分は、前後躍度の2乗の値が小さいことを示す。この例では、前後躍度の2乗の値が大きいほど画素値が小さく、前後躍度の2乗の値が小さいほど画素値が大きい。このカーネル密度推定画像は、ドライバの運転技能に応じて変化し得る。記憶部32には、複数のカーブに対応した複数のカーネル密度推定画像が、複数の画像データDPとしてそれぞれ記憶される。
 データセットDSAおよび複数のデータセットDSBのそれぞれは、このように、加速度データDA、ヨー角速度データDY、カーブデータDC、および複数の画像データDPを含んでいる。後述するように、データ処理システム2は、複数のデータセットDSBのそれぞれにおけるカーブデータDCのカーブ番号を、データセットDSAにおけるカーブデータDCに基づいて調整する。すなわち、カーブ番号は、ヨー角速度データDYに基づいて生成されるので、ヨー角速度データDYに応じて、あるカーブに互いに異なるカーブ番号が付される可能性がある。よって、データ処理システム2は、データセットDSAを見本データとして用い、複数のデータセットDSBのそれぞれにおけるカーブデータDCのカーブ番号を、データセットDSAにおけるカーブデータDCに基づいて調整する。これにより、複数のデータセットDSBのカーブデータDCにおいて、互いに同じカーブのカーブ番号が、互いに同じになるように調節されるようになっている。
 評価対象カーブデータDTCは、エリアデータDARが示すエリアにおける複数のカーブのうち、運転技能評価の評価対象である複数のカーブのカーブ番号を示すデータである。
 分析対象カーブデータDTDは、エリアデータDARが示すエリアにおける複数のカーブのうち、ドライバの運転操作を分析する分析処理の処理対象である複数のカーブのカーブ番号を示すデータである。
 記憶部32には、このようなデータが記憶される。なお、以上では、記憶部32には、1つのエリアについてのデータが記憶される例で説明したが、これに限定されるものではなく、複数のエリアについてのデータが記憶されてもよい。この場合には、記憶部32には、複数のエリアのそれぞれについて、複数のデータセットDS、評価対象カーブデータDTC、分析対象カーブデータDTD、およびエリアデータDARが記憶される。
 処理部40(図3)は、サーバ装置30の動作を制御するように構成され、例えば、1または複数のプロセッサ、1または複数のメモリなどを用いて構成される。処理部40は、サーバ装置30にインストールされた、運転技能評価システム1に係るサーバ用のソフトウェアを実行することにより、データ処理部41、カーブ検出部42、データ抽出部43、画像生成部44、画像類似度算出部45、および技能判定部46として動作し得る。
 データ処理部41は、通信部31により受信された、加速度の時系列データ、角速度の時系列データ、および車両9の位置の時系列データに基づいて、所定のデータ処理を行うことにより、加速度データDA1およびヨー角速度データDY1を生成するように構成される。所定のデータ処理は、例えば、車両9の位置の時系列データに基づいて、車両9が評価対象エリアを走行しているかどうかを確認する処理、スマートフォン10により得られた加速度の時系列データに基づいて座標変換を行うことにより、車両9の進行方向における加速度(前後加速度)の時系列データを生成する処理、スマートフォン10により得られた角速度の時系列データに基づいて座標変換を行うことにより、車両9のヨー角速度の時系列データを生成する処理、前後加速度の時系列データに対するフィルタ処理、およびヨー角速度の時系列データに対するフィルタ処理などを含む。ここで、フィルタ処理は、ローパスフィルタによる処理である。
 カーブ検出部42は、データ処理部41により生成されたヨー角速度データDY1に基づいて、複数のカーブを検出することにより、カーブデータDC1を生成するように構成される。
 データ抽出部43は、記憶部32に記憶された評価対象カーブデータDTCに基づいて、加速度データDA1に含まれる前後加速度の時系列データのうちの、運転技能評価の評価対象である複数のカーブに係る、前後加速度の時系列データを抽出するとともに、ヨー角速度データDY1に含まれるヨー角速度の時系列データのうちの、運転技能評価の評価対象である複数のカーブに係る、ヨー角速度の時系列データを抽出するように構成される。
 画像生成部44は、データ抽出部43により抽出された、複数のカーブに係る前後加速度の時系列データおよびヨー角速度の時系列データに基づいて、複数のカーブに係る複数のカーネル密度推定画像をそれぞれ生成することにより、複数の画像データDP1をそれぞれ生成するように構成される。具体的には、画像生成部44は、1つのカーブに係る前後加速度の時系列データおよびヨー角速度の時系列データに基づいて、カーネル密度推定処理を行うことにより、そのカーブのカーネル密度推定画像を生成する。カーネル密度推定処理では、実測データに基づいて、いまだ観測されていないデータを含む本来のデータが、密度データとして推定される。画像生成部44は、複数のカーブのそれぞれについて、この処理を行うことにより、複数のカーネル密度推定画像を生成する。このようにして、画像生成部44は、複数のカーブに係る複数の画像データDP1を生成するようになっている。
 画像類似度算出部45は、画像生成部44が生成した複数のカーネル密度推定画像と、記憶部32に記憶された複数のデータセットDSに含まれる複数のカーネル密度推定画像とに基づいて、画像類似度の平均値(平均類似度)を算出するように構成される。具体的には、画像類似度算出部45は、1つのカーブについて、画像生成部44が生成したカーネル密度推定画像と、複数のデータセットDSに含まれる複数のカーネル密度推定画像とを比較することにより画像類似度をそれぞれ算出する。画像類似度算出部45は、複数のカーブのそれぞれについて、この処理を行うことにより、複数の画像類似度を算出する。そして、画像類似度算出部45は、これらの複数の画像類似度の平均値(平均類似度)を算出するようになっている。
 技能判定部46は、画像類似度算出部45が算出した平均類似度に基づいて、車両9のドライバの運転技能を判定するように構成される。そして、通信部31は、技能判定部46により生成された運転技能の評価結果を示すデータをスマートフォン10に送信するようになっている。
 アドバイス生成部47は、技能判定部46により得られたドライバの運転技能に基づいて、その運転技能に応じた、運転についてのアドバイスを生成するように構成される。そして、通信部31は、アドバイス生成部47により生成された運転についてのアドバイスを示すデータをスマートフォン10に送信するようになっている。
 記憶部32に記憶された複数のデータセットDS、評価対象カーブデータDTC、およびエリアデータDARは、データ処理システム2により生成される。以下に、このデータ処理システム2について説明する。
 図8は、データ処理システム2の一構成例を表すものである。データ処理システム2は、車載装置110と、情報処理装置130とを備えている。車載装置110は、熟練ドライバが運転する車両109に搭載された装置である。情報処理装置130は、この例では、いわゆるパーソナルコンピュータである。
 図9は、車載装置110の一構成例を表すものである。車載装置110は、加速度センサ114と、ヨー角速度センサ115と、GNSS受信機116と、処理部120とを有している。
 加速度センサ114は、車両109の進行方向の加速度(前後加速度)を検出するように構成される。
 ヨー角速度センサ115は、車両109のヨー角速度を検出するように構成される。
 GNSS受信機116は、GPSなどのGNSSを用いて、地上での車両109の位置を取得するように構成される。
 処理部120は、いわゆるECU(Electronic Control Unit)であり、例えば、1または複数のプロセッサ、1または複数のメモリなどを用いて構成される。処理部120は、加速度センサ114により検出された前後加速度の時系列データ、ヨー角速度センサ115により検出されたヨー角速度の時系列データ、およびGNSS受信機116により得られた車両109の位置の時系列データを収集する。
 例えば、エンジニアは、走行終了後に、処理部120が収集したこれらの時系列データを、例えば半導体メモリなどの外部記録媒体に記憶させる。
 図10は、情報処理装置130の一構成例を表すものである。情報処理装置130は、エンジニアの操作に基づいて、外部記録媒体に記録されたデータを読み出し、読み出されたデータに基づいて、サーバ装置30の記憶部32に記憶される複数のデータセットDS、評価対象カーブデータDTC、およびエリアデータDARを生成する。情報処理装置130は、ユーザインタフェース部131と、記憶部132と、通信部133と、処理部140とを備えている。
 ユーザインタフェース部131は、例えば、キーボード、マウス、液晶ディスプレイや有機ELディスプレイなどの表示部とを含んで構成される。ユーザインタフェース部131は、情報処理装置130のユーザ(この例ではエンジニア)の操作を受け付けるとともに、情報処理装置130の処理結果を表示するようになっている。
 記憶部132は、例えばHDDやSSDなどを含み、様々なソフトウェアのプログラムデータなどが記憶されるように構成される。この例では、情報処理装置130には、データ処理システム2に係るソフトウェアがインストールされている。このソフトウェアのプログラムデータは、記憶部132に記憶されている。
 通信部133は、ネットワーク通信を行うことにより、インターネットを介してサーバ装置30と通信を行うように構成される。
 処理部140は、情報処理装置130の動作を制御するように構成され、例えば、1または複数のプロセッサ、1または複数のメモリなどを用いて構成される。処理部140は、情報処理装置130にインストールされた、データ処理システム2に係るソフトウェアを実行することにより、データ処理部141、カーブ検出部142、画像生成部144、画像類似度算出部145、評価対象データ生成部147、分析対象データ生成部157、エリアデータ生成部148、およびデータ登録部149として動作し得る。
 データ処理部141は、外部記録媒体から読み出された、前後加速度の時系列データおよびヨー角速度の時系列データに基づいて、所定のデータ処理を行うことにより、加速度データDAおよびヨー角速度データDYを生成するように構成される。所定のデータ処理は、例えば、前後加速度の時系列データに対するフィルタ処理、ヨー角速度の時系列データに対するフィルタ処理、エンジニアの操作に基づいてエリアデータDARを生成する処理などを含む。ここで、フィルタ処理は、ローパスフィルタによる処理である。
 カーブ検出部142は、データ処理部141により生成されたヨー角速度データDYに基づいて、複数のカーブを検出することにより、カーブデータDCを生成するように構成される。カーブ検出部142の処理は、サーバ装置30におけるカーブ検出部42の処理と同様である。
 画像生成部144は、複数のカーブに係る前後加速度の時系列データおよびヨー角速度の時系列データに基づいて、複数のカーブに係る複数のカーネル密度推定画像をそれぞれ生成することにより、複数の画像データDPをそれぞれ生成するように構成される。画像生成部144の処理は、サーバ装置30における画像生成部44の処理と同様である。
 画像類似度算出部145は、複数のカーネル密度推定画像に基づいて、画像類似度を算出するように構成される。画像類似度算出部145における画像類似度の算出処理は、サーバ装置30の画像類似度算出部45における画像類似度の算出処理と同様である。
 評価対象データ生成部147は、画像類似度算出部145の処理結果に基づいて、運転技能の評価対象である複数のカーブを決定することにより、評価対象カーブデータDTCを生成するように構成される。
 分析対象データ生成部157は、画像類似度算出部145の処理結果に基づいて、ドライバの運転操作を分析する分析処理の処理対象である複数のカーブを決定することにより、分析対象カーブデータDTDを生成するように構成される。
 エリアデータ生成部148は、エンジニアの操作に基づいて、評価対象エリアを示すデータであるエリアデータDARを生成するように構成される。
 データ登録部149は、加速度データDA、ヨー角速度データDY、カーブデータDC、および複数の画像データDPを含むデータセットDSと、評価対象カーブデータDTCと、分析対象カーブデータDTDと、エリアデータDARとを記憶部132に記憶させるように構成される。
 この構成により、データ処理システム2は、熟練ドライバの走行データに基づいて、複数のデータセットDS、評価対象カーブデータDTC、分析対象カーブデータDTD、およびエリアデータDARを生成する。そして、データ処理システム2は、複数のデータセットDS、評価対象カーブデータDTC、分析対象カーブデータDTD、およびエリアデータDARを、サーバ装置30に送信する。そして、サーバ装置30は、これらのデータを記憶部32に記憶させるようになっている。
 ここで、画像生成部44、画像類似度算出部45、および技能判定部46は、本開示における「評価回路」の一具体例に対応する。アドバイス生成部47は、本開示における「アドバイス回路」の一具体例に対応する。加速度データDA,DA1およびヨー角速度データDY,DY1は、本開示における「走行データ」の一具体例に対応する。画像生成部44が生成したカーネル密度推定画像は、本開示における「評価データ」の一具体例に対応する。記憶部32に記憶されたデータセットDSの画像データDPが示すカーネル密度推定画像は、本開示における「リファレンス画像」の一具体例に対応する。ヨー角速度は、本開示における「第1のパラメータ」の一具体例に対応する。前後加速度は、本開示における「第2のパラメータ」の一具体例に対応する。
[動作および作用]
 続いて、本実施の形態の運転技能評価システム1の動作および作用について説明する。
(全体動作概要)
 図1~4,8~10を参照して、運転技能評価システム1の動作を説明する。
 まず、運転技能評価システム1は、熟練ドライバが車両109を運転したときの走行データに基づいて、複数のデータセットDS、評価対象カーブデータDTC、およびエリアデータDARを生成する。
 具体的には、熟練ドライバがデータ処理システム2の車両109を運転することにより、車載装置110の処理部120は、車両109の走行データを収集する。例えば、エンジニアは、走行終了後に、処理部120が収集した走行データを、例えば半導体メモリなどの外部記録媒体に記憶させる。情報処理装置130は、この走行データに基づいて、加速度データDA、ヨー角速度データDY、カーブデータDC、および複数の画像データDPを生成し、これらのデータを含むデータセットDSを、記憶部132に記憶させる。情報処理装置130は、この処理を繰り返すことにより、複数のデータセットDSを記憶部132に記憶させる。また、情報処理装置130は、複数のデータセットDSに基づいて運転技能の評価対象である複数のカーブを示すデータである評価対象カーブデータDTCを生成し、ドライバの運転操作を分析する分析処理の処理対象である複数のカーブを示す分析対象カーブデータDTDを生成し、エンジニアの操作に基づいて評価対象エリアを示すデータであるエリアデータDARを生成し、これらのデータを記憶部132に記憶させる。そして、情報処理装置130は、複数のデータセットDS、評価対象カーブデータDTC、分析対象カーブデータDTD、およびエリアデータDARを、サーバ装置30に送信する。サーバ装置30は、情報処理装置130から送信された複数のデータセットDS、評価対象カーブデータDTC、分析対象カーブデータDTD、およびエリアデータDARを記憶部32に記憶させる。
 運転技能評価システム1は、このようにして熟練ドライバが車両109を運転することにより生成された、複数のデータセットDS、評価対象カーブデータDTC、およびエリアデータDARを用いて、ドライバの運転技能を評価する。
 具体的には、評価対象であるドライバが車両9を運転することにより、スマートフォン10は、車両9の走行データを収集する。そして、スマートフォン10は、収集した走行データをサーバ装置30に送信する。サーバ装置30は、この走行データに基づいて、加速度データDA1、ヨー角速度データDY1、カーブデータDC1、および複数の画像データDP1を生成する。サーバ装置30は、複数の画像データDP1が示す複数のカーネル密度推定画像と、記憶部32に記憶された複数のデータセットDSに含まれる複数の画像データDPが示す複数のカーネル密度推定画像とに基づいて、画像類似度の平均値(平均類似度)を算出し、この平均類似度に基づいて、車両9のドライバの運転技能を判定するとともに、ドライバの運転技能に応じた運転についてのアドバイスを生成する。そして、サーバ装置30は、運転技能の評価結果および運転についてのアドバイスを示すデータをスマートフォン10に送信する。そして、スマートフォン10は、サーバ装置30から送信された運転技能の判定結果および運転についてのアドバイスを表示する。
(詳細動作)
 以下に、運転技能評価システム1の動作について、詳細に説明する。
(複数のデータセットDSの生成について)
 まず、データ処理システム2は、熟練ドライバが車両109を運転することにより得られた走行データに基づいて、複数のデータセットDSを生成する。以下に、複数のデータセットDSを生成する動作について詳細に説明する。
 熟練ドライバが車両109を運転すると、車両109では、車載装置110の加速度センサ114は、車両109の進行方向の加速度(前後加速度)を検出し、ヨー角速度センサ115は、車両109のヨー角速度を検出し、GNSS受信機116は、地上での車両109の位置を取得する。処理部120は、加速度センサ114により検出された前後加速度の時系列データ、ヨー角速度センサ115により検出されたヨー角速度の時系列データ、およびGNSS受信機116により得られた車両109の位置の時系列データを収集する。
 例えば、エンジニアは、走行終了後に、処理部120が収集したこれらの時系列データを、例えば半導体メモリなどの外部記録媒体に記憶させる。
 情報処理装置130は、この外部記録媒体から読み出された、前後加速度の時系列データ、ヨー角速度の時系列データ、および車両109の位置の時系列データに基づいて、データセットDSを生成し、このデータセットDSを記憶部132に記憶させる。以下に、この情報処理装置130の動作について、詳細に説明する。
 図11は、データ処理システム2における情報処理装置130の一動作例を表すものである。この例では、エリアデータ生成部148は、エンジニアの操作に基づいて、エリアデータDARをすでに生成している。
 まず、情報処理装置130のデータ処理部141は、車両109の位置の時系列データに基づいて、記憶部132に記憶されているエリアデータDARを用いて、車両109が評価対象エリアを走行したかどうかを確認する(ステップS101)。車両109が評価対象エリアを走行していない場合(ステップS101において“N”)には、この処理は終了する。
 車両109が評価対象エリアを走行した場合(ステップS101において“Y”)には、データ処理部141は、評価対象エリアにおける前後加速度の時系列データおよびヨー角速度の時系列データに対してフィルタ処理を行うことにより、加速度データDAおよびヨー角速度データDYをそれぞれ生成する(ステップS102)。
 次に、カーブ検出部142は、ステップS102において生成したヨー角速度データDYに基づいて、カーブ分割処理を行うことによりカーブデータDCを生成する(ステップS103)。カーブ分割処理は、以下に示す2段階の処理を含む。
 図12は、カーブ分割処理における1段階目の処理の一具体例を表すものである。カーブ検出部142は、ヨー角速度データDYに含まれるヨー角速度を、時系列順に順次読み込みつつ、この図12に示す処理を行う。
 まず、カーブ検出部142は、所定値A以上(例えば0.02rad/sec.以上)のヨー角速度が所定時間B以上(例えば2秒以上)の時間にわたり継続しているかどうかを確認する(ステップS201)。この条件は、カーブ検出部142が、カーブ検出の基本条件である。なお、この例では、所定時間Bを用いて評価したが、所定時間Bの代わりに所定距離を用いて評価してもよい。この条件を満たさない場合(ステップS201において“N”)には、この条件が満たすまで、ステップS201の処理を繰り返す。
 ステップS201に示した条件を満たす場合(ステップS201において“Y”)には、カーブ検出部142は、ヨー角速度の極性が、直前のカーブでのヨー角速度の極性と同じであり、かつ、直前のカーブの後に所定時間C未満(例えば9秒未満)の時間にわたり車両109が直線道路を走行しているかどうかを確認する(ステップS202)。なお、この例では、所定時間Cを用いて評価したが、所定時間Cの代わりに所定距離を用いて評価してもよい。
 ステップS202において、この条件を満たさない場合(ステップS202において“N”)には、カーブ検出部142は、カーブを検出する(ステップS203)。すなわち、ステップS201において、カーブ検出の基本条件を満たしており、直前のカーブからの距離が離れているので、カーブ検出部142は、直前のカーブとは別に、新しいカーブを検出する。カーブ検出部142は、検出したカーブに、カーブ番号を付する。そして、処理はステップS205に進む。
 ステップS202において、この条件を満たす場合(ステップS202において“Y”)には、カーブ検出部142は、直前のカーブが継続しているとみなす(ステップS203)。すなわち、ステップS201において、カーブ検出の基本条件を満たしているが、直前のカーブからの距離が短いので、直前のカーブが継続しているとみなす。そして、処理はステップS205に進む。
 次に、カーブ検出部142は、ヨー角速度が所定値A以下(例えば0.02rad/sec.以下)であるかどうかを確認する(ステップS205)。すなわち、カーブ検出部142は、カーブ検出の基本条件を満たさなくなったかどうかを確認する。ヨー角速度が所定値A以下ではない場合(ステップS205において“N”)には、ヨー角速度が所定値A以下になるまで、ステップS205の処理を繰り返す。
 ヨー角速度が所定値A以下である場合(ステップS205において“Y”)には、カーブ検出部142は、所定値A未満(例えば0.02rad/sec.未満)のヨー角速度が所定時間B未満(例えば2秒未満)の時間にわたり継続した後にヨー角速度が所定値A以上(例えば0.02rad/sec.以上)になったかどうかを確認する(ステップS206)。この条件を満たす場合(ステップS206において“Y”)には、カーブ検出部142は、直前のカーブが継続しているとみなす(ステップS207)。すなわち、この条件を満たす場合には、カーブ検出部142は、カーブ終了直後にドライバがステアリング操作を調整することにより車両109がふらついたと判断し、直前のカーブが継続しているとみなす。そして、処理はステップS205に戻る。
 ステップS206の条件を満たさない場合(ステップS206において“N”)には、カーブ検出部142は、カーブの終了を検出する(ステップS208)。
 そして、カーブ検出部142は、ヨー角速度データDYに含まれる全てのヨー角速度のデータを読み込んだかどうかを確認する(ステップS209)。まだ全てのデータを読み込んでいない場合(ステップS209において“N”)には、処理はステップS201に戻る。
 ステップS209において、全てのデータを読み込んだ場合(ステップS209において“Y”)には、この処理は終了する。
 このように、カーブ分割処理における1段階目の処理では、カーブ検出部142は、基本的には、所定値A以上(例えば0.02rad/sec.以上)のヨー角速度が所定時間B以上(例えば2秒以上)の時間にわたり継続している場合に、カーブを検出する(ステップS201)。また、カーブ検出部142は、カーブが終了した後に、所定値A未満(例えば0.02rad/sec.未満)のヨー角速度が所定時間B未満(例えば2秒未満)の時間にわたり継続し、その後に、ヨー角速度が所定値A以上(例えば0.02rad/sec.以上)になった場合に、直前のカーブが継続しているとみなす(ステップS205~S207)。また、カーブ検出部142は、同じ方向に曲がる2つのカーブに挟まれた直線道路が短い場合には、これらの2つのカーブを1つのカーブとみなす(ステップS201,S202,S204)。
 図13は、カーブ分割処理における2段階目の処理の一具体例を表すものである。カーブ検出部142は、1段階目の処理結果を用いて、この2段階目の処理を行う。これにより、カーブ検出部142は、1段階目の処理により検出された複数のカーブのそれぞれについて、運転技能評価の評価対象とするかどうかを決定する。
 まず、カーブ検出部142は、1段階目の処理により得られた複数のカーブのうちの最初のカーブを選択する(ステップS221)。
 次に、カーブ検出部142は、選択したカーブにおけるヨー角速度の平均値は所定値D未満(例えば0.05rad/sec.未満)であるかどうかを確認する(ステップS222)。
 ステップS222において、ヨー角速度の平均値が所定値D未満である場合(ステップS222において“Y”)には、カーブ検出部142は、ヨー角速度の最大値は所定値E以上(例えば0.07rad/sec.以上)であるかどうかを確認する(ステップS223)。
 ステップS222において、ヨー角速度の平均値が所定値D未満ではない場合(ステップS222において“N”)、もしくはステップS223において、ヨー角速度の最大値は所定値E以上である場合(ステップS223において“Y”)には、カーブ検出部142は、このカーブを運転技能評価の評価対象とする(ステップS224)。また、ステップS223において、ヨー角速度の最大値は所定値E以上ではない場合(ステップS223において“N”)には、カーブ検出部142は、このカーブを運転技能評価の評価対象としない(ステップS225)。
 次に、カーブ検出部142は、全てのカーブを選択したかどうかを確認する(ステップS226)。まだ全てのカーブを選択していない場合(ステップS226において“N”)には、カーブ検出部142は、選択されていないカーブのうちの1つを選択する(ステップS227)。そして、処理はステップS221に戻る。カーブ検出部142は、全てのカーブが選択されるまで、ステップS221~S227の処理を繰り返す。
 そして、カーブ検出部142は、すでに全てのカーブを選択した場合(ステップS226において“Y”)には、この処理は終了する。
 このようにして、図11のステップS103に示したように、カーブ検出部142は、カーブ分割処理を行うことにより、カーブデータDCを生成する。
 次に、カーブ検出部142は、見本データがあるかどうかを確認する(ステップS104)。具体的には、カーブ検出部142は、記憶部132に、見本データであるデータセットDSAが記憶されているかどうかを確認する。
 ステップS104において、見本データがない場合(ステップS104において“N”)には、画像生成部144は、複数のカーブのそれぞれについて、カーネル密度推定画像を生成することにより、複数の画像データDPを生成する(ステップS105)。
 図14は、カーネル密度推定画像を生成する処理の一例を表すものである。
 まず、画像生成部144は、前処理を行う(ステップS241)。具体的には、画像生成部44は、まず、加速度データDAに含まれる前後加速度の時系列データを時間微分することにより、前後躍度の時系列データを算出し、この前後躍度の時系列データに基づいて、前後躍度の2乗の時系列データを算出する。また、画像生成部144は、ヨー角速度データDYに含まれるヨー角速度の時系列データを時間微分することにより、ヨー角加速度の時系列データを算出し、このヨー角加速度の時系列データに基づいて、ヨー角加速度の2乗の時系列データを算出する。そして、画像生成部144は、前後躍度の2乗の時系列データ、およびヨー角加速度の2乗の時系列データに基づいて、前処理画像を生成する。
 図15は、前処理画像を生成する処理の一例を表すものである。この前処理画像の横軸(X軸)は時間を示し、縦軸(Y軸)はヨー角加速度の2乗を示す。この例では、前処理画像が、X軸方向において100個の領域に区分され、Y軸方向において100個の領域に区分される。よって、前処理画像には、10000個の領域が設けられる。
 前処理画像におけるX軸方向のフルスケールは、1つのカーブにおける車両109の走行時間を想定し、例えば5秒に設定される。
 前処理画像におけるY軸方向のフルスケールは、ヨー角加速度の2乗の時系列データに基づいて設定される。ヨー角加速度の2乗の値は、一般に大きくばらついており、例えば検出精度などに起因して、大きく外れた値になることもあり得る。よって、この例では、画像生成部144は、ヨー角加速度の2乗の値のうち、大きく外れた値を除去する処理を行う。画像生成部44は、例えば箱ひげ図を用いて、大きく外れた値を除去することができる。そして、画像生成部144は、大きく外れた値が除去されたデータのうちの、最小値および最大値を求め、最小値から最大値までの値の範囲Rが、図15のY軸方向に、適度のマージンMをもって収まるように、Y軸方向のフルスケールを決定する。マージンMは、例えば、最小値から最大値までの値の幅の3%程度にすることができる。
 例えば、X軸方向におけるフルスケールが5秒であり、時系列データのサンプリング周期が10msec.である場合には、前後躍度の2乗の時系列データにおけるデータ数は500個(=5sec./10mmsec.)であり、ヨー角加速度の2乗の時系列データにおけるデータ数は500個である。なお、実際には、上述したように、これらのデータのうちの外れ値に係るデータが除去される。画像生成部144は、時間、およびヨー角加速度の2乗の値に基づいて、前後躍度の2乗の値を、前処理画像における10000個の領域にマッピングする。
 画像生成部144は、10000個の領域のうち、1つのデータがマッピングされた領域では、その1つのデータに係る前後躍度の2乗の値を、その領域の値とする。また、画像生成部144は、10000個の領域のうち、複数のデータがマッピングされた領域では、その複数のデータに係る前後躍度の2乗の値を互いに足し合わせ、足し合わされた値を、その領域の値とする。このようにして、画像生成部144は、前処理画像の画素値(Z軸)を生成する。そして、画像生成部144は、この画素値を、例えば0以上255以下の整数になるように、そして、前後躍度の2乗の値が大きいほど画素値が小さく、前後躍度の2乗の値が小さいほど画素値が大きくなるように、スケーリングする。このようにして、画像生成部144は、前処理画像を生成する。
 次に、画像生成部144は、図14に示すように、この前処理画像に基づいてカーネル密度推定処理を行う(ステップS242)。カーネル密度推定処理では、実測データに基づいて、いまだ観測されていないデータを含む本来のデータが、密度データとして推定される。画像生成部144は、公知の技術を用いて、カーネル密度推定処理を行う。これにより、画像生成部144は、カーネル密度推定画像を生成する。
 以上で、この処理は終了する。
 このようにして、図11のステップS105に示したように、画像生成部144は、複数のカーブのそれぞれについて、カーネル密度推定画像を生成することにより、複数の画像データDPを生成する。
 そして、データ登録部149は、ステップS102において生成された加速度データDAおよびヨー角速度データDY、ステップS103において生成されたカーブデータDC、ステップS105において生成された複数の画像データDPを、データセットDSAとして記憶部132に記憶させる(ステップS106)。以上で、この処理は終了する。
 ステップS104において、見本データがある場合(ステップS104において“Y”)には、カーブ検出部142は、ステップS102において生成されたヨー角速度データDYと、記憶部132に記憶されたデータセットDSAのヨー角速度データDYとの類似性に基づいてカーブの対応関係を特定することにより、カーブデータDCを修正する(ステップS107)。
 図16は、ステップS107の処理の一例を表すものである。
 まず、カーブ検出部142は、ステップS102において生成されたヨー角速度データDYと、データセットDSAのヨー角速度データDYとに基づいて、処理対象となる全体走行区間を特定する(ステップS261)。具体的には、カーブ検出部142は、ステップS102において生成されたヨー角速度データDYと、データセットDSAのヨー角速度データDYとに基づいて、動的時間伸縮法(DTW:Dynamic Time Wrapping)を用いて、互いに類似している全体走行区間を特定する。すなわち、これらのヨー角速度データDYは、ともに、評価対象エリアにおけるヨー角速度の時系列データであるので、ほぼ同じであることが望まれる。しかしながら、GNSSにより得られた車両109の位置の精度があまり良くない場合には、ヨー角速度データDYは、時系列データの最初または最後において、不要なデータを含む場合や、データが欠落している場合があり得る。よって、カーブ検出部142は、ステップS102において生成されたヨー角速度データDYと、データセットDSAのヨー角速度データDYとに基づいて、動的時間伸縮法を用いて、カーブの数がほぼ同じになるような全体走行区間を特定する。これにより、この全体走行区間において、ステップS102において生成されたヨー角速度データDYと、データセットDSAのヨー角速度データDYとは、互いに比較できるようになる。カーブ検出部142は、このようにして、処理対象となる全体走行区間を特定する。
 次に、カーブ検出部142は、ステップS102において生成されたヨー角速度データDYにより得られた処理対象となる全体走行区間における複数のカーブと、データセットDSAのヨー角速度データDYにより得られた処理対象となる全体走行区間における複数のカーブとの間の、カーブの対応関係を特定する(ステップS262)。具体的には、カーブ検出部142は、ステップS102において生成されたヨー角速度データDY、および、データセットDSAのヨー角速度データDYに基づいて、動的時間伸縮法を用いて、互いに類似している複数の区間をそれぞれ特定することにより、カーブの対応関係を特定する。
 図17は、ステップS262の処理の一例を表すものであり、(A)はステップS102において生成されたヨー角速度データDYを示し、(B)はデータセットDSAのヨー角速度データDYを示す。この図17は、処理対象となる走行区間の一部でのヨー角速度データDYを示している。図17において、数字は、カーブデータDCにおけるカーブ番号を示す。
 これらの2つのヨー角速度データDYでは、部分W1において相違がある。すなわち、図17(A)に示したヨー角速度データDYでは、部分W1において、カーブ番号が“6”である1つのカーブが検出されている。一方、図17(B)に示したヨー角速度データDYでは、部分W1において、カーブ番号が“6”~“8”である3つのカーブが検出されている。
 よって、この例では、カーブ検出部142は、ステップS102において生成されたヨー角速度データDY(図17(A))において、部分W1におけるカーブのカーブ番号を、“6”から“6,7,8”に変更するとともに、このカーブ以降のカーブのカーブ番号を変更する。すなわち、カーブ検出部142は、ステップS102において生成されたヨー角速度データDY(図17(A))における複数のカーブのカーブ番号と、データセットDSAのヨー角速度データDY(図17(B))における複数のカーブのカーブ番号とを一致させるように、カーブの対応関係を特定する。そして、カーブ検出部142は、この処理結果に基づいて、ステップS103により生成されたカーブデータDCを修正する。
 次に、カーブ検出部142は、ステップS102において生成されたヨー角速度データDYにおける複数のカーブと、データセットDSAのヨー角速度データDYにおける複数のカーブとの間の、類似度が低いカーブを、運転技能評価の評価対象から除外する(ステップS263)。具体的には、カーブ検出部142は、ステップS102において生成されたヨー角速度データDYにおける複数のカーブ、およびデータセットDSAのヨー角速度データDYにおける複数のカーブのうちの、互いに対応関係があるカーブについて、動的時間伸縮法を用いて、類似度をそれぞれ算出する。そして、カーブ検出部142は、類似度が所定量よりも低いカーブを、運転技能評価の評価対象から除外する。
 以上で、この処理は終了する。
 このようにして、図11のステップS107に示したように、カーブ検出部142は、ステップS102において生成されたヨー角速度データDYと、データセットDSAのヨー角速度データDYとの類似性に基づいてカーブの対応関係を特定することにより、カーブデータDCを修正する。
 次に、画像生成部144は、複数のカーブのそれぞれについて、カーネル密度推定画像を生成することにより、複数の画像データDPを生成する(ステップS108)。この処理は、ステップS105の処理と同様である。
 そして、データ登録部149は、ステップS102において生成された加速度データDAおよびヨー角速度データDY、ステップS103において生成され、ステップS107において修正されたカーブデータDC、ステップS108において生成された複数の画像データDPを、データセットDSBとして記憶部132に記憶させる(ステップS109)。以上で、この処理は終了する。
 このようにして、データ処理システム2は、熟練ドライバが車両109を運転することにより得られた走行データに基づいて、加速度データDA、ヨー角速度データDY、カーブデータDC、および複数の画像データDPを含むデータセットDSを生成する。データ処理システム2は、このような処理を繰り返すことにより、複数の走行データに基づいて、複数のデータセットDSを生成することができる。
(評価対象カーブデータDTCの生成について)
 以上では、データ処理システム2は、熟練ドライバが車両109を運転することにより得られた走行データに基づいて、処理を行うようにしたが、例えば、非熟練ドライバが車両109を運転することにより得られた走行データに基づいて、処理を行うことも可能である。これにより、データ処理システム2は、熟練ドライバに係るカーネル密度推定画像と、非熟練ドライバに係るカーネル密度推定画像とを得ることができる。
 このカーネル密度推定画像は、ドライバの運転技能に応じて変化し得る。後述するように、運転技能評価システム1では、カーネル密度推定画像に基づいて、ドライバの運転技能を評価する。あるカーブでは、例えば、熟練ドライバに係るカーネル密度推定画像と、非熟練ドライバに係るカーネル密度推定画像との間に、大きな差がある場合があり得る。また、他のあるカーブでは、例えば、熟練ドライバに係るカーネル密度推定画像と、非熟練ドライバに係るカーネル密度推定画像との間に、差がほとんど無い場合があり得る。よって、運転技能評価システム1では、熟練ドライバに係るカーネル密度推定画像と、非熟練ドライバに係るカーネル密度推定画像との間に、大きな差があるようなカーブを、運転技能評価の評価対象とする。
 以下に、運転技能評価の評価対象とするカーブを決定することにより、評価対象カーブデータDTCを生成する処理について、詳細に説明する。
 図18は、評価対象カーブデータDTCを生成する処理の一例を表すものである。この例では、データ処理システム2は、熟練ドライバに係る複数のデータセットDS、および非熟練ドライバに係る複数のデータセットDSをすでに取得している。
 評価対象データ生成部147は、複数のカーブのうちの1つを選択する(ステップS301)。
 次に、画像類似度算出部145は、選択した1つのカーブについての、熟練ドライバに係る複数のカーネル密度推定画像と、非熟練ドライバに係る複数のカーネル密度推定画像との間の画像類似度の平均値F1を算出する(ステップS302)。具体的には、画像類似度算出部145は、選択した1つのカーブについての、1または複数の熟練ドライバに係る複数のカーネル密度推定画像と、1または複数の非熟練ドライバに係る複数のカーネル密度推定画像との間の全ての組合せについて、カーネル密度推定画像の画像類似度を算出する。そして、画像類似度算出部145は、これらの画像類似度の平均値F1を算出する。
 次に、画像類似度算出部145は、選択した1つのカーブについての、熟練ドライバに係る複数のカーネル密度推定画像のそれぞれの間の画像類似度の平均値F2を算出する(ステップS303)。具体的には、画像類似度算出部145は、選択した1つのカーブについての、1または複数の熟練ドライバに係る複数のカーネル密度推定画像のそれぞれの間の全ての組合せについて、カーネル密度推定画像の画像類似度を算出する。そして、画像類似度算出部145は、これらの画像類似度の平均値F2を算出する。
 次に、評価対象データ生成部147は、平均値F1と平均値F2との間に有意差があるかどうかを確認する(ステップS304)。具体的には、評価対象データ生成部147は、平均値F1と平均値F2との差が所定量以上である場合には、平均値F1と平均値F2との間に有意差があると判断する。平均値F1と平均値F2との間に有意差がある場合(ステップS304において“Y”)には、評価対象データ生成部147は、ステップS301において選択したカーブを運転技能評価の評価対象とする。また、平均値F1と平均値F2との間に有意差がない場合(ステップS304において“N”)には、評価対象データ生成部147は、ステップS301において選択したカーブを運転技能評価の評価対象としない。
 次に、評価対象データ生成部147は、全てのカーブを選択したかどうかを確認する(ステップS307)。まだ全てのカーブを選択していない場合(ステップS307において“N”)には、評価対象データ生成部147は、選択されていないカーブのうちの1つを選択する(ステップS308)。そして、処理はステップS302に戻る。評価対象データ生成部147は、全てのカーブが選択されるまで、ステップS302~S308の処理を繰り返す。
 ステップS307において、全てのカーブを選択した場合(ステップS307において“Y”)には、評価対象データ生成部147は、ステップS305,S306の処理結果に基づいて、評価対象カーブデータDTCを生成する(ステップS309)。具体的には、評価対象データ生成部147は、ステップS305,S306において、運転技能評価の評価対象とされたカーブのカーブ番号を含む評価対象カーブデータDTCを生成する。
 以上で、この処理は終了する。
 このようにして、データ処理システム2は、熟練ドライバや非熟練ドライバが車両109を運転することにより得られた走行データに基づいて、評価対象カーブデータDTCを生成する。
 なお、この例では、処理部140は、ステップS302~S304において、平均値F1,F2を算出し、これらの平均値F1と平均値F2との間に有意差があるかどうかを確認することにより、選択したカーブを評価対象にするかどうかを判断したが、これに限定されるものではない。これに代えて、処理部140は、例えば、平均値F1,F2を用いずに、平均値F1の算出に使用した複数の画像類似度と、平均値F2の算出に使用した複数の画像類似度とに基づいて、例えばノンパラメトリックU検定の処理を行うことにより、選択したカーブを評価対象にするかどうかを判断してもよい。具体的には、まず、ステップS302と同様に、画像類似度算出部145は、選択した1つのカーブについての、1または複数の熟練ドライバに係る複数のカーネル密度推定画像と、1または複数の非熟練ドライバに係る複数のカーネル密度推定画像との間の全ての組合せについて、カーネル密度推定画像の画像類似度を算出する。次に、ステップS303と同様に、画像類似度算出部145は、選択した1つのカーブについての、1または複数の熟練ドライバに係る複数のカーネル密度推定画像のそれぞれの間の全ての組合せについて、カーネル密度推定画像の画像類似度を算出する。そして、評価対象データ生成部147は、最初のステップで得られた複数の画像類似度と、後のステップで得られた複数の画像類似度とに基づいて、例えばノンパラメトリックU検定の処理を行うことにより、最初のステップで得られた複数の画像類似度と、後のステップで得られた複数の画像類似度との間に有意差があるかどうかを判断する。有意差がある場合には、評価対象データ生成部147は、ステップS301において選択したカーブを運転技能評価の評価対象とする(ステップS305)。また、有意差がない場合(ステップS304において“N”)には、評価対象データ生成部147は、ステップS301において選択したカーブを運転技能評価の評価対象としない(ステップS306)。
(分析対象カーブデータDTDの生成について)
 運転技能評価システム1では、ドライバの運転技能を評価するとともに、そのドライバの運転技能に応じた、運転についてのアドバイスを生成する。このアドバイスの生成を行うために、運転技能評価システム1は、複数のカーブのうちのある特定の複数のカーブに係る複数のカーネル密度推定画像に基づいて、ドライバの運転操作を分析する。
 以下に、この分析処理の処理対象であるカーブを決定することにより、分析対象カーブデータDTDを生成する処理について、詳細に説明する。
  図19は、分析対象カーブデータDTDを生成する処理の一例を表すものである。
 まず、分析対象データ生成部157は、複数のデータセットDSに含まれる複数のカーネル密度推定画像のそれぞれの間の画像類似度に基づいて、複数のカーブを複数のクラスにクラス分けする(ステップS321)。具体的には、まず、分析対象データ生成部157は、複数のデータセットDSに含まれる、1または複数のドライバに係る複数のカーネル密度推定画像のそれぞれの間の全ての組合せについて、カーネル密度推定画像の画像類似度を算出する。この複数のカーネル密度推定画像は、複数のカーブに係るカーネル密度推定画像を含む。例えば、複数のカーブのうちの、同じカーブに係る2つのカーネル密度推定画像は互いに似ているので、画像類似度は高い。また、複数のカーブのうちの、互いに似ている2つのカーブに係る2つのカーネル密度推定画像は互いに似ているので、画像類似度は高い。また、複数のカーブのうち、互いに似ていないカーブに係る2つのカーネル密度推定画像は互いに似ていないので、画像類似度は低い。このようにして、分析対象データ生成部157は、数のカーネル密度推定画像のそれぞれの間の全ての組合せについて、カーネル密度推定画像の画像類似度を算出する。そして、分析対象データ生成部157は、これらの画像類似度に基づいて、複数のカーブを複数のクラスにクラス分けする。具体的には、分析対象データ生成部157は、画像類似度が高い2つのカーネル密度推定画像に係る2つのカーブが同じクラスに属し、画像類似度が低い2つのカーネル密度推定画像に係る2つのカーブが異なるクラスに属するように、複数のカーブを複数のクラスにクラス分けする。分析対象データ生成部157は、複数のカーブを、例えば5つ程度のクラスにクラス分けすることができる。
 次に、分析対象データ生成部157は、複数のクラスのうち、そのクラスに属するカーブの数が最も多いクラスを選択する(ステップS322)。
 次に、分析対象データ生成部157は、ステップS322において選択されたクラスに属する全てのカーブのうち、カーブの検出に成功している複数のカーブを分析対象とする(ステップS323)。すなわち、カーブ検出部142は、ステップS103,S107においてカーブを検出する際、ヨー角速度データDYによっては一部のカーブを検出できない場合があり得る。分析対象データ生成部157は、例えば、選択されたクラスに属する全てのカーブのそれぞれが、全てのデータセットDSのカーブデータDCに含まれているかどうかを確認することにより、分析対象とする複数のカーブを決定する。このようにして、分析対象データ生成部157は、複数のカーブのうち、互いに似た、検出されやすい複数のカーブを、分析対象とすることができる。
 そして、分析対象データ生成部157は、ステップS323により分析対象とされたカーブのカーブ番号を含む分析対象カーブデータDTDを生成する(ステップS324)。
 以上により、この処理は終了する。
 このようにして、データ処理システム2は、熟練ドライバが車両109を運転することにより得られた走行データに基づいて、分析対象カーブデータDTDを生成する。
 そして、データ処理システム2は、複数のデータセットDS、評価対象カーブデータDTC、分析対象カーブデータDTD、およびエリアデータDARを、サーバ装置30に送信する。サーバ装置30は、これらのデータを、記憶部32に記憶させる。
(運転技能の評価について)
 運転技能評価システム1は、ドライバが車両9を運転することにより生成された走行データに基づいて、サーバ装置30の記憶部32に記憶された複数のデータセットDS、評価対象カーブデータDTC、分析対象カーブデータDTD、およびエリアデータDARを用いて、そのドライバの運転技能を評価する。以下に、この動作について詳細に説明する。
 ドライバが車両9を運転すると、車両9では、スマートフォン10の加速度センサ14は、スマートフォン10の座標系における3つの方向の加速度をそれぞれ検出し、角速度センサ15は、スマートフォン10の座標系における3つの角速度(ヨー角速度、ロール角速度、ピッチ角速度)をそれぞれ検出し、GNSS受信機16は、地上での車両9の位置を取得する。
 データ処理部21は、加速度センサ14の検出結果、および角速度センサ15の検出結果に基づいて、フィルタ処理などの所定のデータ処理を行う。具体的には、データ処理部21は、加速度センサ14により検出された加速度の時系列データに対して、フィルタ処理を行い、角速度センサ15により検出された角速度の時系列データに対して、フィルタ処理を行う。なお、これに限定されるものではなく、データ処理部21は、フィルタ処理が施されたこれらの時系列データに対して、ダウンサンプリング処理を行ってもよい。
 そして、通信部13は、走行終了後に、データ処理部21により処理された加速度の時系列データおよび角速度の時系列データを、GNSS受信機16により得られた車両9の位置の時系列データとともに、サーバ装置30に送信する。
 サーバ装置30では、通信部31は、スマートフォン10から送信されたデータを受信する。そして、サーバ装置30は、通信部31が受信したデータに基づいて、ドライバの運転技能を評価する。以下に、このサーバ装置30の動作について、詳細に説明する。
 図20A,20Bは、サーバ装置30の一動作例を表すものである。
 まず、サーバ装置30のデータ処理部41は、車両9の位置の時系列データに基づいて、記憶部32に記憶されているエリアデータDARを用いて、車両9が評価対象エリアを走行したかどうかを確認する(ステップS401)。車両9が評価対象エリアを走行していない場合(ステップS401において“N”)には、この処理は終了する。
 車両9が評価対象エリアを走行した場合(ステップS401において“Y”)には、データ処理部41は、座標変換を行うことにより、前後加速度の時系列データおよびヨー角速度の時系列データを生成する(ステップS402)。具体的には、データ処理部41は、評価対象エリアにおける加速度の時系列データに基づいて座標変換を行うことにより、車両9の進行方向における加速度(前後加速度)の時系列データを生成する。また、データ処理部41は、評価対象エリアにおける角速度の時系列データに基づいて座標変換を行うことにより、車両9のヨー角速度の時系列データを生成する。なお、これに限定されるものではなく、例えば、スマートフォン10においてダウンサンプリング処理が行われている場合には、データ処理部41は、通信部31が受信した加速度の時系列データおよび角速度の時系列データに対してアップサンプリング処理を行い、アップサンプリング処理が施された前後加速度の時系列データおよびヨー角速度の時系列データに基づいて座標変換を行ってもよい。
 次に、データ処理部41は、ステップS402において生成された前後加速度の時系列データおよびヨー角速度の時系列データに対してフィルタ処理を行うことにより、加速度データDA1およびヨー角速度データDY1をそれぞれ生成する(ステップS403)。
 次に、カーブ検出部42は、ステップS403において生成したヨー角速度データDY1に基づいて、カーブ分割処理を行うことによりカーブデータDC1を生成する(ステップS404)。このカーブ分割処理は、図11に示したステップS103の処理と同様である。
 次に、カーブ検出部42は、ステップS403において生成されたヨー角速度データDY1と、記憶部32に記憶されたデータセットDSAのヨー角速度データDYとの類似性に基づいてカーブの対応関係を特定することにより、カーブデータDC1を修正する(ステップS405)。この処理は、図11に示したステップS107の処理と同様である。
 データ抽出部43は、記憶部32に記憶された評価対象カーブデータDTCに基づいて、運転技能評価の評価対象であるカーブに係る前後加速度の時系列データおよびヨー角速度の時系列データを抽出する(ステップS406)。具体的には、データ抽出部43は、加速度データDA1に含まれる前後加速度の時系列データのうちの、運転技能の評価に使用する複数のカーブに係る、前後加速度の時系列データを抽出する。また、データ抽出部43は、ヨー角速度データDY1に含まれるヨー角速度の時系列データのうちの、運転技能の評価に使用する複数のカーブに係る、ヨー角速度の時系列データを抽出する。
 次に、画像生成部44は、ステップS406において抽出された前後加速度の時系列データおよびヨー角速度の時系列データに基づいて、複数のカーブのそれぞれについて、カーネル密度推定画像を生成することにより、複数の画像データDPを生成する(ステップS407)。この処理は、ステップS108の処理と同様である。このステップS406では、画像生成部44は、運転技能評価の評価対象であるカーブに係るカーネル密度推定画像を生成する。
 次に、画像類似度算出部45は、ステップS407において生成された複数のカーネル密度推定画像と、記憶部32に記憶された熟練ドライバに係る複数のデータセットDSに含まれる複数のカーネル密度推定画像とに基づいて、画像類似度の平均値(平均類似度)を算出する(ステップS408)。具体的には、画像類似度算出部45は、複数のカーブの1つについて、画像生成部44が生成したカーネル密度推定画像と、熟練ドライバに係る複数のデータセットDSに含まれる複数のカーネル密度推定画像とを比較することにより画像類似度をそれぞれ算出する。画像類似度算出部45は、複数のカーブのそれぞれについて、この処理を行うことにより、複数の画像類似度を算出する。そして、画像類似度算出部45は、これらの複数の画像類似度の平均値(平均類似度)を算出する。この例では、画像類似度の値は正の値であり、カーネル密度推定画像が類似しているほど、画像類似度の値は小さく、カーネル密度推定画像が類似していないほど、画像類似度の値は大きい。
 次に、技能判定部46は、ステップS404,S405において、分析対象カーブデータDTDが示す全てのカーブを検出できたかどうかを確認する(ステップS429)。すなわち、カーブ検出部42は、ステップS404,S405においてカーブを検出する際、ヨー角速度データDY1によっては一部のカーブを検出できない場合があり得る。例えば、ドライバの運転技能が低く、ヨー角速度データDY1が、熟練ドライバのヨー角速度データDYとの差異が大きい場合には、分析対象カーブデータDTDが示す複数のカーブのうちの一部を検出できないこともあり得る。よって、技能判定部46は、分析対象カーブデータDTDが示す全てのカーブを検出できたかどうかを確認する。分析対象カーブデータDTDが示す全てのカーブを検出できなかった場合(ステップS429において“N”)には、処理はステップS433に進む。
 ステップS429において、分析対象カーブデータDTDが示す全てのカーブを検出できた場合(ステップS429において“Y”)には、技能判定部46は、ステップS408において算出された平均類似度の値がしきい値H1未満であるかどうかを確認する(ステップS430)。
 ステップS430において、平均類似度の値がしきい値H1未満である場合(ステップS430において“Y”)には、技能判定部46は、車両9のドライバの運転技能は高いと判定し、アドバイス生成部47は、そのドライバの運転技能が高いことを通知するとともに、さらなる運転技能向上のためのアドバイスを行う(ステップS431)。すなわち、ステップS430において、平均類似度の値がしきい値H1未満であるので、ドライバのカーネル密度推定画像は、熟練ドライバのカーネル密度推定画像と似ている。よって、技能判定部46は、車両9のドライバの運転技能は高いと判定する。そして、アドバイス生成部47は、そのドライバの運転技能が高いことを通知するとともに、さらなる運転技能向上のためのアドバイスを行う。そして、この処理は終了する。
 ステップS430において、平均類似度の値がしきい値H1未満ではない場合(ステップS430において“N”)には、技能判定部46は、ステップS408において算出された平均類似度の値がしきい値H2以上であるかどうかを確認する(ステップS432)。
 ステップS432において、平均類似度の値がしきい値H2以上である場合(ステップS432において“Y”)には、技能判定部46は、車両9のドライバの運転技能は低いと判定し、アドバイス生成部47は、運転についての基本的なアドバイスを行う(ステップS433)。ここで、しきい値H2はしきい値H1よりも大きい値である。ステップS432において、平均類似度の値がしきい値H2以上であるので、ドライバのカーネル密度推定画像は、熟練ドライバのカーネル密度推定画像と似ていない。よって、技能判定部46は、車両9のドライバの運転技能は低いと判定する。そして、アドバイス生成部47は、例えば、車両を適切に運転しやすくすることが可能な運転姿勢の維持や、車両感覚の取得を促すアドバイスを行う。具体的には、アドバイス生成部47は、ドライバの視界が適切に保たれるような座席の設定や、ドライバの運転姿勢についての情報を提示することにより、車両を適切に運転しやすくすることが可能な運転姿勢の維持や、車両感覚の取得を促すアドバイスを行う。アドバイス生成部47は、例えば、これらの基本的なアドバイスを予め複数準備しておき、これらの1つをランダムに選択することができる。これにより、例えば、渋滞などの交通環境、天候、走行路の形状などにより、仮に運転技能の評価精度が低下してしまった場合でも、アドバイス生成部47は、このような基本的なアドバイスをランダムに行うので、ドライバが違和感を感じる可能性を低減することができる。
 ステップS432において、平均類似度の値がしきい値H2以上ではない場合(ステップS432において“N”)には、技能判定部46は、ドライバの運転操作を分析する分析処理を行い、アドバイス生成部47は、分析結果に応じたアドバイスを行う(ステップS434)。
 図21は、ステップS434の処理の一例を表すものである。
 まず、技能判定部46は、ステップS407において生成された複数のカーネル密度推定画像のうちの、分析対象カーブデータDTDが示す複数のカーブに係る複数のカーネル密度推定画像における、前後躍度の2乗の値が大きい部分の割合の平均値(割合平均値)を算出する(ステップS441)。具体的には、技能判定部46は、図6に示したある1つのカーネル密度推定画像において、前後躍度の2乗の値がある程度の値以上の部分のうちの、前後躍度の2乗の値が特に大きい部分(濃い部分)の面積割合を算出する。言い換えれば、技能判定部46は、図6に示したある1つのカーネル密度推定画像において、画素値がある程度の値以下の部分のうちの、画素値が特に小さい部分(濃い部分)の面積割合を算出する。すなわち、この例では、前後躍度の2乗の値が大きいほど画素値が小さく、前後躍度の2乗の値が小さいほど画素値が大きいので、技能判定部46は、複数のカーネル密度推定画像における、画素値が小さい部分の割合の平均値を算出する。面積割合は、画素値が第1の所定値以下である部分の画像面積を、画素値が第2の所定値以下である部分の画像面積で除算したものである。ここで、第2の所定値は、第1の所定値よりも大きい値である。技能判定部46は、複数のカーネル密度推定画像について、この面積割合を算出する。そして、技能判定部46は、これらの面積割合の平均値を、割合平均値として算出する。
 次に、技能判定部46は、割合平均値はしきい値L以上であるかどうかを確認する(ステップS442)。
 このステップS442において、割合平均値がしきい値L以上である場合(ステップS442において“Y”)には、技能判定部46は、車両9の前後加速度がなめらかではないと判定し、車両9の加速および減速についてのアドバイスを行う(ステップS443)。すなわち、割合平均値がしきい値L以上であるので、前後躍度の2乗の値が大きい。言い換えれば、前後加速度が大きく変化している。よって、技能判定部46は、車両9の前後加速度がなめらかではないと判定し、車両9の加速および減速についてのアドバイスを行う。具体的には、技能判定部46は、例えばドライバのアクセルペダルやブレーキペダルの操作についてのアドバイスを行う。そして、この処理は終了する。
 また、このステップS442において、割合平均値がしきい値L以上ではない場合(ステップS442において“N”)には、技能判定部46は、車両9のヨー角速度がなめらかではないと判定し、車両9の操舵についてのアドバイスを行う(ステップS443)。すなわち、割合平均値がしきい値L以上ではないので、前後躍度の2乗の値が大きくない。よって、技能判定部46は、前後加速度ではなく、ヨー角速度に改善の余地があると判定する。技能判定部46は、車両9のヨー角速度がなめらかではないと判定し、車両9の操舵についてのアドバイスを行う。具体的には、技能判定部46は、例えばドライバのステアリングホイールの操作についてのアドバイスを行う。そして、この処理は終了する。
 このようにして、図20BのステップS434に示したように、技能判定部46は、ドライバの運転操作を分析する分析処理を行い、アドバイス生成部47は、分析結果に応じたアドバイスを行う。
 以上で、この処理は終了する。
 なお、この例では、図21に示したように、技能判定部46は、車両9の加速および減速についてのアドバイス、および車両の操舵についてのアドバイスのうちの一方を行うようにしたが、これに限定されるものではなく、例えば、これらのアドバイスの双方を行うようにしてもよい。
 ここで、ステップS433におけるアドバイスは、本開示における「第1のアドバイス」の一具体例に対応する。ステップS434におけるアドバイスは、本開示における「第2のアドバイス」の一具体例に対応する。ステップS431におけるアドバイスは、本開示における「第3のアドバイス」の一具体例に対応する。
 サーバ装置30の通信部31は、運転技能の評価結果および運転についてのアドバイスを含むデータをスマートフォン10に送信する。スマートフォン10の通信部13は、スマートフォン10から送信されたデータを受信する。表示処理部22は、サーバ装置30から送信された、運転技能の評価結果および運転についてのアドバイスを示すデータに基づいて、表示処理を行う。タッチパネル11は、運転技能の評価結果および運転についてのアドバイスを表示する。これにより、ドライバは、自分の運転技能についての客観的な評価を得ることができ、アドバイスに基づいて運転技能を向上することができる。
 このように、運転技能評価システム1における運転技能評価方法では、車両9の走行データ(例えば加速度データDA1およびヨー角速度データDY1)に基づいて、車両9のドライバの運転技能を評価する評価処理を行うことと、ドライバの運転技能の評価結果に基づいて運転者にアドバイスを行うアドバイス処理を行うこととを含むようにした。アドバイス処理は、評価処理により評価された運転技能が第1の技能レベルである場合に、ドライバに対して、走行データに基づかない第1のアドバイスを行うことと、評価処理により評価された運転技能が第1の技能レベルよりも高い第2の技能レベルである場合に、ドライバに対して、走行データに基づく第2のアドバイスを行うこととを含むようにした。これにより、この運転技能評価方法では、ドライバの運転技能に応じて、そのドライバに適切なアドバイスが行われるので、ドライバの運転技能を高めることができる。具体的には、例えば、ドライバの運転技能が低い場合には、走行データに基づかない、車両を適切に運転しやすくすることが可能な運転姿勢の維持や、車両感覚の取得を促すような基本的なアドバイスが行われる。また、例えば、ドライバの運転技能が低くない場合には、走行データに基づく、例えばよりなめらかな運転をするためのアドバイスが行われる。また、例えば、渋滞などの交通環境、天候、走行路の形状などにより、仮に運転技能の評価精度が低下し、運転技能が第1の技能レベルであると判定された場合でも、車両を適切に運転しやすくすることが可能な運転姿勢の維持や、車両感覚の取得を促すような基本的なアドバイスが行われるので、ドライバが違和感を感じる可能性を低減することができる。
 また、この運転技能評価方法では、第2のアドバイスは、車両9の加速または減速についてのアドバイスである第1の詳細アドバイス、および車両9の操舵についてのアドバイスである第2の詳細アドバイスのうちの一方または双方を含むようにした。すなわち、運転技能評価方法では、車両9の走行データに基づいて、ドライバの運転操作を分析する分析処理が行われるので、車両9の加速または減速についてのアドバイスである第1の詳細アドバイス、および車両9の操舵についてのアドバイスである第2の詳細アドバイスのうちの一方または双方を行うことができる。これにより、この運転技能評価方法では、ドライバの運転技能に応じて、そのドライバに適切なアドバイスが行われるので、ドライバの運転技能を高めることができる。
 また、この運転技能評価方法では、走行データは、車両9の進行方向の方向変化に応じた第1のパラメータ(この例ではヨー角速度)の時系列データ、および、車両9の進行方向の速度変化に応じた第2のパラメータ(この例では前後加速度)の時系列データを含むようにした。第2のアドバイスは、第1の詳細アドバイスおよび第2の詳細アドバイスのうちの一方を含むようにした。そして、評価処理は、評価処理により評価された運転技能が第2の技能レベルである場合に、走行データに基づいて、前記第2のアドバイスが、前記第1の詳細アドバイスおよび前記第2の詳細アドバイスのうちのどちらを含むかを決定することを含むようにした。これにより、ドライバは、自らの運転操作に応じたアドバイスに基づいて、車両9の進行方向の方向変化について運転技能を改善し、あるいは車両9の進行方向の速度変化について運転技能を改善することができる。このように、運転技能評価方法では、ドライバの運転技能に応じて、そのドライバに適切なアドバイスが行われるので、ドライバの運転技能を高めることができる。
 また、この運転技能評価方法では、評価処理は、第2のアドバイスが、第1の詳細アドバイスおよび第2の詳細アドバイスのうちの一方である所定のアドバイスを含むべきかどうかを判断することと、第2のアドバイスが所定のアドバイスを含むべきと判断した場合に、第2のアドバイスが所定のアドバイスを含むことを決定し、第2のアドバイスが所定のアドバイスを含むべきではないと判断した場合に、第2のアドバイスが第1の詳細アドバイスおよび第2の詳細アドバイスのうちの他方を含むことを決定することとを含むようにした。この例では、カーネル密度推定画像は、前後躍度の2乗についての画像である。よって、図21のステップS442における、割合平均値はしきい値L以上であるかどうかを確認することは、車両9の前後加速度がなめらかであるかどうかを確認することであり、車両9の加速および減速についてのアドバイスを行うかどうかを決定することである。この運転技能評価方法では、割合平均値はしきい値L以上である場合には、車両9の加速または減速についてのアドバイスである第1の詳細アドバイスが行われ、割合平均値はしきい値L以上ではない場合には、車両9の操舵についてのアドバイスである第2の詳細アドバイスが行われる。これにより、この運転技能評価方法では、例えば、ヨー角加速度についてのカーネル密度推定画像を用いることなく、第1の詳細アドバイスおよび第2の詳細アドバイスのうちの一方を選択的に行うことができるので、比較的シンプルな方法で、ドライバの運転技能を高めることができる。
 また、この運転技能評価方法では、アドバイス処理は、評価処理により評価された運転技能が第2の技能レベルよりも高い第3の技能レベルである場合に、ドライバに対して、第1のアドバイスおよび第2のアドバイスとは異なる第3のアドバイスを行うことをさらに含むようにした。これにより、この運転技能評価方法では、ドライバの運転技能に応じて、そのドライバに適切なアドバイスが行われるので、ドライバの運転技能を高めることができる。
 また、この運転技能評価方法では、車両がカーブを走行しているときのデータを走行データとして用いるようにした。評価処理は、走行データ(この例では、例えば加速度データDA1およびヨー角速度データDY1)に基づいて評価データ(この例ではカーネル密度推定画像)を生成することと、評価データとリファレンスデータとを比較することにより、車両9のドライバの運転技能を評価することを含むようにした。これにより、運転技能評価方法では、リファレンスデータという明確な基準を用いて運転技能の評価を行うことができるので、運転技能の評価精度を高めることができる。そして、この運転技能評価方法では、このように高い精度で評価された運転技能の評価結果に基づいてアドバイス処理を行うことができるので、そのドライバに適切なアドバイスが行われる。その結果、ドライバの運転技能を高めることができる。
 また、この運転技能評価方法では、カーネル密度推定画像の画像データを、評価データとして用いるようにした。カーネル密度推定処理では、実測データに基づいて、いまだ観測されていないデータを含む本来のデータが、密度データとして推定される。よって、カーネル密度推定画像は、そのドライバの運転技能に応じた、そのドライバ本来の固有の特徴を含み得る。よって、この運転技能評価方法では、カーネル密度推定画像を用いることにより、ドライバの運転技能の評価精度を高めることができる。そして、この運転技能評価方法では、このように高い精度で評価された運転技能の評価結果に基づいてアドバイス処理を行うことができるので、そのドライバに適切なアドバイスが行われる。その結果、ドライバの運転技能を高めることができる。
 また、この運転技能評価方法では、車両9の走行データに基づいてカーブを検出することをさらに含むようにした。そして、評価処理は、車両9がカーブを走行しているときにおいて、走行データに基づいてカーブを検出できたかどうかにも基づいて、車両9のドライバの運転技能を評価することを含むようにした。これにより、例えば、図20BのステップS429に示したように、ドライバの運転技能が低く、ヨー角速度に基づいてカーブが適切に検出されない場合には、運転技能が低いと判定することができる。このようにして、ドライバの運転技能の評価精度を高めることができるので、ドライバの運転技能を高めることができる。
[効果]
 以上のように本実施の形態では、運転技能評価方法は、車両の走行データに基づいて、車両のドライバの運転技能を評価する評価処理を行うことと、ドライバの運転技能の評価結果に基づいて運転者にアドバイスを行うアドバイス処理を行うこととを含むようにした。アドバイス処理は、評価処理により評価された運転技能が第1の技能レベルである場合に、ドライバに対して、走行データに基づかない第1のアドバイスを行うことと、評価処理により評価された運転技能が第1の技能レベルよりも高い第2の技能レベルである場合に、ドライバに対して、走行データに基づく第2のアドバイスを行うこととを含むようにした。これにより、ドライバの運転技能を高めることができる。
 本実施の形態では、第2のアドバイスは、車両9の加速または減速についてのアドバイスである第1の詳細アドバイス、および車両9の操舵についてのアドバイスである第2の詳細アドバイスのうちの一方または双方を含むようにしたので、ドライバの運転技能を高めることができる。
 本実施の形態では、走行データは、車両の進行方向の方向変化に応じた第1のパラメータの時系列データ、および、車両の進行方向の速度変化に応じた第2のパラメータの時系列データを含むようにした。第2のアドバイスは、第1の詳細アドバイスおよび第2の詳細アドバイスのうちの一方を含むようにした。そして、評価処理は、評価処理により評価された運転技能が第2の技能レベルである場合に、走行データに基づいて、前記第2のアドバイスが、前記第1の詳細アドバイスおよび前記第2の詳細アドバイスのうちのどちらを含むかを決定することを含むようにした。これにより、ドライバの運転技能を高めることができる。
 本実施の形態では、評価処理は、第2のアドバイスが、第1の詳細アドバイスおよび第2の詳細アドバイスのうちの一方である所定のアドバイスを含むべきかどうかを判断することと、第2のアドバイスが所定のアドバイスを含むべきと判断した場合に、第2のアドバイスが所定のアドバイスを含むことを決定し、第2のアドバイスが所定のアドバイスを含むべきではないと判断した場合に、第2のアドバイスが第1の詳細アドバイスおよび第2の詳細アドバイスのうちの他方を含むことを決定することとを含むようにした。これにより、比較的シンプルな方法で、ドライバの運転技能を高めることができる。
 本実施の形態では、アドバイス処理は、評価処理により評価された運転技能が第2の技能レベルよりも高い第3の技能レベルである場合に、ドライバに対して、第1のアドバイスおよび第2のアドバイスとは異なる第3のアドバイスを行うことをさらに含むようにしたので、ドライバの運転技能を高めることができる。
 本実施の形態では、車両がカーブを走行しているときのデータを走行データとして用いるようにした。そして評価処理は、走行データに基づいて評価データを生成することと、評価データとリファレンスデータとを比較することにより、車両のドライバの運転技能を評価することを含むようにした。これにより、ドライバの運転技能の評価精度を高めることができ、その結果、ドライバの運転技能を高めることができる。
 本実施の形態では、カーネル密度推定画像の画像データを、評価データとして用いるようにしたので、ドライバの運転技能の評価精度を高めることができ、その結果、ドライバの運転技能を高めることができる。
 本実施の形態では、車両の走行データに基づいてカーブを検出することをさらに含むようにした。そして、評価処理は、車両がカーブを走行しているときにおいて、走行データに基づいてカーブを検出できたかどうかにも基づいて、車両のドライバの運転技能を評価することを含むようにした。これにより、ドライバの運転技能の評価精度を高めることができ、その結果、ドライバの運転技能を高めることができる。
[変形例1]
 上記実施の形態では、図6,7に示したように、カーネル密度推定画像の縦軸(Y軸)はヨー角加速度の2乗を示すようにしたが、これに限定されるものではない。これに代えて、例えば、カーネル密度推定画像の縦軸(Y軸)は、図22に示すようにヨー角加速度を示してもよいし、ヨー角加速度の絶対値を示してもよい。また、例えば、カーネル密度推定画像の縦軸(Y軸)は、図23に示すようにヨー角速度を示してもよいし、ヨー角速度の絶対値を示してもよい。また、カーネル密度推定画像の縦軸(Y軸)は、図24に示すように車両の進行方向と交差する方向の加速度(横加速度)の2乗を示してもよいし、図25に示すように横加速度を示してもよいし、横加速度の絶対値を示してもよい。
[変形例2]
 上記実施の形態では、図6,7に示したように、カーネル密度推定画像の縦軸(Y軸)はヨー角加速度の2乗を示し、カーネル密度推定画像の画素値(Z軸)は前後躍度の2乗を示すようにしたが、これに限定されるものではない。これに代えて、例えば、図26,27に示すように、カーネル密度推定画像の縦軸(Y軸)は前後躍度の2乗を示し、カーネル密度推定画像の画素値(Z軸)はヨー角加速度の2乗を示すようにしてもよい。図26は、あるカーブにおけるカーネル密度推定画像の一例を表すものである。図27は、図26に示したカーネル密度推定画像の座標軸を表すものである。これにより、例えば、特に、車両9の速度の変化が小さい走行路において、ドライバの運転技能の評価精度を高めることができる。すなわち、例えば、起伏が緩やかな走行路では、車両9の速度の変化が小さく、前後躍度の2乗の値は大きく変化しにくいので、図6,7に示したカーネル密度推定画像の画素値は大きく変化しにくい。このような場合には、図26,27に示したカーネル密度推定画像を用いることにより、ドライバの運転技能の評価精度を高めることができる。
 図26,27に示したカーネル密度推定画像を用いた場合には、図21に示した処理は、このカーネル密度推定画像に基づいて行われる。具体的には、まず、技能判定部46は、ステップS441と同様に、ステップS407において生成された複数のカーネル密度推定画像のうちの、分析対象カーブデータDTDが示す複数のカーブに係る複数のカーネル密度推定画像における、ヨー角加速度の2乗の値が大きい部分の割合の平均値(割合平均値)を算出する。次に、技能判定部46は、ステップS442と同様に、割合平均値はしきい値L以上であるかどうかを確認する。割合平均値がしきい値L以上である場合には、技能判定部46は、車両9のヨー角速度がなめらかではないと判定し、車両9の操舵についてのアドバイスを行う。また、割合平均値がしきい値L以上ではない場合には、技能判定部46は、車両9の前後加速度がなめらかではないと判定し、車両9の加速および減速についてのアドバイスを行う。すなわち、この例では、カーネル密度推定画像は、ヨー角加速度の2乗についての画像である。よって、割合平均値はしきい値L以上であるかどうかを確認することは、車両9のヨー角加速度がなめらかであるかどうかを確認することであり、車両9の操舵についてのアドバイスを行うかどうかを決定することである。
 運転技能評価システム1は、図6,7に示したカーネル密度推定画像、および図26,27に示したカーネル密度推定画像の両方に基づいて処理を行うことができるようにしてもよい。例えば、データ処理システム2の情報処理装置130は、エンジニアの操作に基づいて、図6,7に示したカーネル密度推定画像を生成するか、もしくは図26,27に示したカーネル密度推定画像を生成するかを決定することができる。また、情報処理装置130は、前後加速度の時系列データを含む加速度データDAおよびヨー角速度の時系列データを含むヨー角速度データDYに基づいて、これらのカーネル密度推定画像のうちのどちらを生成するかを決定してもよい。具体的には、情報処理装置130は、加速度データDAおよびヨー角速度データDYに基づいて、車両109が走行した走行路が、車両109の速度の変化が大きい走行路であるかどうかを確認する。そして、情報処理装置130は、車両109が走行した走行路が、車両109の速度の変化が大きい走行路である場合には、図6,7に示したカーネル密度推定画像を生成することを決定し、車両109が走行した走行路が、車両109の速度の変化が大きい走行路ではない場合には、図26,27に示したカーネル密度推定画像を生成することを決定する。
 情報処理装置130は、全てのカーブについて、図6,7に示したカーネル密度推定画像を生成するように決定してもよいし、全てのカーブについて、図26,27に示したカーネル密度推定画像を生成するように決定してもよい。また、情報処理装置130は、複数のカーブのそれぞれについて、図6,7に示したカーネル密度推定画像、および図26,27に示したカーネル密度推定画像のうちのどちらのカーネル密度推定画像を生成するかを個別に決定してもよい。
 サーバ装置30は、データセットDSにおける熟練ドライバに係るカーネル密度推定画像が図6,7に示したカーネル密度推定画像である場合には、ドライバの走行データに基づいて、図6,7に示したカーネル密度推定画像を生成し、データセットDSにおける熟練ドライバに係るカーネル密度推定画像が図26,27に示したカーネル密度推定画像である場合には、ドライバの走行データに基づいて、図26,27に示したカーネル密度推定画像を生成する。
 また、図26,27の例では、カーネル密度推定画像の画素値(Z軸)はヨー角加速度の2乗を示すようにしたが、これに限定されるものではない。これに代えて、例えば、変形例1と同様に、カーネル密度推定画像の画素値(Z軸)は、ヨー角加速度の絶対値を示してもよいし、横加速度の2乗を示してもよいし、横加速度の絶対値を示してもよい。
[変形例3]
 上記実施の形態では、図2に示したように、スマートフォン10は、加速度の時系列データ、角速度の時系列データ、および車両9の位置の時系列データをサーバ装置30に送信したが、これに限定されるものではない。これに代えて、例えば、スマートフォン10は、さらに、地磁気の時系列データをサーバ装置30に送信してもよい。以下に、この例について詳細に説明する。
 図28は、本変形例に係るスマートフォン10Aの一構成例を表すものである。スマートフォン10Aは、地磁気センサ17Aと、処理部20Aとを有している。地磁気センサ17Aは、地磁気を検出するように構成される。処理部20Aは、加速度センサ14により検出された加速度の時系列データ、角速度センサ15により検出された角速度の時系列データ、GNSS受信機16により得られた車両9の位置の時系列データ、および地磁気センサ17Aにより検出された地磁気の時系列データを収集する。通信部13は、走行終了後に、データ処理部21により処理された加速度の時系列データおよび角速度の時系列データを、GNSS受信機16により得られた車両9の位置の時系列データ、および地磁気センサ17Aにより検出された地磁気の時系列データとともに、サーバ装置30に送信する
 サーバ装置30のデータ処理部41は、通信部31により受信された加速度の時系列データに基づいて座標変換を行うことにより、車両9の進行方向における加速度(前後加速度)の時系列データを生成する。また、通信部31により受信された角速度の時系列データに基づいて座標変換を行うことにより、車両9のヨー角速度の時系列データを生成する。そして、データ処理部41は、通信部31により受信された地磁気の時系列データに基づいて、前後加速度の時系列データ、およびヨー角速度の時系列データを補正する。これにより、前後加速度の時系列データ、およびヨー角速度の時系列データの精度を高めることができる。
[その他の変形例]
 また、これらの変形例のうちの2以上を組み合わせてもよい。
 以上、本開示のいくつかの実施の形態について添付図面を参照しつつ一例を説明したが、本開示は上記実施の形態に決して限定されるものではない。当業者であれば、添付の請求の範囲によって定義される範囲から逸脱することなく、各種変形や変更をなし得ることが理解される。本開示は、そのような各種変形や変更が、添付の請求の範囲およびその均等物の範囲に属する限り、それらを包含することを意図するものである。
 例えば、上記実施の形態では、サーバ装置30が、スマートフォン10から送信された走行データに基づいて運転技能の評価を行うようにしたが、これに限定されるものではない。これに代えて、例えば、スマートフォン10が、走行データに基づいて運転技能の評価を行うようにしてもよい。この場合には、スマートフォン10の処理部20は、データ処理部41、カーブ検出部42、データ抽出部43、画像生成部44、画像類似度算出部45、および技能判定部46として動作し得る。また、スマートフォン10の記憶部12には、複数のデータセットDS(データセットDSAおよび複数のデータセットDSB)、評価対象カーブデータDTC、およびエリアデータDARが記憶される。
 また、車両9の車載装置が、車両9の走行データを収集し、この走行データに基づいて運転技能の評価を行うようにしてもよい。この車両9の車載装置は、車載装置110(図9)と同様に、加速度センサにより検出された前後加速度の時系列データ、ヨー角速度センサにより検出されたヨー角速度の時系列データ、およびGNSS受信機により得られた車両9の位置の時系列データを収集する。車両9の車載装置の処理部は、データ処理部41、カーブ検出部42、データ抽出部43、画像生成部44、画像類似度算出部45、および技能判定部46として動作し得る。また、この車載装置の記憶部には、複数のデータセットDS(データセットDSAおよび複数のデータセットDSB)、評価対象カーブデータDTC、およびエリアデータDARが記憶される。
 本明細書中に記載された効果はあくまで例示であり、本開示の効果は、本明細書中に記載された効果に限定されない。よって、本開示に関して、他の効果が得られてもよい。
 さらに、本開示は、以下の態様を取り得る。
(1)
 車両の走行データに基づいて、前記車両のドライバの運転技能を評価する評価処理を行うことと、
 前記ドライバの運転技能の評価結果に基づいて前記ドライバにアドバイスを行うアドバイス処理を行うことと
 を含み、
 前記アドバイス処理は、
 前記評価処理により評価された運転技能が第1の技能レベルである場合に、前記ドライバに対して、前記走行データに基づかない第1のアドバイスを行うことと、
 前記評価処理により評価された運転技能が前記第1の技能レベルよりも高い第2の技能レベルである場合に、前記ドライバに対して、前記走行データに基づく第2のアドバイスを行うことと
 を含む
 運転技能評価方法。
(2)
 前記第2のアドバイスは、前記車両の加速または減速についてのアドバイスである第1の詳細アドバイス、および前記車両の操舵についてのアドバイスである第2の詳細アドバイスのうちの一方または双方を含む
 前記(1)に記載の運転技能評価方法。
(3)
 前記走行データは、前記車両の進行方向の方向変化に応じた第1のパラメータの時系列データ、および、前記車両の進行方向の速度変化に応じた第2のパラメータの時系列データを含み、
 前記第2のアドバイスは、前記第1の詳細アドバイスおよび前記第2の詳細アドバイスのうちの一方を含み、
 前記評価処理は、評価された運転技能が前記第2の技能レベルである場合に、前記走行データに基づいて、前記第2のアドバイスが、前記第1の詳細アドバイスおよび前記第2の詳細アドバイスのうちのどちらを含むかを決定することを含む
 前記(2)に記載の運転技能評価方法。
(4)
 前記評価処理は、
 前記第2のアドバイスが、前記第1の詳細アドバイスおよび前記第2の詳細アドバイスのうちの一方である所定のアドバイスを含むべきかどうかを判断することと、
 前記第2のアドバイスが前記所定のアドバイスを含むべきと判断した場合に、前記第2のアドバイスが前記所定のアドバイスを含むことを決定し、前記第2のアドバイスが前記所定のアドバイスを含むべきではないと判断した場合に、前記第2のアドバイスが前記第1の詳細アドバイスおよび前記第2の詳細アドバイスのうちの他方を含むことを決定することと
 を含む
 前記(3)に記載の運転技能評価方法。
(5)
 前記アドバイス処理は、前記評価処理により評価された運転技能が前記第2の技能レベルよりも高い第3の技能レベルである場合に、前記ドライバに対して、前記第1のアドバイスおよび前記第2のアドバイスとは異なる第3のアドバイスを行うことをさらに含む
 前記(1)から(4)のいずれかに記載の運転技能評価方法。
(6)
 前記走行データは、前記車両がカーブを走行しているときのデータであり、
 前記評価処理は、
 前記走行データに基づいて評価データを生成することと、
 前記評価データとリファレンスデータとを比較することにより、前記車両の前記ドライバの運転技能を評価することを含む
 前記(1)から(5)のいずれかに記載の運転技能評価方法。
(7)
 前記評価データは、カーネル密度推定画像の画像データであり、
 前記リファレンスデータは、リファレンス画像の画像データである
 前記(6)に記載の運転技能評価方法。
(8)
 前記車両の前記走行データに基づいてカーブを検出することをさらに含み、
 前記評価処理は、前記車両が前記カーブを走行しているときにおいて、前記走行データに基づいて前記カーブを検出できたかどうかにも基づいて、前記車両の前記ドライバの運転技能を評価することを含む
 前記(1)から(7)のいずれかに記載の運転技能評価方法。
(9)
 車両の走行データに基づいて、前記車両のドライバの運転技能を評価する評価回路と、
 前記ドライバの運転技能の評価結果に基づいて前記ドライバにアドバイスを行うアドバイス回路と
 を備え、
 前記アドバイス回路は、
 前記評価回路により評価された運転技能が第1の技能レベルである場合に、前記ドライバに対して、前記走行データに基づかない第1のアドバイスを行い、
 前記評価回路により評価された運転技能が前記第1の技能レベルよりも高い第2の技能レベルである場合に、前記ドライバに対して、前記走行データに基づく第2のアドバイスを行う
 運転技能評価システム。
(10)
 車両の走行データに基づいて、前記車両のドライバの運転技能を評価する評価処理を行うことと、
 前記ドライバの運転技能の評価結果に基づいて前記ドライバにアドバイスを行うアドバイス処理を行うことと
 をプロセッサに行わせるソフトウェアが記録され、
 前記アドバイス処理は、
 前記評価処理により評価された運転技能が第1の技能レベルである場合に、前記ドライバに対して、前記走行データに基づかない第1のアドバイスを行うことと、
 前記評価処理により評価された運転技能が前記第1の技能レベルよりも高い第2の技能レベルである場合に、前記ドライバに対して、前記走行データに基づく第2のアドバイスを行うことと
 を含む
 記録媒体。
 図3に示す処理部40は、少なくとも1つのプロセッサ(例えば、中央演算処理装置(CPU))、少なくとも1つの特定用途向け集積回路(ASIC)および/または少なくとも1つのフィールドプログラマブルゲートアレイ(FPGA)等の、少なくとも1つの半導体集積回路を含む回路によって実施可能である。少なくとも1つのプロセッサは、少なくとも1つの非一時的かつ有形のコンピュータ可読媒体から指示を読み込むことによって、図3に示す処理部40における各種機能のうちの全部または一部を実行するように構成可能である。そのような媒体は、ハードディスク等の各種磁気媒体、CDまたはDVD等の各種光媒体、揮発性メモリまたは不揮発性メモリ等の各種半導体メモリ(すなわち、半導体回路)を含む様々な形態をとり得るが、これらには限定されない。揮発性メモリは、DRAMおよびSRAMを含み得る。不揮発性メモリは、ROMおよびNVRAMを含み得る。ASICは、図3に示す処理部40における各種機能のうちの全部または一部を実行するように特化された集積回路(IC)である。FPGAは、図3に示す処理部40における各種機能のうちの全部または一部を実行するように、製造後に構成可能に設計された集積回路である。

Claims (10)

  1.  車両の走行データに基づいて、前記車両のドライバの運転技能を評価する評価処理を行うことと、
     前記ドライバの運転技能の評価結果に基づいて前記ドライバにアドバイスを行うアドバイス処理を行うことと
     を含み、
     前記アドバイス処理は、
     前記評価処理により評価された運転技能が第1の技能レベルである場合に、前記ドライバに対して、前記走行データに基づかない第1のアドバイスを行うことと、
     前記評価処理により評価された運転技能が前記第1の技能レベルよりも高い第2の技能レベルである場合に、前記ドライバに対して、前記走行データに基づく第2のアドバイスを行うことと
     を含む
     運転技能評価方法。
  2.  前記第2のアドバイスは、前記車両の加速または減速についてのアドバイスである第1の詳細アドバイス、および前記車両の操舵についてのアドバイスである第2の詳細アドバイスのうちの一方または双方を含む
     請求項1に記載の運転技能評価方法。
  3.  前記走行データは、前記車両の進行方向の方向変化に応じた第1のパラメータの時系列データ、および、前記車両の進行方向の速度変化に応じた第2のパラメータの時系列データを含み、
     前記第2のアドバイスは、前記第1の詳細アドバイスおよび前記第2の詳細アドバイスのうちの一方を含み、
     前記評価処理は、評価された運転技能が前記第2の技能レベルである場合に、前記走行データに基づいて、前記第2のアドバイスが、前記第1の詳細アドバイスおよび前記第2の詳細アドバイスのうちのどちらを含むかを決定することを含む
     請求項2に記載の運転技能評価方法。
  4.  前記評価処理は、
     前記第2のアドバイスが、前記第1の詳細アドバイスおよび前記第2の詳細アドバイスのうちの一方である所定のアドバイスを含むべきかどうかを判断することと、
     前記第2のアドバイスが前記所定のアドバイスを含むべきと判断した場合に、前記第2のアドバイスが前記所定のアドバイスを含むことを決定し、前記第2のアドバイスが前記所定のアドバイスを含むべきではないと判断した場合に、前記第2のアドバイスが前記第1の詳細アドバイスおよび前記第2の詳細アドバイスのうちの他方を含むことを決定することと
     を含む
     請求項3に記載の運転技能評価方法。
  5.  前記アドバイス処理は、前記評価処理により評価された運転技能が前記第2の技能レベルよりも高い第3の技能レベルである場合に、前記ドライバに対して、前記第1のアドバイスおよび前記第2のアドバイスとは異なる第3のアドバイスを行うことをさらに含む
     請求項1に記載の運転技能評価方法。
  6.  前記走行データは、前記車両がカーブを走行しているときのデータであり、
     前記評価処理は、
     前記走行データに基づいて評価データを生成することと、
     前記評価データとリファレンスデータとを比較することにより、前記車両の前記ドライバの運転技能を評価することを含む
     請求項1に記載の運転技能評価方法。
  7.  前記評価データは、カーネル密度推定画像の画像データであり、
     前記リファレンスデータは、リファレンス画像の画像データである
     請求項6に記載の運転技能評価方法。
  8.  前記車両の前記走行データに基づいてカーブを検出することをさらに含み、
     前記評価処理は、前記車両が前記カーブを走行しているときにおいて、前記走行データに基づいて前記カーブを検出できたかどうかにも基づいて、前記車両の前記ドライバの運転技能を評価することを含む
     請求項1に記載の運転技能評価方法。
  9.  車両の走行データに基づいて、前記車両のドライバの運転技能を評価する評価回路と、
     前記ドライバの運転技能の評価結果に基づいて前記ドライバにアドバイスを行うアドバイス回路と
     を備え、
     前記アドバイス回路は、
     前記評価回路により評価された運転技能が第1の技能レベルである場合に、前記ドライバに対して、前記走行データに基づかない第1のアドバイスを行い、
     前記評価回路により評価された運転技能が前記第1の技能レベルよりも高い第2の技能レベルである場合に、前記ドライバに対して、前記走行データに基づく第2のアドバイスを行う
     運転技能評価システム。
  10.  車両の走行データに基づいて、前記車両のドライバの運転技能を評価する評価処理を行うことと、
     前記ドライバの運転技能の評価結果に基づいて前記ドライバにアドバイスを行うアドバイス処理を行うことと
     をプロセッサに行わせるソフトウェアが記録され、
     前記アドバイス処理は、
     前記評価処理により評価された運転技能が第1の技能レベルである場合に、前記ドライバに対して、前記走行データに基づかない第1のアドバイスを行うことと、
     前記評価処理により評価された運転技能が前記第1の技能レベルよりも高い第2の技能レベルである場合に、前記ドライバに対して、前記走行データに基づく第2のアドバイスを行うことと
     を含む
     記録媒体。
PCT/JP2022/040776 2022-10-31 2022-10-31 運転技能評価方法、運転技能評価システム、および記録媒体 WO2024095334A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/040776 WO2024095334A1 (ja) 2022-10-31 2022-10-31 運転技能評価方法、運転技能評価システム、および記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/040776 WO2024095334A1 (ja) 2022-10-31 2022-10-31 運転技能評価方法、運転技能評価システム、および記録媒体

Publications (1)

Publication Number Publication Date
WO2024095334A1 true WO2024095334A1 (ja) 2024-05-10

Family

ID=90930042

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/040776 WO2024095334A1 (ja) 2022-10-31 2022-10-31 運転技能評価方法、運転技能評価システム、および記録媒体

Country Status (1)

Country Link
WO (1) WO2024095334A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013099246A1 (ja) * 2011-12-26 2013-07-04 ヤマハ発動機株式会社 操縦技量情報提示装置
JP2014031050A (ja) * 2012-08-01 2014-02-20 Toyota Motor Corp 運転技量診断装置
JP2016189167A (ja) * 2015-03-30 2016-11-04 パイオニア株式会社 情報提示装置及び情報提示システム、情報提示方法及び情報提示用プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013099246A1 (ja) * 2011-12-26 2013-07-04 ヤマハ発動機株式会社 操縦技量情報提示装置
JP2014031050A (ja) * 2012-08-01 2014-02-20 Toyota Motor Corp 運転技量診断装置
JP2016189167A (ja) * 2015-03-30 2016-11-04 パイオニア株式会社 情報提示装置及び情報提示システム、情報提示方法及び情報提示用プログラム

Similar Documents

Publication Publication Date Title
EP2940545B1 (en) Mode transition for an autonomous vehicle
US11782129B2 (en) Automatic detection of overhead obstructions
CN108508881B (zh) 自动驾驶控制策略调整方法、装置、设备及存储介质
CN106618524A (zh) 丧失驾驶能力的检测和预防
JP2019522830A (ja) 車線縁石補助による自律走行車の車線逸脱検出及び車線維持システム
JP2018535871A (ja) 自律走行車のための横滑り補償制御方法
JP2019091412A5 (ja)
US11657318B2 (en) Assessing ride quality for autonomous vehicles
CN104875746A (zh) 车辆操作员监测和操作调节
JP5239343B2 (ja) 車載用ナビゲーション装置および車載用ナビゲーション装置における運転者の関心度推定方法
JP2023074043A (ja) 情報処理方法、情報処理装置及びプログラム
CN108515972A (zh) 一种基于信息融合的驾驶行为感知方法及其系统
US9925841B2 (en) Active vehicle suspension
JP6735659B2 (ja) 運転支援情報収集装置
US20220057218A1 (en) Method and apparatus for automatic generation of context-based guidance information from behavior and context-based machine learning models
US20200108835A1 (en) Server, information processing method, and non-transitory storage medium storing program
US20230066476A1 (en) System and method for monitoring a vehicle
JP7051424B2 (ja) 異常検出装置
JP2018181386A (ja) 危険度合い判定装置、危険度合い判定方法および危険度合い判定プログラム
WO2024095334A1 (ja) 運転技能評価方法、運転技能評価システム、および記録媒体
Vavouranakis et al. Recognizing driving behaviour using smartphones
WO2024095331A1 (ja) 運転技能評価方法、運転技能評価システム、および記録媒体
WO2024095332A1 (ja) 運転技能評価方法、運転技能評価システム、および記録媒体
WO2024095333A1 (ja) 運転技能評価方法、運転技能評価システム、および記録媒体
JP2022051921A (ja) 危険度合い判定装置、危険度合い判定方法および危険度合い判定プログラム