WO2023084985A1 - 車載システム及び機能学習提示プログラム - Google Patents

車載システム及び機能学習提示プログラム Download PDF

Info

Publication number
WO2023084985A1
WO2023084985A1 PCT/JP2022/038057 JP2022038057W WO2023084985A1 WO 2023084985 A1 WO2023084985 A1 WO 2023084985A1 JP 2022038057 W JP2022038057 W JP 2022038057W WO 2023084985 A1 WO2023084985 A1 WO 2023084985A1
Authority
WO
WIPO (PCT)
Prior art keywords
driver
function
learning
vehicle
driving
Prior art date
Application number
PCT/JP2022/038057
Other languages
English (en)
French (fr)
Inventor
雅史 野原
將隼 宇都宮
一輝 和泉
朝樹 梅澤
圭司 岡本
遥 北村
昊舟 李
太郎 小林
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2022045422A external-priority patent/JP2023072633A/ja
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2023084985A1 publication Critical patent/WO2023084985A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass

Definitions

  • the present disclosure relates to an in-vehicle system and a function learning presentation program.
  • a configuration has been disclosed that supports the driver's learning by presenting learning content suitable for the driver to the driver while moving (see Patent Document 1, for example).
  • Vehicles supplied to the market in recent years are equipped with a wide variety of functions. In some cases, complicated operations and knowledge are required to make full use of the functions installed in the vehicle. There is a current situation where it is difficult to master the function. On the other hand, vehicle manufacturers are trying to convey how to use functions not only in manuals but also in a wide variety of media and through various means. Since the motivation to do so is low, the function ends up in a state where it is not used.
  • Patent Document 1 presents learning content unrelated to the functions installed in the vehicle, and cannot make the driver learn the functions installed in the vehicle.
  • the purpose of the present disclosure is to allow the driver to appropriately learn the functions installed in the vehicle.
  • the driving proficiency acquisition unit acquires the driving proficiency of the driver.
  • the driving skill determination unit determines the driving skill of the driver.
  • the function learning presenting unit presents the function learning to the driver step by step according to the driving proficiency level determination result.
  • the driver's driving proficiency level is acquired and judged, and the learning of functions is presented to the driver in stages according to the driving proficiency judgment result.
  • the driver can be expected to learn the function step by step, and the driver can be given a sense of accomplishment by gradually improving the level. This allows the driver to appropriately learn the functions installed in the vehicle.
  • FIG. 1 shows the first embodiment and is a functional block diagram showing the configuration of a data communication system
  • FIG. 2 is a functional block diagram showing the configuration of an in-vehicle system
  • FIG. 3 is a functional block diagram of the central ECU
  • FIG. 4 is a diagram illustrating the step-by-step learning of functions
  • FIG. 5 is a flowchart showing function learning presentation processing
  • FIG. 6 shows the second embodiment and is a functional block diagram of the central ECU
  • FIG. 7 is a flowchart showing the function suppression process
  • FIG. 8 shows the third embodiment and is a flowchart showing the function pre-learning presentation process
  • FIG. 9 is a functional block diagram of a central ECU showing a fourth embodiment
  • FIG. 10 is a flowchart showing vehicle setting information change processing.
  • the data communication system 1 includes a non-vehicle system 2 outside the vehicle and an in-vehicle system 3 installed in the vehicle.
  • the non-vehicle system 2 includes a map generation server 4 , a function management server 5 and a mobile information terminal 6 .
  • the mobile information terminal 6 is, for example, a smartphone or the like.
  • the map generation server 4, the function management server 5, and the portable information terminal 6 are each capable of data communication with the in-vehicle system 3 via a communication network including, for example, a digital communication line. Moreover, the portable information terminal 6 can perform data communication with the in-vehicle system 3 while being brought into the vehicle.
  • the in-vehicle system 3, the map generation server 4, and the function management server 5 are each in a multiple-to-one relationship. That is, a plurality of in-vehicle systems 3 can be connected to one map generation server 4 for data communication, and a plurality of in-vehicle systems 3 can be connected to one function management server 5 for data communication.
  • the map generation server 4 is a server managed by an OEM, a data supplier, etc., and has a function of integrating multiple probe data to generate a probe data map.
  • the map generation server 4 receives and acquires the probe data transmitted from the in-vehicle system 3, it integrates a plurality of pieces of probe data to generate a probe data map. For example, each time the map generation server 4 receives and acquires probe data transmitted from the in-vehicle system 3, the feature information included in the acquired probe data is stored as the latest probe data map at that time.
  • the probe data map is updated sequentially by reflecting the
  • the map generation server 4 transmits the latest probe data map stored at that time to the in-vehicle system 3 .
  • the map generation server 4 manages, for example, the probe data map in units of segments for each section, and when receiving and acquiring the vehicle position transmitted from the in-vehicle system 3, the segment corresponding to the acquired vehicle position is generated.
  • a probe data map is identified, and the identified probe data map is transmitted to the in-vehicle system 3, which is the transmission source of the vehicle position, via a communication network.
  • the function management server 5 is a server managed by an OEM, a data supplier, or the like, and has a function of managing vehicle-related functions.
  • the function management server 5 receives and acquires the personal authentication data transmitted from the portable information terminal 6, it performs personal authentication based on the acquired personal authentication data.
  • the function management server 5 receives and acquires the driver's driving data transmitted from the in-vehicle system 3, the function management server 5 specifies a recommended function suitable for the driver based on the acquired driver's driving data.
  • the function management server 5 analyzes the driver's driving technique from the driver's driving data, and if it determines that the technique for keeping the driving lane is unstable, for example, the lane keeping assist (hereinafter referred to as LKA (Lane Keeping Assist) and Lane Tracing Assist (hereinafter referred to as LTA (Lane Tracing Assist)) are determined to be effective for the driver's driving, and the LKA and LTA functions determined to be effective as a recommended feature. After specifying the recommended function, the function management server 5 transmits recommended function information about the specified recommended function to the in-vehicle system 3 and the portable information terminal 6 .
  • LKA Lane Keeping Assist
  • LTA Lane Tracing Assist
  • the in-vehicle system 3 and the portable information terminal 6 receive and acquire the recommended function information transmitted from the function management server 5, they notify the driver of the acquired recommended function information and present the recommended functions to the driver. That is, the driver can recognize the recommended function specified by the function management server 5 by the recommended function being presented by the in-vehicle system 3 inside the vehicle, and the recommended function is presented by the portable information terminal 6 even outside the vehicle. Thus, the recommended function specified by the function management server 5 can be recognized.
  • the recommended function is not limited to LKA or LTA, and may be any function as long as it is an effective function for the driving of the driver.
  • the in-vehicle system 3 includes a data communication module (hereinafter referred to as a DCM (Data Communication Module)) 7, a central ECU (Electronic Control Unit) 8, and an ADAS (Advanced Driver Assistance System) domain ECU 9. , a cockpit domain ECU 10 , a body ECU 11 , and a powertrain domain ECU 12 .
  • DCM Data Communication Module
  • ADAS Advanced Driver Assistance System
  • the DCM 7 and each ECU 8-12 are each equipped with a microcomputer having a CPU (Central Processing Unit), ROM (Read Only Memory), RAM (Random Access Memory) and I/O (Input/Output).
  • the microcomputer executes a computer program stored in a non-transitional physical storage medium, executes processing corresponding to the computer program, and controls overall operations of the DCM 7 and each ECU 8-12.
  • Microcomputer is synonymous with processor.
  • a non-transitional physical storage medium may share hardware with other computer resources.
  • the DCM 7 and each ECU 8 to 12 cooperate to control the overall operation of the in-vehicle system 3 .
  • the DCM 7 has a V2X (Vehicle to X) communication function as an in-vehicle communication device, and performs communication control on the vehicle side in data communication with infrastructure equipment including the map generation server 4 and the function management server 5 described above. .
  • V2X Vehicle to X
  • the central ECU 8 integrally manages the ADAS domain ECU 9, the cockpit domain ECU 10 and the powertrain domain ECU 12.
  • the ADAS domain ECU 9 includes a vehicle position estimation unit 9a, a vehicle surroundings recognition unit 9b, a caution spot identification unit 9c, a driver state recognition unit 9d, a map quality determination unit 9e, a safety confirmation determination unit 9f, and a driving and an intervention implementation unit 9g.
  • the cockpit domain ECU 10 includes a notification control section 10a.
  • Locator 13 calculates position coordinates using various parameters included in GNSS satellite signals received from GNSS (Global Navigation Satellite System) satellites, and corrects the calculated position coordinates based on detection results from gyro sensors, vehicle speed sensors, etc. and outputs the corrected position coordinates to the vehicle position estimator 9a.
  • GNSS Global Navigation Satellite System
  • GLONASS Global Navigation Satellite System
  • Galileo Galileo
  • BeiDou BeiDou
  • IRNSS Indian Regional Navigational Satellite System
  • the millimeter wave radar 14 emits millimeter waves to the surroundings of the vehicle to sense the surroundings of the vehicle, and outputs the detection results to the vehicle surroundings recognition unit 9b.
  • the millimeter-wave radar 14 has advantages such as strong linearity, miniaturization of circuit and antenna design, high range resolution and high angular resolution due to wide bandwidth, and resistance to environmental changes such as weather.
  • the sonar 15 senses the surroundings of the vehicle by irradiating, for example, ultrasonic waves to the surroundings of the vehicle, and outputs the detection result to the vehicle surroundings recognition section 9b.
  • the sonar 15 has the advantage of being reflected even on glass surfaces and water surfaces.
  • the LiDAR (Light Detection and Ranging) 16 emits laser light to the surroundings of the vehicle to sense the surroundings of the vehicle, and outputs the detection results to the vehicle surroundings recognition section 9b.
  • the LiDAR 16 has advantages such as being able to reflect non-metals and being detectable at night and in the rain.
  • the camera 17 includes an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), captures an image of the surroundings of the vehicle, and outputs the captured camera image to the vehicle surroundings recognition section 9b.
  • the millimeter wave radar 14, sonar 15, LiDAR 16 and camera 17 are autonomous sensors.
  • the millimeter wave radar 14, sonar 15, LiDAR 16, and camera 17, and at least one of the autonomous sensors may be included.
  • the structure provided with the autonomous system sensor different from the millimeter-wave radar 14, the sonar 15, LiDAR16, and the camera 17 may be sufficient.
  • Peripheral information includes static information such as the positions and types of division lines, stop lines, pedestrian crossings, etc. painted on the road surface, traffic signals, road signs, etc. Feature information such as position, type, road width, road type, number of lanes, etc. is included.
  • the peripheral information includes dynamic and static information such as the positions of pedestrians, bicycles, and oncoming vehicles.
  • the DCM 7 receives the vehicle position from the vehicle position estimating unit 9a and the vehicle surrounding information from the vehicle surrounding recognition unit 9b. transmits the associated probe data to the map generation server 4 via the communication network. In this case, the DCM 7 transmits the probe data to the map generation server 4 via the communication network, for example, at the timing when the traveling distance reaches a certain distance, the timing when the elapsed time reaches a certain time, or the like.
  • the probe data map acquisition unit 2a when the probe data map acquisition unit 2a receives the probe data map transmitted from the map generation server 4, it outputs the received probe data map to the caution point identification unit 9c and the map quality determination unit 9e.
  • the map quality determination unit 9e When the map quality determination unit 9e receives the peripheral information around the vehicle from the vehicle peripheral recognition unit 9b and the probe data map from the DCM 7, the map quality determination unit 9e compares the probe data map with the peripheral information around the vehicle, and performs a probe. Judge the quality of the data map. The map quality determination unit 9e determines whether or not the feature information indicated by the probe data map and the peripheral information around the own vehicle indicated by the detection result of the autonomous sensor match, for example, and determines the quality of the probe data map. Judge whether the product is good or bad. Specifically, the map quality determination unit 9e determines the position and type of the feature indicated by the probe data map and the position and type of the feature included in the peripheral information around the vehicle indicated by the detection result of the autonomous sensor. matches, and the quality of the probe data map is determined.
  • the map quality determination unit 9e quantifies the degree of matching that the feature information indicated by the probe data map matches the surrounding information around the own vehicle indicated by the detection result of the autonomous sensor, and uses the quantified value as a threshold value. compare. The map quality determination unit 9e judges that the discrepancy between the feature information indicated by the probe data map and the peripheral information around the vehicle indicated by the detection result of the autonomous sensor is small, and that the numerical value indicating the degree of matching is equal to or greater than a threshold value. Once determined, the quality of the probe data map is determined. After determining that the quality of the probe data map is good, the map quality determining unit 9e outputs the probe data map determined to be of good quality to the caution point specifying unit 9c.
  • the map quality determination unit 9e determines that the discrepancy between the feature information indicated by the probe data map and the peripheral information around the vehicle indicated by the detection result of the autonomous sensor is large, and the numerical value indicating the degree of matching is less than the threshold value. If it is determined that there is, the quality of the probe data map is determined.
  • the external array microphone 18 outputs audio information collected around the vehicle to the caution point identification unit 9c.
  • the external array microphone 18 is also an autonomous sensor like the millimeter wave radar 14, sonar 15, LiDAR 16 and camera 17 described above.
  • the caution point identification unit 9c identifies caution points and outputs the identification result to the safety confirmation determination unit 9f.
  • a caution point is, for example, a blind spot at an intersection, and is a point where the driver needs to confirm safety while driving.
  • voice information is input from the external array microphone 18, the caution point identification unit 9c identifies the caution point with reference to the input voice information. Note that if the probe data map is not input from the map quality determination unit 9e, the caution point identification unit 9c identifies caution points using the detection results of the autonomous sensors, and sends the identification results to the safety confirmation determination unit 9f. Output.
  • a driver status monitor (registered trademark) (hereinafter referred to as DSM (Driver Status Monitor)) 19 that monitors the state of the driver captures an image of the driver's face with a driver monitor camera, and from the face image of the driver, determines the direction of the face, the direction of the line of sight, and the direction of the line of sight. Swinging or the like is determined, and the determination result is output to the driver state recognition section 9d.
  • DSM Driver Status Monitor
  • the driver state recognition unit 9d recognizes the driver state using the determination result, and transmits the driver state information indicating the recognized driver state to the DCM 7, the safety confirmation determination unit 9f, and the driving intervention execution unit. Output to 9g.
  • the safety confirmation determination unit 9f receives the information about the surroundings of the vehicle from the vehicle surroundings recognition unit 9b and the driver state information from the driver state recognition unit 9d
  • the safety confirmation determination unit 9f determines whether or not the direction of the driver's line of sight is directed toward the caution point in a situation where the caution point is generated, and determines whether the driver is performing safety confirmation based on the driver state. and determine whether an alert needs to be triggered.
  • the safety confirmation determination unit 9f determines that the line of sight of the driver is facing the direction of the attention point, it determines that there is no need to issue an alert. On the other hand, when the safety confirmation determination unit 9f determines that the line of sight of the driver is not directed toward the caution point, it determines that an alert needs to be activated, and outputs a notification instruction to the notification control unit 10a.
  • the notification control unit 10a When the notification control unit 10a receives a notification instruction from the safety confirmation determination unit 9f, the notification control unit 10a outputs a drive instruction to a head-up display (hereinafter referred to as a HUD (Head-Up Display)) 20, a center information display (hereinafter referred to as a CID (Center Information Display)). ) ) 21 , output to the speaker 22 and the ambient light 23 , and outputs a notification instruction to the body ECU 11 .
  • the notification control unit 10a activates an alert in the HUD 20, the CID 21, the speaker 22, the ambient light 23, and the side electronic mirror 24 near the line of sight of the driver, indicating that the driver has not confirmed safety. Notify the driver of implementation information.
  • An alert is, for example, a message or icon that prompts you to confirm the safety of a cautionary point. If the line-of-sight direction of the driver is directly ahead of the traveling direction of the vehicle, the notification control unit 10a displays a message, an icon, or the like on the HUD 20 in front of the driver, for example. If the line of sight of the driver is directed to the right side of the traveling direction of the vehicle, the notification control unit 10a displays a message, an icon, or the like on the front right side of the driver on the HUD 20, for example. If the line of sight of the driver is directed leftward in the traveling direction of the vehicle, the notification control unit 10a displays a message, an icon, or the like on the HUD 20 toward the front left of the driver, for example.
  • the notification control unit 10a may cause the CID 21 to display, for example, a message, an icon, or the like prompting a safety confirmation of a caution point. Further, the notification control unit 10a may cause the speaker 22 to sound out a message prompting the safety confirmation of the caution point, for example. By issuing an alert in this way, it is possible to make the driver aware that he or she has neglected to pay attention to the attention points.
  • the notification control unit 10a causes the received recommended function information to be displayed on the HUD 20 or the CID 21, or displayed on the speaker 22.
  • a recommended function specified by the recommended function information is presented to the driver by, for example, outputting a sound from the device.
  • the fingerprint authentication sensor 25 senses the fingerprint of the driver and outputs the detection result to the cockpit domain ECU 10.
  • the palmprint authentication sensor 26 senses the driver's palmprint and outputs the detection result to the cockpit domain ECU 10 .
  • the cockpit domain ECU 10 receives a detection result from the fingerprint authentication sensor 25 or the palm print authentication sensor 26 , the driver is personally authenticated using the input detection result, and the authentication result is output to the central ECU 8 .
  • the sensor group 28 attached to the airbag 27 includes, for example, a vehicle speed sensor, an acceleration sensor, and a yaw rate sensor, which detect vehicle speed, acceleration, and yaw rate, respectively, and output the detection results to the driving intervention execution unit 9g.
  • the sensor group 28 may be attached to the ADAS domain ECU 9 or the central ECU 8 .
  • the driving intervention execution unit 9g receives peripheral information around the vehicle from the vehicle peripheral recognition unit 9b, inputs driver state information from the driver state recognition unit 9d, and detects from the sensor group 28 attached to the airbag 27. When the result is inputted, it is determined whether or not it is necessary to intervene in the driver's driving operation by using the inputted peripheral information about the own vehicle, the driver state information, and the detection result.
  • the driving intervention execution unit 9g determines, for example, whether or not the line of sight of the driver is directed in the direction in which the vehicle is traveling, whether or not the direction in which the vehicle is traveling is dangerous, and whether or not the vehicle speed, acceleration, and yaw rate are normal. It determines whether or not it is necessary to intervene in the driver's driving operation.
  • the driving intervention execution unit 9g determines that the driver's line of sight is directed in the direction of travel of the vehicle, that the direction of travel of the vehicle is not dangerous, and that the vehicle speed, acceleration, and yaw rate are normal, and that the driver's driving is appropriate. Then, it is determined that there is no need to intervene in the driver's driving operation. On the other hand, the driving intervention execution unit 9g determines, for example, whether the driver's line-of-sight direction is not facing the vehicle traveling direction, the vehicle traveling direction is dangerous, or the vehicle speed, acceleration, and yaw rate are not normal. If it is determined that the driving is not appropriate, it determines that it is necessary to intervene in the driver's driving operation, and outputs a driving intervention instruction to the powertrain domain ECU 12 .
  • the powertrain domain ECU 12 outputs the driving intervention instruction to the brake device 29 when the driving intervention instruction is input from the driving intervention execution unit 9g.
  • a sensor group 30 attached to the brake device 29 includes, for example, a vehicle speed sensor, an acceleration sensor, and a yaw rate sensor, detects vehicle speed, acceleration, and yaw rate, respectively, and outputs the detection results to the brake device 29 .
  • the sensor group 30 may be attached to the powertrain domain ECU 12 or the central ECU 8 .
  • the braking device 29 performs collision damage mitigation braking (hereinafter referred to as AEB (Autonomous Emergency Braking)) control using the detection results of the sensor group 30, for example.
  • AEB collision damage mitigation braking
  • steering control, attitude control, etc. may be performed as an intervention for the driving operation.
  • a wiper control unit 31 As shown in FIG. 3, a wiper control unit 31, an automatic light control unit 32, an automatic door control unit 33, an automatic high beam control unit 34, and a raindrop sensor 35 are connected to the central ECU 8.
  • a wiper unit 36 is connected to the wiper control unit 31 .
  • the wiper unit 36 includes a speed control section 36a, an angle control section 36b, a washer control section 36c, a position control section 36d, and a switch 36e.
  • the wiper control unit 31 outputs wiper control instructions to the wiper unit 36 to control the operation of the wiper unit 36 .
  • the automatic light control unit 32 outputs an automatic light control instruction to an automatic light unit (not shown) to control the operation of the automatic light unit.
  • the automatic door control unit 33 outputs an automatic door control instruction to an automatic door unit (not shown) to control the operation of the automatic door unit.
  • the auto high beam control unit 34 outputs an auto high beam control instruction to an auto high beam unit (not shown) to control the operation of the auto high beam unit.
  • the raindrop sensor 35 will output a detection signal to central ECU8, if rainfall is detected.
  • the central ECU 8 includes a driving proficiency acquisition unit 8a, a driving proficiency determination unit 8b, a function learning presentation unit 8c, a learning status acquisition unit 8d, a learning status determination unit 8e, and a learning determination result notification unit 8f. .
  • a function learning presentation program executed by the central ECU 8 is implemented by these units 8a to 8f.
  • the driving proficiency acquisition unit 8a collects, as vehicle data, for example, acceleration/deceleration control correction frequency, steering control correction frequency, lane departure alert (hereinafter referred to as LDA (Lane Departure Alert)) occurrence frequency, collision damage reduction brake (AEB (referred to as Autonomous Emergency Braking)).
  • LDA Lane Departure Alert
  • AEB collision damage reduction brake
  • the driving proficiency level acquisition unit 8a acquires, as driving ability data, the degree of inattentiveness and composure during driving, for example, from the determination result of the driver's face image.
  • the driving skill acquisition unit 8a acquires these vehicle data and driving ability data over a certain period of time. In this case, the fixed period may be any period, such as the period after the driver purchases the vehicle, or the last few days.
  • the driving proficiency level determining section 8b determines the acquired driving proficiency level of the driver. For example, if the driving proficiency level determination unit 8b determines that the frequency of correction of acceleration/deceleration control or the frequency of correction of steering control is relatively low, or that the driver is relatively inattentive or calm during driving, the driving proficiency level determination unit 8b determines whether the driver is driving. It is determined that the degree of proficiency is relatively high. Further, the driving skill determination unit 8b determines the functions used by the driver in driving, and if it determines that the appropriate functions are being used according to the surrounding conditions, the driver's driving skill is relatively high. judge.
  • the driving skill level determination unit 8b can determine that the driver's driving skill level is relatively high. judged to be high.
  • the driving proficiency level determination unit 8b determines that, for example, the frequency of correction of acceleration/deceleration control or the frequency of correction of steering control is relatively high, or that the driver is relatively inattentive or restless during driving, the driver's It is determined that the driving proficiency level is relatively low. Further, the driving skill determination unit 8b determines the functions used by the driver in driving, and if it determines that the appropriate functions are not being used according to the surrounding conditions, it is determined that the driver's driving skill is relatively low. judge. For example, in the case of the intermittent wiper function, if the driver does not appropriately set the on/off of the wiper switch, the wiper speed, etc. according to the rainfall situation, the driving skill level of the driver is relatively low. judged to be low.
  • the driving proficiency level determination unit 8b is the same for functions other than the intermittent wiper function. , it is determined that the driver's driving skill level is relatively high, and if not set appropriately, it is determined that the driver's driving skill level is relatively low. The driving proficiency level determination unit 8b also turns on/off the light switch when entering or exiting a tunnel. If it is set appropriately, it is determined that the driver's driving skill level is relatively high, and if it is not set appropriately, it is determined that the driver's driving skill level is relatively low.
  • the function learning presentation section 8c presents the learning of the function to the driver step by step according to the judgment result of the driving proficiency level.
  • the function learning presenting unit 8c compares the driving proficiency level of the driver with a predetermined level, and presents the learning of the function to the driver in stages if the level has not reached the predetermined level.
  • presenting the gradual learning of the function means presenting the learning of the function to the driver in a gamified manner. This means that the learning of the next function is presented each time the function is learned. That is, the driver can obtain a sense of accomplishment by gradually improving the level by learning the functions step by step.
  • the function learning presentation unit 8c presents the learning of functions to the driver step by step in a situation where the safety of the driving operation is ensured, such as when the vehicle is in a stopped state. Further, the function learning presenting unit 8c determines the driver's schedule by acquiring the calendar information, does not present the function learning to the driver when the driver is busy, and presents the function learning to the driver when there is time to spare. presented to Further, the function learning presenting unit 8c determines the driver's physical condition by acquiring the driver's biological information, and does not present the function learning to the driver when the driver's physical condition is not stable. present the learning of the function to the driver when
  • the function learning presenting unit 8c causes the CID 21 to display a message inquiring about the implementation of learning at the timing of turning on the ignition or the motor, for example, and asking whether or not to implement learning.
  • a "YES” button and a "NO” button that can be selected by the driver are displayed. That is, the driver can approve the implementation of the learning by pressing the "YES” button, and can reject the implementation of the learning by pressing the "NO” button.
  • the function learning presenting unit 8c may output the message from a speaker so that it can be selected by voice recognition, or based on daily conversation in the car. It is also possible to allow the driver to select whether or not to implement learning by chatbot-like speech recognition.
  • the learning status acquisition unit 8d acquires the learning status of the function.
  • the learning status determination unit 8e determines the acquired learning status of the function. For example, in the case of an intermittent wiper function, the learning condition determination unit 8e stores in advance an ideal intermittent wiper operation model according to rainfall conditions. The learning condition determination unit 8e determines the rain condition based on the detection result of the raindrop sensor 35, weather information from outside the vehicle, etc., and converts the operating condition of the intermittent wiper set by the driver into an operation model according to the rain condition. to determine whether the driver is appropriately using the intermittent wiper function.
  • the driver When the learning condition determination unit 8e determines that the difference between the operating state of the intermittent wiper set by the driver and the operation model is relatively small, the driver appropriately uses the intermittent wiper function according to the rainfall condition. It is determined that the driver has mastered the intermittent wiper function and that the learning status of the function has reached a predetermined level. On the other hand, when the learning condition determination unit 8e determines that there is a relatively large deviation between the operating state of the intermittent wiper set by the driver and the operation model, the driver appropriately uses the intermittent wiper function according to the rainfall condition. It is determined that the driver has not yet mastered the intermittent wiper function, and that the learning status of the function has not reached a predetermined level.
  • the learning determination result notification part 8f notifies the driver of the determination result.
  • the learning determination result notification unit 8f notifies the driver that the driver has mastered the intermittent wiper function or has not yet mastered the intermittent wiper function. That is, the learning determination result notification unit 8f notifies the driver that the function has been learned or has not yet been learned by notifying the function learning status determination result.
  • the function learning presentation unit 8c When it is determined that the function learning status has reached a predetermined level, the function learning presentation unit 8c presents the learning of the next function to the driver. As shown in FIG. 4, the function learning presentation unit 8c sets level 1 to "intermittent wiper", level 2 to “auto light”, level 3 to “auto door”, level 4 to “auto high beam”, level 5 to "automatic parking” and level 6 is set as "adaptive cruise control (hereinafter referred to as ACC (Adaptive Cruise Control))", it is determined that the learning status of level 1 "intermittent wiper" has reached a predetermined level. Then, the driver is presented with the learning of the next function, level 2 "Auto Light".
  • ACC Adaptive Cruise Control
  • the function learning presenting unit 8c instructs the driver to learn the next function, level 3 "automatic doors". presented to That is, the driver sequentially learns each function of "intermittent wiper”, “auto light”, “auto door”, “auto high beam”, “auto parking”, and “ACC”, and each time the learning situation reaches a predetermined level, the level is changed. Up and learn next level features.
  • the in-vehicle system 3 performs function learning presentation processing by means of a function learning presentation program.
  • the timing at which the function learning presentation process is performed is, for example, when a certain period of time has passed since the vehicle was purchased, or when the vehicle is purchased. If the function learning presentation process is performed after a certain period of time has passed since the vehicle was purchased, the driver's driving proficiency level is acquired during the certain period of time. , it is determined that the driver's driving proficiency has not reached a predetermined level without obtaining the driving proficiency of the driver.
  • the in-vehicle system 3 starts the function learning presentation process when the conditions for starting the function learning presentation process are satisfied.
  • the in-vehicle system 3 acquires the vehicle data, the driver's driving ability data, and acquires the driver's driving proficiency level (A1, corresponding to the driving proficiency acquisition procedure).
  • the in-vehicle system 3 compares the acquired driving proficiency level of the driver with a predetermined level set in advance (A2, corresponding to the driving proficiency level determination procedure).
  • the in-vehicle system 3 determines that the acquired driving proficiency level of the driver has reached a predetermined level (A2: YES), it ends the function learning presentation process.
  • A2: NO the predetermined level
  • the in-vehicle system 3 determines that there is no function for which learning should be presented if learning of all functions from level 1 "intermittent wiper" to level 6 "ACC" shown in FIG. 4 has already been presented. However, if learning of all functions from level 1 "intermittent wiper" to level 6 "ACC" has not been presented, in other words, if learning is being presented, the function to be learned is Determine that there is.
  • the in-vehicle system 3 determines that there is no function for which learning should be presented (A3: NO), it ends the function learning presentation process.
  • the in-vehicle system 3 determines that there is a function for which learning should be presented (A3: YES)
  • the in-vehicle system 3 presents learning for the function for which learning should be presented (A4, corresponding to a learning presentation procedure). For example, if the level 1 "intermittent wiper" function learning has not been presented, the in-vehicle system 3 presents the level 1 "intermittent wiper" function learning.
  • the in-vehicle system 3 performs level 2 "auto Presents the learning of the functions of Light'.
  • the in-vehicle system 3 acquires the learning status by acquiring the usage status of the function for which learning is presented (A5), and compares the acquired learning status of the function with a preset predetermined level (A6). If the in-vehicle system 3 presents the level 1 "intermittent wiper" function, for example, the intermittent wiper operation state set by the driver as described above is used as an operation model according to the rainfall situation. A check is made to determine whether the driver is properly using the intermittent wiper function.
  • the driver learns the "intermittent wiper" function of level 1, and the learning status of the function reaches a predetermined level. (A6: YES).
  • the learning status determination unit 8e determines that the driver is not appropriately using the intermittent wiper function according to the rainfall situation, the driver has not yet learned the intermittent wiper function and the learning status of the function has not been reached. It is determined that the predetermined level has not been reached (A6: NO).
  • the in-vehicle system 3 determines that the learning status of the function has reached a predetermined level, it presents the learning of the next function to the driver (A7). In this case, the in-vehicle system 3 causes the CID 21 to display a message such as "Level 1 intermittent wiper learning is cleared. Next is level 2 automatic light learning" or the like, or causes the speaker 22 to output sound. .
  • the in-vehicle system 3 determines whether or not the end condition of the function learning presentation process is satisfied (A8), and if it determines that the end condition of the function learning presentation process is not satisfied (A8: NO), the step A5 described above is performed. to repeat step A5 and subsequent steps. That is, when the driver has learned the function of the level 1 "intermittent wiper", the in-vehicle system 3 presents the learning of the level 2 "automatic lights” so that the driver can appropriately use the “automatic lights” function. determine whether or not Thereafter, similarly, when the driver has learned the function of level 2 "automatic lights", the in-vehicle system 3 presents the learning of level 3 "automatic doors", and the driver learns the level 3 "automatic doors”. When the function is learned, the learning of level 4 "auto high beam" is presented. When the in-vehicle system 3 determines that the termination condition of the function learning presentation process is satisfied (A8: YES), it ends the function learning presentation process.
  • the driving proficiency level of the driver is obtained and determined, and the function learning is presented to the driver step by step according to the determination result of the driving proficiency level.
  • the driver can be expected to master the functions step by step, and the driver will feel a sense of accomplishment as the level is gradually improved. can be brought to This allows the driver to appropriately learn the functions installed in the vehicle.
  • the function learning is presented to the driver step by step in a situation where the safety of driving operation is ensured.
  • the learning status of the function is acquired and judged, and the learning status judgment result of the function is notified. It is possible to make the driver appropriately recognize whether or not the driver has mastered the function as the learning status of the function.
  • FIG. 6 (Second embodiment) Next, a second embodiment will be described with reference to FIGS. 6 and 7.
  • FIG. The second embodiment is configured to deal with the case where the driver does not drive for a long period of time or when the driver's driving proficiency level is lowered.
  • the central ECU 8 includes a function suppression section 8g in addition to the sections 8a to 8f described in the first embodiment.
  • the function suppression unit 8g monitors the elapsed time since the driver's last driving operation, and if it determines that a predetermined time has passed since the driver's last driving operation, it suppresses functions that the driver can use.
  • the predetermined period may be uniformly set, or the predetermined period may be set according to the driver's past driving proficiency level, for example. If the driver's past driving proficiency level is relatively high, it can be assumed that the driver was highly proficient in using the function. If the degree is relatively low, it can be assumed that the driver was less likely to be familiar with using the function, and the predetermined time period may be set relatively short. Further, the function suppression unit 8g suppresses the function when the driving skill determination unit 8b determines that the driving skill of the driver has decreased to a preset reference level.
  • the function suppressing unit 8g suppresses the function by, for example, reducing the number of displays on the meter device or resetting the home screen on the CID 21, thereby simplifying the information presented to the driver and simplifying the operation.
  • the function learning presenting unit 8c presents the suppression of the function to the driver when the function is suppressed by the function suppressing unit 8g.
  • the in-vehicle system 3 starts the function suppression process when the condition for starting the function suppression process is satisfied. After starting the function suppression process, the in-vehicle system 3 determines whether or not a predetermined period of time has elapsed since the driver's last driving operation (A11), and determines whether or not the driver's driving proficiency level has decreased to the reference level. is determined (A12). When the in-vehicle system 3 determines that a predetermined period of time has elapsed since the driver's last driving operation (A11: YES), or determines that the driver's driving proficiency level has decreased to the reference level (A12: YES), the function is activated. (A13), the function suppression is presented to the driver (A14), and the function suppression process ends.
  • the following effects can be obtained.
  • the function is suppressed, and the suppression of the function is presented to the driver. bottom. If a predetermined period of time has passed since the driver's last driving operation, or if the driver's driving proficiency level has declined, it is assumed that the driver is unlikely to be able to master the function. It is possible to avoid a situation in which a client unnecessarily provides functions that cannot be fully used. In addition, by presenting the suppression of functions to the driver, it is possible to present to the driver that unnecessary functions have been suppressed.
  • the third embodiment is configured to present pre-learning of the function to the driver when it is determined that the function can be learned according to the determination result of the driving proficiency level.
  • the function suppression unit 8g determines whether or not the function can be learned according to the driving proficiency level determination result. When the function suppression unit 8g determines that the function can be learned, the function suppression unit 8g presents the function's prior learning to the driver. For example, when the function suppressing unit 8g specifies that the navigation function travels on a motorway on the route to the destination, and determines that the ACC function can be learned according to the determination result of the driver's driving proficiency level, Present the pre-learning of the ACC function to the driver. The function suppressing unit 8g presents the driver with prior learning of the function using a simulation during driving operation, for example, by displaying a moving image of the ACC function on the CID 21 or displaying a graphic of the steering switch on the meter device.
  • the in-vehicle system 3 starts the function pre-learning presentation process when the condition for starting the function pre-learning presentation process is satisfied.
  • the in-vehicle system 3 determines whether or not the function can be learned according to the driving proficiency level determination result (A21).
  • A21: YES the in-vehicle system 3 determines that the function can be learned
  • A22 the driver
  • the following effects can be obtained.
  • the pre-learning of the functions can be presented to the driver before presenting the learning of the functions to the driver, and the pre-learning of the functions by the driver enables the driver to properly learn the functions.
  • the vehicle setting information of the other driver is acquired from the driving operation history of the other driver, and the vehicle setting information of the driver is changed following the acquired vehicle setting information of the other driver.
  • the central ECU 8 includes a driving operation history obtaining section 8h, a vehicle setting information obtaining section 8i, and a vehicle setting information changing section 8j in addition to the sections 8a to 8f described in the first embodiment.
  • the driving operation history acquisition unit 8h acquires the driving operation history of other drivers.
  • the other driver is a person who gets into his/her own vehicle and performs driving operations, or a person who gets into and drives a vehicle of the same model type as his/her own vehicle.
  • the vehicle setting information acquiring unit 8i acquires the vehicle setting information of the other driver from the acquired driving operation history of the other driver. .
  • the vehicle setting information acquisition unit 8i acquires the vehicle setting information of other drivers, such as the inter-vehicle distance during automatic driving, the strength and timing of deceleration control, the strength and timing of acceleration control, and the like.
  • the vehicle setting information changing unit 8j changes the vehicle setting information of the driver following the acquired vehicle setting information of the other driver. change.
  • the vehicle setting information changing unit 8j changes the vehicle setting information of the driver according to at least one of the driver's driving proficiency level, the driver's preference, and the driver's viewing direction.
  • the vehicle setting information changing unit 8j changes the vehicle setting information according to the driving skill level of the driver. Turn on relevant functions.
  • the vehicle setting information changing unit 8j advances the timing of the deceleration control if the driver prefers early timing of the deceleration control. set.
  • the vehicle setting information changing unit 8j adjusts the vehicle setting information according to the driver's own driving, for example, when the driver is gazing forward. , the setting is made so as to match the driving of another person. For example, if you put on AR goggles and see another person sitting next to you, when you look forward, you will switch to driving yourself, and if you look at the next seat, you will see a virtual image of the other person, and you can switch to someone else's driving. do.
  • the in-vehicle system 3 starts the vehicle setting information change process when the condition for starting the vehicle setting information change process is satisfied.
  • the in-vehicle system 3 acquires the driving operation history of the other driver (A31), and acquires the vehicle setting information of the other driver from the acquired driving operation history of the other driver ( A32).
  • the in-vehicle system 3 changes the driver's vehicle setting information following the acquired other driver's vehicle setting information (A32), and ends the vehicle setting information change process.
  • the driving operation history of the other driver is acquired, the vehicle setting information of the other driver is acquired from the acquired driving operation history of the other driver, and the vehicle setting information of the driver is transferred to the acquired other driver. Changed following the vehicle setting information of the driver. A driver's vehicle setting information can be made to follow the vehicle setting information of other drivers.
  • the controller and techniques described in this disclosure may be implemented by a dedicated computer provided by configuring a processor and memory programmed to perform one or more functions embodied by the computer program.
  • the controller and techniques described in this disclosure may be implemented by a dedicated computer provided by configuring the processor with one or more dedicated hardware logic circuits.
  • the controller and techniques described in this disclosure can be implemented by a combination of a processor and memory programmed to perform one or more functions and a processor configured with one or more hardware logic circuits. It may also be implemented by one or more dedicated computers configured.
  • the computer program may also be stored as computer-executable instructions on a computer-readable non-transitional tangible storage medium.
  • the timing of performing the function learning presentation process is not limited to, for example, when a certain period of time has passed since the vehicle was purchased, or when the vehicle is purchased, but may be during a test drive before purchasing the vehicle. If the function learning presentation process is performed at the time of the test drive, it is possible to obtain the judgment result of the learning situation before purchasing the vehicle, and depending on the judgment result, it is possible to change the vehicle to be purchased, and to respond flexibly. . In other words, if it is difficult to make full use of the functions even after learning, it is possible to assume that the vehicle to be purchased will be changed. Further, when the vehicle is replaced, the determination result of the learning state in the vehicle before the replacement may be passed on to the vehicle after the replacement.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

車載システム(3)は、ドライバの運転習熟度を取得する運転習熟度取得部(8a)と、ドライバの運転習熟度を判定する運転習熟度判定部(8b)と、運転習熟度の判定結果にしたがって機能の学習をドライバに段階的に提示する機能学習提示部(8c)と、を備える。

Description

車載システム及び機能学習提示プログラム 関連出願の相互参照
 本出願は、2021年11月12日に出願された日本出願番号2021-184859号、2022年3月22日に出願された日本出願番号2022-045422号に基づくもので、ここにその記載内容を援用する。
 本開示は、車載システム及び機能学習提示プログラムに関する。
 移動中のドライバに対し、ドライバに適した学習コンテンツを提示することで、ドライバの学習支援を行う構成が開示されている(例えば特許文献1参照)。
特開2021-26400号公報
 近年市場に供給される車両には多種多様な機能が搭載されている。車両に搭載されている機能を使いこなすには複雑な操作や知識を要する場合があるが、運転の興味が薄いドライバや運転頻度が少ないドライバ等にとっては、複雑な操作や知識を覚えることに抵抗があり、機能を使いこなすことが難しい現状がある。一方、車両メーカは、機能の使い方を説明書だけでなく、多種多様なメディアで紹介して様々な手段で伝えようとしているが、そもそも機能に対して関心を持たないドライバは、機能を知ろうとする意欲が低いので、結局、機能が使われない状態になってしまう。
 このような背景から、車両に搭載されている機能をドライバに学習させることが望まれている。特許文献1に開示されている手法は車両に搭載されている機能とは無関係の学習コンテンツを提示するものであり、車両に搭載されている機能をドライバに学習させることはできない。
 本開示は、車両に搭載されている機能をドライバに適切に学習させることを目的とする。
 本開示の一態様によれば、運転習熟度取得部は、ドライバの運転習熟度を取得する。運転習熟度判定部は、ドライバの運転習熟度を判定する。機能学習提示部は、運転習熟度の判定結果にしたがって機能の学習をドライバに段階的に提示する。
 ドライバの運転習熟度を取得して判定し、その運転習熟度の判定結果にしたがって機能の学習をドライバに段階的に提示するようにした。機能の学習をドライバに段階的に提示することで、ドライバが機能を段階的に習得することを期待することができ、徐々にレベルアップしていく達成感をドライバに持たせることができる。これにより、車両に搭載されている機能をドライバに適切に学習させることができる。
 本開示についての上記目的及びその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。その図面は、
図1は、第1実施形態を示し、データ通信システムの構成を示す機能ブロック図であり、 図2は、車載システムの構成を示す機能ブロック図であり、 図3は、セントラルECUの機能ブロック図であり、 図4は、機能の段階的な学習を説明する図であり、 図5は、機能学習提示処理を示すフローチャートであり、 図6は、第2実施形態を示し、セントラルECUの機能ブロック図であり、 図7は、機能抑制処理を示すフローチャートであり、 図8は、第3実施形態を示し、機能事前学習提示処理を示すフローチャートであり、 図9は、第4実施形態を示すセントラルECUの機能ブロック図であり、 図10は、車両設定情報変更処理を示すフローチャートである。
 以下、複数の実施形態について図面を参照して説明する。尚、後述する実施形態において、先行する実施形態と重複する部分について説明を省略することがある。
 (第1実施形態)
 以下、第1実施形態について図1から図5を参照して説明する。図1に示すように、データ通信システム1は、車両外部の非車載システム2と、車両に搭載されている車載システム3とを備える。非車載システム2は、地図生成サーバ4と、機能管理サーバ5と、携帯情報端末6とを備える。携帯情報端末6は例えばスマートフォン等である。地図生成サーバ4、機能管理サーバ5及び携帯情報端末6は、それぞれ例えばデジタル通信回線を含む通信ネットワークを介して車載システム3とデータ通信可能である。又、携帯情報端末6は、車内に持ち込まれた状態で車載システム3とデータ通信可能である。車載システム3と地図生成サーバ4及び機能管理サーバ5とはそれぞれ複数対一の関係にある。即ち、複数の車載システム3が一の地図生成サーバ4とデータ通信可能に接続可能であり、複数の車載システム3が一の機能管理サーバ5とデータ通信可能に接続される。
 地図生成サーバ4は、OEMやデータサプライヤ等により管理されるサーバであり、複数のプローブデータを統合してプローブデータ地図を生成する機能を有する。地図生成サーバ4は、車載システム3から送信されたプローブデータを受信して取得すると、複数のプローブデータを統合してプローブデータ地図を生成する。地図生成サーバ4は、例えば車載システム3から送信されたプローブデータを受信して取得する毎に、その取得したプローブデータに含まれる地物情報を、その時点で保存している最新のプローブデータ地図に逐次反映させることでプローブデータ地図を逐次更新する。
 地図生成サーバ4は、プローブデータ地図の送信条件が成立すると、その時点で保存している最新のプローブデータ地図を車載システム3へ送信する。地図生成サーバ4は、例えばプローブデータ地図を区画毎のセグメント単位で管理しており、車載システム3から送信された自車位置を受信して取得すると、その取得した自車位置に対応するセグメントのプローブデータ地図を特定し、その特定したプローブデータ地図を、通信ネットワークを介して自車位置の送信元である車載システム3へ送信する。
 機能管理サーバ5は、OEMやデータサプライヤ等により管理されるサーバであり、車両に関する機能を管理する機能を有する。機能管理サーバ5は、携帯情報端末6から送信された個人認証データを受信して取得すると、その取得した個人認証データに基づいて個人認証を行う。機能管理サーバ5は、車載システム3から送信されたドライバの運転データを受信して取得すると、その取得したドライバの運転データに基づいてドライバに適する推奨機能を特定する。機能管理サーバ5は、ドライバの運転データからドライバの運転技術を解析し、例えば走行レーンをキープする技術が不安定であると判定すると、走行支援の機能であるレーンキーピングアシスト(以下、LKA(Lane Keeping Asist)と称する)やレーントレーシングアシスト(以下、LTA(Lane Tracing Assist)と称する)等がドライバの運転にとって効果的であると判定し、その効果的であると判定したLKAやLTAの機能を推奨機能として特定する。 機能管理サーバ5は、推奨機能を特定すると、その特定した推奨機能に関する推奨機能情報を車載システム3や携帯情報端末6へ送信する。
 車載システム3や携帯情報端末6は、機能管理サーバ5から送信された推奨機能情報を受信して取得すると、その取得した推奨機能情報をドライバに報知し、推奨機能をドライバに提示する。即ち、ドライバは、車内では推奨機能が車載システム3により提示されることで、機能管理サーバ5により特定された推奨機能を認識することができ、車外でも推奨機能が携帯情報端末6により提示されることで、機能管理サーバ5により特定された推奨機能を認識することができる。尚、推奨機能はLKAやLTAに限らず、ドライバの運転にとって効果的な機能であればどのような機能であっても良い。
 図2に示すように、車載システム3は、データコミュニケーションモジュール(以下、DCM(Data Communication Module)と称する)7と、セントラルECU(Electronic Control Unit)8と、ADAS(Advanced Driver Assistance System)ドメインECU9と、コックピットドメインECU10と、ボデーECU11と、パワートレインドメインECU12とを備える。
 DCM7及び各ECU8~12は、それぞれCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)及びI/O(Input/Output)を有するマイクロコンピュータを備える。マイクロコンピュータは、非遷移的実体的記憶媒体に格納されているコンピュータプログラムを実行することで、コンピュータプログラムに対応する処理を実行し、DCM7及び各ECU8~12の動作全般を制御する。マイクロコンピュータはプロセッサと同じ意味である。非遷移的実体的記憶媒体は、ハードウェアを他のコンピュータ資源と共有していても良い。DCM7及び各ECU8~12は、連携して車載システム3の動作全般を制御する。
 DCM7は、車載通信機としてV2X(Vehicle to X)の通信機能を有し、上記した地図生成サーバ4及び機能管理サーバ5を含むインフラ設備等との間のデータ通信における車両側の通信制御を行う。
 セントラルECU8は、ADASドメインECU9、コックピットドメインECU10及びパワートレインドメインECU12を統合管理する。ADASドメインECU9は、自車位置推定部9aと、自車周辺認識部9bと、注意箇所特定部9cと、ドライバ状態認識部9dと、地図品質判定部9eと、安全確認判定部9fと、運転介入実施部9gとを備える。コックピットドメインECU10は、報知制御部10aを備える。
 ロケータ13は、GNSS(Global Navigation Satellite System)衛星から受信されたGNSS衛星信号に含まれる各種パラメータを用いて位置座標を計算し、その計算した位置座標をジャイロセンサや車速センサ等の検知結果により補正し、その補正した位置座標を自車位置推定部9aへ出力する。尚、GNSSは、汎地球測位航法衛星システムの総称であり、GPS(Global Positioning System)、GLONASS(Global Navigation Satellite System)、Galileo、BeiDou、IRNSS(Indian Regional Navigational Satellite System)等の多様なシステムが実現されている。自車位置推定部9aは、ロケータ13から位置座標を入力すると、その入力した位置座標を用いて自車位置を推定し、その推定した自車位置をDCM7へ出力する。
 ミリ波レーダ14は、ミリ波を自車周辺へ照射して自車周辺をセンシングし、その検知結果を自車周辺認識部9bへ出力する。ミリ波レーダ14は、直進性が強い、回路やアンテナ設計の小型化が可能である、広帯域幅により高距離分解能及び高角度分解能である、天候等の環境変化に強い等の利点がある。ソナー15は、例えば超音波を自車周辺へ照射して自車周辺をセンシングし、その検知結果を自車周辺認識部9bへ出力する。ソナー15は、ガラス面や水面にも反射する等の利点がある。
 LiDAR(Light Detection and Ranging)16は、レーザ光を自車周辺へ照射して自車周辺をセンシングし、その検知結果を自車周辺認識部9bへ出力する。LiDAR16は、非金属にも反射する、夜間や降雨でも検知可能である等の利点がある。カメラ17は、例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の画像センサを含み、自車周辺を撮像し、その撮像したカメラ画像を自車周辺認識部9bへ出力する。ミリ波レーダ14、ソナー15、LiDAR16及びカメラ17は、自律系センサである。尚、ミリ波レーダ14、ソナー15、LiDAR16及びカメラ17の全てを備える必要はなく、少なくとも何れか一つの自律系センサを備える構成でも良い。又、ミリ波レーダ14、ソナー15、LiDAR16及びカメラ17とは別の自律系センサを備える構成でも良い。
 自車周辺認識部9bは、ミリ波レーダ14から検知結果を入力し、ソナー15から検知結果を入力し、LiDAR16から検知結果を入力し、カメラ17からカメラ画像を入力すると、その入力した検知結果及びカメラ画像を用いて自車周辺を認識し、その認識した自車周辺の周辺情報をDCM7、地図品質判定部9e、安全確認判定部9f及び運転介入実施部9gへ出力する。周辺情報には、静的な情報として、道路の路面上にペイントされている区画線、停止線、横断歩道等の位置や種別、道路の路面上から立設されている信号機、道路標識等の位置や種別、道路幅、道路種別、車線数等の地物情報が含まれる。又、周辺情報には、動的静的な情報として、歩行者、自転車及び対向車の位置等が含まれる。
 DCM7は、自車位置推定部9aから自車位置を入力し、自車周辺認識部9bから自車周辺の周辺情報を入力すると、その入力した自車位置と自車周辺の周辺情報と時刻とが対応付けられたプローブデータを通信ネットワークを介して地図生成サーバ4へ送信する。この場合、DCM7は、例えば走行距離が一定距離に達したタイミング、経過時間が一定時間に達したタイミング等でプローブデータを通信ネットワークを介して地図生成サーバ4へ送信する。
 DCM7において、プローブデータ地図取得部2aは、地図生成サーバ4から送信されたプローブデータ地図を受信すると、その受信したプローブデータ地図を注意箇所特定部9c及び地図品質判定部9eへ出力する。
 地図品質判定部9eは、自車周辺認識部9bから自車周辺の周辺情報を入力し、DCM7からプローブデータ地図を入力すると、そのプローブデータ地図と自車周辺の周辺情報とを照合し、プローブデータ地図の品質良否を判定する。地図品質判定部9eは、例えばプローブデータ地図により示される地物情報と、自律系センサの検知結果により示される自車周辺の周辺情報とが一致するか否かを判定し、プローブデータ地図の品質良否を判定する。具体的には、地図品質判定部9eは、プローブデータ地図により示される地物の位置及び種別と、自律系センサの検知結果により示される自車周辺の周辺情報に含まれる地物の位置及び種別とが一致するか否かを判定し、プローブデータ地図の品質良否を判定する。
 地図品質判定部9eは、例えばプローブデータ地図により示される地物情報が自律系センサの検知結果により示される自車周辺の周辺情報と一致する一致度を数値化し、その数値化した数値を閾値と比較する。地図品質判定部9eは、プローブデータ地図により示される地物情報と自律系センサの検知結果により示される自車周辺の周辺情報とのずれが小さく、その一致度を示す数値が閾値以上であると判定すると、プローブデータ地図の品質良を判定する。地図品質判定部9eは、プローブデータ地図の品質良を判定すると、その品質良と判定したプローブデータ地図を注意箇所特定部9cへ出力する。一方、地図品質判定部9eは、プローブデータ地図により示される地物情報と自律系センサの検知結果により示される自車周辺の周辺情報とのずれが大きく、その一致度を示す数値が閾値未満であると判定すると、プローブデータ地図の品質否を判定する。
 外部アレイマイク18は、自車周辺を集音した音声情報を注意箇所特定部9cへ出力する。外部アレイマイク18も、上記したミリ波レーダ14、ソナー15、LiDAR16及びカメラ17と同様に自律系センサである。注意箇所特定部9cは、地図品質判定部9eからプローブデータ地図を入力すると、注意箇所を特定し、その特定結果を安全確認判定部9fへ出力する。注意箇所とは、例えば交差点の死角等であり、ドライバが運転中において安全確認を必要とする箇所である。この場合、注意箇所特定部9cは、外部アレイマイク18から音声情報を入力すると、その入力した音声情報も参考にして注意箇所を特定する。尚、注意箇所特定部9cは、地図品質判定部9eからプローブデータ地図を入力しない場合には、自律系センサの検知結果を用いて注意箇所を特定し、その特定結果を安全確認判定部9fへ出力する。
 ドライバの状態を監視するドライバステータスモニタ(登録商標)(以下、DSM(Driver Status Monitor)と称する)19は、ドライバの顔をドライバモニタカメラにより撮像し、ドライバの顔画像から顔向き、視線方向、首振り等を判定し、その判定結果をドライバ状態認識部9dへ出力する。
 ドライバ状態認識部9dは、DSM19から判定結果を入力すると、その判定結果を用いてライバ状態を認識し、その認識したドライバ状態を示すドライバ状態情報をDCM7、安全確認判定部9f及び運転介入実施部9gへ出力する。
 安全確認判定部9fは、自車周辺認識部9bから自車周辺の周辺情報を入力し、ドライバ状態認識部9dからドライバ状態情報を入力すると、その入力した自車周辺の周辺情報とドライバ状態情報とを用いてアラートを発動する必要があるか否かを判定する。安全確認判定部9fは、注意箇所が発生している状況においてドライバの視線方向が当該注意箇所の方向に向いているか否かを判定し、ドライバが安全確認を行っているか否かをドライバ状態に基づいて判定し、アラートを発動する必要があるか否かを判定する。
 安全確認判定部9fは、ドライバの視線方向が注意箇所の方向に向いていると判定すると、アラートを発動する必要がないと判定する。一方、安全確認判定部9fは、ドライバの視線方向が注意箇所の方向に向いていないと判定すると、アラートを発動する必要があると判定し、報知指示を報知制御部10aへ出力する。
 報知制御部10aは、安全確認判定部9fから報知指示を入力すると、駆動指示をヘッドアップディスプレイ(以下、HUD(Head-Up Display)と称する)20、センターインフォメーションディスプレイ(以下、CID(Center Information Display)と称する)21、スピーカ22及びアンビエント灯23へ出力すると共に、報知指示をボデーECU11へ出力する。報知制御部10aは、HUD20、CID21、スピーカ22、アンビエント灯23及びサイド電子ミラー24においてドライバの視線方向に近い箇所にアラートを発動し、ドライバが安全確認を行っていないことを示す安全確認の未実施情報をドライバに報知する。
 アラートは、例えば注意箇所への安全確認を促すメッセージやアイコン等である。ドライバの視線方向が自車進行方向の真前方を向いていれば、報知制御部10aは、例えばHUD20のドライバ正面にメッセージやアイコン等を表示させる。ドライバの視線方向が自車進行方向の右寄り前方を向いていれば、報知制御部10aは、例えばHUD20のドライバ正面右寄りにメッセージやアイコン等を表示させる。ドライバの視線方向が自車進行方向の左寄り前方を向いていれば、報知制御部10aは、例えばHUD20のドライバ正面左寄りにメッセージやアイコン等を表示させる。又、報知制御部10aは、例えば注意箇所への安全確認を促すメッセージやアイコン等をCID21に表示させても良い。又、報知制御部10aは、例えば注意箇所への安全確認を促すメッセージをスピーカ22から音出力させても良い。このようにしてアラートが発動されることで、注意箇所に対しての注意が疎かになっていることをドライバに自覚させることができる。
 又、報知制御部10aは、上記したように機能管理サーバ5から送信された推奨機能情報が車載システム3に受信されると、その受信された推奨機能情報をHUD20やCID21に表示させたりスピーカ22から音出力させたりして推奨機能情報により特定される推奨機能をドライバに提示する。
 指紋認証センサ25は、ドライバの指紋をセンシングし、その検知結果をコックピットドメインECU10へ出力する。掌紋認証センサ26は、ドライバの掌紋をセンシングし、その検知結果をコックピットドメインECU10へ出力する。コックピットドメインECU10は、指紋認証センサ25や掌紋認証センサ26から検知結果を入力すると、その入力した検知結果を用いてドライバを個人認証し、その認証結果をセントラルECU8へ出力する。
 エアバック27に付帯されているセンサ群28は、例えば車速センサ、加速度センサ及びヨーレートセンサを含み、それぞれ車速、加速度及びヨーレートを検知し、その検知結果を運転介入実施部9gへ出力する。センサ群28は、ADASドメインECU9又はセントラルECU8に付帯されていても良い。
 運転介入実施部9gは、自車周辺認識部9bから自車周辺の周辺情報を入力し、ドライバ状態認識部9dからドライバ状態情報を入力し、エアバック27に付帯されているセンサ群28から検知結果を入力すると、その入力した自車周辺の周辺情報とドライバ状態情報と検知結果とを用いてドライバの運転操作に対して介入を行う必要があるか否かを判定する。運転介入実施部9gは、例えばドライバの視線方向が自車進行方向に向いているか否か、自車進行方向が危険であるか否か、車速、加速度及びヨーレートが正常であるか否か等を判定し、ドライバの運転操作に対して介入を行う必要があるか否かを判定する。
 運転介入実施部9gは、例えばドライバの視線方向が自車進行方向に向いている、自車進行方向が危険でない、車速、加速度及びヨーレートが正常であると判定し、ドライバの運転が適切であると判定すると、ドライバの運転操作に対して介入を行う必要がないと判定する。一方、運転介入実施部9gは、例えばドライバの視線方向が自車進行方向に向いていない、自車進行方向が危険である、車速、加速度及びヨーレートが正常でないの何れかを判定し、ドライバの運転が適切でないと判定すると、ドライバの運転操作に対して介入を行う必要があると判定し、運転介入指示をパワートレインドメインECU12へ出力する。
 パワートレインドメインECU12は、運転介入実施部9gから運転介入指示を入力すると、運転介入指示をブレーキ装置29へ出力する。ブレーキ装置29に付帯されているセンサ群30は、例えば車速センサ、加速度センサ及びヨーレートセンサを含み、それぞれ車速、加速度及びヨーレートを検知し、その検知結果をブレーキ装置29へ出力する。センサ群30は、パワートレインドメインECU12又はセントラルECU8に付帯されていても良い。ブレーキ装置29は、パワートレインドメインECU12から運転介入指示を入力すると、例えばセンサ群30の検知結果を用いて衝突被害軽減ブレーキ(以下、AEB(Autonomous Emergency Braking)と称する)制御を行う。尚、運転操作に対する介入としてはAEB制御に加え、操舵制御や姿勢制御等を行っても良く、例えば横滑り防止制御(以下、ESC(Electronic Stability Control)を行っても良い。
 図3に示すように、セントラルECU8には、ワイパー制御ユニット31と、オートライト制御ユニット32と、オートドア制御ユニット33と、オートハイビーム制御ユニット34と、雨滴センサ35とが接続されている。ワイパー制御ユニット31にはワイパーユニット36が接続されている。ワイパーユニット36は、速度制御部36aと、角度制御部36bと、ウォッシャー制御部36cと、ポジション制御部36dと、スイッチ36eとを備える。ワイパー制御ユニット31は、ワイパー制御指示をワイパーユニット36へ出力し、ワイパーユニット36の動作を制御する。
 同様に、オートライト制御ユニット32は、オートライト制御指示をオートライトユニット(図示せず)へ出力し、オートライトユニットの動作を制御する。オートドア制御ユニット33は、オートドア制御指示をオートドアユニット(図示せず)へ出力し、オートドアユニットの動作を制御する。オートハイビーム制御ユニット34は、オートハイビーム制御指示をオートハイビームユニット(図示せず)へ出力し、オートハイビームユニットの動作を制御する。雨滴センサ35は、降雨を検知すると、検知信号をセントラルECU8へ出力する。
 セントラルECU8は、運転習熟度取得部8aと、運転習熟度判定部8bと、機能学習提示部8cと、学習状況取得部8dと、学習状況判定部8eと、学習判定結果報知部8fとを備える。これら各部8a~8fによりセントラルECU8が実行する機能学習提示プログラムが実現される。
 運転習熟度取得部8aは、車両データとして例えば加減速制御の補正頻度、ステアリング制御の補正頻度、レーンディパーチャーアラート(以下、LDA(Lane Departure Alert)と称する)の発生頻度、衝突被害軽減ブレーキ(AEB(Autonomous Emergency Braking)と称する)の発生頻度等を取得する。運転習熟度取得部8aは、運転能力データとして例えばドライバの顔画像の判定結果から運転中のわき見や落ち着きの有無等の程度を取得する。運転習熟度取得部8aは、これらの車両データと運転能力データを一定期間に亘って取得する。この場合、一定期間は、例えばドライバが車両を購入してからの期間、直近の数日の期間等のどのような期間でも良い。
 運転習熟度判定部8bは、ドライバの運転習熟度が運転習熟度取得部8aにより取得されると、その取得されたドライバの運転習熟度を判定する。運転習熟度判定部8bは、例えば加減速制御の補正頻度やステアリング制御の補正頻度等が比較的少ない、運転中のわき見が比較的少なかったり落ち着きが有ったりする等を判定すると、ドライバの運転習熟度が比較的高いと判定する。又、運転習熟度判定部8bは、ドライバが運転において使用している機能を判定し、周囲状況に応じて適切な機能を使用していると判定すると、ドライバの運転習熟度が比較的高いと判定する。運転習熟度判定部8bは、例えば間欠ワイパーの機能であれば、ドライバがワイパースイッチのオンオフやワイパー速度等を降雨の状況に応じて適切に設定していれば、ドライバの運転習熟度が比較的高いと判定する。
 一方、運転習熟度判定部8bは、例えば加減速制御の補正頻度やステアリング制御の補正頻度等が比較的多い、運転中のわき見が比較的多かったり落ち着きが無かったりする等を判定すると、ドライバの運転習熟度が比較的低いと判定する。又、運転習熟度判定部8bは、ドライバが運転において使用している機能を判定し、周囲状況に応じて適切な機能を使用していないと判定すると、ドライバの運転習熟度が比較的低いと判定する。運転習熟度判定部8bは、例えば間欠ワイパーの機能であれば、ドライバがワイパースイッチのオンオフやワイパー速度等を降雨の状況に応じて適切に設定していなければ、ドライバの運転習熟度が比較的低いと判定する。
 尚、運転習熟度判定部8bは、間欠ワイパーの機能の以外についても同様であり、例えばライトの機能については、ドライバがライトのオンオフを周囲環境の明るさに応じて適切に設定していれば、ドライバの運転習熟度が比較的高いと判定し、適切に設定していなければ、ドライバの運転習熟度が比較的低いと判定する。又、運転習熟度判定部8bは、トンネルへの進入やトンネルからの退出に対するライトスイッチのオンオフ等についても同様であり、ライトスイッチのオンオフをトンネルへ進入するタイミングやトンネルから退出するタイミングに応じて適切に設定していれば、ドライバの運転習熟度が比較的高いと判定し、適切に設定していなければ、ドライバの運転習熟度が比較的低いと判定する。
 機能学習提示部8cは、ドライバの運転習熟度が運転習熟度判定部8bにより判定されると、その運転習熟度の判定結果にしたがって機能の学習をドライバに段階的に提示する。機能学習提示部8cは、ドライバの運転習熟度を予め設定されている所定レベルと比較し、所定レベルに達していなければ、機能の学習をドライバに段階的に提示する。この場合、機能の段階的な学習を提示するとは、機能の学習をゲーミフィケーション的にドライバに提示することを意味し、学習すべき複数の機能を俯瞰的に提示した上で、一つの機能を習得する毎に次の機能の学習を提示することを意味する。即ち、ドライバは、機能を段階的に習得することで、徐々にレベルアップしていく達成感を得ることができる。
 機能学習提示部8cは、例えば車両が停止状態にあるとき等の運転操作の安全が確保されている状況において、機能の学習をドライバに段階的に提示する。又、機能学習提示部8cは、カレンダー情報を取得することでドライバのスケジュールを判定し、ドライバが多忙なときには機能の学習をドライバに提示せず、時間に余裕があるときに機能の学習をドライバに提示する。又、機能学習提示部8cは、ドライバの生体情報を取得することでドライバの体調を判定し、ドライバの体調が安定していないときには機能の学習をドライバに提示せず、ドライバの体調が安定しているときに機能の学習をドライバに提示する。
 機能学習提示部8cは、機能の学習をドライバに提示する具体的な手法としては、例えばイグニッションオンやモータオンのタイミングで学習の実施を問い合わせるメッセージをCID21に表示させ、学習を実施するか否かをドライバが選択可能な「YES」ボタン及び「NO」ボタンを表示させる。即ち、ドライバは、「YES」ボタンを押下することで学習の実施を許諾することができ、「NO」ボタンを押下することで学習の実施を拒否することができる。尚、機能学習提示部8cは、学習の実施を問い合わせるメッセージをCID21に表示させることの他に、メッセージをスピーカから音出力させて音声認識により選択可能としても良いし、車内での日常会話をベースにしたチャットボット的な音声認識によりドライバが学習を実施するか否かを選択可能としても良い。
 学習状況取得部8dは、機能の学習状況を取得する。学習状況判定部8eは、機能の学習状況が学習状況取得部8dにより取得されると、その取得された機能の学習状況を判定する。学習状況判定部8eは、例えば間欠ワイパーの機能であれば、予め降雨の状況に応じた理想的な間欠ワイパーの作動モデルを記憶している。学習状況判定部8eは、雨滴センサ35の検知結果や車外からの天気情報等により降雨の状況を判定し、ドライバが設定している間欠ワイパーの作動状態を、その降雨の状況に応じた作動モデルと照合してドライバが間欠ワイパーの機能を適切に使用しているか否かを判定する。
 学習状況判定部8eは、ドライバが設定している間欠ワイパーの作動状態と作動モデルとの乖離が比較的小さいと判定すると、ドライバが間欠ワイパーの機能を降雨の状況に応じて適切に使用していると判定し、ドライバが間欠ワイパーの機能を習得して機能の学習状況が所定レベルに達したと判定する。一方、学習状況判定部8eは、ドライバが設定している間欠ワイパーの作動状態と作動モデルとの乖離が比較的大きいと判定すると、ドライバが間欠ワイパーの機能を降雨の状況に応じて適切に使用していないと判定し、ドライバが間欠ワイパーの機能を未だ習得しておらず機能の学習状況が所定レベルに達していないと判定する。
 学習判定結果報知部8fは、機能の学習状況が学習状況判定部8eにより判定されると、その判定結果をドライバに報知する。学習判定結果報知部8fは、例えば間欠ワイパーの機能であれば、ドライバが間欠ワイパーの機能を習得したこと、又は未だ習得していないことをドライバに報知する。即ち、学習判定結果報知部8fは、機能の学習状況の判定結果を報知することで、機能を習得したこと、又は未だ習得していないことをドライバに認識させる。
 機能学習提示部8cは、機能の学習状況が所定レベルに達したと判定されると、次の機能の学習をドライバに提示する。機能学習提示部8cは、図4に示すように、レベル1を「間欠ワイパー」、レベル2を「オートライト」、レベル3を「オートドア」、レベル4を「オートハイビーム」、レベル5を「自動駐車」、レベル6を「アダプティブクルーズコントロール(以下、ACC(Adaptive Cruise Control)と称する)」として設定していれば、レベル1の「間欠ワイパー」の学習状況が所定レベルに達したと判定されると、次の機能であるレベル2の「オートライト」の学習をドライバに提示する。以下、同様であり、機能学習提示部8cは、レベル2の「オートライト」の学習状況が所定レベルに達したと判定されると、次の機能であるレベル3の「オートドア」の学習をドライバに提示する。即ち、ドライバは、「間欠ワイパー」、「オートライト」、「オートドア」、「オートハイビーム」、「自動駐車」、「ACC」の各機能を順次学習し、学習状況が所定レベルに達する毎にレベルアップし、次のレベルの機能を学習する。
 次に、上記した構成の作用について図5を参照して説明する。車載システム3は、機能学習提示プログラムにより機能学習提示処理を行う。機能学習提示処理を行うタイミングは、例えば車両購入時から一定期間が経過した時期、又は車両購入時等である。車両購入時から一定期間が経過した時期に機能学習提示処理を行う場合には、その一定期間においてドライバの運転習熟度を取得することになるが、車両購入時に機能学習提示処理を行う場合には、ドライバの運転習熟度を取得することがなく、ドライバの運転習熟度が所定レベルに達していないと判定する。
 車載システム3は、機能学習提示処理の開始条件が成立すると、機能学習提示処理を開始する。車載システム3は、機能学習提示処理を開始すると、車両データを取得すると共にドライバの運転能力データを取得し、ドライバの運転習熟度を取得する(A1、運転習熟度取得手順に相当する)。車載システム3は、ドライバの運転習熟度を取得すると、その取得したドライバの運転習熟度を予め設定されている所定レベルと比較する(A2、運転習熟度判定手順に相当する)。
 車載システム3は、その取得したドライバの運転習熟度が所定レベルに達していると判定すると(A2:YES)、機能学習提示処理を終了する。一方、車載システム3は、その取得したドライバの運転習熟度が所定レベルに達していないと判定すると(A2:NO)、学習を提示すべき機能があるか否かを判定する(A3)。車載システム3は、上記した図4に示したレベル1の「間欠ワイパー」からレベル6の「ACC」までの全ての機能の学習を提示済みであれば、学習を提示すべき機能がないと判定するが、レベル1の「間欠ワイパー」からレベル6の「ACC」までの全ての機能の学習を提示済みでなければ、換言すると、学習の提示が途中であれば、学習を提示すべき機能があると判定する。
 車載システム3は、学習を提示すべき機能がないと判定すると(A3:NO)、機能学習提示処理を終了する。一方、車載システム3は、学習を提示すべき機能があると判定すると(A3:YES)、その学習を提示すべき機能の学習を提示する(A4、学習提示手順に相当する)。車載システム3は、例えばレベル1の「間欠ワイパー」の機能の学習を未提示であれば、レベル1の「間欠ワイパー」の機能の学習を提示する。車載システム3は、例えばレベル1の「間欠ワイパー」の機能の学習を提示済みであり、且つレベル1の「間欠ワイパー」の機能の学習状況が所定レベルに達していれば、レベル2の「オートライト」の機能の学習を提示する。
 車載システム3は、学習を提示した機能の利用状況を取得することで学習状況を取得し(A5)、その取得した機能の学習状況を予め設定されている所定レベルと比較する(A6)。車載システム3は、例えばレベル1の「間欠ワイパー」の機能を提示した場合であれば、上記したようにドライバが設定している間欠ワイパーの作動状態を、その降雨の状況に応じた作動モデルと照合してドライバが間欠ワイパーの機能を適切に使用しているか否かを判定する。
 車載システム3は、ドライバが間欠ワイパーの機能を降雨の状況に応じて適切に使用していると判定すると、ドライバがレベル1の「間欠ワイパー」の機能を習得して機能の学習状況が所定レベルに達したと判定する(A6:YES)。一方、学習状況判定部8eは、ドライバが間欠ワイパーの機能を降雨の状況に応じて適切に使用していないと判定すると、ドライバが間欠ワイパーの機能を未だ習得しておらず機能の学習状況が所定レベルに達していないと判定する(A6:NO)。
 車載システム3は、機能の学習状況が所定レベルに達したと判定すると、次の機能の学習をドライバに提示する(A7)。この場合、車載システム3は、例えば「レベル1の間欠ワイパーの学習をクリアしました。次はレベル2のオートライトの学習です」等のメッセージをCID21に表示させたりスピーカ22から音出力させたりする。
 車載システム3は、機能学習提示処理の終了条件が成立したか否かを判定し(A8)、機能学習提示処理の終了条件が成立していないと判定すると(A8:NO)、上記したステップA5に戻り、ステップA5以降を繰り返す。即ち、車載システム3は、ドライバがレベル1の「間欠ワイパー」の機能を習得した場合には、レベル2の「オートライト」の学習を提示し、ドライバが「オートライト」の機能を適切に使用しているか否かを判定する。これ以降、同様に、車載システム3は、ドライバがレベル2の「オートライト」の機能を習得した場合には、レベル3の「オートドア」の学習を提示し、ドライバがレベル3の「オートドア」の機能を習得した場合には、レベル4の「オートハイビーム」の学習を提示する。車載システム3は、機能学習提示処理の終了条件が成立したと判定すると(A8:YES)、機能学習提示処理を終了する。
 以上に説明したように第1実施形態によれば、次に示す作用効果を得ることができる。
 車載システム3において、ドライバの運転習熟度を取得して判定し、その運転習熟度の判定結果にしたがって機能の学習をドライバに段階的に提示するようにした。運転習熟度の判定結果にしたがって機能の学習をドライバに段階的に提示することで、ドライバが機能を段階的に習得することを期待することができ、徐々にレベルアップしていく達成感をドライバに持たせることができる。これにより、車両に搭載されている機能をドライバに適切に学習させることができる。
 車載システム3において、運転操作の安全が確保されている状況において、機能の学習をドライバに段階的に提示するようにした。運転操作の安全を脅かす状況で機能の学習をドライバに提示せず、運転操作の安全が確保されている状況に限って機能の学習をドライバに提示することで、運転操作の安全を適切に確保しつつ、機能の学習をドライバに段階的に提示することができる。
 車載システム3において、機能の学習状況を取得して判定し、その機能の学習状況の判定結果を報知するようにした。機能の学習状況としてドライバが機能を習得したか否かをドライバに適切に認識させることができる。
 車載システム3において、機能の学習状況が所定レベルに達したと判定すると、次の機能の学習をドライバに提示するようにした。次の機能の学習をドライバに提示することで、
多種多様な機能の学習をドライバに段階的に提示することができる。
 (第2実施形態)
 次に、第2実施形態について図6から図7を参照して説明する。第2実施形態は、ドライバが運転しない期間が長期間に及んだ場合や運転習熟度が低下した場合に対処する構成である。この場合、セントラルECU8は、第1実施形態で説明した各部8a~8fに加え、機能抑制部8gを備える。
 機能抑制部8gは、ドライバの最後の運転操作時からの経過期間を監視しており、ドライバの最後の運転操作時から所定期間が経過したと判定すると、ドライバが使用可能な機能を抑制する。この場合、所定期間を一律に設定しても良いし、例えばドライバの過去の運転習熟度に応じて所定期間を設定しても良い。ドライバの過去の運転習熟度が比較的高ければ、ドライバが機能の使用に精通していた可能性が比較的高いと想定し得ることから所定期間を比較的長く設定し、ドライバの過去の運転習熟度が比較的低ければ、ドライバが機能の使用に精通していた可能性が比較的低いと想定し得ることから所定期間を比較的短く設定しても良い。又、機能抑制部8gは、ドライバの運転習熟度が予め設定されている基準レベルまで低下したと運転習熟度判定部8bにより判定されると、機能を抑制する。
 機能抑制部8gは、機能を抑制することとして、例えばメータ装置における表示数を低減させたりCID21におけるホーム画面をリセットさせたりすることで、ドライバに提示する情報を簡素化したり操作を単純化したりする。機能学習提示部8cは、機能が機能抑制部8gにより抑制されると、機能の抑制をドライバに提示する。
 次に、上記した構成の作用について図7を参照して説明する。車載システム3は、機能抑制処理の開始条件が成立すると、機能抑制処理を開始する。車載システム3は、機能抑制処理を開始すると、ドライバの最後の運転操作時から所定期間が経過したか否かを判定すると共に(A11)、ドライバの運転習熟度が基準レベルまで低下したか否かを判定する(A12)。車載システム3は、ドライバの最後の運転操作時から所定期間が経過したと判定すると(A11:YES)、又はドライバの運転習熟度が基準レベルまで低下したと判定すると(A12:YES)、機能を抑制し(A13)、機能の抑制をドライバに提示し(A14)、機能抑制処理を終了する。
 以上に説明したように第2実施形態によれば、次に示す作用効果を得ることができる。
 車載システム3において、ドライバの最後の運転操作時から所定期間が経過した場合、又はドライバの運転習熟度が基準レベルまで低下した場合に、機能を抑制し、機能の抑制をドライバに提示するようにした。ドライバの最後の運転操作時から所定期間が経過した場合やドライバの運転習熟度が低下した場合は、ドライバが機能を使いこなす可能性が低いと想定されることから、機能を抑制することで、ドライバが使いこなせない機能を不必要に提供してしまう事態を回避することができる。又、機能の抑制をドライバに提示することで、不必要な機能を抑制したことをドライバに提示することができる。
 (第3実施形態)
 次に、第3実施形態について図8を参照して説明する。第3実施形態は、運転習熟度の判定結果にしたがって機能の学習が可能であると判定すると、機能の事前学習をドライバに提示する構成である。
 機能抑制部8gは、運転習熟度の判定結果にしたがって機能の学習が可能であるか否かを判定する。機能抑制部8gは、機能の学習が可能であると判定すると、機能の事前学習をドライバに提示する。機能抑制部8gは、例えばナビゲーションの機能において目的地までの経路で自動車専用道路を走行することを特定し、ドライバの運転習熟度の判定結果にしたがってACC機能の学習が可能であると判定すると、ACC機能の事前学習をドライバに提示する。機能抑制部8gは、例えばACC機能の動画をCID21に表示させたりステアリングスイッチのグラフィックをメータ装置に表示させたりする等して運転操作中のシミュレーションを用いて機能の事前学習をドライバに提示する。
 次に、上記した構成の作用について図8を参照して説明する。車載システム3は、機能事前学習提示処理の開始条件が成立すると、機能事前学習提示処理を開始する。車載システム3は、機能事前学習提示処理を開始すると、運転習熟度の判定結果にしたがって機能の学習が可能であるか否かを判定する(A21)。車載システム3は、機能の学習が可能であると判定すると(A21:YES)、機能の事前学習をドライバに提示し(A22)、機能事前学習提示処理を終了する。
 以上に説明したように第3実施形態によれば、次に示す作用効果を得ることができる。
 車載システム3において、運転習熟度の判定結果にしたがって機能の学習が可能であるか否かを判定し、機能の学習が可能であると判定すると、機能の事前学習をドライバに提示するようにした。機能の学習をドライバに提示する前に、機能の事前学習をドライバに提示することができ、ドライバが機能の事前学習を行うことで、ドライバが機能の学習を適切に行うことができる。
 (第4実施形態)
 次に、第4実施形態について図9から図10を参照して説明する。第4実施形態は、他のドライバの運転操作履歴から他のドライバの車両設定情報を取得し、ドライバの車両設定情報を、その取得した他のドライバの車両設定情報に追従して変更する構成である。この場合、セントラルECU8は、第1実施形態で説明した各部8a~8fに加え、運転操作履歴取得部8hと、車両設定情報取得部8iと、車両設定情報変更部8jとを備える。
 運転操作履歴取得部8hは、他のドライバの運転操作履歴を取得する。他のドライバとは、自分の車両に乗車して運転操作を行った人物、又は自分の車両と同一型式車種の車両に乗車して運転操作を行った人物である。
 車両設定情報取得部8iは、他のドライバの運転操作履歴が運転操作履歴取得部8hにより取得されると、その取得された他のドライバの運転操作履歴から他のドライバの車両設定情報を取得する。車両設定情報取得部8iは、他のドライバの車両設定情報として、例えば自動運転中における車間距離、減速制御の強度やタイミング、加速制御の強度やタイミング等を取得する。
 車両設定情報変更部8jは、他のドライバの車両設定情報が車両設定情報取得部8iにより取得されると、ドライバの車両設定情報を、その取得された他のドライバの車両設定情報に追従して変更する。この場合、車両設定情報変更部8jは、ドライバの車両設定情報を、当該ドライバの運転習熟度、当該ドライバの嗜好、当該ドライバの視点方向のうち少なくとも何れか一つに応じて変更する。車両設定情報変更部8jは、ドライバの車両設定情報を当該ドライバの運転習熟度に応じて変更する場合には、例えばドライバが運転初心者の場合であれば安全性を担保するために特定の安全に関わる機能をオンに設定する。車両設定情報変更部8jは、ドライバの車両設定情報を当該ドライバの嗜好に応じて変更する場合には、例えばドライバが減速制御について早めのタイミングを嗜好する場合であれば減速制御のタイミングを早めに設定する。車両設定情報変更部8jは、ドライバの車両設定情報を当該ドライバの視点方向に応じて変更する場合には、例えばドライバが前方注視している場合であれば自分の運転に合わせ、前座席の片方を注視している場合であれば他人の運転に合わせるように設定する。例えばARゴーグルをかけて隣の席にあたかも他人が座っており、前方を見ると自分の運転に切り替わり、隣の席を見ると他人がいるようなバーチャル映像と共にその他人の運転に切り替わるように設定する。
 次に、上記した構成の作用について図10を参照して説明する。車載システム3は、車両設定情報変更処理の開始条件が成立すると、車両設定情報変更処理を開始する。車載システム3は、車両設定情報変更処理を開始すると、他のドライバの運転操作履歴を取得し(A31)、その取得した他のドライバの運転操作履歴から他のドライバの車両設定情報を取得する(A32)。車載システム3は、ドライバの車両設定情報を、その取得した他のドライバの車両設定情報に追従して変更し(A32)、車両設定情報変更処理を終了する。
 以上に説明したように第4施形態によれば、次に示す作用効果を得ることができる。
 車載システム3において、他のドライバの運転操作履歴を取得し、その取得した他のドライバの運転操作履歴から他のドライバの車両設定情報を取得し、ドライバの車両設定情報を、その取得した他のドライバの車両設定情報に追従して変更するようにした。ドライバの車両設定情報を、他のドライバの車両設定情報に追従させることができる。
 (その他の実施形態)
 本開示は、実施例に準拠して記述されたが、当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、更には、それらに一要素のみ、それ以上、或いはそれ以下を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。
 本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することにより提供された専用コンピュータにより実現されても良い。或いは、本開示に記載の制御部及びその手法は、一つ以上の専用ハードウェア論理回路によりプロセッサを構成することにより提供された専用コンピュータにより実現されても良い。若しくは、本開示に記載の制御部及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路により構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより実現されても良い。又、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていても良い。
 機能学習提示処理を行うタイミングは、例えば車両購入時から一定期間が経過した時期、又は車両購入時に限らず、車両を購入する前の試乗時のときでも良い。機能学習提示処理を試乗時に行えば、車両を購入する前に学習状況の判定結果を得ることができ、その判定結果によっては購入しようとする車両を変更する等、臨機応変に対応することができる。即ち、学習しても機能を使いこなすのが難しいような場合には、購入しようとする車両を変更することを想定することができる。又、車両を入れ替えた場合に、入れ替え前の車両における学習状況の判定結果を、入れ替え後の車両に継承するようにしても良い。

Claims (12)

  1.  ドライバの運転習熟度を取得する運転習熟度取得部(8a)と、
     ドライバの運転習熟度を判定する運転習熟度判定部(8b)と、
     前記運転習熟度の判定結果にしたがって機能の学習をドライバに段階的に提示する機能学習提示部(8c)と、を備える車載システム。
  2.  前記運転習熟度取得部は、車両データを取得すると共にドライバの運転能力データを取得し、ドライバの運転習熟度を取得する請求項1に記載した車載システム。
  3.  前記機能学習提示部は、運転操作の安全が確保されている状況において、機能の学習をドライバに段階的に提示する請求項1に記載した車載システム。
  4.  機能の学習状況を取得する学習状況取得部(8d)と、
     機能の学習状況を判定する学習状況判定部(8e)と、
     機能の学習状況の判定結果を報知する学習判定結果報知部(8f)と、を備える請求項1に記載した車載システム。
  5.  前記機能学習提示部は、機能の学習状況が所定レベルに達したと判定されると、次の機能の学習をドライバに提示する請求項1に記載した車載システム。
  6.  ドライバの最後の運転操作時から所定期間が経過した場合に、機能を抑制する機能抑制部(8g)を備え、
     前記機能学習提示部は、機能が前記機能抑制部より抑制されると、機能の抑制をドライバに提示する請求項1に記載した車載システム。
  7.  前記機能学習提示部は、前記運転習熟度が基準レベルまで低下した場合に、機能を抑制する機能抑制部(8g)を備え、
     前記機能学習提示部は、機能が前記機能抑制部より抑制されると、機能の抑制をドライバに提示する請求項1に記載した車載システム。
  8.  前記機能学習提示部は、前記運転習熟度の判定結果にしたがって機能の学習が可能であるか否かを判定し、機能の学習が可能であると判定すると、機能の事前学習をドライバに提示する請求項1に記載した車載システム。
  9.  前記機能学習提示部は、運転操作中のシミュレーションを用いて機能の事前学習をドライバに提示する請求項8に記載した車載システム。
  10.  他のドライバの運転操作履歴を取得する運転操作履歴取得部(8h)と、
     他のドライバの運転操作履歴から他のドライバの車両設定情報を取得する車両設定情報取得部(8i)と、
     ドライバの車両設定情報を、他のドライバの車両設定情報に追従して変更する車両設定情報変更部(8j)と、を備える請求項1に記載した車載システム。
  11.  前記車両設定情報変更部は、ドライバの車両設定情報を、当該ドライバの運転習熟度、当該ドライバの嗜好、当該ドライバの視点方向のうち少なくとも何れか一つに応じて変更する請求項10に記載した車載システム。
  12.  車載システム(3)に、
     ドライバの運転習熟度を取得する運転習熟度取得手順と、
     ドライバの運転習熟度を判定する運転習熟度判定手順と、
     前記運転習熟度の判定結果にしたがって機能の学習をドライバに段階的に提示する学習提示手順と、を実行させる機能学習提示プログラム。
PCT/JP2022/038057 2021-11-12 2022-10-12 車載システム及び機能学習提示プログラム WO2023084985A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2021-184859 2021-11-12
JP2021184859 2021-11-12
JP2022045422A JP2023072633A (ja) 2021-11-12 2022-03-22 車載システム及び機能学習提示プログラム
JP2022-045422 2022-03-22

Publications (1)

Publication Number Publication Date
WO2023084985A1 true WO2023084985A1 (ja) 2023-05-19

Family

ID=86335684

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/038057 WO2023084985A1 (ja) 2021-11-12 2022-10-12 車載システム及び機能学習提示プログラム

Country Status (1)

Country Link
WO (1) WO2023084985A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007062494A (ja) * 2005-08-30 2007-03-15 Fujitsu Ten Ltd 車両情報提供装置
JP2012145671A (ja) * 2011-01-11 2012-08-02 Yazaki Corp エコドライブ学習支援装置及びエコドライブ学習支援方法
JP2018037002A (ja) * 2016-09-02 2018-03-08 株式会社デンソー 車両用運転支援装置
JP2019053099A (ja) * 2017-09-12 2019-04-04 クラリオン株式会社 情報システム、運転支援情報提供方法、車載端末
JP2020160941A (ja) * 2019-03-27 2020-10-01 本田技研工業株式会社 車両制御システム及び車両
JP2021517534A (ja) * 2018-03-12 2021-07-26 トヨタ リサーチ インスティテュート,インコーポレイティド オペレータのスキル軽減用のシステムおよび方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007062494A (ja) * 2005-08-30 2007-03-15 Fujitsu Ten Ltd 車両情報提供装置
JP2012145671A (ja) * 2011-01-11 2012-08-02 Yazaki Corp エコドライブ学習支援装置及びエコドライブ学習支援方法
JP2018037002A (ja) * 2016-09-02 2018-03-08 株式会社デンソー 車両用運転支援装置
JP2019053099A (ja) * 2017-09-12 2019-04-04 クラリオン株式会社 情報システム、運転支援情報提供方法、車載端末
JP2021517534A (ja) * 2018-03-12 2021-07-26 トヨタ リサーチ インスティテュート,インコーポレイティド オペレータのスキル軽減用のシステムおよび方法
JP2020160941A (ja) * 2019-03-27 2020-10-01 本田技研工業株式会社 車両制御システム及び車両

Similar Documents

Publication Publication Date Title
US11295143B2 (en) Information processing apparatus, information processing method, and program
US11673569B2 (en) Alert control apparatus and alert control method
US10870435B2 (en) Notice management apparatus and notice management method
US10773731B2 (en) Driving assistance apparatus
EP3663155B1 (en) Autonomous driving system
JP6693354B2 (ja) 車両用情報提示装置
WO2018056103A1 (ja) 車両制御装置、車両制御方法、および移動体
US11873007B2 (en) Information processing apparatus, information processing method, and program
US20200189459A1 (en) Method and system for assessing errant threat detection
WO2018037899A1 (ja) 運転支援装置および方法、移動体、並びにプログラム
JP7151495B2 (ja) 自動運転システム
US11587461B2 (en) Context-sensitive adjustment of off-road glance time
WO2018037900A1 (ja) 運転支援装置および方法、移動体、並びにプログラム
US11285966B2 (en) Method and system for controlling an autonomous vehicle response to a fault condition
CN112534487A (zh) 信息处理设备、移动体、信息处理方法和程序
WO2023084985A1 (ja) 車載システム及び機能学習提示プログラム
JP2023072633A (ja) 車載システム及び機能学習提示プログラム
WO2023013341A1 (ja) 車載システム及び運転診断プログラム
JP2019096137A (ja) 信号機認識装置
US20230020471A1 (en) Presentation control device and automated driving control system
US20240025431A1 (en) Vehicle driving assistance system
EP4273834A1 (en) Information processing device, information processing method, program, moving device, and information processing system
US20230166754A1 (en) Vehicle congestion determination device and vehicle display control device
JP2023072635A (ja) データ通信システム、機能管理サーバ、車載システム、推奨機能配信プログラム及び推奨機能提示プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22892485

Country of ref document: EP

Kind code of ref document: A1