WO2024070810A1 - ソフトウェア検証システム及び車両制御装置 - Google Patents

ソフトウェア検証システム及び車両制御装置 Download PDF

Info

Publication number
WO2024070810A1
WO2024070810A1 PCT/JP2023/033912 JP2023033912W WO2024070810A1 WO 2024070810 A1 WO2024070810 A1 WO 2024070810A1 JP 2023033912 W JP2023033912 W JP 2023033912W WO 2024070810 A1 WO2024070810 A1 WO 2024070810A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
accident avoidance
software
vehicle
performance
Prior art date
Application number
PCT/JP2023/033912
Other languages
English (en)
French (fr)
Inventor
宏樹 尾松
敏史 大塚
健太郎 吉村
将史 溝口
功治 前田
政和 池田
浩朗 伊藤
Original Assignee
日立Astemo株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立Astemo株式会社 filed Critical 日立Astemo株式会社
Publication of WO2024070810A1 publication Critical patent/WO2024070810A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present invention relates to a software verification system and a vehicle control device.
  • Non-Patent Document 1 introduces various methods for evaluating the safety of software, among which the Shadow Mode evaluation method uses external environmental information in an actual vehicle to run the software in the background and evaluate it, which is expected to provide a highly accurate evaluation while ensuring safety.
  • Patent Document 1 proposes a technology that runs old and new version software in parallel or in parallel, and outputs discrepancy information when comparing the output results. Not only does it use data sensed by real vehicles in the real environment as input information, but it also enables simultaneous verification with multiple vehicles, which is effective in terms of verification accuracy and efficiency.
  • Non-Patent Document 1 the new target software is run in the background separately from the old software in an actual vehicle for verification. This makes it possible to obtain the results of running the target software in the background using data acquired from the actual vehicle.
  • evaluating all execution results requires an enormous amount of time. Therefore, a method for evaluating the execution results of both the old and new software is desirable.
  • Patent Document 1 two versions of software, old and new, are executed in parallel (running on one CPU) or in parallel (running on multiple CPUs) using a (verification scenario) acquired while the vehicle is running. This allows for limited software verification.
  • it is difficult for the system to determine the performance (improvement or deterioration) of the new software on the vehicle based on the difference in the execution results between the old and new software and there is a problem that a huge amount of work is required for a human to determine the performance.
  • both the old and new software produce the same output and the output result is incorrect, it is difficult to evaluate because it cannot be a difference in the execution results. Therefore, the challenge is to perform a performance judgment on the difference in the execution results between the old and new software in the system on the vehicle and to determine when both the old and new software produce inappropriate output.
  • the present invention aims to provide a software verification system that can easily improve software that uses vehicle sensor data as input.
  • a software verification system receives as input sensor data from a sensor mounted on a vehicle, detects degradation of the new version of the control software using first information that is the output of the current version of control software used to control the vehicle, receives as input the sensor data, and uses second information that is the output of a new version of control software that is not used to control the vehicle, and third information related to the control of the vehicle other than the first and second information, and verifies the new version of the control software using the sensor data when the degradation is detected.
  • the present invention makes it easy to improve software that uses vehicle sensor data as input. Problems, configurations, and advantages other than those described above will become clear from the description of the embodiments below.
  • FIG. 1 is a diagram showing an overall configuration of a vehicle control device according to a first embodiment of the present invention
  • 1 is a diagram showing a connection relationship between a vehicle control device and control devices connected via a network in a first embodiment of the present invention.
  • FIG. 5 is a flowchart illustrating an example of a processing procedure of a radar sensor information acquisition unit in the first embodiment of the present invention.
  • FIG. 4 is a diagram showing an example of radar sensor information in the first embodiment of the present invention.
  • 10 is a flowchart illustrating an example of a processing procedure of a camera sensor information acquisition unit in the first exemplary embodiment of the present invention.
  • FIG. 4 is a diagram showing an example of camera sensor information in the first embodiment of the present invention.
  • FIG. 5 is a flowchart showing an example of a processing procedure of an object detection unit using a radar sensor in the first embodiment of the present invention.
  • FIG. 4 is a diagram showing an example of an object detection result by a radar sensor in the first embodiment of the present invention.
  • FIG. 4 is a diagram showing an example of an accident avoidance necessity flag based on an object detection result by a radar sensor in the first embodiment of the present invention.
  • FIG. 2 is a diagram illustrating a system configuration of a server according to a first embodiment of the present invention.
  • FIG. 10 is a flowchart illustrating an example of a processing procedure of a server receiving unit in the first exemplary embodiment of the present invention.
  • 4 is a diagram showing an example of an accident avoidance necessity determination result stored in a server in the first embodiment of the present invention.
  • FIG. 4 is a diagram showing an example of camera sensor information in the server according to the first embodiment of the present invention.
  • FIG. A flowchart showing an example of the processing procedure of a performance evaluation unit that performs performance evaluation of software version N+1 within a server in the first embodiment of the present invention.
  • FIG. 11 is a diagram showing an overall configuration of a vehicle control device according to a second embodiment of the present invention.
  • FIG. 13 is a diagram showing an overall configuration of a vehicle control device according to a third embodiment of the present invention.
  • FIG. 13 is a diagram showing an overall configuration of a vehicle control device in a modified example of the third embodiment of the present invention.
  • 13 is a flowchart illustrating an example of a processing procedure of a real-time transmission unit that transmits log information in real time according to the third exemplary embodiment of the present invention.
  • FIG. 13 is a diagram showing an example of real-time transmission log information in the third embodiment of the present invention.
  • 13 is a flowchart illustrating an example of a processing procedure of a non-real-time transmission unit that transmits log information in non-real-time according to the third exemplary embodiment of the present invention.
  • FIG. 13 is a diagram showing an example of non-real-time transmission log information in the third embodiment of the present invention.
  • FIG. 13 is a diagram showing the overall configuration of a vehicle control device according to a fourth embodiment of the present invention.
  • 13 is a flowchart illustrating an example of a processing procedure of a driver input acquisition unit in the fourth embodiment of the present invention.
  • FIG. 13 is a diagram showing an example of driver input information in the fourth embodiment of the present invention.
  • FIG. 13 is a diagram showing an example of a processing procedure of an accident avoidance operation detection unit in the fourth embodiment of the present invention.
  • FIG. 13 is a diagram showing an example of an accident avoidance operation detection result in the fourth embodiment of the present invention.
  • FIG. 13 is a diagram showing an example of an accident avoidance operation flag (driver) in the fourth embodiment of the present invention.
  • the following embodiments relate to a software verification system and a vehicle control device (electronic control device) used therein.
  • Each embodiment has been made to solve the problem of determining the performance of new software (degradation detection, etc.), and aims to provide a vehicle control device etc. that makes it possible to determine the performance of new software using a software verification system by using the execution results of old software and new software and other information.
  • FIG. 1 shows the overall configuration of a vehicle control system in a first embodiment of the present invention.
  • the vehicle control device 1 has a radar sensor information acquisition unit 101, radar sensor information 102, camera sensor information acquisition unit 103, camera sensor information 104, object detection unit (radar) 105, object detection result (radar) 106, accident avoidance necessity flag (radar) 107, object detection unit (Ver. N) 108, object detection result (Ver. N) 109, accident avoidance necessity flag (Ver. N) 110, object detection unit (Ver. N+1) 111, object detection result (Ver. N+1) 112, accident avoidance necessity flag (Ver. N+1) 113, and a server transmission unit 114.
  • the vehicle control device 1 is composed of, for example, a processor such as a CPU (Central Processing Unit), a storage device such as a memory, a communication device compatible with various communication standards, etc.
  • a processor such as a CPU (Central Processing Unit)
  • a storage device such as a memory
  • a communication device compatible with various communication standards, etc.
  • the functions of the object detection unit (Ver. N) 108, the object detection unit (Ver. N+1) 111, etc. are realized, for example, by the processor executing software stored in the storage device. The same applies to the other functions below.
  • FIG. 2 is a diagram showing an example of the connection relationship between the vehicle control device 1 and control devices connected via a network in the first embodiment of the present invention.
  • the vehicle control device 1 is connected to the gateway 2, camera control device 3, radar control device 4, and sonar control device 5 via an in-vehicle network.
  • Vehicle data such as vehicle speed is transmitted from the gateway 2 to the vehicle control device 1.
  • sensor data derived from the camera sensor, sensor data derived from the radar sensor, and sensor data derived from the sonar sensor are transmitted from the camera control device 3, radar control device 4, and sonar control device 5 to the vehicle control device 1, respectively.
  • the vehicle control device 1 determines whether the vehicle will move forward, turn, or stop, thereby controlling the vehicle.
  • multiple control devices and gateways are connected via a network, and vehicle control is realized by communicating sensor data, vehicle data, and the like between the control devices. Communication on these networks is performed periodically or aperiodically.
  • FIG. 3 is a flowchart showing an example of the processing procedure of the radar sensor information acquisition unit 101 in the first embodiment of the present invention.
  • a radar sensor is used to acquire sensor information when traveling on a road.
  • the radar sensor information acquisition unit 101 (radar device) acquires the external environment in front of the vehicle as sensor information in step S10102 in the figure, and outputs the sensor information in step S10103.
  • the present invention is not limited to a radar sensor, and other sensors such as a lidar sensor can also be used instead (this is acceptable as a modified example).
  • FIG. 4 is a diagram showing an example of radar sensor information 10201 in the first embodiment of the present invention.
  • the radar sensor information includes sensor data (No. (1)) when an obstacle such as a pedestrian is present in front of the vehicle and accident avoidance operation is required, and sensor data (No. (2)) when no obstacle such as a pedestrian is present in front of the vehicle and accident avoidance operation is not required.
  • the sensor information includes timestamp information.
  • FIG. 5 is a flowchart showing an example of the processing procedure of the camera sensor information acquisition unit 103 in the first embodiment of the present invention.
  • the camera sensor is used to acquire sensor information during road driving.
  • the camera sensor information acquisition unit 103 (camera device) acquires the external environment in front of the vehicle as sensor information in step S10302 in the figure, and outputs the sensor information in step S10303.
  • FIG. 6 is a diagram showing an example of camera sensor information 10401 in the first embodiment of the present invention.
  • the sensor information from the camera includes sensor data (No. (1)) when an obstacle such as a pedestrian is present in front of the vehicle and an accident avoidance operation is required, and sensor data (No. (2)) when no obstacle such as a pedestrian is present in front of the vehicle and an accident avoidance operation is not required.
  • the sensor information includes timestamp information.
  • FIG. 7 is a flow chart showing an example of the processing procedure of the object detection unit (radar) 105 in the first embodiment of the present invention.
  • An accident avoidance decision is made from the acquired radar sensor information.
  • the object detection unit (radar) 105 (processor) acquires radar sensor information 102 output by the radar sensor information acquisition unit 101 in step S10502 in the figure, performs object detection based on the radar sensor information in step S10503, determines whether or not an accident should be avoided based on the object detection result in step S10504, and outputs an accident avoidance necessity flag in step S10505.
  • FIG. 8 shows an example of an object detection result (radar) 10601 in the first embodiment of the present invention.
  • radar object detection result
  • FIG. 9 is a diagram showing an example of the accident avoidance necessity flag (radar) 10701 in the first embodiment of the present invention.
  • a vehicle accident occurrence prediction is performed and the accident avoidance necessity flag is determined. For example, there is flag 0 (No. (1)) when no obstacle (pedestrian, etc.) is recognized ahead while the vehicle is traveling and accident avoidance (collision avoidance) is not required, and flag 1 (No. (2)) when an obstacle is recognized ahead while the vehicle is traveling and accident avoidance (collision avoidance) is required.
  • the present invention also includes cases where an obstacle is recognized ahead of the vehicle but accident avoidance is not required.
  • the accident avoidance necessity flag includes timestamp information.
  • FIG. 10 is a flowchart showing an example of the processing procedure of the object detection unit (Ver. N) 108 in the first embodiment of the present invention.
  • An accident avoidance decision is made from the acquired camera sensor information.
  • the object detection unit (Ver. N) 108 (processor) acquires the camera sensor information 104 output by the camera sensor information acquisition unit 103 in step S10802 in the figure, performs object detection based on the camera sensor information in step S10803, determines whether or not an accident needs to be avoided based on the object detection results in step S10804, and outputs an accident avoidance needs flag in step S10805.
  • FIG. 11 is a diagram showing an example of an object detection result (Ver. N) 10901 in the first embodiment of the present invention.
  • an object detection result Ver. N
  • FIG. 11 shows an example of an object detection result (Ver. N) 10901 in the first embodiment of the present invention.
  • a vehicle is recognized in front of the vehicle (No. (1))
  • a pedestrian is recognized in front of the vehicle (No. (2)).
  • the present invention does not limit the detection target.
  • FIG. 12 is a diagram showing an example of the accident avoidance necessity flag (Ver. N) 11001 in the first embodiment of the present invention.
  • a vehicle accident occurrence prediction is performed and the accident avoidance necessity flag is determined. For example, there is flag 0 (No. (1)) when no obstacle (pedestrian, etc.) is recognized ahead while the vehicle is traveling and accident avoidance is unnecessary, and flag 1 (No. (2)) when an obstacle is recognized ahead while the vehicle is traveling and accident avoidance is unnecessary.
  • the present invention also includes cases where an obstacle is recognized ahead of the vehicle but accident avoidance is unnecessary.
  • the accident avoidance necessity flag includes timestamp information.
  • FIG. 13 is a flowchart showing an example of the processing procedure of the object detection unit (Ver. N+1) 111 in the first embodiment of the present invention.
  • An accident avoidance judgment is made from the acquired camera sensor information.
  • the object detection unit (Ver. N+1) 111 (processor) acquires the camera sensor information 104 output by the camera sensor information acquisition unit 103 in step S11102 in the figure, performs object detection based on the camera sensor information in step S11103, judges whether or not an accident needs to be avoided based on the object detection result in step S11104, and outputs an accident avoidance needs flag in step S11105.
  • FIG. 14 is a diagram showing an example of an object detection result (Ver. N+1) 11201 in the first embodiment of the present invention.
  • an object detection result Ver. N+1
  • FIG. 14 is a diagram showing an example of an object detection result (Ver. N+1) 11201 in the first embodiment of the present invention.
  • an object detection result Ver. N+1
  • FIG. 15 is a diagram showing an example of the accident avoidance necessity flag (Ver. N+1) 11301 in the first embodiment of the present invention.
  • a vehicle accident occurrence prediction is performed and the accident avoidance necessity flag is determined. For example, there is flag 0 (No. (1)) when no obstacle (pedestrian, etc.) is recognized ahead while the vehicle is traveling and accident avoidance is unnecessary, and flag 1 (No. (2)) when an obstacle is recognized ahead while the vehicle is traveling and accident avoidance is unnecessary.
  • the present invention also includes cases where an obstacle is recognized ahead of the vehicle but accident avoidance is unnecessary.
  • the accident avoidance necessity flag includes timestamp information.
  • FIG. 16 is a flowchart showing an example of the processing procedure of the server transmission unit 114 in the first embodiment of the present invention.
  • the server transmission unit 114 (processor and communication device) acquires each accident avoidance necessity flag in step S11402, and acquires synchronized camera sensor information in step S11403. The acquired information is transmitted to the server in step S11404.
  • FIG. 17 shows the overall configuration of a server system in the first embodiment of the present invention.
  • the server 6 has a server receiving unit 115, accident avoidance necessity determination result 116, camera sensor information 117, a performance determination unit 118, determination performance 119, a log output unit 120, and log information 121.
  • the server 6 is composed of, for example, a processor such as a CPU, a memory, a storage device such as a hard disk, and a communication device that complies with various communication standards.
  • the functions of the performance determination unit 118 and the like are realized, for example, by the processor executing software stored in the storage device. The same applies to the other functions below.
  • FIG. 18 is a flowchart showing an example of a processing procedure in the server receiving unit 115 in the first embodiment of the present invention.
  • the server receiving unit 115 acquires the accident avoidance necessity result (accident avoidance necessity flag (radar) 107, accident avoidance necessity flag (Ver. N) 110, and accident avoidance necessity flag (Ver. N+1) 113) and camera sensor information 104 in step S11502, and outputs the accident avoidance necessity result (accident avoidance necessity flag (radar) 107, accident avoidance necessity flag (Ver. N) 110, and accident avoidance necessity flag (Ver. N+1) 113) and camera sensor information 104 in step S11503.
  • the accident avoidance necessity result an accident avoidance necessity flag (radar) 107, accident avoidance necessity flag (Ver. N) 110, and accident avoidance necessity flag (Ver. N+1) 113
  • camera sensor information 104 in step S11503.
  • FIG. 19 is a diagram showing an example of an accident avoidance necessity judgment result 11601 in the first embodiment of the present invention.
  • the accident avoidance necessity flag (radar) 107 indicates that avoidance is necessary
  • the accident avoidance necessity flag (Ver. N) 110 indicates that avoidance is necessary
  • the accident avoidance necessity flag (Ver. N+1) 113 indicates that avoidance is necessary (No. (1))
  • the accident avoidance necessity flag (radar) 107 indicates that avoidance is necessary
  • the accident avoidance necessity flag (Ver. N) 110 indicates that avoidance is necessary
  • the accident avoidance necessity flag (Ver. N+1) 113 indicates that avoidance is not necessary (No. (2)).
  • N+1) 113 indicates that avoidance is necessary (No. (5)), when the accident avoidance necessity flag (radar) 107 indicates that avoidance is not necessary, the accident avoidance necessity flag (Ver. N) 110 indicates that avoidance is necessary, and the accident avoidance necessity flag (Ver. N+1) 113 indicates that avoidance is not necessary (No. (6)), There are cases where the avoidance necessity flag (radar) 107 indicates that avoidance is not necessary, the accident avoidance necessity flag (Ver. N) 110 indicates that avoidance is not necessary, and the accident avoidance necessity flag (Ver. N+1) 113 indicates that avoidance is necessary (No. (7)), and there are cases where the accident avoidance necessity flag (radar) 107 indicates that avoidance is not necessary, the accident avoidance necessity flag (Ver. N) 110 indicates that avoidance is not necessary, and the accident avoidance necessity flag (Ver. N+1) 113 indicates that avoidance is not necessary (No. (8)).
  • FIG. 20 is a diagram showing an example of camera sensor information 11701 in the first embodiment of the present invention.
  • the sensor information from the camera includes sensor data (No. (1)) when an obstacle such as a pedestrian is present in front of the vehicle and accident avoidance operation is required, and sensor data (No. (2)) when no obstacle such as a pedestrian is present in front of the vehicle and accident avoidance operation is not required.
  • the sensor information includes timestamp information.
  • FIG. 21 is a flowchart showing an example of the processing procedure of the performance determination unit 118 in the first embodiment of the present invention.
  • the performance of the Ver. N+1 software is determined based on the accident avoidance necessity result.
  • the performance determination unit 118 acquires the accident avoidance necessity determination result 116 in step S11802, performs a performance determination of the Ver. N+1 software in step S11803, and outputs the determined performance of the Ver. N+1 software in step S11804.
  • the present invention makes it possible to use other information in the performance determination.
  • FIG. 22 is a diagram showing an example of the determination performance 11901 in the first embodiment of the present invention.
  • the performance of Ver. N+1 is shown by a combination of information on each accident avoidance necessity flag.
  • the determination result is that there is no change in performance (success).
  • the determination result is a decrease in performance.
  • the determination result is performance improvement.
  • the determination result is that there is no change in performance (edge case).
  • the determination result is that there is no change in performance (edge case).
  • the determination result is performance improvement.
  • the determination result is performance degradation.
  • the accident avoidance necessity flag (radar) 107 indicates that avoidance is not necessary
  • the accident avoidance necessity flag (Ver. N) 110 indicates that avoidance is not necessary
  • the accident avoidance necessity flag (Ver. N+1) 113 indicates that avoidance is not necessary (No. (8))
  • the judgment result is that there is no change in performance (success).
  • FIG. 23 is a flowchart showing an example of the processing procedure of the log output unit 120 in the first embodiment of the present invention.
  • the log output unit 120 acquires the determination performance 119 in step S12002, acquires the camera sensor information 117 synchronized with the determination performance in step S12003, creates log information by combining the determination performance 119 and the camera sensor information 117 when the determination performance 119 is a performance degradation or no performance change (edge case) in step S12004, and outputs the log information in step S12005. Note that even if the determination performance 119 is other information, it is also possible to create log information combined with the camera sensor information 117.
  • FIG. 24 is a diagram showing an example of log information 12101 in the first embodiment of the present invention.
  • the log information includes Ver. N+1 software performance judgment information and camera sensor information.
  • the judgment performance 119 is no performance change (success) (No. (1))
  • the log information contains only no performance change (success) information
  • the judgment performance 119 is performance improvement (No. (2))
  • the log information contains only performance improvement judgment information
  • the judgment performance 119 is performance deterioration (No. (3)
  • the log information contains performance improvement judgment information and camera sensor information
  • the judgment performance 119 is no performance change (edge case) (No. (4))
  • the log information contains no performance change (edge case) judgment information and camera sensor information.
  • the present invention does not limit the information included in the log information to camera sensor information, and allows the log information to contain other information such as radar sensor information.
  • the vehicle control device 1 and server 6 constitute a software verification system that verifies the new version (Ver. N+1) of the control software (software that realizes the object detection unit (Ver. N+1) 111).
  • the software verification system detects degradation (performance degradation) of the control software of the new version (Ver. N+1) using the first information (accident avoidance necessity flag (Ver. N) 110), the second information (accident avoidance necessity flag (Ver. N+1) 113), and the third information (accident avoidance necessity flag (radar) 107) related to vehicle control other than the first and second information.
  • the first information is the output of the current version (Ver. N) of control software (software that realizes the object detection unit (Ver. N) 108) that is used to control the vehicle, with sensor data (camera sensor information 104) from a sensor (camera sensor information acquisition unit 103) mounted on the vehicle as input.
  • the second information is the output of the new version (Ver. N+1) of control software (software that realizes the object detection unit (Ver. N+1) 111) that is not used to control the vehicle, with sensor data (camera sensor information 104) as input.
  • the software verification system (server 6) verifies (reverifies) the new version of the control software using the sensor data (camera sensor information 104) when degradation is detected.
  • the third information (accident avoidance necessity flag (radar) 107)
  • the sensor data camera sensor information 1014
  • the software verification system determines that there is degradation (deterioration in performance) when the first information (accident avoidance necessity flag (Ver. N) 110) and the second information (accident avoidance necessity flag (Ver. N+1) 113) do not match, but the first information (accident avoidance necessity flag (Ver. N) 110) and the third information (accident avoidance necessity flag (radar) 107) match.
  • the third information is information indicating the necessity of accident avoidance based on the radar sensor.
  • the sensor mounted on the vehicle (which outputs sensor data to be input to the control software) is a camera (camera sensor information acquisition unit 103).
  • the software verification system determines a change in performance of the new version of the software relative to the current version of the software using the first information, the second information, and the third information, and verifies the new version of the software using sensor data corresponding to the time when the change in performance was determined.
  • the first information By using the first information, the second information, and the third information, it is possible to determine in detail the changes in the performance of the new version of the software. As a result, it is possible to easily improve the software that uses vehicle sensor data as input.
  • the software verification system determines that there is no change in performance when the first information, the second information, and the third information indicate that accident avoidance is necessary or that accident avoidance has occurred (No. (1) in FIG. 22); determines that performance has deteriorated when the first information and the third information indicate that accident avoidance is necessary or that accident avoidance has occurred and the second information indicates that accident avoidance is unnecessary or that accident avoidance has not occurred (No. (2) in FIG. 22); determines that performance has improved when the second information and the third information indicate that accident avoidance is necessary or that accident avoidance has occurred and the first information indicates that accident avoidance is unnecessary or that accident avoidance has not occurred (No. (3) in FIG.
  • the first information is information indicating that accident avoidance is necessary or that accident avoidance has occurred
  • the second information and the third information are information indicating that accident avoidance is unnecessary or that accident avoidance has not occurred
  • it is determined that there is an improvement in performance (No. (6) in FIG. 22)
  • the second information is information indicating that accident avoidance is necessary or that accident avoidance has occurred
  • the first information and the third information are information indicating that accident avoidance is unnecessary or that accident avoidance has not occurred, it is determined that there is a decrease in performance (No. (7) in FIG. 22)
  • the first information, the second information, and the third information are information indicating that accident avoidance is unnecessary or that accident avoidance has not occurred, it is determined that there is no change in performance (No. (8) in FIG. 22).
  • the first information and the second information are information indicating whether or not accident avoidance is necessary or present based on sensor data
  • the third information is information indicating whether or not accident avoidance is necessary or present based on data different from the sensor data.
  • the change in performance is determined by the server 6 (performance determination unit 118 in FIG. 17), but may also be determined by the vehicle control device 1 (performance determination unit 122 in FIG. 25, described later).
  • the software verification system performs machine learning using the sensor data corresponding to the results of the judgments No. (2), (4), (5), and (7) in FIG. 22 as training data for cases in which the software needs to be improved in a new version, or performs machine learning using the sensor data corresponding to the results of the judgments No. (1), (3), (6), and (8) in FIG. 22 as training data for cases in which the software does not need to be improved in a new version.
  • the software verification system in this embodiment is configured to compare the output of the current version of the control software with the output of the new version of the control software and other information related to vehicle control, making it possible to detect degradation of the new version of the software. As a result, it has the effect of enabling data collection and re-verification that are effective in improving the new version of the software.
  • the difference from the first embodiment is that instead of transmitting the accident avoidance necessity flag (radar) 107, the accident avoidance necessity flag (Ver. N) 110, the accident avoidance necessity flag (Ver. N+1) 113, and the camera sensor information 104 to the server, the performance of the Ver. N+1 software is judged within the vehicle control device 1 based on this information.
  • the second embodiment has the effect of reducing the amount of data in the log information shown in the first embodiment, and reducing the amount of communication. Note that the same reference numerals are used for configurations and procedures similar to those in the first embodiment, and their explanations are omitted.
  • FIG. 25 is a diagram showing the overall configuration of a vehicle control device 1 in a second embodiment of the present invention.
  • the vehicle control device also has a performance determination unit 122, a determined performance 123, a log output unit 124, and log information 125 instead of the server transmission unit 114.
  • FIG. 26 is a flowchart showing an example of the processing procedure of the performance determination unit 122 in the second embodiment of the present invention.
  • the performance of the Ver. N+1 software is determined based on the accident avoidance necessity flag.
  • the performance determination unit 122 acquires the accident avoidance necessity flag (radar) 107, the accident avoidance necessity flag (Ver. N) 110, and the accident avoidance necessity flag (Ver. N+1) 113 in step S12202, performs a performance determination of the Ver. N+1 software in step S12203, and outputs the determined performance of the Ver. N+1 software in step S12204.
  • the present invention makes it possible to use other information for performance determination.
  • FIG. 27 shows an example of the determination performance 12301 in the second embodiment of the present invention.
  • the performance of Ver. N+1 is shown by combining the information of each accident avoidance necessity flag.
  • the determination result is that there is no change in performance (success).
  • the determination result is a decrease in performance.
  • the determination result is performance improvement.
  • the determination result is that there is no change in performance (edge case).
  • the determination result is that there is no change in performance (edge case).
  • the determination result is performance improvement.
  • the determination result is performance degradation.
  • the accident avoidance necessity flag (radar) 107 indicates that avoidance is not necessary
  • the accident avoidance necessity flag (Ver. N) 110 indicates that avoidance is not necessary
  • the accident avoidance necessity flag (Ver. N+1) 113 indicates that avoidance is not necessary (No. (8))
  • the judgment result is that there is no change in performance (success).
  • FIG. 28 is a flowchart showing an example of the processing procedure of the log output unit 124 in the second embodiment of the present invention.
  • the log output unit 124 acquires the judgment performance 123 in step S12402, acquires the camera sensor information 104 synchronized with the judgment performance in step S12403, creates log information by combining the judgment performance 123 and the camera sensor information 104 when the judgment performance 123 shows a performance degradation or no performance change (edge case) in step S12404, and outputs the log information in step S12405. Note that even if the judgment performance 123 is other information, it is also possible to create log information combined with the camera sensor information 104.
  • FIG. 29 is a diagram showing an example of log information 12501 in the second embodiment of the present invention.
  • the log information includes Ver. N+1 software performance judgment information and camera sensor information.
  • the judgment performance 123 is no performance change (success) (No. (1))
  • the log information contains only no performance change (success) information
  • the judgment performance 123 is performance improvement (No. (2))
  • the log information contains only performance improvement judgment information
  • the judgment performance 123 is performance deterioration (No. (3)
  • the log information contains performance improvement judgment information and camera sensor information
  • the judgment performance 123 is no performance change (edge case) (No. (4))
  • the log information contains no performance change (edge case) judgment information and camera sensor information.
  • the present invention does not limit the information included in the log information to camera sensor information, and allows the log information to contain other information such as radar sensor information.
  • the vehicle control device 1 includes a degradation detection unit (performance determination unit 122) that detects degradation (performance degradation) of the control software of the new version (Ver. N+1) using first information (accident avoidance necessity flag (Ver. N) 110), second information (accident avoidance necessity flag (Ver. N+1) 113), and third information related to vehicle control other than the first and second information (accident avoidance necessity flag (radar) 107), and a log information assignment unit (log output unit 124) that assigns log information related to the degradation to the sensor data (camera sensor information 104) at the time when the degradation is detected by the degradation detection unit.
  • a degradation detection unit performance determination unit 122 that detects degradation (performance degradation) of the control software of the new version (Ver. N+1) using first information (accident avoidance necessity flag (Ver. N) 110), second information (accident avoidance necessity flag (Ver. N+1) 113), and third information related to vehicle control other than the first and second information (accident avoidance necessity flag (radar) 107
  • log output unit 124 that assign
  • the first information is the output of the current version (Ver. N) of control software that is used to control the vehicle, with sensor data (camera sensor information 104) from a sensor (camera sensor information acquisition unit 103) mounted on the vehicle as input.
  • the second information is the output of a new version (Ver. N+1) of control software that is not used to control the vehicle, with sensor data (camera sensor information 104) as input.
  • the sensor data By adding log information related to degradation to the sensor data (camera sensor information 104), it becomes easier to verify the degradation using the sensor data. As a result, it becomes easier to improve software that uses the vehicle's sensor data as input. Note that when the charging cable of the charger in the charging station is connected to the charging socket of a vehicle (such as an electric vehicle), the sensor data (camera sensor information 104) with the added log information may be uploaded to a server.
  • the vehicle control device in this embodiment is configured to perform performance judgment of Ver. N+1 inside the vehicle control device 1 and create log information in combination with the camera sensor information, making it possible to select and discard camera sensor information.
  • Ver. N+1 inside the vehicle control device 1
  • create log information in combination with the camera sensor information making it possible to select and discard camera sensor information.
  • FIG. 30A A vehicle control device and method according to a third example of the present invention will be described with reference to FIGS. 30A to 34.
  • FIG. 30A A vehicle control device and method according to a third example of the present invention will be described with reference to FIGS. 30A to 34.
  • FIG. 30A A vehicle control device and method according to a third example of the present invention will be described with reference to FIGS. 30A to 34.
  • FIG. 30A Third Example Real-time Transmission
  • the difference from the first embodiment is that instead of transmitting all of the accident avoidance necessity flag (radar) 107, accident avoidance necessity flag (Ver. N) 110, accident avoidance necessity flag (Ver. N+1) 113, and camera sensor information 104 to the server, a performance judgment of the Ver. N+1 software is made within the vehicle control device 1 based on this information, and log information is classified according to the judgment result and transmitted in real time or non-real time.
  • the third embodiment has the effect of enabling rapid verification on the server while suppressing an increase in the processing load within the vehicle due to data transmission to the server. Note that the same reference numerals are used for configurations and procedures similar to those of the first embodiment, and their explanations are omitted.
  • Fig. 30A is a diagram showing the overall configuration of a vehicle control device 1 in a third embodiment of the present invention.
  • the vehicle control device 1 in the third embodiment has a performance determination unit 122, determined performance 123, log output unit 124, log information 125, real-time transmission unit 126, real-time transmission log information 127, non-real-time transmission unit 128, and non-real-time transmission log information 129 instead of the server transmission unit 114.
  • the real-time transmission unit 126, real-time transmission log information 127, non-real-time transmission unit 128, and non-real-time transmission log information 129 may be provided in another electronic control device such as a TCU (Telematics Control Unit).
  • TCU Telematics Control Unit
  • FIG. 31 is a flowchart showing an example of the processing procedure of the real-time transmission unit 126 in the third embodiment of the present invention.
  • the real-time transmission unit 126 acquires the log information 125 in step S12602, extracts log data in cases where the Ver. N+1 software has determined that performance has deteriorated or there has been no change in performance (edge case) in step S12603, and transmits the extracted log data in real time in step S12604. Note that in the present invention, the log information to be transmitted in real time can be changed.
  • FIG. 32 is a diagram showing an example of real-time transmission log information 12701 in the third embodiment of the present invention.
  • the real-time transmission log information includes judgment information and camera sensor information (No. (1)) when the performance of the Ver. N+1 software deteriorates, and judgment information and camera sensor information (No. (2)) when the performance of the Ver. N+1 software does not change (edge case).
  • the present invention does not limit the information included in the log information to camera sensor information, and allows it to include other information such as radar sensor information.
  • FIG. 33 is a flowchart showing an example of the processing procedure of the non-real-time transmission unit 128 in the third embodiment of the present invention.
  • the non-real-time transmission unit 128 acquires the log information 125 in step S12802, extracts log data in the case where the Ver. N+1 software is judged to have improved performance or no change in performance (success) in step S12803, and transmits the extracted log data in non-real-time in step S12804.
  • the log information to be transmitted in non-real-time can be changed.
  • Non-real-time transmission may also be performed when the processing load of the vehicle control device 1 is smaller than a predetermined value.
  • FIG. 34 is a diagram showing an example of non-real-time transmission log information 12901 in the third embodiment of the present invention.
  • the non-real-time transmission log information includes judgment information (No. (1)) when the performance of the Ver. N+1 software remains unchanged (successful) and judgment information (No. (2)) when the performance of the Ver. N+1 software improves.
  • the non-real-time transmission log information does not include camera sensor information, but may include camera sensor information corresponding to the judgment result (judgment performance).
  • the software verification system (vehicle control device 1) is equipped with a degradation detection unit (performance determination unit 122) that is mounted on the vehicle and detects degradation, a log information assignment unit (log output unit 124) that is mounted on the vehicle and assigns log information related to degradation to sensor data (camera sensor information 104) at the time when the degradation is detected by the degradation detection unit (performance determination unit 122), and a data transmission unit (real-time transmission unit 126, non-real-time transmission unit 128) that is mounted on the vehicle and transmits the sensor data (camera sensor information 104) with the assigned log information to the server 6.
  • a degradation detection unit performance determination unit 122
  • log information assignment unit log output unit 124 that is mounted on the vehicle and assigns log information related to degradation to sensor data (camera sensor information 104) at the time when the degradation is detected by the degradation detection unit (performance determination unit 122)
  • data transmission unit real-time transmission unit 126, non-real-time transmission unit 128) that is mounted on the vehicle and transmits the sensor data (camera sensor information 104) with
  • the server can use the sensor data to perform verification for each piece of log information.
  • the vehicle control device 1 used in the software verification system may output sensor data (camera sensor information 104) with log information to a data transmission unit (a real-time transmission unit 126 and a non-real-time transmission unit 128 provided in the TCU) that transmits data to the server 6.
  • sensor data camera sensor information 104
  • data transmission unit a real-time transmission unit 126 and a non-real-time transmission unit 128 provided in the TCU
  • the software verification system (vehicle control device 1) is mounted on the vehicle and includes a storage unit (memory device) that stores log information (real-time transmission log information 127, non-real-time transmission log information 129).
  • the data transmission unit (non-real-time transmission unit 128) transmits the data (non-real-time transmission log information 129) stored in the storage unit to the server when the vehicle is stopped.
  • non-real-time transmission log information 129 By sending data (non-real-time transmission log information 129) to the server when the vehicle is stopped, it is possible to reduce the processing load while securing the hardware resources used to control the vehicle while it is traveling.
  • the vehicle control device in this embodiment is configured to transmit log information in real time or non-real time, which allows the transmission of log information taking into account the processing load within the vehicle control device. This has the effect of reducing hardware costs.
  • the difference from the first embodiment is that an accident avoidance operation flag is prepared using a driver input acquisition unit 130 and driver input information 131 instead of the radar sensor information acquisition unit 101 and radar sensor information 102.
  • the fourth embodiment has the effect of making it possible to collect accident occurrence cases that are difficult to recognize and judge using on-board sensors through the driver's recognition and judgment, and making it possible to use this information for evaluation and improvement of the Ver. N+1 software. Note that the same reference numerals are used for configurations and procedures that are the same as those in the first embodiment, and their explanations are omitted.
  • FIG. 35 is a diagram showing the overall configuration of a vehicle control device 1 in a fourth embodiment of the present invention.
  • the vehicle control device 1 in the fourth embodiment has a driver input acquisition unit 130 and driver input information 131 instead of the radar sensor information acquisition unit 101 and radar sensor information 102, and an accident avoidance operation detection unit 132, accident avoidance operation detection result 133, and accident avoidance operation flag (driver) 134 instead of the object detection unit (radar) 105, object detection result (radar) 106, and accident avoidance necessity flag (radar) 107.
  • FIG. 36 is a flowchart showing an example of the processing procedure of the driver input acquisition unit 130 in the fourth embodiment of the present invention.
  • the driver input acquisition unit 130 (accelerator opening sensor, brake depression sensor, steering angle sensor, etc.) acquires driver input information in step S13002, and outputs the driver input information in step S13003.
  • FIG. 37 shows an example of driver input information 13101 in the fourth embodiment of the present invention.
  • driver input information 13101 there is an accelerator input value (No. (1)), a brake input value (No. (2)), and a steering input value (No. (3)).
  • FIG. 38 is a flowchart showing the processing procedure of the accident avoidance operation detection unit 132 in the fourth embodiment of the present invention.
  • the accident avoidance operation detection unit 132 acquires driver input information in step S13202, determines whether the driver input is an accident avoidance operation in step S13203, and outputs the determination result in step S13204. For example, the accident avoidance operation detection unit 132 determines whether or not an accident avoidance operation has been performed based on the amount of change (time differential value) of the accelerator input value, the amount of change (time differential value) of the brake input value, and the amount of change (time differential value) of the steering input value.
  • FIG. 39 is a diagram showing an example of an accident avoidance operation determination result 13301 in the fourth embodiment of the present invention.
  • the determination results include no accident avoidance operation (No. (1)) and an accident avoidance operation (No. (2)).
  • FIG. 40 is a diagram showing an example of the accident avoidance operation flag 13401 in the fourth embodiment of the present invention.
  • a flag 0 (No. (1)) when no accident avoidance operation is performed
  • a flag 1 (No. (2)) when an accident avoidance operation is performed.
  • the software verification system detects degradation (performance degradation) of the control software of the new version (Ver. N+1) using the first information (accident avoidance necessary flag (Ver. N) 110), the second information (accident avoidance necessary flag (Ver. N+1) 113), and third information (accident avoidance operation flag (driver) 134) relating to vehicle control other than the first and second information.
  • the third information is information indicating whether or not the driver has performed an accident avoidance operation.
  • the configuration and operation of the server 6 are the same as those in the first embodiment, and therefore will not be described.
  • the performance determination unit 122, the determined performance 123, the log output unit 124, and the log information 125 may be provided in the vehicle control device 1, as in the second embodiment.
  • the software verification system in this embodiment is configured to obtain an accident avoidance operation flag based on information input by the driver, making it possible to compare the driver's judgment results with the output results of the control software. As a result, it is possible to obtain sensor data in situations where the system does not operate correctly.
  • the performance of the new version of the software is judged by comparing the execution results of the old version of the software with the execution results of the new version of the software and the detected accident avoidance operation information, making it possible to collect data necessary for performance improvement.
  • the performance of the new version of the software is judged by comparing the execution results of the old version of the software with the execution results of the new version of the software and the detected accident avoidance operation information, making it possible to collect data necessary for performance improvement.
  • by selecting and discarding sensor data according to the judged performance of the new version of the software it is possible to reduce the amount of log information sent to the server.
  • data transmission takes into account the processing load within the vehicle control device, making it possible to reduce hardware costs.
  • driver input information for accident avoidance operation information it becomes possible to obtain sensor data in situations where the system is not operating normally.
  • the present invention is not limited to the above-described embodiments, but includes various modified examples.
  • the above-described embodiments have been described in detail to clearly explain the present invention, and are not necessarily limited to those having all of the configurations described. It is also possible to replace part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. It is also possible to add, delete, or replace part of the configuration of each embodiment with other configurations.
  • each of the above configurations, functions, etc. may be realized in hardware, for example by designing some or all of them as an integrated circuit. Furthermore, each of the above configurations, functions, etc. may be realized in software by a processor interpreting and executing a program that realizes each function. Information such as the programs, tables, files, etc. that realize each function can be stored in a memory, a recording device such as a hard disk or SSD (Solid State Drive), or a recording medium such as an IC card, SD card, or DVD.
  • a recording device such as a hard disk or SSD (Solid State Drive)
  • a recording medium such as an IC card, SD card, or DVD.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Quality & Reliability (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Debugging And Monitoring (AREA)

Abstract

車両のセンサデータを入力とするソフトウェアの改善を容易にすることができるソフトウェア検証システム等を提供する。ソフトウェア検証システムは、車両に搭載されたセンサからのセンサデータを入力とし、車両の制御に用いられている現バージョンの制御ソフトウェアの出力である第1の情報と、センサデータを入力とし、車両の制御には利用されない新バージョンの制御ソフトウェアの出力である第2の情報と、第1並びに第2の情報以外の車両の制御に関する第3の情報と、を用いて新バージョンの制御ソフトウェアのデグレを検知し(性能判定部118)、デグレが検知された際のセンサデータを用いて新バージョンの制御ソフトウェアを検証する。

Description

ソフトウェア検証システム及び車両制御装置
 本発明は、ソフトウェア検証システム及び車両制御装置に関する。
 非特許文献1では、ソフトウェアの安全性評価手法として様々な手法を紹介しており、なかでもShadow Modeによる評価手法は実車両で外環境情報を用いてソフトウェアをバックグラウンド実行し評価するため、安全性を確保しつつ精度の高い評価が期待できる。
 特許文献1では、旧バージョンソフトウェアと、新バージョンソフトウェアを並行または並列に実行し、出力結果比較時の不一致情報を出力する技術を提案している。実車両が実環境でセンシングしたデータを入力情報として用いるだけでなく、複数車両で同時検証が可能になり、検証制度及び効率の観点で有効である。
S Riedmaier. et. al., "Survey on Scenario-Based Safety Assessment of Automated Vehicles," in IEEE Access, 2020.
特開2022-13187号公報
 非特許文献1のShadow Mode技術では、実車両で対象の新ソフトウェアを旧ソフトウェアとは別にバックグラウンドで実行し検証する。これにより、実車両取得データを用いて対象のソフトウェアをバックグラウンド実行した結果を取得することが出来る。しかしながら、全ての実行結果に対して評価を行うには膨大な時間を必要とする問題がある。そのため、旧ソフトウェアと新ソフトウェアの実行結果に対して評価を行う手法が望まれる。
 特許文献1では、車両走行中に取得した(検証シナリオ)を用いて新旧2つのバージョンのソフトウェアを並行(1つのCPU上で動作)または並列(複数のCPU上で動作)に実行する。これにより、限定的にソフトウェア検証を行うことが出来る。しかしながら、旧ソフトウェアと新ソフトウェアに実行結果の差分に対して、システムが車両上で新ソフトウェアの性能判定(向上または低下)することは困難であり人間が性能判定するには膨大な作業工数を必要としてしまう問題がある。また、旧ソフトウェアと新ソフトウェアの双方で同じ出力を行い、かつ誤った出力結果であった場合は、実行結果の差分になりえないため評価することも困難である。そのため、車両上のシステムで旧ソフトウェアと新ソフトウェアの実行結果差分に対して性能判定を行い、旧ソフトウェアと新ソフトウェアともに不適切な出力となる場合の判定も行うことが課題となる。
 本発明は、車両のセンサデータを入力とするソフトウェアの改善を容易にすることができるソフトウェア検証システム等を提供することを目的とする。
 上記目的を達成するために、本発明の一例のソフトウェア検証システムは、車両に搭載されたセンサからのセンサデータを入力とし、前記車両の制御に用いられている現バージョンの制御ソフトウェアの出力である第1の情報と、前記センサデータを入力とし、前記車両の制御には利用されない新バージョンの制御ソフトウェアの出力である第2の情報と、前記第1並びに第2の情報以外の前記車両の制御に関する第3の情報と、を用いて前記新バージョンの制御ソフトウェアのデグレを検知し、前記デグレが検知された際の前記センサデータを用いて前記新バージョンの制御ソフトウェアを検証する。
 本発明によれば、車両のセンサデータを入力とするソフトウェアの改善を容易にすることができる。上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明の第1の実施例における車両制御装置の全体構成を示した図である。 本発明の第1の実施例における車両制御装置とネットワークで接続された制御装置の接続関係を示した図である。 本発明の第1の実施例におけるレーダセンサ情報取得部の処理手順例を示したフローチャートである。 本発明の第1の実施例におけるレーダセンサ情報の一例を示した図である。 本発明の第1の実施例におけるカメラセンサ情報取得部の処理手順例を示したフローチャートである。 本発明の第1の実施例におけるカメラセンサ情報の一例を示した図である。 本発明の第1の実施例におけるレーダセンサを用いた物体検出部の処理手順例を示したフローチャートである。 本発明の第1の実施例におけるレーダセンサによる物体検出結果の一例を示した図である。 本発明の第1の実施例におけるレーダセンサによる物体検出結果を基にした、事故回避要否フラグの一例を示した図である。 本発明の第1の実施例におけるカメラセンサを用いたVer. Nのソフトウェアによる物体検出部の処理手順例を示したフローチャートである。 本発明の第1の実施例におけるカメラセンサを用いたVer. Nのソフトウェアによる物体検出結果の一例を示した図である。 本発明の第1の実施例におけるカメラセンサを用いたVer. Nのソフトウェアによる物体検出結果を基にした、事故回避要否フラグの一例を示した図である。 本発明の第1の実施例におけるカメラセンサを用いたVer. N+1のソフトウェアによる物体検出部の処理手順例を示したフローチャートである。 本発明の第1の実施例におけるカメラセンサを用いたVer. N+1のソフトウェアによる物体検出結果の一例を示した図である。 本発明の第1の実施例におけるカメラセンサを用いたVer. N+1のソフトウェアによる物体検出結果を基にした、事故回避要否フラグの一例を示した図である。 本発明の第1の実施例における各ソフトウェア実行結果をサーバ送信する処理手順例を示したフローチャートである。 本発明の第1の実施例におけるサーバのシステム構成を表した図である。 本発明の第1の実施例におけるサーバ受信部の処理手順例を示したフローチャートである。 本発明の第1の実施例におけるサーバ内で保持する事故回避要否判定結果の一例を示した図である。 本発明の第1の実施例におけるサーバ内のカメラセンサ情報の一例を示した図である。 本発明の第1の実施例におけるサーバ内でVer. N+1のソフトウェアの性能判定を行う性能判定部の処理手順例を示したフローチャートである。 本発明の第1の実施例におけるサーバ内で判定したVer. N+1のソフトウェアの判定性能の一例を示した図である。 本発明の第1の実施例におけるサーバ内でVer. N+1のソフトウェアの判定性能を基にログを作成し出力するログ出力部の処理手順例を示したフローチャートである。 本発明の第1の実施例におけるサーバ内でVer. N+1のソフトウェアの判定性能を基に作成したログ情報の一例を示した図である。 本発明の第2の実施例における車両制御装置の全体構成を示した図である。 本発明の第2の実施例におけるVer. N+1のソフトウェアの性能判定部の処理手順例を示したフローチャートである。 本発明の第2の実施例におけるVer. N+1のソフトウェアの判定性能の一例を示した図である。 本発明の第2の実施例におけるVer. N+1のソフトウェアの判定性能を基にログを作成し出力するログ出力部124の処理手順例を示したフローチャートである。 本発明の第2の実施例におけるVer. N+1のソフトウェアの判定性能を基に作成したログ情報の一例を示した図である。 本発明の第3の実施例における車両制御装置の全体構成を示した図である。 本発明の第3の実施例の変形例における車両制御装置の全体構成を示した図である。 本発明の第3の実施例におけるログ情報をリアルタイムで送信するリアルタイム送信部の処理手順例を示したフローチャートである。 本発明の第3の実施例におけるリアルタイム送信ログ情報の一例を示した図である。 本発明の第3の実施例におけるログ情報を非リアルタイムで送信する非リアルタイム送信部の処理手順例を示したフローチャートである。 本発明の第3の実施例における非リアルタイム送信ログ情報の一例を示した図である。 本発明の第4の実施例における車両制御装置の全体構成を示した図である。 本発明の第4の実施例におけるドライバ入力取得部の処理手順例を示したフローチャートである。 本発明の第4の実施例におけるドライバ入力情報の一例を示した図である。 本発明の第4の実施例における事故回避操作検知部の処理手順例を示した図である。 本発明の第4の実施例における事故回避操作検知結果の一例を示した図である。 本発明の第4の実施例における事故回避操作フラグ(ドライバ)の一例を示した図である。
 以下の各実施例は、ソフトウェア検証システム及びそれに用いられる車両制御装置(電子制御装置)に関するものである。各実施例は、新ソフトウェアの性能判定(デグレ検知等)を行う課題を解決するためになされたものであり、旧ソフトウェアと新ソフトウェアの実行結果とその他情報を用い、ソフトウェア検証システムで新ソフトウェアの性能判定を可能とした車両制御装置等を提供することを目的とする。
 (第1の実施例)
 本発明の第1の実施例の車両制御システムについて図1~図24を用いて説明する。
 図1は、本発明の第1の実施例における車両制御システムの全体構成を示した図である。
 車両制御装置1は、レーダセンサ情報取得部101、レーダセンサ情報102、カメラセンサ情報取得部103、カメラセンサ情報104、物体検知部(レーダ)105、物体検知結果(レーダ)106、事故回避要否フラグ(レーダ)107、物体検知部(Ver. N)108、物体検知結果(Ver. N)109、事故回避要否フラグ(Ver. N)110、物体検知部(Ver. N+1)111、物体検知結果(Ver. N+1)112、事故回避要否フラグ(Ver. N+1)113、サーバ送信部114を有する。
 なお、車両制御装置1は、例えば、CPU(Central Processing Unit)等のプロセッサ、メモリ等の記憶装置、種々の通信規格に応じた通信装置等から構成される。物体検知部(Ver. N)108、物体検知部(Ver. N+1)111等の機能は、例えば、プロセッサが記憶装置に記憶されたソフトウェアを実行することにより実現される。以下、その他の機能についても同様である。
 図2は、本発明の第1の実施例における車両制御装置1とネットワークで接続された制御装置との接続関係例を示した図である。車両制御装置1は、ゲートウェイ2とカメラ制御装置3とレーダ制御装置4とソナー制御装置5と車内ネットワークで接続されている。ゲートウェイ2からは、車速などの車両データが車両制御装置1に送信されている。また、カメラ制御装置3、レーダ制御装置4,ソナー制御装置5からはそれぞれ、カメラセンサ由来のセンサデータ、レーダセンサ由来のセンサデータ、ソナーセンサ由来のセンサデータが車両制御装置1に送信されている。車両制御装置1は、これら車両データおよびセンサデータを基に、車両の進む・曲がる・止まるといった判断を行い、車両の制御を実現する。図に示すように、車両では、複数の制御装置とゲートウェイとがネットワークで接続されており、制御装置間でセンサデータや車両データなどを通信し合うことで、車両の制御を実現している。これらネットワークの通信は周期的または非周期的に行われる。
 図3は、本発明の第1の実施例におけるレーダセンサ情報取得部101の処理手順例を示したフローチャートである。レーダセンサを用いて、道路走行時のセンサ情報を取得する。例えば、レーダセンサ情報取得部101(レーダ装置)は、図中のステップS10102にて車両前方の外界環境をセンサ情報として取得し、ステップS10103にてセンサ情報を出力する。なお、本発明はレーダセンサに限定せずライダセンサなど他センサの代用も可能とする(変形例として許容される)。
 図4は、本発明の第1の実施例におけるレーダセンサ情報10201の一例を示した図である。レーダによるセンサ情報として、車両前方に歩行者等の障害物が存在し事故回避操作が必要な場合のセンサデータ(No.(1))と車両前方に歩行者等の障害物が存在せず事故回避操作が不要な場合のセンサデータ(No.(2))がある。なお、センサ情報にはタイムスタンプ情報が含まれる。
 図5は、本発明の第1の実施例におけるカメラセンサ情報取得部103の処理手順例を示したフローチャートである。カメラセンサを用いて、道路走行時のセンサ情報を取得する。例えば、カメラセンサ情報取得部103(カメラ装置)は、図中のステップS10302にて車両前方の外界環境をセンサ情報として取得し、ステップS10303にてセンサ情報を出力する。
 図6は、本発明の第1の実施例におけるカメラセンサ情報10401の一例を示した図である。カメラによるセンサ情報として、車両前方に歩行者等の障害物が存在し事故回避操作が必要な場合のセンサデータ(No.(1))と車両前方に歩行者等の障害物が存在せず事故回避操作が不要な場合のセンサデータ(No.(2))がある。なお、センサ情報にはタイムスタンプ情報が含まれる。
 図7は、本発明の第1の実施例における物体検知部(レーダ)105の処理手順例を示したフローチャートである。取得したレーダセンサ情報から事故回避判断を行う。例えば、物体検知部(レーダ)105(プロセッサ)は、図中のステップS10502ではレーダセンサ情報取得部101が出力するレーダセンサ情報102を取得し、ステップS10503でレーダセンサ情報を基に物体検出を行い、ステップS10504で物体検出結果を基に事故回避要否の判断を行い、ステップS10505で事故回避要否フラグを出力する。
 図8は、本発明の第1の実施例における物体検出結果(レーダ)10601の一例を示した図である。例えば、車両前方の車両を認識した場合(No.(1))と車両前方の歩行者を認識した場合(No.(2))がある。なお、本発明は検出対象の限定は行わない。
 図9は、本発明の第1の実施例における事故回避要否フラグ(レーダ)10701の一例を示した図である。物体検出結果(レーダ)10601を基に、車両の事故発生予測を行い、事故回避要否フラグを決定する。例えば、車両走行時に前方に障害物(歩行者等)を認識せず事故回避(衝突回避)を不要とする場合のフラグ0(No.(1))と車両走行時に前方に障害物を認識し事故回避(衝突回避)を必要とする場合のフラグ1(No.(2))がある。なお、本発明は車両前方に障害物を認識したが事故回避を不要とする場合も含まれる。なお、事故回避要否フラグにはタイムスタンプ情報が含まれる。
 図10は、本発明の第1の実施例における物体検知部(Ver. N)108の処理手順例を示したフローチャートである。取得したカメラセンサ情報から事故回避判断を行う。例えば、物体検知部(Ver. N)108(プロセッサ)は、図中のステップS10802ではカメラセンサ情報取得部103が出力するカメラセンサ情報104を取得し、ステップS10803でカメラセンサ情報を基に物体検出を行い、ステップS10804で物体検出結果を基に事故回避要否の判断を行い、ステップS10805で事故回避要否フラグを出力する。
 図11は、本発明の第1の実施例における物体検出結果(Ver. N)10901の一例を示した図である。例えば、車両前方の車両を認識した場合(No.(1))と車両前方の歩行者を認識した場合(No.(2))がある。なお、本発明は検出対象の限定は行わない。
 図12は、本発明の第1の実施例における事故回避要否フラグ(Ver. N)11001の一例を示した図である。物体検出結果(Ver. N)10901を基に、車両の事故発生予測を行い、事故回避要否フラグを決定する。例えば、車両走行時に前方に障害物(歩行者等)を認識せず事故回避を不要とする場合のフラグ0(No.(1))と車両走行時に前方に障害物を認識し事故回避を必要とする場合のフラグ1(No.(2))がある。なお、本発明は車両前方に障害物を認識したが事故回避を不要とする場合も含まれる。なお、事故回避要否フラグにはタイムスタンプ情報が含まれる。
 図13は、本発明の第1の実施例における物体検知部(Ver. N+1)111の処理手順例を示したフローチャートである。取得したカメラセンサ情報から事故回避判断を行う。例えば、物体検知部(Ver. N+1)111(プロセッサ)は、図中のステップS11102ではカメラセンサ情報取得部103が出力するカメラセンサ情報104を取得し、ステップS11103でカメラセンサ情報を基に物体検出を行い、ステップS11104で物体検出結果を基に事故回避要否の判断を行い、ステップS11105で事故回避要否フラグを出力する。
 図14は、本発明の第1の実施例における物体検出結果(Ver. N+1)11201の一例を示した図である。例えば、車両前方の車両を認識した場合(No.(1))と車両前方の歩行者を認識した場合(No.(2))がある。なお、本発明は検出対象の限定は行わない。
 図15は、本発明の第1の実施例における事故回避要否フラグ(Ver. N+1)11301の一例を示した図である。物体検出結果(Ver. N+1)11201を基に、車両の事故発生予測を行い事故回避要否フラグを決定する。例えば、車両走行時に前方に障害物(歩行者等)を認識せず事故回避を不要とする場合のフラグ0(No.(1))と車両走行時に前方に障害物を認識し事故回避を必要とする場合のフラグ1(No.(2))がある。なお、本発明は車両前方に障害物を認識したが事故回避を不要とする場合も含まれる。なお、事故回避要否フラグにはタイムスタンプ情報が含まれる。
 図16は、本発明の第1の実施例におけるサーバ送信部114の処理手順例を示したフローチャートである。サーバ送信部114(プロセッサ及び通信装置)は、ステップS11402で各事故回避要否フラグを取得し、ステップS11403で同期したカメラセンサ情報を取得する。ステップS11404にて取得情報をサーバへ送信する。
 図17は、本発明の第1の実施例におけるサーバシステムの全体構成を示した図である。
 サーバ6は、サーバ受信部115、事故回避要否判定結果116、カメラセンサ情報117、性能判定部118、判定性能119、ログ出力部120、ログ情報121を有する。
 なお、サーバ6は、例えば、CPU等のプロセッサ、メモリ、ハードディスク等の記憶装置、種々の通信規格に応じた通信装置等から構成される。性能判定部118等の機能は、例えば、プロセッサが記憶装置に記憶されたソフトウェアを実行することにより実現される。以下、その他の機能についても同様である。
 図18は、本発明の第1の実施例におけるサーバ受信部115における処理手順例を示したフローチャートである。例えば、サーバ受信部115(プロセッサ及び通信装置)は、ステップS11502で事故回避要否結果(事故回避要否フラグ(レーダ)107と事故回避要否フラグ(Ver. N)110と事故回避要否フラグ(Ver. N+1)113)とカメラセンサ情報104を取得し、ステップS11503で事故回避要否結果(事故回避要否フラグ(レーダ)107と事故回避要否フラグ(Ver. N)110と事故回避要否フラグ(Ver. N+1)113)とカメラセンサ情報104を出力する。
 図19は、本発明の第1の実施例の事故回避要否判定結果11601の一例を示した図である。例えば、事故回避要否フラグ(レーダ)107が回避必要で事故回避要否フラグ(Ver. N)110が回避必要で事故回避要否フラグ(Ver. N+1)113が回避必要の場合(No.(1))、事故回避要否フラグ(レーダ)107が回避必要で事故回避要否フラグ(Ver. N)110が回避必要で事故回避要否フラグ(Ver. N+1)113が回避不要の場合(No.(2))、事故回避要否フラグ(レーダ)107が回避必要で事故回避要否フラグ(Ver. N)110が回避不要で事故回避要否フラグ(Ver. N+1)113が回避必要の場合(No.(3))、事故回避要否フラグ(レーダ)107が回避必要で事故回避要否フラグ(Ver. N)110が回避不要で事故回避要否フラグ(Ver. N+1)113が回避不要の場合(No.(4))、事故回避要否フラグ(レーダ)107が回避不要で事故回避要否フラグ(Ver. N)110が回避必要で事故回避要否フラグ(Ver. N+1)113が回避必要の場合(No.(5))、事故回避要否フラグ(レーダ)107が回避不要で事故回避要否フラグ(Ver. N)110が回避必要で事故回避要否フラグ(Ver. N+1)113が回避不要の場合(No.(6))、事故回避要否フラグ(レーダ)107が回避不要で事故回避要否フラグ(Ver. N)110が回避不要で事故回避要否フラグ(Ver. N+1)113が回避必要の場合(No.(7))、事故回避要否フラグ(レーダ)107が回避不要で事故回避要否フラグ(Ver. N)110が回避不要で事故回避要否フラグ(Ver. N+1)113が回避不要の場合(No.(8))がある。
 図20は、本発明の第1の実施例におけるカメラセンサ情報11701の一例を示した図である。カメラによるセンサ情報として、車両前方に歩行者等の障害物が存在し事故回避操作が必要な場合のセンサデータ(No.(1))と車両前方に歩行者等の障害物が存在せず事故回避操作が不要な場合のセンサデータ(No.(2))がある。なお、センサ情報にはタイムスタンプ情報が含まれる。
 図21は、本発明の第1の実施例における性能判定部118の処理手順例を示したフローチャートである。事故回避要否結果を基にVer. N+1のソフトウェアの性能を判定する。例えば、性能判定部118(プロセッサ)は、ステップS11802で事故回避要否判定結果116を取得し、ステップS11803でVer. N+1ソフトウェアの性能判定を行い、ステップS11804でVer. N+1ソフトウェアの判定性能を出力する。なお、本発明は性能判定に他の情報を用いることを可能とする。
 図22は、本発明の第1の実施例における判定性能11901の一例を示した図である。各事故回避要否フラグの情報の組み合わせでVer. N+1の性能を表す。
 例えば、事故回避要否フラグ(レーダ)107が回避必要で事故回避要否フラグ(Ver. N)110が回避必要で事故回避要否フラグ(Ver. N+1)113が回避必要の場合(No.(1))の判定結果は性能変化なし(成功)である。
 事故回避要否フラグ(レーダ)107が回避必要で事故回避要否フラグ(Ver. N)110が回避必要で事故回避要否フラグ(Ver. N+1)113が回避不要の場合(No.(2))の判定結果は性能低下である。
 事故回避要否フラグ(レーダ)107が回避必要で事故回避要否フラグ(Ver. N)110が回避不要で事故回避要否フラグ(Ver. N+1)113が回避必要の場合(No.(3))の判定結果は性能向上である。
 事故回避要否フラグ(レーダ)107が回避必要で事故回避要否フラグ(Ver. N)110が回避不要で事故回避要否フラグ(Ver. N+1)113が回避不要の場合(No.(4))の判定結果は性能変化なし(エッジケース)である。
 事故回避要否フラグ(レーダ)107が回避不要で事故回避要否フラグ(Ver. N)110が回避必要で事故回避要否フラグ(Ver. N+1)113が回避必要の場合(No.(5))の判定結果は性能変化なし(エッジケース)である。
 事故回避要否フラグ(レーダ)107が回避不要で事故回避要否フラグ(Ver. N)110が回避必要で事故回避要否フラグ(Ver. N+1)113が回避不要の場合(No.(6))の判定結果は性能向上である。
 事故回避要否フラグ(レーダ)107が回避不要で事故回避要否フラグ(Ver. N)110が回避不要で事故回避要否フラグ(Ver. N+1)113が回避必要の場合(No.(7))の判定結果は性能低下である。
 事故回避要否フラグ(レーダ)107が回避不要で事故回避要否フラグ(Ver. N)110が回避不要で事故回避要否フラグ(Ver. N+1)113が回避不要の場合(No.(8))の判定結果は性能変化なし(成功)である。
 図23は、本発明の第1の実施例におけるログ出力部120の処理手順例を示したフローチャートである。例えば、ログ出力部120(プロセッサ)は、ステップS12002で判定性能119を取得し、ステップS12003で判定性能と同期したカメラセンサ情報117を取得し、ステップS12004で判定性能119が性能低下および性能変化なし(エッジケース)の時に判定性能119とカメラセンサ情報117の組み合わせによりログ情報を作成し、ステップS12005でログ情報を出力する。なお、判定性能119が他の情報である場合であっても、カメラセンサ情報117と組み合わせたログ情報を作成することも可能とする。
 図24は、本発明の第1の実施例におけるログ情報12101の一例を示した図である。ログ情報にはVer. N+1のソフトウェアの判定性能情報やカメラセンサ情報を含む。例えば、ログ情報は、判定性能119が性能変化なし(成功)である場合(No.(1))性能変化なし(成功)情報のみであり、判定性能119が性能向上である場合(No.(2))は性能向上判定情報のみであり、判定性能119が性能低下である場合(No.(3))は性能向上判定情報とカメラセンサ情報であり、判定性能119が性能変化なし(エッジケース)である場合(No.(4))は性能変化なし(エッジケース)判定情報とカメラセンサ情報である。なお、本発明はログ情報に含む情報をカメラセンサ情報に限定せず、レーダセンサ情報など他の情報を含むことを可能とする。
 第1の実施例の主な特徴は、次のようにまとめることもできる。
 車両制御装置1とサーバ6は、新バージョン(Ver. N+1)の制御ソフトウェア(物体検知部(Ver. N+1)111を実現するソフトウェア)を検証するソフトウェア検証システムを構成する。
 ソフトウェア検証システム(サーバ6)は、第1の情報(事故回避要否フラグ(Ver. N)110)と、第2の情報(事故回避要否フラグ(Ver. N+1)113)と、第1並びに第2の情報以外の車両の制御に関する第3の情報(事故回避要否フラグ(レーダ)107)と、を用いて新バージョン(Ver. N+1)の制御ソフトウェアのデグレ(性能低下)を検知する。
 ここで、第1の情報(事故回避要否フラグ(Ver. N)110)は、車両に搭載されたセンサ(カメラセンサ情報取得部103)からのセンサデータ(カメラセンサ情報104)を入力とし、車両の制御に用いられている現バージョン(Ver. N)の制御ソフトウェア(物体検知部(Ver. N)108を実現するソフトウェア)の出力である。また、第2の情報(事故回避要否フラグ(Ver. N+1)113)は、センサデータ(カメラセンサ情報104)を入力とし、車両の制御には利用されない新バージョン(Ver. N+1)の制御ソフトウェア(物体検知部(Ver. N+1)111を実現するソフトウェア)の出力である。
 ソフトウェア検証システム(サーバ6)は、デグレが検知された際のセンサデータ(カメラセンサ情報104)を用いて新バージョンの制御ソフトウェアを検証(再検証)する。
 第3の情報(事故回避要否フラグ(レーダ)107)を用いることで、デグレの検知性能を向上することができる。また、デグレが検知された際のセンサデータ(カメラセンサ情報104)を用いることで、制御ソフトウェアの検証を迅速に行うことができる。その結果、車両のセンサデータを入力とするソフトウェアの改善を容易にすることができる。
 ソフトウェア検証システム(サーバ6)は、第1の情報(事故回避要否フラグ(Ver. N)110)と第2の情報(事故回避要否フラグ(Ver. N+1)113)が合致せずに、第1の情報(事故回避要否フラグ(Ver. N)110)と第3の情報(事故回避要否フラグ(レーダ)107)が合致した場合にデグレ(性能低下)と判断する。
 第1の情報と第2の情報を比較し、第1の情報と第3の情報を比較することで、制御ソフトウェアのデグレを確実に検知することができる。
 本実施例では、第3の情報(事故回避要否フラグ(レーダ)107)は、レーダセンサに基づく事故回避の要否を示す情報である。車両に搭載されたセンサ(制御ソフトウェアに入力されるセンサデータを出力する)は、カメラ(カメラセンサ情報取得部103)である。
 確度の高いレーダセンサに基づく事故回避の要否を用いることで、カメラのセンサデータを入力とする制御ソフトウェアのデグレの検知性能を向上することができる。
 詳細には、ソフトウェア検証システムは、第1の情報と、第2の情報と、第3の情報と、を用いて現バージョンのソフトウェアに対する新バージョンのソフトウェアの性能の変化を判定し、性能の変化が判定された時刻に対応するセンサデータを用いて、新バージョンのソフトウェアを検証する。
 第1の情報と、第2の情報と、第3の情報を用いることで、新バージョンのソフトウェアの性能の変化を細かく判定することができる。その結果、車両のセンサデータを入力とするソフトウェアの改善を容易にすることができる。
 具体的には、ソフトウェア検証システムは、第1の情報と第2の情報と第3の情報が、事故回避が必要であること又は事故回避が有ったことを示す情報である場合に、性能の変化はないと判定し(図22のNo.(1))、第1の情報と第3の情報が、事故回避が必要であること又は事故回避が有ったことを示す情報であり、第2の情報が、事故回避が不要であること又は事故回避が無かったことを示す情報である場合に、性能が低下したと判定し(図22のNo.(2))、第2の情報と第3の情報が、事故回避が必要であること又は事故回避が有ったことを示す情報であり、第1の情報が、事故回避が不要であること又は事故回避が無かったことを示す情報である場合に、性能が向上したと判定し(図22のNo.(3))、第3の情報が、事故回避が必要であること又は事故回避が有ったことを示す情報であり、第1の情報と第2の情報が、事故回避が不要であること又は事故回避が無かったことを示す情報である場合に、性能の変化はないと判定し(図22のNo.(4))、第1の情報と第2の情報が、事故回避が必要であること又は事故回避が有ったことを示す情報であり、第3の情報が、事故回避が不要であること又は事故回避が無かったことを示す情報である場合に、性能の変化はないと判定し(図22のNo.(5))、第1の情報が、事故回避が必要であること又は事故回避が有ったことを示す情報であり、第2の情報と第3の情報が、事故回避が不要であること又は事故回避が無かったことを示す情報である場合に、性能が向上したと判定し(図22のNo.(6))、第2の情報が、事故回避が必要であること又は事故回避が有ったことを示す情報であり、第1の情報と第3の情報が、事故回避が不要であること又は事故回避が無かったことを示す情報である場合に、性能が低下したと判定し(図22のNo.(7))、第1の情報と第2の情報と第3の情報が、事故回避が不要であること又は事故回避が無かったことを示す情報である場合に、性能の変化はないと判定する(図22のNo.(8))。
 ここで、第1の情報と第2の情報は、センサデータに基づく事故回避の要否又は有無を示す情報であり、第3の情報は、前記センサデータとは異なるデータに基づく事故回避の要否又は有無を示す情報である。本実施例では、性能の変化はサーバ6(図17の性能判定部118)で判定されるが、車両制御装置1(後述する図25の性能判定部122)で判定されてもよい。
 第1の情報、第2の情報及び第3の情報は、それぞれ2通りであるので、8通りの新バージョンのソフトウェアの性能の変化を判定することができる。
 ソフトウェア検証システムは、図22のNo.(2)、(4)、(5)及び(7)の判定の結果に対応するセンサデータを新バージョンのソフトウェアの改善が必要なケースの教師データとして機械学習を行い、又は図22のNo.(1)、(3)、(6)及び(8)の判定の結果に対応するセンサデータを新バージョンのソフトウェアの改善が不要なケースの教師データとして機械学習を行う。
 改善が必要なケースの教師データ又は改善が不要なケースの教師データを実環境から取得するので、学習精度及び学習速度が向上する。
 以上説明したように、本実施例におけるソフトウェア検証システムは現バージョンの制御ソフトウェアの出力と新バージョンの制御ソフトウェアの出力とその他の車両制御に関する情報を比較する構成とすることで、新バージョンのソフトウェアのデグレを検知可能となる。その結果、新バージョンのソフトウェアの改善に有効なデータ収集及び再検証を可能にするという効果を奏する。
 (第2の実施例) データをためる場合も考慮
 本発明の第2の実施例における車両制御装置および方法について、図25~図29を用いて説明する。
 第1の実施例と異なる点は、事故回避要否フラグ(レーダ)107と事故回避要否フラグ(Ver. N)110と事故回避要否フラグ(Ver. N+1)113とカメラセンサ情報104を全てサーバに送信する代わりに、これら情報を基に車両制御装置1内でVer. N+1のソフトウェアの性能判定を行う点である。第2の実施例では、第1の実施例で示したログ情報のデータ量を削減し、通信量を削減する効果を有する。なお、第1の実施例と同様の構成・手順については、同一の符号を付してその説明を省略する。
 図25は、本発明の第2の実施例における、車両制御装置1の全体構成を示した図である。第2の実施例でも車両制御装置は、サーバ送信部114の代わりに性能判定部122と判定性能123とログ出力部124とログ情報125を有する。
 図26は、本発明の第2の実施例における性能判定部122の処理手順例を示したフローチャートである。事故回避要否フラグを基にVer. N+1のソフトウェアの性能を判定する。例えば、性能判定部122(プロセッサ)は、ステップS12202で事故回避要否フラグ(レーダ)107と事故回避要否フラグ(Ver. N)110と事故回避要否フラグ(Ver. N+1)113を取得し、ステップS12203でVer. N+1ソフトウェアの性能判定を行い、ステップS12204でVer. N+1ソフトウェアの判定性能を出力する。なお、本発明は性能判定に他の情報を用いることを可能とする。
 図27は、本発明の第2の実施例における判定性能12301の一例を示した図である。各事故回避要否フラグの情報の組み合わせでVer. N+1の性能を表す。
 例えば、事故回避要否フラグ(レーダ)107が回避必要で事故回避要否フラグ(Ver. N)110が回避必要で事故回避要否フラグ(Ver. N+1)113が回避必要の場合(No.(1))の判定結果は性能変化なし(成功)である。
 事故回避要否フラグ(レーダ)107が回避必要で事故回避要否フラグ(Ver. N)110が回避必要で事故回避要否フラグ(Ver. N+1)113が回避不要の場合(No.(2))の判定結果は性能低下である。
 事故回避要否フラグ(レーダ)107が回避必要で事故回避要否フラグ(Ver. N)110が回避不要で事故回避要否フラグ(Ver. N+1)113が回避必要の場合(No.(3))の判定結果は性能向上である。
 事故回避要否フラグ(レーダ)107が回避必要で事故回避要否フラグ(Ver. N)110が回避不要で事故回避要否フラグ(Ver. N+1)113が回避不要の場合(No.(4))の判定結果は性能変化なし(エッジケース)である。
 事故回避要否フラグ(レーダ)107が回避不要で事故回避要否フラグ(Ver. N)110が回避必要で事故回避要否フラグ(Ver. N+1)113が回避必要の場合(No.(5))の判定結果は性能変化なし(エッジケース)である。
 事故回避要否フラグ(レーダ)107が回避不要で事故回避要否フラグ(Ver. N)110が回避必要で事故回避要否フラグ(Ver. N+1)113が回避不要の場合(No.(6))の判定結果は性能向上である。
 事故回避要否フラグ(レーダ)107が回避不要で事故回避要否フラグ(Ver. N)110が回避不要で事故回避要否フラグ(Ver. N+1)113が回避必要の場合(No.(7))の判定結果は性能低下である。
 事故回避要否フラグ(レーダ)107が回避不要で事故回避要否フラグ(Ver. N)110が回避不要で事故回避要否フラグ(Ver. N+1)113が回避不要の場合(No.(8))の判定結果は性能変化なし(成功)である。
 図28は、本発明の第2の実施例におけるログ出力部124の処理手順例を示したフローチャートである。例えば、ログ出力部124(プロセッサ)は、ステップS12402で判定性能123を取得し、ステップS12403で判定性能と同期したカメラセンサ情報104を取得し、ステップS12404で判定性能123が性能低下および性能変化なし(エッジケース)の時に判定性能123とカメラセンサ情報104の組み合わせによりログ情報を作成し、ステップS12405でログ情報を出力する。なお、判定性能123が他の情報である場合であっても、カメラセンサ情報104と組み合わせたログ情報を作成することも可能とする。
 図29は、本発明の第2の実施例におけるログ情報12501の一例を示した図である。ログ情報にはVer. N+1のソフトウェアの判定性能情報やカメラセンサ情報を含む。例えば、ログ情報は、判定性能123が性能変化なし(成功)である場合(No.(1))性能変化なし(成功)情報のみであり、判定性能123が性能向上である場合(No.(2))は性能向上判定情報のみであり、判定性能123が性能低下である場合(No.(3))は性能向上判定情報とカメラセンサ情報であり、判定性能123が性能変化なし(エッジケース)である場合(No.(4))は性能変化なし(エッジケース)判定情報とカメラセンサ情報である。なお、本発明はログ情報に含む情報をカメラセンサ情報に限定せず、レーダセンサ情報など他の情報を含むことを可能とする。
 第2の実施例の主な特徴は、次のようにまとめることもできる。
 車両制御装置1は、第1の情報(事故回避要否フラグ(Ver. N)110)と、第2の情報(事故回避要否フラグ(Ver. N+1)113)と、第1並びに第2の情報以外の車両の制御に関する第3の情報(事故回避要否フラグ(レーダ)107)と、を用いて新バージョン(Ver. N+1)の制御ソフトウェアのデグレ(性能低下)を検知するデグレ検知部(性能判定部122)と、デグレ検知部でデグレを検知した時刻におけるセンサデータ(カメラセンサ情報104)にデグレに関するログ情報を付与するログ情報付与部(ログ出力部124)と、を備える。
 ここで、第1の情報(事故回避要否フラグ(Ver. N)110)は、車両に搭載されたセンサ(カメラセンサ情報取得部103)からのセンサデータ(カメラセンサ情報104)を入力とし、車両の制御に用いられている現バージョン(Ver. N)の制御ソフトウェアの出力である。また、第2の情報(事故回避要否フラグ(Ver. N+1)113)は、センサデータ(カメラセンサ情報104)を入力とし、車両の制御には利用されない新バージョン(Ver. N+1)の制御ソフトウェアの出力である。
 センサデータ(カメラセンサ情報104)にデグレに関するログ情報を付与することで、センサデータを用いたデグレの検証が容易となる。その結果、車両のセンサデータを入力とするソフトウェアの改善を容易にすることができる。なお、充電ステーションの充電器の充電ケーブルが車両(電気自動車等)の充電ソケットに接続されたときに、ログ情報が付与されたセンサデータ(カメラセンサ情報104)がサーバにアップロードされるようにしてもよい。
 以上説明したように、本実施例における車両制御装置は車両制御装置1の内部にVer. N+1の性能判定を行いカメラセンサ情報と合わせてログ情報を作成する構成とすることで、カメラセンサ情報の取捨選択を可能にする。その結果、例えば、ログ情報をサーバアップする時に通信データ量を削減するという効果を奏する。
 (第3の実施例) リアルタイム送信
 本発明の第3の実施例における車両制御装置および方法について、図30A~図34を用いて説明する。
 第1の実施例と異なる点は、事故回避要否フラグ(レーダ)107と事故回避要否フラグ(Ver. N)110と事故回避要否フラグ(Ver. N+1)113とカメラセンサ情報104を全てサーバに送信する代わりに、これら情報を基に車両制御装置1内でVer. N+1のソフトウェアの性能判定を行い、判定結果に応じてログ情報を分類しリアルタイムまたは非リアルタイムで送信する点である。第3の実施例では、サーバへのデータ送信に起因する車両内の処理負荷増を抑制しながらサーバにおける検証を迅速に実施可能とする効果を有する。なお、第1の実施例と同様の構成・手順については、同一の符号を付してその説明を省略する。
 図30Aは、本発明の第3の実施例における車両制御装置1の全体構成を示した図である。第3の実施例での車両制御装置1は、第1の実施例と比べ、サーバ送信部114の代わりに性能判定部122と判定性能123とログ出力部124とログ情報125とリアルタイム送信部126とリアルタイム送信ログ情報127と非リアルタイム送信部128と非リアルタイム送信ログ情報129を有する。なお、図30Bに示すように、リアルタイム送信部126とリアルタイム送信ログ情報127と非リアルタイム送信部128と非リアルタイム送信ログ情報129をTCU(Telematics Control Unit)等の別の電子制御装置に設けてもよい。
 図31は、本発明の第3の実施例におけるリアルタイム送信部126の処理手順例を示したフローチャートである。リアルタイム送信部126(プロセッサ及び通信装置)は、ステップS12602でログ情報125を取得し、ステップS12603でVer. N+1のソフトウェアが性能低下または性能変化なし(エッジケース)判定の場合のログデータを抽出し、ステップS12604で抽出したログデータをリアルタイムで送信する。なお、本発明ではリアルタイム送信を行うログ情報は変更可能とする。
 図32は、本発明の第3の実施例におけるリアルタイム送信ログ情報12701の一例を示した図である。例えば、送信リアルタイム送信ログ情報にはVer. N+1のソフトウェアが性能低下時の判定情報とカメラセンサ情報(No.(1))やVer. N+1のソフトウェアが性能変化なし(エッジケース)時の判定情報とカメラセンサ情報(No.(2))を含む。なお、本発明はログ情報に含む情報をカメラセンサ情報に限定せず、レーダセンサ情報など他の情報を含むことを可能とする。
 図33は、本発明の第3の実施例における非リアルタイム送信部128の処理手順例を示したフローチャートである。非リアルタイム送信部128(プロセッサ及び通信装置)は、ステップS12802でログ情報125を取得し、ステップS12803でVer. N+1のソフトウェアが性能向上または性能変化なし(成功)判定の場合のログデータを抽出し、ステップS12804で抽出したログデータを非リアルタイムで送信する。例えば、ログデータを車両内ストレージに一時保存しておくことで、車両停車中にまとめてデータ送信し、サーバへのデータ送信に起因する車両内の処理負荷増を抑制する。なお、本発明では非リアルタイム送信を行うログ情報は変更可能とする。また、車両制御装置1の処理負荷が所定値より小さいときに非リアルタイム送信を行ってもよい。
 図34は、本発明の第3の実施例における非リアルタイム送信ログ情報12901の一例を示した図である。例えば、非リアルタイム送信ログ情報にはVer. N+1のソフトウェアが性能変化なし(成功)時の判定情報(No.(1))やVer. N+1のソフトウェアが性能向上時の判定情報(No.(2))を含む。なお、本実施例では、非リアルタイム送信ログ情報はカメラセンサ情報を含まないが、判定結果(判定性能)に対応するカメラセンサ情報を含んでもよい。
 第3の実施例の主な特徴は、次のようにまとめることもできる。
 ソフトウェア検証システム(車両制御装置1)は、車両に搭載され、デグレを検知するデグレ検知部(性能判定部122)と、車両に搭載され、デグレ検知部(性能判定部122)でデグレを検知した時刻におけるセンサデータ(カメラセンサ情報104)にデグレに関するログ情報を付与するログ情報付与部(ログ出力部124)と、車両に搭載され、ログ情報が付与されたセンサデータ(カメラセンサ情報104)をサーバ6に送信するデータ送信部(リアルタイム送信部126、非リアルタイム送信部128)と、を備える。
 ログ情報が付与されたセンサデータをサーバに送信することで、サーバ側でログ情報ごとにセンサデータを用いて検証を行うことができる。
 なお、図30Bに示したように、ソフトウェア検証システムに用いられる車両制御装置1が、サーバ6にデータを送信するデータ送信部(TCUに設けられたリアルタイム送信部126と非リアルタイム送信部128)へログ情報が付与されたセンサデータ(カメラセンサ情報104)を出力してもよい。
 サーバ6にデータを送信するデータ送信部を、車両制御装置1に設けないことで、製造コストを低減することができる。
 ソフトウェア検証システム(車両制御装置1)は、車両に搭載され、ログ情報(リアルタイム送信ログ情報127、非リアルタイム送信ログ情報129)を保存するストレージ部(記憶装置)を備える。本実施例では、データ送信部(非リアルタイム送信部128)は、車両停止時にストレージ部に保存されたデータ(非リアルタイム送信ログ情報129)をサーバに送信する。
 車両停止時にデータ(非リアルタイム送信ログ情報129)をサーバに送信することで、走行時に車両の制御に使用するハードウェアリソースを確保しつつ、処理負荷を抑制することができる。
 以上説明したように、本実施例における車両制御装置はログ情報をリアルタイムまたは非リアルタイムで送信処理を分割した構成とすることで、車両制御装置内の処理負荷を考慮したログ情報の送信が可能となる。その結果、ハードウェアコストを削減可能という効果を奏する。
 (第4の実施例) ドライバの情報を用いた事故回避フラグの具体例
 本発明の第4の実施例における車両制御装置および方法について、図35~図40を用いて説明する。
 第1の実施例と異なる点は、レーダセンサ情報取得部101とレーダセンサ情報102の代わりにドライバ入力取得部130とドライバ入力情報131を用いて事故回避操作フラグを準備する点である。第4の実施例では、車載センサで認識・判断が困難な事故発生ケースをドライバの認識・判断により収集可能とし、Ver. N+1のソフトウェアの評価・改善に活用可能とする効果を有する。なお、第1の実施例と同様の構成・手順については、同一の符号を付してその説明を省略する。
 図35は、本発明の第4の実施例における車両制御装置1の全体構成を示した図である。第4の実施例での車両制御装置1は、第1の実施例と比べ、レーダセンサ情報取得部101とレーダセンサ情報102の代わりにドライバ入力取得部130とドライバ入力情報131を、物体検知部(レーダ)105と物体検知結果(レーダ)106と事故回避要否フラグ(レーダ)107の代わりに事故回避操作検知部132と事故回避操作検知結果133と事故回避操作フラグ(ドライバ)134を有する。
 図36は、本発明の第4の実施例におけるドライバ入力取得部130の処理手順例を示したフローチャートである。ドライバ入力取得部130(アクセル開度センサ、ブレーキ踏量センサ、操舵角センサ等)は、ステップS13002でドライバ入力情報を取得し、S13003でドライバ入力情報を出力する。
 図37は、本発明の第4の実施例におけるドライバ入力情報13101の一例を示した図である。例えば、アクセル入力値(No.(1))やブレーキ入力値(No.(2))やステアリング入力値(No.(3))がある。
 図38は、本発明の第4の実施例における事故回避操作検知部132の処理手順を示したフローチャートである。事故回避操作検知部132(プロセッサ)は、ステップS13202でドライバ入力情報を取得し、ステップS13203でドライバ入力が事故回避操作か判定し、ステップS13204で判定結果を出力する。例えば、事故回避操作検知部132は、アクセル入力値の変化量(時間微分値)、ブレーキ入力値の変化量(時間微分値)、及びステアリング入力値の変化量(時間微分値)から事故回避操作の有無を判定する。
 図39は、本発明の第4の実施例における事故回避操作判定結果13301の一例を示した図である。例えば、判定結果として事故回避操作無(No.(1))と事故回避操作有(No.(2))がある。
 図40は、本発明の第4の実施例における事故回避操作フラグ13401の一例を示した図である。例えば、ドライバ入力を基に事故回避操作を判断した結果、事故回避操作が無の場合のフラグ0(No.(1))とドライバ入力を基に事故回避操作を判断した結果、事故回避操作が有の場合のフラグ1(No.(2))がある。
 第4の実施例の主な特徴は、次のようにまとめることもできる。
 ソフトウェア検証システム(サーバ6)は、第1の情報(事故回避要否フラグ(Ver. N)110)と、第2の情報(事故回避要否フラグ(Ver. N+1)113)と、第1並びに第2の情報以外の車両の制御に関する第3の情報(事故回避操作フラグ(ドライバ)134)と、を用いて新バージョン(Ver. N+1)の制御ソフトウェアのデグレ(性能低下)を検知する。ここで、第3の情報(事故回避操作フラグ(ドライバ)134)は、ドライバの事故回避操作の有無を示す情報である。
 第3の情報(事故回避操作フラグ(ドライバ)134)を用いることで、デグレの検知性能を向上することができる。
 サーバ6の構成及び動作は、第1の実施例と同じであるため説明を省略する。性能判定部122、判定性能123、ログ出力部124、及びログ情報125は、第2の実施例のように、車両制御装置1に設けてもよい。
 以上説明したように、本実施例におけるソフトウェア検証システムはドライバによる入力情報を基に事故回避操作フラグを取得する構成とすることで、ドライバの判断結果と制御ソフトの出力結果比較が可能となる。その結果、システムが正しく動作しないシチュエーション時のセンサデータが取得可能になるという効果を奏する。
 本発明の第1~第4の実施例によれば、旧バージョンのソフトウェアの実行結果と新バージョンのソフトウェアの実行結果と検知した事故回避操作情報を比較する新バージョンのソフトウェアの性能判定を行い、性能改善に必要なデータ収集が可能になる。また、新バージョンのソフトウェアの判定性能に従い、センサデータの取捨選択を行うことで、サーバ送信するログ情報のデータ量削減が可能になる。また、ログ情報のサーバ送信時にリアルタイム送信または非リアルタイム送信に処理を分割することで、車両制御装置内の処理負荷を考慮したデータ送信により、ハードウェアコスト削減が可能になる。また、事故回避操作情報にドライバ入力情報を用いることで、システムが正常に動作しないシチュエーション下のセンサデータ取得が可能になる。
 なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
 また、上記の各構成、機能等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
1 車両制御装置
2 ゲートウェイ
3 カメラ制御装置
4 レーダ制御装置
5 ソナー制御装置
6 サーバ
101 レーダセンサ情報取得部
102 レーダセンサ情報
103 カメラセンサ情報取得部
104 カメラセンサ情報
105 物体検知部(レーダ)
106 物体検知結果(レーダ)
107 事故回避要否フラグ(レーダ)
108 物体検知部(Ver. N)
109 物体検知結果(Ver. N)
110 事故回避要否フラグ(Ver. N)
111 物体検知部(Ver. N+1)
112 物体検知結果(Ver. N+1)
113 事故回避要否フラグ(Ver. N+1)
114 サーバ送信部
115 サーバ受信部
116 事故回避要否判定結果
117 カメラセンサ情報
118 性能判定部
119 判定性能
120 ログ出力部
121 ログ情報
122 性能判定部
123 判定性能
124 ログ出力部
125 ログ情報
126 リアルタイム送信部
127 リアルタイム送信ログ情報
128 非リアルタイム送信部
129 非リアルタイム送信ログ情報
130 ドライバ入力取得部
131 ドライバ入力情報
132 事故回避操作検知部
133 事故回避操作検知結果
134 事故回避操作フラグ(ドライバ)

Claims (12)

  1.  車両に搭載されたセンサからのセンサデータを入力とし、前記車両の制御に用いられている現バージョンの制御ソフトウェアの出力である第1の情報と、
     前記センサデータを入力とし、前記車両の制御には利用されない新バージョンの制御ソフトウェアの出力である第2の情報と、
     前記第1並びに第2の情報以外の前記車両の制御に関する第3の情報と、を用いて前記新バージョンの制御ソフトウェアのデグレを検知し、
     前記デグレが検知された際の前記センサデータを用いて前記新バージョンの制御ソフトウェアを検証するソフトウェア検証システム。
  2.  前記車両に搭載され、前記デグレを検知するデグレ検知部と、
     前記車両に搭載され、前記デグレ検知部で前記デグレを検知した時刻における前記センサデータに前記デグレに関するログ情報を付与するログ情報付与部と、
     前記車両に搭載され、前記ログ情報が付与された前記センサデータをサーバに送信するデータ送信部と、
     を備える請求項1に記載のソフトウェア検証システム。
  3.  車両に搭載され、前記ログ情報を保存するストレージ部を備え、
     前記データ送信部は、車両停止時に前記ストレージ部に保存されたデータをサーバに送信する請求項2に記載のソフトウェア検証システム。
  4.  前記第1の情報と前記第2の情報が合致せずに、前記第1の情報と前記第3の情報が合致した場合にデグレと判断する請求項1~3のいずれかに記載のソフトウェア検証システム。
  5.  前記第3の情報は、ドライバの事故回避操作の有無を示す情報である請求項4に記載のソフトウェア検証システム。
  6.  前記第3の情報は、レーダセンサに基づく事故回避の要否を示す情報であり、
     前記車両に搭載されたセンサは、カメラである請求項4に記載のソフトウェア検証システム。
  7.  請求項1に記載のソフトウェア検証システムに用いられる車両制御装置において、
     前記デグレを検知するデグレ検知部と、
     前記デグレ検知部でデグレを検知した時刻におけるセンサデータにデグレに関するログ情報を付与するログ情報付与部と、
     前記ログ情報が付与されたセンサデータをサーバに送信するデータ送信部と、を備える車両制御装置。
  8.  請求項1に記載のソフトウェア検証システムに用いられる車両制御装置において、
     前記デグレを検知するデグレ検知部と、
     前記デグレ検知部でデグレを検知した時刻におけるセンサデータにデグレに関するログ情報を付与するログ情報付与部と、を備え、
     サーバにデータを送信するデータ送信部へ前記ログ情報が付与されたセンサデータを出力する車両制御装置。
  9.  車両に搭載されたセンサからのセンサデータを入力とし、前記車両の制御に用いられている現バージョンの制御ソフトウェアの出力である第1の情報と、
     前記センサデータを入力とし、前記車両の制御には利用されない新バージョンの制御ソフトウェアの出力である第2の情報と、
     前記第1並びに第2の情報以外の前記車両の制御に関する第3の情報と、を用いて前記新バージョンの制御ソフトウェアのデグレを検知するデグレ検知部と、
     前記デグレ検知部で前記デグレを検知した時刻におけるセンサデータに前記デグレに関するログ情報を付与するログ情報付与部と、を備える車両制御装置。
  10.  車両に搭載されたセンサからのセンサデータを入力とし、前記車両の制御に用いられている現バージョンのソフトウェアの出力である第1の情報と、
     前記センサデータを入力とし、前記車両の制御には利用されない新バージョンのソフトウェアの出力である第2の情報と、
     前記第1並びに第2の情報以外の前記車両の制御に関する第3の情報と、を用いて前記現バージョンのソフトウェアに対する前記新バージョンのソフトウェアの性能の変化を判定し、
     前記性能の変化が判定された時刻に対応するセンサデータを用いて、前記新バージョンのソフトウェアを検証するソフトウェア検証システム。
  11.  前記第1の情報と前記第2の情報は、前記センサデータに基づく事故回避の要否又は有無を示す情報であり、
     前記第3の情報は、前記センサデータとは異なるデータに基づく事故回避の要否又は有無を示す情報であり、
     (1)前記第1の情報と前記第2の情報と前記第3の情報が、前記事故回避が必要であること又は前記事故回避が有ったことを示す情報である場合に、前記性能の変化はないと判定し、
     (2)前記第1の情報と前記第3の情報が、前記事故回避が必要であること又は前記事故回避が有ったことを示す情報であり、前記第2の情報が、前記事故回避が不要であること又は前記事故回避が無かったことを示す情報である場合に、前記性能が低下したと判定し、
     (3)前記第2の情報と前記第3の情報が、前記事故回避が必要であること又は前記事故回避が有ったことを示す情報であり、前記第1の情報が、前記事故回避が不要であること又は前記事故回避が無かったことを示す情報である場合に、前記性能が向上したと判定し、
     (4)前記第3の情報が、前記事故回避が必要であること又は前記事故回避が有ったことを示す情報であり、前記第1の情報と前記第2の情報が、前記事故回避が不要であること又は前記事故回避が無かったことを示す情報である場合に、前記性能の変化はないと判定し、
     (5)前記第1の情報と前記第2の情報が、前記事故回避が必要であること又は前記事故回避が有ったことを示す情報であり、前記第3の情報が、前記事故回避が不要であること又は前記事故回避が無かったことを示す情報である場合に、前記性能の変化はないと判定し、
     (6)前記第1の情報が、前記事故回避が必要であること又は前記事故回避が有ったことを示す情報であり、前記第2の情報と前記第3の情報が、前記事故回避が不要であること又は前記事故回避が無かったことを示す情報である場合に、前記性能が向上したと判定し、
     (7)前記第2の情報が、前記事故回避が必要であること又は前記事故回避が有ったことを示す情報であり、前記第1の情報と前記第3の情報が、前記事故回避が不要であること又は前記事故回避が無かったことを示す情報である場合に、前記性能が低下したと判定し、
     (8)前記第1の情報と前記第2の情報と前記第3の情報が、前記事故回避が不要であること又は前記事故回避が無かったことを示す情報である場合に、前記性能の変化はないと判定する請求項10に記載のソフトウェア検証システム。
  12.  前記(2)、(4)、(5)及び(7)の判定の結果に対応するセンサデータを前記新バージョンのソフトウェアの改善が必要なケースの教師データとして機械学習を行い、又は
     前記(1)、(3)、(6)及び(8)の判定の結果に対応するセンサデータを前記新バージョンのソフトウェアの改善が不要なケースの教師データとして機械学習を行う請求項11に記載のソフトウェア検証システム。
PCT/JP2023/033912 2022-09-29 2023-09-19 ソフトウェア検証システム及び車両制御装置 WO2024070810A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-156524 2022-09-29
JP2022156524A JP2024049976A (ja) 2022-09-29 2022-09-29 ソフトウェア検証システム及び車両制御装置

Publications (1)

Publication Number Publication Date
WO2024070810A1 true WO2024070810A1 (ja) 2024-04-04

Family

ID=90477570

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/033912 WO2024070810A1 (ja) 2022-09-29 2023-09-19 ソフトウェア検証システム及び車両制御装置

Country Status (2)

Country Link
JP (1) JP2024049976A (ja)
WO (1) WO2024070810A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019032656A (ja) * 2017-08-07 2019-02-28 株式会社Ihi 検証システム及び検証方法
WO2021166167A1 (ja) * 2020-02-20 2021-08-26 三菱電機株式会社 検証装置
JP2022013187A (ja) * 2020-07-03 2022-01-18 日立Astemo株式会社 車両制御装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019032656A (ja) * 2017-08-07 2019-02-28 株式会社Ihi 検証システム及び検証方法
WO2021166167A1 (ja) * 2020-02-20 2021-08-26 三菱電機株式会社 検証装置
JP2022013187A (ja) * 2020-07-03 2022-01-18 日立Astemo株式会社 車両制御装置

Also Published As

Publication number Publication date
JP2024049976A (ja) 2024-04-10

Similar Documents

Publication Publication Date Title
KR101901801B1 (ko) 하이브리드 자동차 및 그를 위한 운전 패턴 예측 방법
US20150239472A1 (en) Vehicle-installed obstacle detection apparatus having function for judging motion condition of detected object
US20190130760A1 (en) In-vehicle device, information processing system, and information processing method
US20130096765A1 (en) Parking area detection system and method using mesh space analysis
CN111710158B (zh) 一种车辆数据处理方法及相关设备
US11962605B2 (en) Information processing apparatus, data analysis method and program
US20210070321A1 (en) Abnormality diagnosis system and abnormality diagnosis method
CN111033298A (zh) 补偿异构传感器阵列中的传感器缺陷
CA3146217C (en) System and method for integration testing
CN111273634A (zh) 至少部分自动的机动车的控制系统的配置
CN111932884A (zh) 一种交通拥堵的识别方法、装置、车辆和存储介质
CN113448305A (zh) 符合功能安全的自测试
KR102050426B1 (ko) 운전자 모사 모델 기반의 자율주행 제어 장치 및 방법
WO2024070810A1 (ja) ソフトウェア検証システム及び車両制御装置
CN109715465B (zh) 用于运行第一车辆的方法和设备
KR20200140957A (ko) 군집주행차량의 속도 제어 장치 및 그 방법
US20210206392A1 (en) Method and device for operating an automated vehicle
JP7187784B2 (ja) 車両情報処理システム、管理装置、車両情報処理方法および車両情報処理プログラム
CN116279473A (zh) 车辆的跟车时距校验方法、装置、车辆及存储介质
CN112896183B (zh) 车辆故障判断设备和方法
KR102498328B1 (ko) 차량 상태 기반 모델을 기초로 차량의 상태전이를 학습시키는 방법 및 장치
US20240062592A1 (en) Method and system for performing a virtual test
US11577753B2 (en) Safety architecture for control of autonomous vehicle
WO2021015211A1 (ja) 制御方法、制御装置、制御システムおよびタイヤ試験方法
US20220289186A1 (en) Apparatus and method for controlling vehicle

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23872038

Country of ref document: EP

Kind code of ref document: A1