WO2021044486A1 - 自動運転制御装置および自動運転制御方法 - Google Patents

自動運転制御装置および自動運転制御方法 Download PDF

Info

Publication number
WO2021044486A1
WO2021044486A1 PCT/JP2019/034441 JP2019034441W WO2021044486A1 WO 2021044486 A1 WO2021044486 A1 WO 2021044486A1 JP 2019034441 W JP2019034441 W JP 2019034441W WO 2021044486 A1 WO2021044486 A1 WO 2021044486A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
vehicle
control amount
information
automatic driving
Prior art date
Application number
PCT/JP2019/034441
Other languages
English (en)
French (fr)
Inventor
匠 佐藤
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to US17/629,678 priority Critical patent/US20220242446A1/en
Priority to JP2021543813A priority patent/JP7330278B2/ja
Priority to PCT/JP2019/034441 priority patent/WO2021044486A1/ja
Priority to CN201980099843.2A priority patent/CN114286772A/zh
Priority to DE112019007681.7T priority patent/DE112019007681T5/de
Publication of WO2021044486A1 publication Critical patent/WO2021044486A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/029Adapting to failures or work around with other constraints, e.g. circumvention by avoiding use of failed parts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain

Definitions

  • the present invention relates to an automatic driving control device and an automatic driving control method for automatically controlling the driving of a vehicle.
  • Vehicle peripheral information Information around the vehicle (hereinafter referred to as “vehicle peripheral information”) can be acquired from a plurality of sensors.
  • various types of vehicle peripheral information required for automatic vehicle driving control are input to a machine-learned model (hereinafter referred to as “machine learning model”) by inputting a plurality of vehicle peripheral information output from each of the plurality of sensors.
  • machine learning model a machine-learned model
  • automatic operation control amount There is a technique for inferring and outputting the control amount of
  • Patent Document 1 discloses a control device that uses a map of the surrounding environment generated based on a plurality of images taken by a compound eye camera in order to recognize the surrounding environment during execution of automatic driving control of the vehicle. Has been done. For example, when one of the two in-vehicle cameras constituting the compound eye camera malfunctions, this control device estimates the surrounding environment based on the image taken by one of the in-vehicle cameras that operates normally.
  • the automatic driving control amount is the automatic driving of the vehicle.
  • the control device disclosed in Patent Document 1 estimates the surrounding environment based on an image taken by an in-vehicle camera that operates normally when one of a plurality of in-vehicle cameras malfunctions. However, the estimation is specifically performed by using a theoretically determined calculation formula.
  • the technique in the control device disclosed in Patent Document 1 is used as a means for solving the above-mentioned problems. Can't.
  • the present invention has been made to solve the above-mentioned problems, and infers and outputs the amount of automatic driving control based on a plurality of vehicle peripheral information output from a plurality of sensors and a machine learning model. Even when the reliability of any vehicle peripheral information among the plurality of vehicle peripheral information is lowered, the automatic driving control device can output an automatic driving control amount suitable for the automatic driving control of the vehicle. It is an object of the present invention to provide an automatic operation control device capable of providing a capable automatic operation control device.
  • the automatic driving control device is based on an information acquisition unit that acquires a plurality of vehicle peripheral information output from each of a plurality of sensors, a plurality of vehicle peripheral information acquired by the information acquisition unit, and a machine learning model. Whether the reliability of the vehicle peripheral information of one of the multiple vehicle peripheral information acquired by the control amount inference unit that infers the automatic driving control amount and outputs the automatic driving control amount and the information acquisition unit is low. When it is determined by the monitoring unit that determines whether or not the vehicle is not, and the reliability of any of the vehicle peripheral information among the plurality of vehicle peripheral information is lowered, it is determined that the reliability is lowered. It is provided with a control unit that controls a control amount inference unit so as to output an automatic driving control amount excluding the influence of the vehicle surrounding information.
  • the automatic driving control suitable for the automatic driving control of the vehicle The amount can be output.
  • FIG. 1 It is a figure which shows the configuration example of the vehicle equipped with the automatic driving control device which concerns on Embodiment 1.
  • FIG. It is a figure which shows the configuration example of the automatic operation control apparatus which concerns on Embodiment 1.
  • FIG. It is a figure which shows the configuration example of the automatic operation control apparatus which concerns on Embodiment 2.
  • it is a figure for demonstrating an example of a photographed image in which the brightness of the pixel is different, and FIG.
  • FIG. 7A has a brightness that all the pixels of the photographed image can sufficiently identify an object in the photographed image.
  • FIG. 7B shows an example of a captured image in the case where all the pixels of the captured image have a brightness such that the object in the captured image becomes unrecognizable.
  • FIG. 7C is an example of a captured image in which all the pixels of the captured image have a brightness such that the object in the captured image is so bright that the object in the captured image cannot be recognized.
  • FIG. 5 is a diagram showing a screen example of a display on which the notification control unit displays notification information in the fifth embodiment.
  • FIG. 5 is a diagram showing another screen example of a display on which the notification control unit displays notification information in the fifth embodiment.
  • 16A and 16B are diagrams showing an example of the hardware configuration of the automatic driving control device according to the first to sixth embodiments.
  • FIG. 5 is a diagram showing a configuration example of an automatic driving control system in which a server is provided with the automatic driving control device according to the first embodiment described with reference to FIG.
  • FIG. 1 is a diagram showing a configuration example of a vehicle 100 equipped with the automatic driving control device 1 according to the first embodiment.
  • the automatic driving control device 1 according to the first embodiment is a device mounted on a vehicle 100 capable of automatically traveling without a person performing a driving operation.
  • the vehicle 100 is equipped with a sensor, a vehicle control unit 3, and a control target device 4 in addition to the automatic driving control device 1.
  • the vehicle 100 is equipped with a plurality of sensors that output information around the vehicle 100.
  • the information output by each of the plurality of sensors includes information on other vehicles existing around the vehicle 100, information on obstacles other than other vehicles existing around the vehicle 100, information on the state of traffic signals, information on lanes, and terrain.
  • Information about lanes includes, for example, white lines or road markings.
  • the sensor includes a camera 21 and a millimeter wave radar 22.
  • the camera 21 photographs the periphery of the vehicle 100, such as in front of the vehicle 100.
  • the camera 21 outputs a photographed image of the periphery of the vehicle 100 to the automatic driving control device 1.
  • the millimeter-wave radar 22 measures the distance from the vehicle 100 to an object existing around the vehicle 100.
  • the millimeter-wave radar 22 outputs the measured information regarding the distance from the vehicle 100 to the object (hereinafter referred to as “distance information”) to the automatic driving control device 1.
  • the automatic driving control device 1 infers the automatic driving control amount required for the automatic driving control of the vehicle 100 based on at least the captured image output from the camera 21 and the distance information output from the millimeter wave radar 22.
  • the information output from the sensor and used for inferring the automatic driving control amount in the automatic driving control device 1 such as the above-mentioned captured image or distance information is also collectively referred to as "vehicle peripheral information".
  • vehicle peripheral information is information used for inferring the automatic driving control amount in the automatic driving control device 1, and may include various information about the surroundings of the vehicle 100.
  • the possibility of failure is negligibly low, and there is a substantial problem with the vehicle peripheral information output from the sensor. Is not to occur.
  • the other one or a plurality of sensors are more likely to fail than some of the above sensors, and there is also a problem with the vehicle peripheral information output from the other sensors. Is relatively easy to occur.
  • the possibility of failure of the camera 21 is so low that it can be ignored, and the captured image of the camera 21 It is assumed that there is virtually no problem.
  • the vehicle peripheral information is used as input data for the machine learning model for inferring the automatic driving control amount, as will be described later.
  • the degree of indicating whether or not the vehicle peripheral information is reliable as the input data for inferring the automatic driving control amount suitable for the automatic driving control of the vehicle 100 is defined as the "reliability" of the vehicle peripheral information. That is.
  • the automatic driving control device 1 infers the automatic driving control amount based on the vehicle surrounding information output from the sensor. The details of the inference of the automatic driving control amount by the automatic driving control device 1 will be described later together with the configuration example of the automatic driving control device 1.
  • the automatic driving control device 1 outputs the inferred automatic driving control amount to the vehicle control unit 3 mounted on the vehicle 100.
  • the vehicle control unit 3 controls the vehicle 100 based on the automatic driving control amount output from the automatic driving control device 1. Specifically, the vehicle control unit 3 controls the control target device 4 to automatically drive the vehicle 100.
  • the control target device 4 is a device mounted on the vehicle 100 and operates to automatically drive the vehicle 100 based on the control by the vehicle control unit 3.
  • the controlled device 4 is, for example, an accelerator, a brake, a steering wheel, a gear, or a light.
  • the automatic driving control amount output by the automatic driving control device 1 may be a specific control amount of each controlled device 4 such as a brake, an accelerator, or a steering operation, or may be a plurality of latitudes in time series and a plurality of latitudes in time series.
  • the vehicle control unit 3 calculates a specific control amount of each controlled target device 4 so that the vehicle 100 automatically travels according to the traveling locus.
  • Each control target device 4 is controlled based on the calculated control amount.
  • FIG. 2 is a diagram showing a configuration example of the automatic operation control device 1 according to the first embodiment.
  • the automatic driving control device 1 includes an information acquisition unit 11, a control quantity inference unit 12, a machine learning model 13, a monitoring unit 14, and a control unit 15.
  • the control quantity inference unit 12 includes a first control quantity inference unit 121, a second control quantity inference unit 122, and a selection unit 123.
  • the machine learning model 13 includes a first machine learning model 131 and a second machine learning model 132.
  • the information acquisition unit 11 acquires a plurality of vehicle peripheral information output from each of the plurality of sensors. Specifically, the information acquisition unit 11 acquires the captured image taken by the camera 21 and the distance information measured by the millimeter wave radar 22 as vehicle peripheral information. The information acquisition unit 11 outputs the acquired vehicle peripheral information to the control quantity inference unit 12 and the monitoring unit 14.
  • the control amount inference unit 12 infers the automatic driving control amount of the vehicle 100 based on the plurality of vehicle peripheral information acquired by the information acquisition unit 11 and the machine learning model 13, and outputs the automatic driving control amount.
  • the control quantity inference unit 12 outputs the inferred automatic driving control amount to the vehicle control unit 3 in association with the information for identifying the control target device 4 to be controlled. ..
  • the first control amount inference unit 121 of the control amount inference unit 12 infers the first automatic driving control amount based on all of the plurality of vehicle peripheral information acquired by the information acquisition unit 11 and the first machine learning model 131.
  • the first control quantity inference unit 121 includes a captured image acquired by the information acquisition unit 11 from the camera 21, distance information acquired by the information acquisition unit 11 from the millimeter-wave radar 22, and a first machine learning model 131. Based on the above, the first automatic operation control amount is inferred.
  • the first machine learning model 131 will be described later.
  • the first control amount inference unit 121 outputs the inferred first automatic operation control amount to the selection unit 123.
  • the second control amount inference unit 122 of the control amount inference unit 12 infers the second automatic driving control amount based on a part of the plurality of vehicle peripheral information acquired by the information acquisition unit 11 and the second machine learning model 132. .. Specifically, the second control amount inference unit 122 uses the second automatic vehicle peripheral information based on the vehicle peripheral information other than the vehicle peripheral information whose reliability may be lowered and the second machine learning model 132 among the plurality of vehicle peripheral information. Infer the amount of driving control. As described above, in the first embodiment, it is premised that there is practically no problem with respect to the captured image of the camera 21, but a problem is relatively likely to occur with respect to the distance information of the millimeter wave radar 22. To do.
  • the second machine learning model 132 in the first embodiment specifically infers the second automatic driving control amount by inputting only the captured image acquired by the information acquisition unit 11. is there.
  • the second control amount inference unit 122 outputs the inferred second automatic operation control amount to the selection unit 123.
  • the selection unit 123 selects which of the first automatic operation control amount and the second automatic operation control amount is to be output. In the first embodiment, the selection unit 123 outputs the selected automatic driving control amount to the vehicle control unit 3, specifically. As will be described later, the control unit 15 outputs a control amount so as to output the first automatic driving control amount when it is determined by the monitoring unit 14 that the reliability of none of the plurality of vehicle peripheral information is lowered. Controls the inference unit 12. The selection unit 123 selects and outputs the first automatic operation control amount when the control amount inference unit 12 is controlled by the control unit 15 to output the first automatic operation control amount.
  • control unit 15 reduces the reliability of the vehicle peripheral information other than a part of the plurality of vehicle peripheral information input to the second machine learning model 132 among the plurality of vehicle peripheral information by the monitoring unit 14. If it is determined to be present, the control amount inference unit 12 is controlled so as to output the second automatic operation control amount.
  • the selection unit 123 selects and outputs the second automatic operation control amount when the control amount inference unit 12 is controlled by the control unit 15 to output the second automatic operation control amount.
  • the machine learning model 13 is a trained model in machine learning. Specifically, the machine learning model 13 is a machine in advance so as to output an automatic driving control amount required for automatic driving control of the vehicle 100 when a plurality of vehicle peripheral information acquired by the information acquisition unit 11 is input. This is the model in which the training was performed.
  • the machine learning model 13 is composed of, for example, a neural network.
  • the machine learning model 13 includes a first machine learning model 131 and a second machine learning model 132.
  • the first machine learning model 131 takes all of the plurality of vehicle peripheral information acquired by the information acquisition unit 11 as input, and outputs the first automatic driving control amount.
  • the first machine learning model 131 inputs both the captured image acquired by the information acquisition unit 11 from the camera 21 and the distance information acquired by the information acquisition unit 11 from the millimeter wave radar 22. Outputs the amount of automatic operation control.
  • the second machine learning model 132 takes a part of the plurality of vehicle peripheral information acquired by the information acquisition unit 11 as input, and outputs the second automatic driving control amount. Specifically, in the second machine learning model 132, when the vehicle peripheral information other than the vehicle peripheral information whose reliability is lowered is input among the plurality of vehicle peripheral information acquired by the information acquisition unit 11. The second automatic operation control amount is output. As described above, in the first embodiment, it is premised that there is practically no problem with respect to the captured image of the camera 21, but a problem is relatively likely to occur with respect to the distance information of the millimeter wave radar 22. To do. Therefore, the second machine learning model 132 in the first embodiment specifically outputs the second automatic operation control amount by inputting only the captured image acquired by the information acquisition unit 11.
  • the machine learning model 13 is provided in the automatic driving control device 1, but this is only an example, and the machine learning model 13 is the automatic driving control device 1.
  • the automatic operation control device 1 may be provided in a place where the automatic operation control device 1 can be referred to.
  • the monitoring unit 14 determines whether or not the reliability of any of the vehicle peripheral information acquired by the information acquisition unit 11 is low. In the first embodiment, it is premised that there is substantially no problem with the captured image of the camera 21, but a problem is relatively likely to occur with respect to the distance information of the millimeter wave radar 22. Therefore, the monitoring unit 14 in the first embodiment determines whether or not the reliability of the distance information acquired by the information acquisition unit 11 from the millimeter wave radar 22 is lowered. Specifically, the monitoring unit 14 refers to a distance in real space from the vehicle 100 to the object (hereinafter referred to as "reference distance") with respect to an object existing on the photographed image based on the photographed image acquired from the camera 21. .) To get.
  • reference distance a distance in real space from the vehicle 100 to the object
  • the monitoring unit 14 calculates the difference between the reference distance and the distance from the vehicle 100 to the object based on the distance information acquired from the millimeter wave radar 22. Then, the monitoring unit 14 determines whether or not the calculated difference is equal to or less than a preset threshold value (hereinafter referred to as “radar determination threshold value”). When the monitoring unit 14 determines that the calculated difference is equal to or less than the radar determination threshold value, the monitoring unit 14 determines that the reliability of the distance information has not decreased. On the other hand, when the monitoring unit 14 determines that the calculated difference is larger than the radar determination threshold value, the monitoring unit 14 determines that the reliability of the distance information is low.
  • radar determination threshold value a preset threshold value
  • any known method can be adopted.
  • a specific method for example, there is a method of using a learned model based on learning using a set of a photographed image of an object and an actually measured value of a distance from the vehicle 100 to the object in real space as teacher data. ..
  • the monitoring unit 14 refers to information related to the result of determining whether or not the reliability of any of the vehicle peripheral information acquired by the information acquisition unit 11 is lowered (hereinafter, referred to as "monitoring result information". ) Is output to the control unit 15. For example, when the monitoring unit 14 determines that the reliability of any vehicle peripheral information among the plurality of vehicle peripheral information is low, the monitoring result information indicating that the reliability of the vehicle peripheral information is low is obtained. , Is output to the control unit 15.
  • the monitoring result information includes information for identifying which vehicle peripheral information is less reliable. In the first embodiment, when the monitoring unit 14 determines that the reliability of the distance information acquired from the millimeter wave radar 22 is low, the monitoring unit 14 outputs the monitoring result information indicating that the reliability of the distance information is low.
  • the control unit 15 determines that the reliability of the vehicle is low.
  • the control amount inference unit 12 is controlled so as to output the automatic operation control amount excluding the influence of the peripheral information. Specifically, the control unit 15 determines the reliability of the vehicle peripheral information other than a part of the plurality of vehicle peripheral information input to the second machine learning model 132 among the plurality of vehicle peripheral information by the monitoring unit 14. When it is determined that the value has decreased, the control amount inference unit 12 is controlled so as to output the second automatic operation control amount.
  • the selection unit 123 of the control amount inference unit 12 selects and outputs the second automatic operation control amount.
  • control unit 15 outputs the first automatic driving control amount when the monitoring unit 14 determines that the reliability of any of the vehicle peripheral information among the plurality of vehicle peripheral information is not lowered.
  • the control amount inference unit 12 is controlled.
  • the selection unit 123 of the control amount inference unit 12 selects and outputs the first automatic operation control amount.
  • FIG. 3 is a flowchart for explaining the operation of the automatic operation control device 1 according to the first embodiment.
  • the information acquisition unit 11 acquires a plurality of vehicle peripheral information output from each of the plurality of sensors. Specifically, the information acquisition unit 11 acquires the captured image taken by the camera 21 and the distance information measured by the millimeter wave radar 22 (step ST301). The information acquisition unit 11 outputs the acquired vehicle peripheral information to the control quantity inference unit 12 and the monitoring unit 14.
  • the first control amount inference unit 121 of the control amount inference unit 12 is based on all of the plurality of vehicle peripheral information acquired by the information acquisition unit 11 in step ST301 and the first machine learning model 131, and the first automatic driving control amount. Infer. Specifically, in the first control quantity inference unit 121, the captured image acquired by the information acquisition unit 11 from the camera 21 in step ST301 and the distance information acquired by the information acquisition unit 11 from the millimeter wave radar 22 in step ST301. And the first machine learning model 131, the first automatic operation control amount is inferred (step ST302). The first control amount inference unit 121 outputs the inferred first automatic operation control amount to the selection unit 123.
  • the second control amount inference unit 122 of the control amount inference unit 12 controls the second automatic driving based on a part of the plurality of vehicle peripheral information acquired by the information acquisition unit 11 in step ST301 and the second machine learning model 132. Infer the quantity. Specifically, the second control amount inference unit 122 infers the second automatic driving control amount by inputting only the captured image acquired by the information acquisition unit 11 from the camera 21 in step ST301 (step ST303). The second control amount inference unit 122 outputs the inferred second automatic operation control amount to the selection unit 123.
  • the monitoring unit 14 determines whether or not the reliability of any of the vehicle peripheral information acquired by the information acquisition unit 11 is low. Specifically, first, the monitoring unit 14 acquires a reference distance for a certain object existing on the photographed image based on the photographed image acquired by the information acquisition unit 11 from the camera 21 in step ST301 (step ST304). ). Then, the monitoring unit 14 determines the difference between the reference distance acquired in step ST304 and the distance from the vehicle 100 to the object based on the distance information acquired by the information acquisition unit 11 from the millimeter wave radar 22 in step ST301. It is calculated, and it is determined whether or not the calculated difference is equal to or less than the radar determination threshold (step ST305).
  • the monitoring unit 14 When it is determined in step ST305 that the calculated difference is larger than the radar determination threshold value (when “NO” in step ST305), the monitoring unit 14 reduces the reliability of the distance information acquired from the millimeter wave radar 22. It is determined that the distance information is being measured, and the monitoring result information indicating that the reliability of the distance information is lowered is output to the control unit 15.
  • the control unit 15 controls the control quantity inference unit 12 so as to output the second automatic operation control amount inferred by the second control quantity inference unit 122 in step ST303.
  • the selection unit 123 selects the second automatic driving control amount and outputs it to the vehicle control unit 3 (step ST306).
  • the monitoring unit 14 determines that the reliability of the distance information acquired from the millimeter wave radar 22 is high. It is determined that the distance information has not decreased, and the monitoring result information indicating that the reliability of the distance information has not decreased is output to the control unit 15.
  • the control unit 15 controls the control quantity inference unit 12 so as to output the first automatic operation control amount inferred by the first control quantity inference unit 121 in step ST302.
  • the selection unit 123 selects the first automatic driving control amount and outputs it to the vehicle control unit 3 (step ST307).
  • step ST306 or step ST307 When the operation of step ST306 or step ST307 is performed, the operation of the automatic operation control device 1 returns to step ST301, and the subsequent operations are repeated.
  • the first control amount inference unit 121 obtains the captured image and the distance information acquired by the information acquisition unit 11 in the immediately preceding step ST301. It is not mandatory to use it.
  • the information acquisition unit 11 stores the acquired vehicle peripheral information in a storage unit (not shown), and the first control quantity inference unit 121 stores the acquired vehicle peripheral information in the storage unit before the immediately preceding step ST301.
  • the first automatic driving control amount may be inferred using the captured image and the distance information acquired by the information acquisition unit 11.
  • the second control amount inference unit 122 when inferring the second automatic driving control amount in step ST303, does not have to use the captured image acquired by the information acquisition unit 11 in the immediately preceding step ST301.
  • the second control amount inference unit 122 may infer the second automatic operation control amount using the captured image stored in the storage unit and acquired by the information acquisition unit 11 before the immediately preceding step ST301. Good.
  • the automatic driving control device 1 determines whether or not the reliability of the distance information output from the millimeter-wave radar 22 has decreased, and the reliability of the distance information has decreased. If it is determined, the estimation of the automatic driving control amount can be continuously carried out without using the distance information output from the millimeter wave radar 22. Even if the automatic driving control device 1 determines that the reliability of the distance information acquired from the millimeter-wave radar 22 has decreased, the automatic driving of the vehicle 100 can be continued, but the level of automatic driving is lowered. there is a possibility. That is, since the second control amount inference unit 122 uses less vehicle peripheral information for inferring the automatic driving control amount than the first control amount inference unit 121, a difference in inference level may occur.
  • the first control amount inference unit 121 can infer the automatic driving control amount for performing complicated control such as changing lanes at the time of congestion, while the second control amount inference unit 122 can infer the automatic driving control amount.
  • There may be a difference in the level of inference such as inference of the amount of automatic driving control for driving while keeping the lane in which the vehicle is running.
  • the automatic driving control device 1 includes only the first control amount inference unit 121. In the case of such a configuration, if the reliability of the distance information is lowered, there is a high possibility that the automatic operation cannot be continued normally.
  • the automatic driving control device 1 includes a second control amount inference unit 122, and the captured image acquired by the second control amount inference unit 122 from the camera 21 and the second machine learning model 132.
  • the second automatic operation control amount can be inferred based on the above.
  • the reliability of the distance information output from the millimeter wave radar 22 decreases, the automatic driving of the vehicle 100 is controlled by using the second automatic driving control amount inferred by the second controlled variable inference unit 122. It was to so.
  • the reliability of any vehicle peripheral information among the plurality of vehicle peripheral information acquired from the plurality of sensors is lowered, the automatic driving of the vehicle 100 can be continued although the level is relatively low. ..
  • the automatic driving control device 1 first controls the automatic driving control device 1 before the monitoring unit 14 determines whether or not the reliability of the distance information has decreased (see step ST305 in FIG. 3). It is assumed that the quantity inference unit 121 and the second control quantity inference unit 122 infer the first automatic operation control amount and the second automatic operation control amount, respectively (see steps ST302 and ST303 in FIG. 3). However, this is only an example, and the first control quantity inference unit 121 or the second control quantity inference unit 122 receives the determination by the monitoring unit 14 whether or not the reliability of the distance information has decreased, and automatically operates. The control amount may be inferred.
  • the control unit 15 controls the control amount inference unit 12 so as to output the second automatic driving control amount.
  • the control amount inference unit 12 is controlled to output the second automatic operation control amount from the control unit 15, the second control amount inference unit 122 infers the second automatic operation control amount.
  • the control unit 15 controls the control amount inference unit 12 so as to output the first automatic driving control amount.
  • the control quantity inference unit 12 is controlled to output the first automatic operation control amount from the control unit 15, the first control quantity inference unit 121 infers the first automatic operation control amount.
  • the control quantity inference unit 12 determines the first automatic operation control amount inferred by the first control quantity inference unit 121 or the second automatic operation control amount inferred by the second control quantity inference unit 122 based on the control of the control unit 15. , Output to the vehicle control unit 3. With such a configuration, the automatic operation control device 1 can be prevented from including the selection unit 123.
  • the plurality of vehicle peripheral information since it is premised that the plurality of vehicle peripheral information is two, the captured image and the distance information, and only the distance information is relatively likely to cause a problem, the plurality of vehicle peripheral information.
  • the machine learning model when the reliability of any of the two is lowered it is assumed that only the second machine learning model 132 that inputs the captured image is provided.
  • the plurality of vehicle peripheral information there may be a plurality of vehicle peripheral information that should be considered for the possibility of lowering the reliability.
  • the second machine learning model that makes inferences by inputting vehicle peripheral information excluding any one of a plurality of vehicle peripheral information that should be considered for the possibility that the reliability is lowered, and the reliability is lowered. It is assumed that a second machine learning model is provided in which inference is performed by inputting vehicle peripheral information excluding any plurality of combinations of a plurality of vehicle peripheral information to be considered.
  • the automatic driving control device 1 is the information acquisition unit 11 that acquires a plurality of vehicle peripheral information output from each of the plurality of sensors (camera 21, millimeter wave radar 22).
  • the control amount inference unit 12 that infers the automatic driving control amount based on the plurality of vehicle peripheral information acquired by the information acquisition unit 11 and the machine learning model 13 and outputs the automatic driving control amount, and the information acquisition unit 11.
  • the monitoring unit 14 that determines whether or not the reliability of any of the vehicle peripheral information acquired by the vehicle is low, and the monitoring unit 14 determines which vehicle is one of the plurality of vehicle peripheral information.
  • the control amount inference unit When it is determined that the reliability of the surrounding information is low, the control amount inference unit outputs the automatic driving control amount excluding the influence of the vehicle peripheral information judged to be low. It is configured to include a control unit 15 for controlling 12. Therefore, in the automatic driving control device 1 that infers and outputs the automatic driving control amount based on the plurality of vehicle peripheral information output from each of the plurality of sensors and the machine learning model 13, among the plurality of vehicle peripheral information. Even when the reliability of any vehicle peripheral information is lowered, it is possible to output an automatic driving control amount suitable for automatic driving control of the vehicle 100.
  • the control amount inference unit 12 is based on all of the plurality of vehicle peripheral information acquired by the information acquisition unit 11 and the first machine learning model 131. 1
  • the second automatic driving control amount is inferred based on the first control amount inference unit 121 that infers the automatic driving control amount, a part of a plurality of vehicle peripheral information acquired by the information acquisition unit 11, and the second machine learning model 132.
  • the control unit 15 includes a second control amount inference unit 122, and the control unit 15 other than a part of the plurality of vehicle peripheral information input to the second machine learning model 132 among the plurality of vehicle peripheral information by the monitoring unit 14.
  • the control amount inference unit 12 is configured to control so as to output the second automatic driving control amount. Therefore, in the automatic driving control device 1 that infers and outputs the automatic driving control amount based on the plurality of vehicle peripheral information output from each of the plurality of sensors and the machine learning model 13, among the plurality of vehicle peripheral information. Even when the reliability of any vehicle peripheral information is lowered, it is possible to output an automatic driving control amount suitable for automatic driving control of the vehicle 100.
  • the vehicle peripheral information output from one or more of the plurality of sensors does not substantially cause a problem, while the other one or a plurality of sensors among the plurality of sensors do not cause a problem. It is assumed that the vehicle peripheral information output from is relatively prone to problems. Specifically, of the camera 21 and the millimeter wave radar 22 included in the sensor in the first embodiment, there is substantially no problem with the captured image output from the camera 21, while the millimeter wave radar 22 Regarding the distance information output from, it is assumed that problems are relatively likely to occur. In the second embodiment, it is assumed that at least one of the plurality of sensors is the camera 21.
  • the automatic driving control device 1 infers the automatic driving control amount suitable for the automatic driving control of the vehicle 100 even when the reliability of the captured image is lowered.
  • the automatic driving control device 1a according to the second embodiment is assumed to be mounted on the vehicle 100 like the automatic driving control device 1 according to the first embodiment.
  • the sensors are a camera 21 and a millimeter wave radar 22.
  • the possibility of failure of both the camera 21 and the millimeter wave radar 22 is negligibly low, while the captured image output from the camera 21 is affected by, for example, the weather. It is assumed that problems are relatively likely to occur.
  • the automatic driving control device 1a acquires the captured image output from the camera 21 and the distance information output from the millimeter wave radar 22 as vehicle peripheral information.
  • the GNSS (Global Navigation Satellite System) 23 is mounted on the vehicle 100, and the automatic driving control device 1a obtains the information regarding the current position of the vehicle 100 output from the GNSS 23 and the reliability of the captured image. It is acquired as information for determining whether or not the degree has decreased.
  • the GNSS Global Navigation Satellite System
  • FIG. 4 is a diagram showing a configuration example of the automatic operation control device 1a according to the second embodiment.
  • the same reference numerals are given to the same configurations as the automatic operation control device 1 described with reference to FIG. 2 in the first embodiment, and duplicate description will be omitted.
  • the configuration of the automatic driving control device 1a according to the second embodiment is different from the configuration of the automatic driving control device 1 according to the first embodiment in that the weather determination unit 16 is provided.
  • the specific operation of the second control quantity inference unit 122a of the control quantity inference unit 12a and the monitoring unit 14a is the second control quantity inference unit 122 of the automatic driving control device 1 according to the first embodiment, and It is different from the specific operation of the monitoring unit 14.
  • the second machine learning model 132a receives the distance information acquired from the millimeter wave radar 22 by the information acquisition unit 11 as an input for the second automatic operation. It outputs the control amount.
  • the second control amount inference unit 122a infers the second automatic operation control amount based on the distance information acquired from the millimeter wave radar 22 by the information acquisition unit 11 and the second machine learning model 132a.
  • the information acquisition unit 11 acquires the captured image taken by the camera 21 and the distance information measured by the millimeter wave radar 22 as vehicle peripheral information.
  • the information acquisition unit 11 outputs the acquired vehicle peripheral information to the control quantity inference unit 12a and the monitoring unit 14a.
  • the weather determination unit 16 acquires information on the current position of the vehicle 100 from the GNSS 23. In addition, the weather determination unit 16 acquires weather information from the cloud weather server 5, which will be described later, via a network such as the Internet. The weather determination unit 16 determines the weather around the vehicle 100 based on the information regarding the current position of the vehicle 100 acquired from the GNSS 23 and the weather information acquired from the cloud weather server 5. The weather determination unit 16 determines, for example, whether or not there is fog or precipitation around the vehicle 100.
  • the state with fog or the state with precipitation which is determined by the weather determination unit 16, means that the reliability of the captured image output from the camera 21 is lowered to the extent that it is not suitable for inference of the automatic driving control amount.
  • the area around the vehicle 100 which is the target for the weather determination unit 16 to determine whether or not there is fog or precipitation, is predetermined, for example, within 1 km around the current location of the vehicle 100. It is assumed that there is.
  • the cloud weather server 5 is a server that distributes information on weather conditions. The weather determination unit 16 outputs the determined information on the weather around the vehicle 100 to the monitoring unit 14a.
  • the monitoring unit 14a determines whether or not the reliability of the captured image output from the camera 21 is lowered based on the weather information output from the weather determination unit 16. Specifically, for example, when the weather determination unit 16 determines that there is fog or precipitation around the vehicle 100, the monitoring unit 14a determines that the reliability of the captured image obtained from the camera 21 is low. ..
  • FIG. 5 is a flowchart for explaining the operation of the automatic operation control device 1a according to the second embodiment.
  • the information acquisition unit 11 acquires a plurality of vehicle peripheral information output from each of the plurality of sensors. Specifically, the information acquisition unit 11 acquires the captured image taken by the camera 21 and the distance information measured by the millimeter wave radar 22 as vehicle peripheral information. Further, the weather determination unit 16 acquires information regarding the current position of the vehicle 100 from the GNSS 23 (step ST501). The information acquisition unit 11 outputs the acquired vehicle peripheral information to the control quantity inference unit 12a and the monitoring unit 14a.
  • the first control amount inference unit 121 of the control amount inference unit 12a is based on all of the plurality of vehicle peripheral information acquired by the information acquisition unit 11 in step ST501 and the first machine learning model 131, and the first automatic driving control amount. Infer. Specifically, in the first control quantity inference unit 121, the captured image acquired by the information acquisition unit 11 from the camera 21 in step ST501 and the distance information acquired by the information acquisition unit 11 from the millimeter wave radar 22 in step ST501. And the first machine learning model 131, the first automatic operation control amount is inferred (step ST502). The first control amount inference unit 121 outputs the inferred first automatic operation control amount to the selection unit 123.
  • the second control amount inference unit 122a of the control amount inference unit 12a uses the second automatic driving control based on a part of the plurality of vehicle peripheral information acquired by the information acquisition unit 11 in step ST501 and the second machine learning model 132a. Infer the quantity. Specifically, the second control amount inference unit 122a is based on the distance information acquired by the information acquisition unit 11 from the millimeter-wave radar 22 in step ST501 and the second machine learning model 132a, and the second automatic operation control amount. Is inferred (step ST503). The second control amount inference unit 122a outputs the inferred second automatic operation control amount to the selection unit 123.
  • the weather determination unit 16 determines the weather around the vehicle 100 based on the information regarding the current position of the vehicle 100 acquired from the GNSS 23 and the weather information acquired from the cloud weather server 5 (step ST504).
  • the weather determination unit 16 outputs the determined information on the weather around the vehicle 100 to the monitoring unit 14a.
  • the monitoring unit 14a determines whether or not the reliability of the captured image obtained from the camera 21 is lowered based on the weather information output from the weather determination unit 16 in step ST504. Specifically, the monitoring unit 14a determines whether or not there is fog or precipitation around the vehicle 100, for example, based on the weather information output from the weather determination unit 16 (step ST505).
  • step ST505 When it is determined in step ST505 that there is no fog or precipitation around the vehicle 100 (when “NO” in step ST505), the monitoring unit 14a does not reduce the reliability of the captured image acquired from the camera 21. Is determined, and the monitoring result information indicating that the reliability of the captured image is not lowered is output to the control unit 15.
  • the control unit 15 controls the control quantity inference unit 12a so as to output the first automatic operation control amount inferred by the first control quantity inference unit 121 in step ST502.
  • the selection unit 123 selects the first automatic driving control amount and outputs it to the vehicle control unit 3 (step ST506).
  • step ST505 When it is determined in step ST505 that there is fog or precipitation around the vehicle 100 (when “YES” in step ST505), the monitoring unit 14a determines that the reliability of the captured image acquired from the camera 21 is low. The determination is made, and the monitoring result information indicating that the reliability of the captured image is lowered is output to the control unit 15.
  • the control unit 15 controls the control quantity inference unit 12a so as to output the second automatic operation control amount inferred by the second control quantity inference unit 122a in step ST503.
  • the selection unit 123 selects the second automatic driving control amount and outputs it to the vehicle control unit 3 (step ST507).
  • step ST506 or step ST507 When the operation of step ST506 or step ST507 is performed, the operation of the automatic operation control device 1a returns to step ST501, and the subsequent operations are repeated.
  • the weather determination unit 16 acquires information on the current position of the vehicle 100 from the GNSS 23 (see step ST501 in FIG. 5), and the weather determination unit 16 acquires the vehicle 100 from the GNSS 23.
  • the process of determining the weather around the vehicle 100 based on the information on the current position and the weather information acquired from the cloud weather server 5 does not necessarily have to be performed every time. For example, during the processing of steps ST501 to ST507 described above, the processing may be performed only once per minute.
  • the weather determination unit 16 If the weather determination unit 16 does not perform the process of determining the weather around the vehicle 100 every time based on the position information and the weather information of the vehicle 100, the weather determination unit 16 obtains the latest weather from the cloud weather server 5. Based on the information, the weather around the vehicle 100 is determined.
  • the reliability of the captured image output from the camera 21 is lowered to such an extent that it is not suitable for inferring the automatic driving control amount. It is determined that the reliability of the captured image captured by the camera 21 is low under a weather condition such as a state of heavy fog or a state of heavy precipitation. When the automatic driving control device 1a determines that the reliability of the captured image is low, the automatic driving control amount can be continuously inferred without using the captured image output from the camera 21.
  • At least one of the plurality of sensors used for acquiring vehicle peripheral information may be the camera 21, and the sensors other than the camera 21 are not limited to the millimeter wave radar 22 described above. ..
  • the sensor other than the camera 21 it is necessary to use a sensor that does not reduce the reliability of the vehicle surrounding information output from the sensor under the weather conditions where the reliability of the captured image output from the camera 21 decreases. Is.
  • the automatic driving control device 1a has the first step before the monitoring unit 14a determines whether or not the reliability of the captured image has decreased (see step ST505 in FIG. 5). It is assumed that the 1 control amount inference unit 121 and the 2nd control amount inference unit 122a infer the first automatic operation control amount and the second automatic operation control amount, respectively (see step ST502 and step ST503 in FIG. 5). ). However, this is only an example, and the first control quantity inference unit 121 or the second control quantity inference unit 122a receives the determination by the monitoring unit 14a whether or not the reliability of the captured image is lowered, and automatically operates. The control amount may be inferred.
  • the control unit 15 controls the control amount inference unit 12a so as to output the second automatic driving control amount.
  • the control quantity inference unit 12a is controlled to output the second automatic operation control amount from the control unit 15, the second control quantity inference unit 122a infers the second automatic operation control amount.
  • the control unit 15 controls the control amount inference unit 12a so as to output the first automatic driving control amount.
  • the control quantity inference unit 12a is controlled to output the first automatic operation control amount from the control unit 15, the first control quantity inference unit 121 infers the first automatic operation control amount.
  • the control quantity inference unit 12a determines the first automatic operation control amount inferred by the first control quantity inference unit 121 or the second automatic operation control amount inferred by the second control quantity inference unit 122a based on the control of the control unit 15. , Output to the vehicle control unit 3. With such a configuration, the automatic operation control device 1a can be prevented from including the selection unit 123.
  • the automatic driving control device 1a is the information acquisition unit 11 that acquires a plurality of vehicle peripheral information output from each of the plurality of sensors (camera 21, millimeter wave radar 22).
  • the control amount inference unit 12a that infers the automatic driving control amount based on the plurality of vehicle peripheral information acquired by the information acquisition unit 11 and the machine learning model 13a and outputs the automatic driving control amount, and the information acquisition unit 11.
  • the monitoring unit 14a for determining whether or not the reliability of any of the vehicle peripheral information acquired by the vehicle is low, and the monitoring unit 14a for any vehicle among the plurality of vehicle peripheral information.
  • the control amount inference unit When it is determined that the reliability of the surrounding information is low, the control amount inference unit outputs the automatic driving control amount excluding the influence of the vehicle peripheral information judged to be low. It is configured to include a control unit 15 for controlling 12a. Therefore, in the automatic driving control device 1a that infers and outputs the automatic driving control amount based on the plurality of vehicle peripheral information output from the plurality of sensors and the machine learning model 13a, among the plurality of vehicle peripheral information. Even when the reliability of any vehicle peripheral information is lowered, it is possible to output an automatic driving control amount suitable for automatic driving control of the vehicle 100.
  • the control amount inference unit 12a is based on all of the plurality of vehicle peripheral information acquired by the information acquisition unit 11 and the first machine learning model 131. 1
  • the second automatic driving control amount is inferred based on the first control amount inference unit 121 that infers the automatic driving control amount, a part of a plurality of vehicle peripheral information acquired by the information acquisition unit 11, and the second machine learning model 132a.
  • the control unit 15 includes a second control amount inference unit 122a, and the control unit 15 other than a part of the plurality of vehicle peripheral information input to the second machine learning model 132a among the plurality of vehicle peripheral information by the monitoring unit 14a.
  • the control amount inference unit 12a is configured to control so as to output the second automatic driving control amount. Therefore, in the automatic driving control device 1a that infers and outputs the automatic driving control amount based on the plurality of vehicle peripheral information output from the plurality of sensors and the machine learning model 13a, among the plurality of vehicle peripheral information. Even when the reliability of any vehicle peripheral information is lowered, it is possible to output an automatic driving control amount suitable for automatic driving control of the vehicle 100.
  • Embodiment 3 In the second embodiment, it is assumed that at least one of the plurality of sensors is the camera 21. It is premised that while the possibility of failure of each of the plurality of sensors is negligibly low, the photographed image output from the camera 21 is relatively prone to problems due to, for example, the influence of the weather. And said. Then, the automatic driving control device 1a determines whether or not the reliability of the captured image output from the camera 21 has decreased based on the weather around the vehicle 100, and the reliability of the captured image has decreased. Even if there is, the embodiment for inferring the amount of automatic driving control suitable for the automatic driving control of the vehicle 100 has been described. In the third embodiment, an embodiment in which the automatic driving control device 1b determines whether or not the reliability of the captured image output from the camera 21 is lowered by a method different from that of the second embodiment will be described.
  • the automatic driving control device 1b according to the third embodiment is mounted on the vehicle 100 like the automatic driving control device 1 according to the first embodiment.
  • the sensors are a camera 21 and a millimeter wave radar 22.
  • the possibility of failure of both the camera 21 and the millimeter wave radar 22 is negligibly low, but the captured image output from the camera 21 is relatively prone to problems. It is assumed that it is a thing.
  • FIG. 6 is a diagram showing a configuration example of the automatic operation control device 1b according to the third embodiment.
  • the same components as those of the automatic operation control device 1 described with reference to FIG. 2 in the first embodiment are designated by the same reference numerals and duplicated description will be omitted.
  • the specific operations of the second control amount inference unit 122b and the monitoring unit 14b of the control amount inference unit 12b are the automatic operation control devices 1 according to the first embodiment.
  • the specific operation of the second control quantity inference unit 122 and the monitoring unit 14 of the above is different.
  • the second machine learning model 132b receives the distance information acquired from the millimeter wave radar 22 by the information acquisition unit 11 as an input for the second automatic operation. It outputs the control amount.
  • the second control amount inference unit 122b infers the second automatic operation control amount based on the distance information acquired from the millimeter wave radar 22 by the information acquisition unit 11 and the second machine learning model 132b.
  • the monitoring unit 14b determines whether or not the reliability of the captured image is lowered based on the brightness of the captured image acquired by the information acquisition unit 11. Specifically, in the monitoring unit 14b, for example, the maximum value of the brightness of each pixel of the captured image acquired by the information acquisition unit 11 is equal to or less than a preset threshold value (hereinafter referred to as “luminance determination threshold value”). In this case, it is determined that the reliability of the captured image obtained from the camera 21 is low.
  • the luminance determination threshold is set to, for example, a luminance value such that when all the pixels of the captured image have a luminance equal to or lower than the luminance determination threshold, the entire captured image becomes a dark image so that the object cannot be identified. It is preset.
  • FIG. 7 is a diagram for explaining an example of captured images in which the brightness of the pixels is different in the third embodiment.
  • FIG. 7A is an example of a captured image in which all the pixels of the captured image have sufficient brightness to sufficiently identify the object in the captured image
  • FIG. 7B shows that all the pixels of the captured image are the same. This is an example of a captured image in a case where the image is so dark that the object in the captured image cannot be recognized.
  • FIG. 7C shows that all the pixels of the captured image recognize the object in the captured image. This is an example of a captured image when the image has a brightness that makes the image unreasonably bright.
  • the brightness determination threshold value is set to "5".
  • the luminance determination threshold is a luminance value such that when all the pixels of the captured image have a luminance equal to or higher than the luminance determination threshold, the entire captured image becomes a bright image so that the object cannot be identified.
  • it may be set in advance.
  • the monitoring unit 14b reduces the reliability of the captured image obtained from the camera 21. It is determined that it is. For example, in the captured image, when the brightness of the black pixel is "0" and the brightness of the white pixel is "255", the brightness determination threshold value is set to "250".
  • FIG. 8 is a flowchart for explaining the operation of the automatic operation control device 1b according to the third embodiment.
  • the information acquisition unit 11 acquires a plurality of vehicle peripheral information output from each of the plurality of sensors. Specifically, the information acquisition unit 11 acquires the captured image taken by the camera 21 and the distance information measured by the millimeter-wave radar 22 as vehicle peripheral information (step ST801). The information acquisition unit 11 outputs the acquired vehicle peripheral information to the control quantity inference unit 12b and the monitoring unit 14b.
  • the first control amount inference unit 121 of the control amount inference unit 12b is the first automatic driving control amount based on all of the plurality of vehicle peripheral information acquired by the information acquisition unit 11 in step ST801 and the first machine learning model 131. Infer. Specifically, in the first control quantity inference unit 121, the captured image acquired by the information acquisition unit 11 from the camera 21 in step ST801 and the distance information acquired by the information acquisition unit 11 from the millimeter wave radar 22 in step ST801. And the first machine learning model 131, the first automatic operation control amount is inferred (step ST802). The first control amount inference unit 121 outputs the inferred first automatic operation control amount to the selection unit 123.
  • the second control amount inference unit 122b of the control amount inference unit 12 controls the second automatic driving based on a part of the plurality of vehicle peripheral information acquired by the information acquisition unit 11 in step ST801 and the second machine learning model 132b. Infer the quantity. Specifically, the second control amount inference unit 122b is based on the distance information acquired by the information acquisition unit 11 from the millimeter-wave radar 22 in step ST801 and the second machine learning model 132b, and the second automatic operation control amount. Is inferred (step ST803). The second control amount inference unit 122b outputs the inferred second automatic operation control amount to the selection unit 123.
  • the monitoring unit 14b determines whether or not the reliability of any of the vehicle peripheral information among the plurality of vehicle peripheral information is lowered with respect to the plurality of vehicle peripheral information acquired by the information acquisition unit 11. Specifically, first, the monitoring unit 14b acquires a captured image acquired from the camera 21 by the information acquisition unit 11 in step ST801 (step ST804). Then, the monitoring unit 14b determines whether or not the maximum value of the brightness of each pixel of the captured image acquired in step ST804 is equal to or less than the brightness determination threshold value (step ST805).
  • step ST805 When it is determined in step ST805 that the maximum value of the brightness of the pixels in the captured image is larger than the luminance determination threshold value (when “NO” in step ST805), the monitoring unit 14b is the photographed image acquired from the camera 21. It is determined that the reliability has not decreased, and the monitoring result information indicating that the reliability of the captured image has not decreased is output to the control unit 15.
  • the control unit 15 controls the control quantity inference unit 12b so as to output the first automatic operation control amount inferred by the first control quantity inference unit 121 in step ST802.
  • the selection unit 123 selects the first automatic driving control amount and outputs it to the vehicle control unit 3 (step ST806).
  • step ST805 When it is determined in step ST805 that the maximum value of the brightness of the pixels in the image is equal to or less than the brightness determination threshold value (when “YES” in step ST805), the monitoring unit 14b is the photographed image acquired from the camera 21. It is determined that the reliability is lowered, and the monitoring result information indicating that the reliability of the captured image is lowered is output to the control unit 15.
  • the control unit 15 controls the control quantity inference unit 12b so as to output the second automatic operation control amount inferred by the second control quantity inference unit 122b in step ST803.
  • the selection unit 123 selects the second automatic driving control amount and outputs it to the vehicle control unit 3 (step ST807).
  • step ST806 or step ST807 When the operation of step ST806 or step ST807 is performed, the operation of the automatic operation control device 1b returns to step ST801, and the subsequent operations are repeated.
  • the captured image output from the camera 21 has a reduced reliability of the captured image so as not to be suitable for inferring the automatic driving control amount.
  • the captured image has such a brightness that the object in the captured image cannot be recognized, it is determined that the reliability of the captured image captured by the camera 21 is lowered.
  • the automatic operation control device 1b determines that the reliability of the captured image is low, the automatic operation control device 1b can continue to infer the automatic operation control amount without using the captured image.
  • a captured image having a brightness that makes it impossible to recognize an object in the captured image is, for example, a situation in which it is pitch black, a situation in which the exposure compensation function of the camera 21 is malfunctioning, or a situation in which there is a shield in front of the camera 21 and the photograph cannot be taken.
  • the captured image acquired by the automatic driving control device 1b from the camera 21 is, for example, an image that is so dark that the object in the captured image cannot be recognized, or an image that is so bright that the object in the captured image cannot be recognized. Become.
  • At least one of the plurality of sensors used for acquiring vehicle peripheral information may be the camera 21, and the sensors other than the camera 21 are not limited to the millimeter wave radar 22 described above. ..
  • the automatic driving control device 1b is the information acquisition unit 11 that acquires a plurality of vehicle peripheral information output from each of the plurality of sensors (camera 21, millimeter wave radar 22).
  • the control amount inference unit 12b that infers the automatic driving control amount based on the plurality of vehicle peripheral information acquired by the information acquisition unit 11 and the machine learning model 13b and outputs the automatic driving control amount, and the information acquisition unit 11.
  • the monitoring unit 14b for determining whether or not the reliability of any vehicle peripheral information among the plurality of vehicle peripheral information acquired by the vehicle has decreased, and the monitoring unit 14b for any vehicle among the plurality of vehicle peripheral information.
  • the control amount inference unit When it is determined that the reliability of the surrounding information is low, the control amount inference unit outputs the automatic driving control amount excluding the influence of the vehicle peripheral information judged to be low. It is configured to include a control unit 15 that controls 12b. Therefore, in the automatic driving control device 1b that infers and outputs the automatic driving control amount based on the plurality of vehicle peripheral information output from the plurality of sensors and the machine learning model 13b, among the plurality of vehicle peripheral information. Even when the reliability of any vehicle peripheral information is lowered, it is possible to output an automatic driving control amount suitable for automatic driving control of the vehicle 100.
  • the control amount inference unit 12b is based on all of the plurality of vehicle peripheral information acquired by the information acquisition unit 11 and the first machine learning model 131. 1
  • the second automatic driving control amount is inferred based on the first control amount inference unit 121 that infers the automatic driving control amount, a part of a plurality of vehicle peripheral information acquired by the information acquisition unit 11, and the second machine learning model 132b.
  • the control unit 15 includes a second control amount inference unit 122b, and the control unit 15 other than a part of the plurality of vehicle peripheral information input to the second machine learning model 132b among the plurality of vehicle peripheral information by the monitoring unit 14b.
  • the control amount inference unit 12b is configured to control so as to output the second automatic driving control amount. Therefore, in the automatic driving control device 1b that infers and outputs the automatic driving control amount based on the plurality of vehicle peripheral information output from the plurality of sensors and the machine learning model 13b, among the plurality of vehicle peripheral information. Even when the reliability of any vehicle peripheral information is lowered, it is possible to output an automatic driving control amount suitable for automatic driving control of the vehicle 100.
  • Embodiment 4 In the second embodiment and the third embodiment, it is assumed that at least one of the plurality of sensors is the camera 21, and all of the plurality of sensors have a negligibly low possibility of failure, while the camera 21 is used. It is assumed that the output captured image is relatively problematic. Then, the automatic driving control devices 1a and 1b determine whether or not the reliability of the photographed image output from the camera 21 has decreased based on the weather around the vehicle 100 or the brightness of the pixels of the photographed image, and the photographing. An embodiment in which the amount of automatic driving control suitable for the automatic driving control of the vehicle 100 is inferred has been described even when the reliability of the image is lowered. In the fourth embodiment, the automatic driving control device 1c determines whether or not the reliability of the captured image output from the camera 21 is lowered by a method different from that of the second and third embodiments. The form will be described.
  • the automatic driving control device 1c according to the fourth embodiment is mounted on the vehicle 100 like the automatic driving control device 1 according to the first to third embodiments.
  • the sensor is a camera 21 and a millimeter wave radar 22.
  • both the camera 21 and the millimeter wave radar 22 have a low possibility of failure, while the captured images output from the camera 21 are compared. It is assumed that the problem is likely to occur.
  • the automatic driving control device 1c acquires the captured image output from the camera 21 and the distance information output from the millimeter wave radar 22 as vehicle peripheral information.
  • the automatic driving control device 1c provides information (hereinafter referred to as "vehicle traveling information") output from the vehicle traveling sensor 24 for determining whether or not the vehicle 100 is traveling. get.
  • vehicle traveling information information
  • the vehicle 100 is traveling is synonymous with “the vehicle 100 is moving”.
  • the vehicle 100 is moving is synonymous with "the speed of the vehicle 100 is not” 0 "”.
  • the vehicle travel sensor 24 outputs vehicle travel information.
  • the vehicle travel sensor 24 may be a sensor that outputs information that can determine whether or not the vehicle 100 is traveling, and the vehicle travel sensor 24 may be, for example, a sensor that acquires the number of rotations of the wheels. However, it may be a GNSS or the like that acquires information on the current position of the vehicle 100. It should be noted that the travel determination unit 17, which will be described later, determines whether or not the vehicle 100 is traveling based on the vehicle travel information output from the vehicle travel sensor 24.
  • FIG. 9 is a diagram showing a configuration example of the automatic operation control device 1c according to the fourth embodiment.
  • the same components as those of the automatic operation control device 1 described with reference to FIG. 2 in the first embodiment are designated by the same reference numerals and duplicated description will be omitted.
  • the configuration of the automatic driving control device 1c according to the fourth embodiment is different from the configuration of the automatic driving control device 1 according to the first embodiment in that it includes a traveling determination unit 17.
  • the specific operations of the second control amount inference unit 122c and the monitoring unit 14c of the control amount inference unit 12c are the automatic operation control according to the first embodiment.
  • the specific operations of the second control quantity inference unit 122 and the monitoring unit 14 of the device 1 are different.
  • the second machine learning model 132c receives the distance information acquired from the millimeter wave radar 22 by the information acquisition unit 11 as an input for the second automatic operation. It outputs the control amount.
  • the second control amount inference unit 122c infers the second automatic operation control amount based on the distance information acquired from the millimeter wave radar 22 by the information acquisition unit 11 and the second machine learning model 132c.
  • the information acquisition unit 11 acquires the captured image taken by the camera 21 and the distance information measured by the millimeter wave radar 22 as vehicle peripheral information.
  • the information acquisition unit 11 outputs the acquired vehicle peripheral information to the control quantity inference unit 12c and the monitoring unit 14c.
  • the travel determination unit 17 determines whether or not the vehicle 100 is traveling based on the vehicle travel information acquired from the vehicle travel sensor 24. The travel determination unit 17 outputs the determined information on whether or not the vehicle 100 is traveling to the monitoring unit 14c.
  • the monitoring unit 14c determines whether or not the vehicle 100 is running and the scenery around the vehicle 100 captured by the captured image acquired from the camera 21 has not changed.
  • the monitoring unit 14c determines whether or not the landscape captured by the captured image has changed based on the captured image acquired from the information acquisition unit 11c and the captured image stored in the storage unit.
  • the monitoring unit 14c has a captured image acquired from the information acquisition unit 11 (referred to as “first captured image”) and a captured image most recently stored in the storage unit (referred to as “second captured image”).
  • the preset comparison condition is, for example, that the average of the absolute values of the differences in the pixel values of the pixels of the first captured image and the second captured image is equal to or less than the preset threshold value. It should be noted that this is only an example, and the comparison condition may be set so that it can be determined that the first captured image and the second captured image are the same. In the fourth embodiment, the fact that the first captured image and the second captured image are the same is not limited to being completely the same, but also includes being substantially the same.
  • the monitoring unit 14c determines that the reliability of the photographed image is lowered when the vehicle 100 is running and the scenery around the vehicle 100 photographed in the photographed image has not changed.
  • the landscape captured in the captured image changes. Therefore, even though the vehicle 100 is traveling, the fact that there is no change in the landscape captured in the captured image means that the reliability of the captured image is lowered.
  • the information acquisition unit 11 stores the captured image acquired from the camera 21 in the storage unit.
  • the monitoring unit 14c determines whether or not there is any change in the landscape captured by the captured image based on the captured image acquired from the information acquisition unit 11 and the captured image stored in the storage unit.
  • FIG. 10 is a flowchart for explaining the operation of the automatic operation control device 1c according to the fourth embodiment.
  • the information acquisition unit 11 acquires a plurality of vehicle peripheral information output from each of the plurality of sensors. Specifically, the information acquisition unit 11 acquires the captured image taken by the camera 21 and the distance information measured by the millimeter wave radar 22 as vehicle peripheral information. Further, the travel determination unit 17 acquires vehicle travel information from the vehicle travel sensor 24 (step ST1001). The information acquisition unit 11 outputs the acquired vehicle peripheral information to the control quantity inference unit 12c and the monitoring unit 14c.
  • the first control amount inference unit 121 of the control amount inference unit 12c is the first automatic driving control amount based on all of the plurality of vehicle peripheral information acquired by the information acquisition unit 11 in step ST1001 and the first machine learning model 131. Infer. Specifically, in the first control quantity inference unit 121, the captured image acquired by the information acquisition unit 11 from the camera 21 in step ST1001 and the distance information acquired by the information acquisition unit 11 from the millimeter wave radar 22 in step ST1001. And the first machine learning model 131, the first automatic operation control amount is inferred (step ST1002). The first control amount inference unit 121 outputs the inferred first automatic operation control amount to the selection unit 123.
  • the second control amount inference unit 122c of the control amount inference unit 12c is the second automatic driving control based on a part of the plurality of vehicle peripheral information acquired by the information acquisition unit 11c in step ST1001 and the second machine learning model 132c. Infer the quantity. Specifically, the second control amount inference unit 122c is based on the distance information acquired by the information acquisition unit 11 from the millimeter-wave radar 22 in step ST1001 and the second machine learning model 132c, and the second automatic operation control amount. Is inferred (step ST1003). The second control amount inference unit 122c outputs the inferred second automatic operation control amount to the selection unit 123.
  • the travel determination unit 17 determines whether or not the vehicle 100 is traveling based on the vehicle travel information acquired from the vehicle travel sensor 24 (step ST1004). The travel determination unit 17 outputs the determined information on whether or not the vehicle 100 is traveling to the monitoring unit 14c.
  • the monitoring unit 14c determines whether or not the captured image acquired from the camera 21 in the past is stored in the storage unit (step ST1005). When it is determined in step ST1005 that the captured image is not stored in the storage unit (when “NO” in step ST1005), the monitoring unit 14c has lowered the reliability of the captured image acquired from the camera 21. It is determined that there is no such thing, and the monitoring result information indicating that the reliability of the captured image is not lowered is output to the control unit 15. The operation of the automatic operation control device 1c proceeds to step ST1007.
  • step ST1005 When it is determined in step ST1005 that the captured image is stored in the storage unit (when “YES” in step ST1005), the monitoring unit 14c receives the captured image output from the information acquisition unit 11 in step ST1001. Then, based on the information output from the travel determination unit 17 in step ST1004 to determine whether or not the vehicle 100 is traveling, it is determined whether or not the reliability of the captured image is lowered. Specifically, the monitoring unit 14c determines whether or not the vehicle 100 is running and the scenery around the vehicle 100 captured in the captured image has not changed (step ST1006).
  • step ST1006 when the monitoring unit 14c determines that the vehicle 100 is not running, or when it is determined that the scenery around the vehicle 100 captured in the captured image has changed (“NO” in step ST1006). In the case of "), the monitoring unit 14c determines that the reliability of the captured image acquired from the camera 21 has not decreased, and the control unit 15 receives the monitoring result information indicating that the reliability of the captured image has not decreased. Output to. The operation of the automatic operation control device 1c proceeds to step ST1007.
  • step ST1007 the control unit 15 controls the control quantity inference unit 12c so as to output the first automatic driving control amount inferred by the first control quantity inference unit 121 in step ST1002.
  • the selection unit 123 selects the first automatic driving control amount and outputs it to the vehicle control unit 3 (step ST1007).
  • step ST1006 when it is determined that the vehicle 100 is running and the scenery around the vehicle 100 photographed in the photographed image has not changed (in the case of "YES" in step ST1006), the monitoring unit The 14c determines that the reliability of the captured image acquired from the camera 21 is low, and outputs monitoring result information indicating that the reliability of the captured image is low to the control unit 15.
  • the control unit 15 controls the control quantity inference unit 12c so as to output the second automatic operation control amount inferred by the second control quantity inference unit 122c in step ST1003.
  • the selection unit 123 selects the second automatic driving control amount and outputs it to the vehicle control unit 3 (step ST1008).
  • step ST1007 or step ST1008 When the operation of step ST1007 or step ST1008 is performed, the operation of the automatic operation control device 1c returns to step ST1001 and the subsequent operations are repeated.
  • the automatic driving control device 1c can acquire only captured images in which the vehicle surroundings of the traveling vehicle 100 cannot be properly captured so that the automatic driving control amount cannot be correctly inferred. In such a situation, it is determined that the reliability of the captured image acquired from the camera 21 is low. When the automatic driving control device 1c determines that the reliability of the captured image is low, the automatic driving control amount can be continuously inferred without using the captured image output from the camera 21.
  • At least one of the plurality of sensors used for acquiring vehicle peripheral information may be the camera 21, and the sensors other than the camera 21 are not limited to the millimeter wave radar 22 described above. ..
  • the automatic driving control device 1c is the information acquisition unit 11 that acquires a plurality of vehicle peripheral information output from each of the plurality of sensors (camera 21, millimeter wave radar 22).
  • the control amount inference unit 12c that infers the automatic driving control amount based on the plurality of vehicle peripheral information acquired by the information acquisition unit 11 and the machine learning model 13c and outputs the automatic driving control amount, and the information acquisition unit 11.
  • the monitoring unit 14c which determines whether or not the reliability of the vehicle peripheral information of any of the plurality of vehicle peripheral information acquired by the vehicle is lowered, and the monitoring unit 14c, any vehicle of the plurality of vehicle peripheral information
  • the control amount inference unit outputs the automatic driving control amount excluding the influence of the vehicle peripheral information judged to be low. It is configured to include a control unit 15 for controlling 12c. Therefore, in the automatic driving control device 1c that infers and outputs the automatic driving control amount based on the plurality of vehicle peripheral information output from the plurality of sensors and the machine learning model 13c, among the plurality of vehicle peripheral information. Even when the reliability of any vehicle peripheral information is lowered, it is possible to output an automatic driving control amount suitable for automatic driving control of the vehicle 100.
  • the control amount inference unit 12c is based on all of the plurality of vehicle peripheral information acquired by the information acquisition unit 11 and the first machine learning model 131. 1
  • the second automatic driving control amount is inferred based on the first control amount inference unit 121 that infers the automatic driving control amount, a part of a plurality of vehicle peripheral information acquired by the information acquisition unit 11, and the second machine learning model 132c.
  • the control unit 15 includes a second control amount inference unit 122c, and the control unit 15 other than a part of the plurality of vehicle peripheral information input to the second machine learning model 132c among the plurality of vehicle peripheral information by the monitoring unit 14c.
  • the control amount inference unit 12c is configured to control so as to output the second automatic driving control amount. Therefore, in the automatic driving control device 1c that infers and outputs the automatic driving control amount based on the plurality of vehicle peripheral information output from the plurality of sensors and the machine learning model 13c, among the plurality of vehicle peripheral information. Even when the reliability of any vehicle peripheral information is lowered, it is possible to output an automatic driving control amount suitable for automatic driving control of the vehicle 100.
  • Embodiment 5 In the automatic driving control device 1 according to the first embodiment, when it is determined that the reliability of the vehicle peripheral information output from the sensor is lowered, the information indicating that the reliability is lowered is automatically output. It is also possible to output to the outside of the operation control device 1. In the fifth embodiment, when the automatic driving control device 1 determines that the reliability of the vehicle peripheral information output from the sensor is lowered, the information indicating that the reliability is lowered is automatically output. An embodiment of outputting to the outside of the operation control device 1 will be described.
  • FIG. 11 is a diagram showing a configuration example of the automatic operation control device 1d according to the fifth embodiment.
  • the same components as those of the automatic operation control device 1 described with reference to FIG. 2 in the first embodiment are designated by the same reference numerals and duplicated description will be omitted.
  • the configuration of the automatic driving control device 1d according to the fifth embodiment is different from the configuration of the automatic driving control device 1 according to the first embodiment in that the notification control unit 18 is provided.
  • the notification control unit 18 controls the control amount inference unit 12 so that the control unit 15 outputs the second automatic driving control amount, the reliability of some of the vehicle peripheral information among the plurality of vehicle peripheral information is lowered.
  • the notification control unit 18 outputs the notification information to an output device (not shown) connected to the automatic operation control device 1d via a network.
  • the output device is, for example, a display included in the car navigation system mounted on the vehicle 100.
  • the notification control unit 18 causes the display to display the notification information.
  • the control unit 15 outputs the second automatic driving control amount when the monitoring unit 14 determines that the reliability of the vehicle peripheral information other than a part of the plurality of vehicle peripheral information is lowered.
  • the information indicating that the reliability of the vehicle peripheral information is lowered is output to the notification control unit 18.
  • FIGS. 12 and 13 are diagrams showing an example of a display screen on which the notification control unit 18 displays the notification information in the fifth embodiment.
  • the notification control unit 18 displays, for example, "The millimeter wave radar cannot be used" as information indicating that the reliability of the distance information output from the millimeter wave radar 22 is low. Is displayed (see 1201 in FIG. 12).
  • the information indicating that the reliability of the distance information is lowered includes, for example, a message that the sensor that outputs the vehicle peripheral information with the lowered reliability cannot be used.
  • the notification control unit 18 displays, for example, "The current lane change function is a function" on the display as information indicating that the reliability of the distance information output from the millimeter wave radar 22 is low.
  • the message "Cannot be used” is displayed (see 1301 in FIG. 13).
  • the information indicating that the reliability of the distance information is lowered cannot be used for the automatic driving control of the vehicle 100 because, for example, there is vehicle peripheral information determined that the reliability is lowered.
  • step ST305 the difference between the reference distance acquired in step ST304 and the distance from the vehicle 100 to the object based on the distance information acquired by the information acquisition unit 11 from the millimeter-wave radar 22 in step ST301 is for radar determination.
  • the monitoring unit 14 determines that the reliability of the distance information acquired from the millimeter-wave radar 22 is low, and determines that the reliability of the distance information is low.
  • the monitoring result information indicating that is decreasing is output to the control unit 15.
  • the control unit 15 controls the control amount inference unit 12 so as to output the second automatic driving control amount inferred by the second control amount inference unit 122 in step ST303, and the reliability of the vehicle peripheral information is lowered.
  • Information indicating the presence is output to the notification control unit 18.
  • the notification control unit 18 outputs notification information indicating that the reliability of some of the vehicle peripheral information among the plurality of vehicle peripheral information is low.
  • the notification control unit 18 may be plurality of. Outputs notification information indicating that the reliability of some vehicle peripheral information among the vehicle peripheral information is low. As a result, the automatic driving control device 1d can notify the driver of the vehicle 100 and the like that the reliability of some vehicle peripheral information is reduced.
  • the driver or the like confirms that the reliability of some vehicle peripheral information is low, for example, he / she confirms that the antenna of the millimeter wave radar 22 is not dirty, and if the antenna is dirty, cleans it. Do. Alternatively, the driver or the like repairs the millimeter wave radar 22.
  • the notification control unit 18 when the notification control unit 18 outputs notification information as shown in FIG. 13, for example, the automatic driving function that can be inferred has been changed. Can be notified to others. As a result, the automatic driving control device 1d makes the driver, etc. understand that the expected automatic driving function cannot be used, and the driver, etc. cannot use the expected automatic driving function. Can prevent confusion. As described above, the notification control unit 18 can output the notification information as shown in FIG. 12, but as shown in FIG. 13, it is better to notify the functional deterioration in the automatic operation control. Persons and the like can specifically grasp which function of automatic driving cannot be used.
  • the output device for outputting the notification information by the notification control unit 18 is a display provided in the car navigation system, but this is only an example.
  • the output device from which the notification control unit 18 outputs the notification information may be an instrument panel, and the notification control unit 18 may display the notification information by a message, an icon, or the like.
  • the notification control unit 18 is not limited to displaying the notification information, and may output it by voice.
  • the output device may be a voice output device such as a speaker, and the notification control unit 18 may output the notification information from the voice output device.
  • the notification control unit 18 may output the notification information by automatic voice, or may simply output it as a buzzer sound. Further, the notification control unit 18 may display the notification information as a message on the display and output it as a voice or a buzzer sound.
  • the configuration of the automatic operation control device 1d according to the fifth embodiment described above may be applied to the above-described second to fourth embodiments. That is, the automatic operation control device 1a according to the second embodiment, the automatic operation control device 1b according to the third embodiment, or the automatic operation control device 1c according to the fourth embodiment is provided with the notification control unit 18.
  • the notification control unit 18 can also output information indicating that the reliability of the captured image acquired from the camera 21 is low.
  • the automatic driving control device 1d outputs the second automatic driving control amount in addition to the configuration of the automatic driving control device 1 according to the first embodiment.
  • the notification control unit 18 is configured to output notification information indicating that the reliability of some of the vehicle peripheral information among the plurality of vehicle peripheral information is lowered. did. Therefore, when the automatic driving control device 1d determines that the reliability of the vehicle peripheral information output from the sensor is lowered, the automatic driving control device 1d may notify the driver or the like that the reliability is lowered. it can.
  • Embodiment 6 In the automatic driving control devices 1 to 1d according to the first to fifth embodiments, the first machine learning is performed when there is no vehicle peripheral information whose reliability is lowered with respect to the plurality of vehicle peripheral information output from the plurality of sensors.
  • the model 131 was used, and the second machine learning models 132, 132a to 132c were used when there was vehicle peripheral information whose reliability was lowered.
  • the embodiment in which the automatic driving control device uses the same one machine learning model in both of the above two cases will be described.
  • FIG. 14 is a diagram showing a configuration example of the automatic operation control device 1e according to the sixth embodiment.
  • the configuration and operation of the automatic operation control device 1e according to the sixth embodiment will be described as a part of the configuration and operation of the automatic operation control device 1 according to the first embodiment. To do.
  • the configuration and operation of the automatic operation control device 1e according to the sixth embodiment is realized by partially changing the configuration and operation of any of the automatic operation control devices 1a to 1d according to the second to fifth embodiments. You can also do it.
  • the same components as those of the automatic operation control device 1 described with reference to FIG. 2 in the first embodiment are designated by the same reference numerals and duplicated description will be omitted.
  • the configuration of the automatic operation control device 1e according to the sixth embodiment is different from the configuration of the automatic operation control device 1 according to the first embodiment in that the control amount inference unit 12e has the first control amount inference unit 121 and the second control amount.
  • the machine learning model 13e does not include the first machine learning model 131 and the second machine learning model 132 without the inference unit 122 and the selection unit 123.
  • the automatic operation control device 1e according to the sixth embodiment has a different operation of the control unit 15e from the automatic operation control device 1 according to the first embodiment.
  • the control unit 15e adds an information valid flag based on the reliability determination result by the monitoring unit 14 to all of the plurality of vehicle peripheral information acquired by the information acquisition unit 11.
  • the information valid flag is information indicating whether the information around each vehicle is valid or invalid. That is, if the reliability of a certain vehicle peripheral information is not lowered, an information valid flag indicating that the vehicle peripheral information is valid is given. Further, when the reliability of a certain vehicle peripheral information is lowered, an information valid flag indicating that the vehicle peripheral information is invalid is given.
  • the sensor is a camera 21 and a millimeter wave radar 22 like the sensor of the first embodiment.
  • the control unit 15e sets the captured image output from the camera 21.
  • the information valid flag "1" is given, and the information valid flag "0" is given to the distance information output from the millimeter wave radar 22.
  • the information valid flag is "1"
  • the control unit 15e outputs a plurality of flagged vehicle peripheral information generated by adding information valid flags to all of the plurality of vehicle peripheral information acquired by the information acquisition unit 11 to the control amount inference unit 12e.
  • control amount inference unit 12e When the control amount inference unit 12e acquires a plurality of flagged vehicle peripheral information from the control unit 15e, the control amount inference unit 12e infers the automatic driving control amount based on all of the plurality of flagged vehicle peripheral information and the machine learning model 13e. The automatic operation control amount is output.
  • the machine learning model 13e inputs all of the plurality of flagged vehicle peripheral information output from the control unit 15e, and outputs the automatic driving control amount.
  • the machine learning model 13e is learned so that the automatic driving control amount can be inferred from among a plurality of flagged vehicle peripheral information, excluding the influence of the vehicle peripheral information to which "0" is added as the information valid flag. is there.
  • Such learning is ideally derived in advance based only on a plurality of flagged vehicle peripheral information that can be input to the machine learning model 13e and valid vehicle peripheral information among the plurality of flagged vehicle peripheral information. It can be performed based on the learning data that is a combination of the correct answer of the automatic driving control amount.
  • the control amount inference unit 12e infers the automatic driving control amount based on the above machine learning model 13e and a plurality of flagged vehicle peripheral information, and automatically removes the influence of the vehicle peripheral information whose reliability is lowered.
  • the operation control amount can be inferred and the automatic operation control amount can be output.
  • "excluding the influence of vehicle peripheral information with reduced reliability” means not only a state in which the influence of vehicle peripheral information with reduced reliability is completely removed, but also automatic driving control can be continued. This includes a state in which the influence of vehicle peripheral information whose reliability has deteriorated is substantially eliminated to the extent that the driving control amount can be acquired.
  • FIG. 15 is a flowchart for explaining the operation of the automatic operation control device 1e according to the sixth embodiment. Since the specific operations of steps ST1501 to ST1502 of FIG. 15 are the same as the specific operations of steps ST301 and ST304 of FIG. 3 described in the first embodiment, duplicate description will be omitted. ..
  • the monitoring unit 14 performs a determination process of determining whether or not the reliability of the distance information acquired from the millimeter wave radar 22 is low (step ST1503). Specifically, the monitoring unit 14 determines the reference distance acquired in step ST1502 and the distance from the vehicle 100 to the object based on the distance information acquired by the information acquisition unit 11 from the millimeter-wave radar 22 in step ST1501. The difference is calculated, and it is determined whether or not the calculated difference is equal to or less than the radar determination threshold value (step ST1503).
  • the specific operation of step ST1503 is the same as the specific operation of step ST305 of FIG. 3 described in the first embodiment.
  • the monitoring unit 14 determines that the reliability of the distance information acquired from the millimeter wave radar 22 is low, and the reliability of the distance information is reduced. The monitoring result information indicating that the operation is being performed is output to the control unit 15e.
  • the monitoring unit 14 determines that the reliability of the distance information acquired from the millimeter wave radar 22 has not decreased, and the reliability of the distance information is determined. The monitoring result information indicating that the degree has not decreased is output to the control unit 15e.
  • the control unit 15e adds an information valid flag to the vehicle peripheral information based on the determination result determined by the monitoring unit 14 in step ST1503 (step ST1504). Specifically, for example, when the monitoring unit 14 determines that the reliability of the distance information acquired from the millimeter-wave radar 22 is low, the control unit 15e sets the information valid flag "0" in the distance information. Give. The control unit 15e may acquire the distance information from the monitoring unit 14. For example, when the monitoring unit 14 determines that the reliability of the distance information acquired from the millimeter wave radar 22 has not decreased, the control unit 15 adds the information valid flag “1” to the distance information.
  • control unit 15e similarly to the premise of the first embodiment, it is a premise that there is practically no problem with respect to the captured image of the camera 21, so that the control unit 15e always provides information in the captured image.
  • the valid flag "1" is given.
  • the control unit 15e outputs flagged vehicle peripheral information to the control quantity inference unit 12e.
  • the control amount inference unit 12e infers the automatic driving control amount of the vehicle 100 based on the flagged vehicle peripheral information output from the control unit 15e and the machine learning model 13e (step ST1505). Then, the control amount inference unit 12e outputs the vehicle control information based on the inferred automatic driving control amount to the vehicle control unit 3 (step ST1506).
  • the automatic driving control device 1e may be provided with only one control quantity inference unit 12e and one machine learning model 13e, respectively. This eliminates the need to prepare multiple machine learning models according to the number of input vehicle peripheral information, and is simpler than the case of preparing multiple machine learning models according to the number of vehicle peripheral information. It is possible to infer the amount of automatic operation control with such a configuration. Further, the automatic driving control device 1e assigns an information valid flag to the vehicle peripheral information when inferring the automatic driving control amount, and whether or not the vehicle peripheral information is effective for being used in inferring the automatic driving control amount. It is now possible to determine whether or not.
  • the automatic driving control device 1e is used for automatic driving control of the vehicle 100 even when the reliability of the vehicle peripheral information output from some one or a plurality of sensors among the plurality of sensors is lowered. It is possible to infer the amount of automatic control that can be performed.
  • the automatic driving control device 1e is the information acquisition unit 11 that acquires a plurality of vehicle peripheral information output from each of the plurality of sensors (camera 21, millimeter wave radar 22).
  • the control amount inference unit 12e that infers the automatic driving control amount based on the plurality of vehicle peripheral information acquired by the information acquisition unit 11 and the machine learning model 13 and outputs the automatic driving control amount, and the information acquisition unit 11
  • the monitoring unit 14 that determines whether or not the reliability of any of the vehicle peripheral information acquired by the vehicle is low, and the monitoring unit 14 determines which vehicle is one of the plurality of vehicle peripheral information.
  • the control amount inference unit When it is determined that the reliability of the surrounding information is low, the control amount inference unit outputs the automatic driving control amount excluding the influence of the vehicle peripheral information judged to be low. It is configured to include a control unit 15e that controls 12e. Therefore, in the automatic driving control device 1e that infers and outputs the automatic driving control amount based on the plurality of vehicle peripheral information output from each of the plurality of sensors and the machine learning model 13, among the plurality of vehicle peripheral information. Even when the reliability of any vehicle peripheral information is lowered, it is possible to output an automatic driving control amount suitable for automatic driving control of the vehicle 100.
  • the control unit 15e is based on the reliability determination result by the monitoring unit 14 for all of the plurality of vehicle peripheral information acquired by the information acquisition unit 11.
  • the information valid flag is given, and the control amount inference unit 12e determines the automatic driving control amount based on all of the plurality of vehicle peripheral information to which the control unit 15e has given the information valid flag and the machine learning model 13e. Inferred, the automatic operation control amount was output. Therefore, in the automatic driving control device 1e that infers and outputs the automatic driving control amount based on the plurality of vehicle peripheral information output from each of the plurality of sensors and the machine learning model 13e, among the plurality of vehicle peripheral information.
  • the automatic driving control amount can be inferred with a simpler configuration.
  • the automatic driving control devices 1 to 1e include a processing circuit 1601 that infers the automatic driving control amount for controlling the automatic driving of the vehicle 100.
  • the processing circuit 1601 may be dedicated hardware as shown in FIG. 16A, or may be a CPU (Central Processing Unit) 1605 that executes a program stored in the memory 1606 as shown in FIG. 16B.
  • the processing circuit 1601 may be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-Programmable). Gate Array) or a combination of these is applicable.
  • the processing circuit 1601 is the CPU 1605
  • the information acquisition unit 11, the control amount inference units 12 to 12e, the monitoring units 14 to 14c, the control units 15, 15e, the weather determination unit 16, and the travel determination unit 17 are notified.
  • the function of the control unit 18 is realized by software, firmware, or a combination of software and firmware. That is, the information acquisition unit 11, the control amount inference unit 12 to 12e, the monitoring unit 14 to 14c, the control units 15, 15e, the weather determination unit 16, the travel determination unit 17, and the notification control unit 18 are HDDs. It is realized by a processing circuit such as (Hard Disk Drive) 1602, a CPU 1605 that executes a program stored in a memory 1606, and a system LSI (Large-Scale Information).
  • the programs stored in the HDD 1602, the memory 1606, etc. are the information acquisition unit 11, the control amount inference units 12 to 12e, the monitoring units 14 to 14c, the control units 15, 15e, the weather determination unit 16, and the running. It can also be said that the computer is made to execute the procedure or method of the determination unit 17 and the notification control unit 18.
  • the memory 1606 is, for example, a RAM, a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory), an EPROM (Electrically Emergency Memory), an EPROM (Electrically Erasable Molecular) volatile Memory, etc. This includes semiconductor memories, magnetic disks, flexible disks, optical disks, compact disks, mini disks, DVDs (Digital entirely Disc), and the like.
  • the control amount inference units 12 to 12e, the monitoring units 14 to 14c, the control units 15 and 15e, the weather determination unit 16, the travel determination unit 17, and the notification control unit 18. Some may be realized by dedicated hardware, and some may be realized by software or firmware.
  • the information acquisition unit 11 is realized by the processing circuit 1601 as dedicated hardware, and the control amount inference units 12 to 12e, the monitoring units 14 to 14c, the control units 15, 15e, and the weather determination unit are realized.
  • the functions of 16, the travel determination unit 17, and the notification control unit 18 can be realized by the processing circuit 1601 reading and executing the program stored in the memory 1606.
  • the automatic driving control devices 1 to 1e include devices such as a sensor, a vehicle control unit 3, or an output device, and an input interface device 1603 and an output interface device 1604 that perform wired communication or wireless communication.
  • the automatic driving control devices 1 to 1e are in-vehicle devices mounted on the vehicle 100, and the information acquisition unit 11, the control amount inference units 12 to 12e, and the monitoring units 14 to 14 to It is assumed that the automatic driving control devices 1 to 1e are provided with the 14c, the control units 15, 15e, the weather determination unit 16, the travel determination unit 17, and the notification control unit 18.
  • a part is to be mounted on the in-vehicle device of the vehicle 100, and the other is to be provided in the server connected to the in-vehicle device via the network, and the in-vehicle device and the server constitute an automatic driving control system. You may try to do it.
  • FIG. 17 is a diagram showing a configuration example of an automatic driving control system in which the automatic driving control device 1 according to the first embodiment described with reference to FIG. 2 is provided in the server 200.
  • the automatic driving control device 1 and the in-vehicle device are connected via the communication device 101 and the communication device 201.
  • the vehicle peripheral information acquired by the sensor is transmitted to the automatic driving control device 1 on the server 200 via the communication device 101 and the communication device 201.
  • the automatic driving control device 1 infers the automatic driving control amount based on the vehicle peripheral information received from the in-vehicle device.
  • the automatic driving control amount inferred by the automatic driving control device 1 is transmitted to the vehicle control unit 3 mounted on the vehicle-mounted device via the communication device 201 and the communication device 101.
  • the vehicle control unit 3 controls the control target device 4 based on the acquired automatic driving control amount.
  • the automatic operation control device 1 all the functions of the automatic operation control device 1 are provided in the server 200, but some functions of the automatic operation control device 1 may be provided in the server 200.
  • the information acquisition unit 11 and the monitoring unit 14 of the automatic driving control device 1 may be provided in the in-vehicle device, and other functions of the automatic driving control device 1 may be provided in the server 200.
  • FIG. 17 as an example, in the automatic driving control system, the automatic driving control device 1 according to the first embodiment is provided in the server 200, but the automatic driving control system is described in the second embodiment to the second embodiment. Any of the automatic operation control devices 1a to 1e according to No. 6 may be provided in the server 200.
  • the automatic operation control device is provided in the configuration example shown in FIG.
  • the server 200 is provided with a part or all of the functions of 1a to 1e.
  • the automatic driving control device can be applied to an automatic driving control device that controls the automatic driving of a vehicle.
  • 1 to 1e automatic operation control device 11 information acquisition unit, 12 to 12c, 12e control amount inference unit, 121 first control amount inference unit, 122 to 122c second control amount inference unit, 123 selection unit, 13 to 13c, 13e Machine learning model, 131 1st machine learning model, 132-132c 2nd machine learning model, 14-14c monitoring unit, 15, 15e control unit, 16 weather judgment unit, 17 driving judgment unit, 18 notification control unit, 21 camera, 22 mm wave radar, 23 GNSS, 24 vehicle driving sensor, 3 vehicle control unit, 4 control equipment, 200 server, 101,201 communication device, 1601 processing circuit, 1602 HDD, 1603 input interface device, 1604 output interface device, 1605 CPU , 1606 memory.

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

複数のセンサからそれぞれ出力された複数の車両周辺情報を取得する情報取得部(11)と、複数の車両周辺情報と、機械学習モデル(13,13a~13c,13e)とに基づいて自動運転制御量を推論し、当該自動運転制御量を出力する制御量推論部(12,12a~12c,12e)と、複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下しているか否かを判定する監視部(14,14a~14c)と、監視部(14,14a~14c)により、複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下していると判定された場合、当該信頼度が低下していると判定された車両周辺情報の影響を除いた自動運転制御量を出力するように、制御量推論部(12,12a~12c,12e)を制御する制御部(15,15e)を備えた。

Description

自動運転制御装置および自動運転制御方法
 この発明は、車両の自動運転制御を行う自動運転制御装置および自動運転制御方法に関する。
 車両の周辺の情報(以下「車両周辺情報」という。)は、複数のセンサから取得され得る。従来、このような複数のセンサからそれぞれ出力された複数の車両周辺情報を、機械学習済みのモデル(以下「機械学習モデル」という。)に入力することにより、車両の自動運転制御に必要な各種の制御量(以下「自動運転制御量」という。)を推論して出力する技術がある。
 ここで、特許文献1には、車両の自動運転制御の実行中に周囲環境を認識するために、複眼カメラが撮影した複数の画像に基づいて生成された周囲環境のマップを用いる制御装置が開示されている。この制御装置は、例えば、複眼カメラを構成する2つの車載カメラのうち、いずれかに機能不全が生じた場合、正常に動作する一方の車載カメラが撮影した画像に基づいて周囲環境を推定する。
特開2019-34664号公報
 機械学習モデルを利用して自動運転制御量を推論する上記技術では、複数のセンサのうちのいずれかのセンサから取得される情報の信頼度が低下した場合、自動運転制御量が車両の自動運転制御に適したものではなくなる可能性があるという課題があった。
 特許文献1に開示された制御装置は、複数の車載カメラのうちのいずれかに機能不全が生じた場合に、正常に動作する車載カメラが撮影した画像に基づいて周囲環境を推定するものであるが、当該推定は、具体的には、理論的に定められた計算式を利用して行われるものである。これに対し、機械学習モデルは、理論的に定められた計算式を利用して推論を行うものではないため、特許文献1に開示された制御装置における技術を、上記課題の解決手段とすることはできない。
 この発明は、上記のような課題を解決するためになされたもので、複数のセンサからそれぞれ出力された複数の車両周辺情報と機械学習モデルとに基づいて、自動運転制御量を推論して出力する自動運転制御装置において、当該複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下した場合であっても、車両の自動運転制御に適した自動運転制御量を出力することができる自動運転制御装置を提供することを目的とする。
 この発明に係る自動運転制御装置は、複数のセンサからそれぞれ出力された複数の車両周辺情報を取得する情報取得部と、情報取得部が取得した複数の車両周辺情報と、機械学習モデルとに基づいて自動運転制御量を推論し、当該自動運転制御量を出力する制御量推論部と、情報取得部が取得した複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下しているか否かを判定する監視部と、監視部により、複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下していると判定された場合、当該信頼度が低下していると判定された車両周辺情報の影響を除いた自動運転制御量を出力するように、制御量推論部を制御する制御部を備えたものである。
 この発明によれば、複数のセンサからそれぞれ出力された複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下した場合であっても、車両の自動運転制御に適した自動運転制御量を出力することができる。
実施の形態1に係る自動運転制御装置を搭載した車両の構成例を示す図である。 実施の形態1に係る自動運転制御装置の構成例を示す図である。 実施の形態1に係る自動運転制御装置の動作を説明するためのフローチャートである。 実施の形態2に係る自動運転制御装置の構成例を示す図である。 実施の形態2に係る自動運転制御装置の動作を説明するためのフローチャートである。 実施の形態3に係る自動運転制御装置の構成例を示す図である。 実施の形態3において、画素の輝度が異なる撮影画像の一例を説明するための図であって、図7Aは、撮影画像のすべての画素が、当該撮影画像中の物体を十分識別できる輝度を有している場合の撮影画像の一例であり、図7Bは、撮影画像のすべての画素が、当該撮影画像中の物体を認識できないほど暗い画像となるような輝度を有している場合の撮影画像の一例であり、図7Cは、撮影画像のすべての画素が、当該撮影画像中の物体を認識できないほど明るい画像となるような輝度を有している場合の撮影画像の一例である。 実施の形態3に係る自動運転制御装置の動作を説明するためのフローチャートである。 実施の形態4に係る自動運転制御装置の構成例を示す図である。 実施の形態4に係る自動運転制御装置の動作を説明するためのフローチャートである。 実施の形態5に係る自動運転制御装置の構成例を示す図である。 実施の形態5において、通知制御部が通知情報を表示させたディスプレイの画面例を示す図である。 実施の形態5において、通知制御部が通知情報を表示させたディスプレイのその他の画面例を示す図である。 実施の形態6に係る自動運転制御装置の構成例を示す図である。 実施の形態6に係る自動運転制御装置の動作を説明するためのフローチャートである。 図16A,図16Bは、実施の形態1~実施の形態6に係る自動運転制御装置のハードウェア構成の一例を示す図である。 図2を用いて説明した実施の形態1に係る自動運転制御装置がサーバに備えられるようにした自動運転制御システムの構成例を示す図である。
 以下、この発明の実施の形態について、図面を参照しながら詳細に説明する。
実施の形態1.
 図1は、実施の形態1に係る自動運転制御装置1を搭載した車両100の構成例を示す図である。
 実施の形態1に係る自動運転制御装置1は、人が運転操作を行わなくても自動で走行することが可能な車両100に搭載される装置である。図1に示すように、車両100には、自動運転制御装置1の他、センサ、車両制御部3、および、制御対象機器4が搭載される。
 車両100には、車両100周辺の情報を出力する複数のセンサが搭載される。複数のセンサのそれぞれが出力する情報は、車両100周辺に存在する他車両に関する情報、車両100周辺に存在する他車両以外の障害物に関する情報、交通信号の状態に関する情報、車線に関する情報、地形に関する情報、または、道路標識に関する情報等である。車線に関する情報には、例えば、白線または道路標示が含まれる。
 実施の形態1では、センサには、カメラ21およびミリ波レーダ22が含まれるものとする。
 カメラ21は、車両100よりも前方等、車両100周辺を撮影する。カメラ21は、車両100周辺を撮影した撮影画像を、自動運転制御装置1に出力する。
 ミリ波レーダ22は、車両100から、車両100周辺に存在する物体までの距離を計測する。ミリ波レーダ22は、計測した、車両100から物体までの距離に関する情報(以下「距離情報」という。)を、自動運転制御装置1に出力する。自動運転制御装置1は、少なくとも、カメラ21から出力された撮影画像、および、ミリ波レーダ22から出力された距離情報に基づき、車両100の自動運転制御に必要な自動運転制御量を推論する。
 実施の形態1において、上述の撮影画像または距離情報のように、センサから出力され、自動運転制御装置1における自動運転制御量の推論に用いられる情報を、総称して、「車両周辺情報」ともいう。車両周辺情報は、自動運転制御装置1において自動運転制御量の推論に用いられる情報であり、車両100周辺に関する様々な情報を含み得る。
 実施の形態1では、複数のセンサのうち一部の1または複数のセンサについては、例えば、故障する可能性が、無視できる程度に低く、当該センサから出力される車両周辺情報に実質的に問題は生じないことを前提とする。一方、複数のセンサのうち他の1または複数のセンサについては、例えば、上記一部のセンサと比較して、故障する可能性が高く、当該他のセンサから出力される車両周辺情報にも問題が比較的生じ易いものであることを前提とする。具体的には、実施の形態1に係るセンサに含まれるカメラ21とミリ波レーダ22のうち、カメラ21については、例えば、故障する可能性が、無視できる程度に低く、カメラ21の撮影画像に実質的に問題は生じないことを前提とする。一方、ミリ波レーダ22については、カメラ21と比較して、例えば、故障する可能性が高く、ミリ波レーダ22が出力する距離情報にも問題が比較的生じ易いものであることを前提とする。
 実施の形態1では、車両周辺情報は、後述のように、自動運転制御量を推論するための機械学習モデルに対する入力データとして利用される。実施の形態1では、車両100の自動運転制御に適した自動運転制御量を推論するための入力データとして、車両周辺情報が信頼できるものかどうかを示す度合いを、車両周辺情報の「信頼度」という。
 自動運転制御装置1は、センサから出力された車両周辺情報に基づき、上記自動運転制御量を推論する。自動運転制御装置1による、自動運転制御量の推論の詳細については、自動運転制御装置1の構成例とともに、後述する。
 自動運転制御装置1は、推論した自動運転制御量を、車両100に搭載されている車両制御部3に出力する。
 車両制御部3は、自動運転制御装置1から出力された自動運転制御量に基づき、車両100を制御する。具体的には、車両制御部3は、制御対象機器4を制御して、車両100を自動走行させる。制御対象機器4は、車両100に搭載され、車両制御部3による制御に基づき、車両100を自動走行させるために動作する機器である。制御対象機器4は、例えば、アクセル、ブレーキ、ステアリング、ギア、または、ライトである。
 自動運転制御装置1が出力する自動運転制御量は、ブレーキ、アクセル、または、ステアリング操作等の各制御対象機器4の具体的な制御量であってもよいし、時系列的な複数の緯度および経度の値からなる走行軌跡の情報であってもよい。自動運転制御量が、走行軌跡の情報である場合、車両制御部3は、当該走行軌跡の通りに車両100が自動走行するよう、各制御対象機器4の具体的な制御量を計算して、計算した制御量に基づき、各制御対象機器4を制御する。
 実施の形態1に係る自動運転制御装置1の詳細について説明する。
 図2は、実施の形態1に係る自動運転制御装置1の構成例を示す図である。
 自動運転制御装置1は、情報取得部11、制御量推論部12、機械学習モデル13、監視部14、および、制御部15を備える。制御量推論部12は、第1制御量推論部121、第2制御量推論部122、および、選択部123を備える。機械学習モデル13は、第1機械学習モデル131および第2機械学習モデル132を備える。
 情報取得部11は、複数のセンサからそれぞれ出力された複数の車両周辺情報を取得する。具体的には、情報取得部11は、カメラ21が撮影した撮影画像、および、ミリ波レーダ22が計測した距離情報を、車両周辺情報として取得する。情報取得部11は、取得した車両周辺情報を、制御量推論部12および監視部14に出力する。
 制御量推論部12は、情報取得部11が取得した複数の車両周辺情報と、機械学習モデル13に基づいて、車両100の自動運転制御量を推論し、当該自動運転制御量を出力する。実施の形態1において、具体的には、制御量推論部12は、推論した自動運転制御量を、制御対象となる制御対象機器4を特定する情報と対応付けて、車両制御部3に出力する。
 制御量推論部12の第1制御量推論部121は、情報取得部11が取得した複数の車両周辺情報の全部と第1機械学習モデル131とに基づき、第1自動運転制御量を推論する。具体的には、第1制御量推論部121は、情報取得部11がカメラ21から取得した撮影画像と、情報取得部11がミリ波レーダ22から取得した距離情報と、第1機械学習モデル131とに基づき、第1自動運転制御量を推論する。第1機械学習モデル131については、後述する。
 第1制御量推論部121は、推論した第1自動運転制御量を選択部123に出力する。
 制御量推論部12の第2制御量推論部122は、情報取得部11が取得した複数の車両周辺情報の一部と第2機械学習モデル132とに基づき、第2自動運転制御量を推論する。具体的には、第2制御量推論部122は、複数の車両周辺情報のうち、信頼度が低下し得る車両周辺情報以外の車両周辺情報と、第2機械学習モデル132に基づいて第2自動運転制御量を推論する。
 上述のように、実施の形態1では、カメラ21の撮影画像については、実質的に問題は生じることはない一方、ミリ波レーダ22の距離情報については、比較的問題が生じ易いことを前提とする。このため、後述のように、実施の形態1における第2機械学習モデル132は、具体的には、情報取得部11が取得した撮影画像のみを入力として第2自動運転制御量を推論するものである。
 第2制御量推論部122は、推論した第2自動運転制御量を選択部123に出力する。
 選択部123は、第1自動運転制御量、または、第2自動運転制御量のうち、いずれを出力するかを選択する。実施の形態1において、選択部123は、選択した自動運転制御量を、具体的には、車両制御部3に出力する。
 後述のように、制御部15は、監視部14により、複数の車両周辺情報のいずれも信頼度が低下していないと判定された場合、第1自動運転制御量を出力するように、制御量推論部12を制御する。選択部123は、制御量推論部12が制御部15により第1自動運転制御量を出力するように制御された場合に、第1自動運転制御量を選択して出力する。
 また、制御部15は、監視部14により、複数の車両周辺情報のうち、第2機械学習モデル132に入力される複数の車両周辺情報の一部以外の車両周辺情報の信頼度が低下していると判定された場合、第2自動運転制御量を出力するように、制御量推論部12を制御する。選択部123は、制御量推論部12が制御部15により第2自動運転制御量を出力するように制御された場合に、第2自動運転制御量を選択して出力する。
 機械学習モデル13は、機械学習における学習済みのモデルである。具体的には、機械学習モデル13は、情報取得部11が取得した複数の車両周辺情報が入力されると、車両100の自動運転制御に必要な自動運転制御量を出力するように、予め機械学習が行われたモデルである。機械学習モデル13は、例えば、ニューラルネットワークにより構成される。
 実施の形態1において、機械学習モデル13は、第1機械学習モデル131および第2機械学習モデル132を備える。
 第1機械学習モデル131は、情報取得部11が取得する複数の車両周辺情報の全部を入力とし、第1自動運転制御量を出力する。実施の形態1では、第1機械学習モデル131は、情報取得部11がカメラ21から取得する撮影画像と、情報取得部11がミリ波レーダ22から取得する距離情報の両方を入力とし、第1自動運転制御量を出力する。
 第2機械学習モデル132は、情報取得部11が取得する複数の車両周辺情報の一部を入力とし、第2自動運転制御量を出力する。具体的には、第2機械学習モデル132は、情報取得部11が取得する複数の車両周辺情報のうち、信頼度が低下している車両周辺情報以外の車両周辺情報を入力とした場合に、第2自動運転制御量を出力する。
 上述のように、実施の形態1では、カメラ21の撮影画像については、実質的に問題は生じることはない一方、ミリ波レーダ22の距離情報については、比較的問題が生じ易いことを前提とする。このため、実施の形態1における第2機械学習モデル132は、具体的には、情報取得部11が取得した撮影画像のみを入力として第2自動運転制御量を出力するものである。
 実施の形態1では、図2に示すように、機械学習モデル13は、自動運転制御装置1に備えられるものとするが、これは一例に過ぎず、機械学習モデル13は、自動運転制御装置1の外部の、自動運転制御装置1が参照可能な場所に備えられるようにしてもよい。
 監視部14は、情報取得部11が取得した複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下しているか否かを判定する。実施の形態1では、カメラ21の撮影画像については、実質的に問題は生じることはない一方、ミリ波レーダ22の距離情報については、比較的問題が生じ易いことを前提とする。このため、実施の形態1における監視部14は、情報取得部11がミリ波レーダ22から取得した距離情報の信頼度が低下しているか否かを判定する。
 具体的には、監視部14は、カメラ21から取得された撮影画像に基づき、当該撮影画像上に存在するある物体について、車両100から当該物体までの実空間における距離(以下「基準距離」という。)を取得する。また、監視部14は、基準距離と、ミリ波レーダ22から取得された距離情報に基づく車両100から前記物体までの距離との差を算出する。そして、監視部14は、算出された差が予め設定された閾値(以下「レーダ判定用閾値」という。)以下であるか否かを判定する。監視部14は、算出された差がレーダ判定用閾値以下であると判定した場合、距離情報の信頼度は低下していないと判定する。一方、監視部14は、算出された差がレーダ判定用閾値より大きいと判定した場合、距離情報の信頼度は低下していると判定する。なお、監視部14が、カメラ21から取得された撮影画像に基づき基準距離を取得する際の手法としては、既知の任意の手法を採用することができる。具体的な手法としては、例えば、物体が撮影された撮影画像と車両100から当該物体までの実空間における距離の実測値との組を教師データとした学習に基づく学習済みモデルを用いる手法がある。
 監視部14は、情報取得部11が取得した複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下しているか否かを判定した結果に関する情報(以下「監視結果情報」という。)を、制御部15に出力する。例えば、監視部14は、複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下していると判定した場合、車両周辺情報の信頼度が低下している旨の監視結果情報を、制御部15に出力する。監視結果情報には、どの車両周辺情報の信頼度が低下しているかを特定するための情報が含まれる。実施の形態1では、監視部14は、ミリ波レーダ22から取得された距離情報の信頼度が低下していると判定した場合、距離情報の信頼度が低下している旨の監視結果情報を、制御部15に出力する。
 また、例えば、監視部14は、複数の車両周辺情報のうちいずれの車両周辺情報も信頼度が低下していないと判定した場合、車両周辺情報の信頼度は低下していない旨の監視結果情報を、制御部15に出力する。
 制御部15は、監視部14により、複数の車両周辺情報のうちのいずれかの車両周辺情報の信頼度が低下していると判定された場合、信頼度が低下していると判定された車両周辺情報の影響を除いた自動運転制御量を出力するように、制御量推論部12を制御する。
 具体的には、制御部15は、監視部14により、複数の車両周辺情報のうち、第2機械学習モデル132に入力される複数の車両周辺情報の一部以外の車両周辺情報の信頼度が低下していると判定された場合、第2自動運転制御量を出力するように、制御量推論部12を制御する。制御量推論部12の選択部123は、制御量推論部12が制御部15により第2自動運転制御量を出力するように制御された場合、第2自動運転制御量を選択して出力する。
 一方、制御部15は、監視部14により、複数の車両周辺情報のうちいずれの車両周辺情報も信頼度は低下していないと判定された場合、第1自動運転制御量を出力するように、制御量推論部12を制御する。制御量推論部12の選択部123は、制御量推論部12が制御部15により第1自動運転制御量を出力するように制御された場合、第1自動運転制御量を選択して出力する。
 実施の形態1に係る自動運転制御装置1の動作について説明する。
 図3は、実施の形態1に係る自動運転制御装置1の動作を説明するためのフローチャートである。
 情報取得部11は、複数のセンサからそれぞれ出力された複数の車両周辺情報を取得する。具体的には、情報取得部11は、カメラ21が撮影した撮影画像、および、ミリ波レーダ22が計測した距離情報を取得する(ステップST301)。情報取得部11は、取得した車両周辺情報を、制御量推論部12および監視部14に出力する。
 制御量推論部12の第1制御量推論部121は、ステップST301にて情報取得部11が取得した複数の車両周辺情報の全部と第1機械学習モデル131とに基づき、第1自動運転制御量を推論する。具体的には、第1制御量推論部121は、ステップST301にて情報取得部11がカメラ21から取得した撮影画像と、ステップST301にて情報取得部11がミリ波レーダ22から取得した距離情報と、第1機械学習モデル131とに基づき、第1自動運転制御量を推論する(ステップST302)。
 第1制御量推論部121は、推論した第1自動運転制御量を選択部123に出力する。
 制御量推論部12の第2制御量推論部122は、ステップST301にて情報取得部11が取得した複数の車両周辺情報の一部と第2機械学習モデル132とに基づき、第2自動運転制御量を推論する。具体的には、第2制御量推論部122は、ステップST301にて情報取得部11がカメラ21から取得した撮影画像のみを入力として第2自動運転制御量を推論する(ステップST303)。
 第2制御量推論部122は、推論した第2自動運転制御量を選択部123に出力する。
 監視部14は、情報取得部11が取得した複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下しているか否かを判定する。具体的には、まず、監視部14は、ステップST301にて情報取得部11がカメラ21から取得した撮影画像に基づき、当該撮影画像上に存在するある物体について、基準距離を取得する(ステップST304)。
 そして、監視部14は、ステップST304にて取得した基準距離と、ステップST301にて情報取得部11がミリ波レーダ22から取得した距離情報に基づく、車両100から当該物体までの距離との差を算出し、算出された差がレーダ判定用閾値以下であるか否かを判定する(ステップST305)。
 ステップST305において、算出された差がレーダ判定用閾値より大きいと判定した場合(ステップST305の“NO”の場合)、監視部14は、ミリ波レーダ22から取得された距離情報の信頼度が低下していると判定し、距離情報の信頼度が低下している旨の監視結果情報を、制御部15に出力する。
 制御部15は、ステップST303にて第2制御量推論部122が推論した第2自動運転制御量を出力するよう、制御量推論部12を制御する。選択部123は、第2自動運転制御量を選択し、車両制御部3に出力する(ステップST306)。
 ステップST305において、算出された差がレーダ判定用閾値以下であると判定した場合(ステップST305の“YES”の場合)、監視部14は、ミリ波レーダ22から取得された距離情報の信頼度が低下していないと判定し、距離情報の信頼度が低下していない旨の監視結果情報を、制御部15に出力する。
 制御部15は、ステップST302にて第1制御量推論部121が推論した第1自動運転制御量を出力するよう、制御量推論部12を制御する。選択部123は、第1自動運転制御量を選択し、車両制御部3に出力する(ステップST307)。
 ステップST306またはステップST307の動作を行うと、自動運転制御装置1の動作は、ステップST301に戻り、以降の動作を繰り返す。
 以上で説明した動作について、ステップST302にて第1自動運転制御量を推論する際、第1制御量推論部121は、直前のステップST301にて情報取得部11が取得した撮影画像および距離情報を用いることを必須としない。例えば、情報取得部11は、取得した車両周辺情報を記憶部(図示省略)に記憶させておくようにし、第1制御量推論部121は、記憶部に記憶されている、直前のステップST301以前に情報取得部11が取得した撮影画像および距離情報を用いて第1自動運転制御量を推論するようにしてもよい。
 また、ステップST303にて第2自動運転制御量を推論する際、第2制御量推論部122は、直前のステップST301にて情報取得部11が取得した撮影画像を用いることを必須としない。例えば、第2制御量推論部122は、記憶部に記憶されている、直前のステップST301以前に情報取得部11が取得した撮影画像を用いて第2自動運転制御量を推論するようにしてもよい。
 以上のように、実施の形態1に係る自動運転制御装置1は、ミリ波レーダ22から出力される距離情報の信頼度が低下したか否かを判定し、距離情報の信頼度が低下したと判定した場合は、自動運転制御量の推論を、ミリ波レーダ22から出力される距離情報を用いず、継続実施することができる。
 なお、自動運転制御装置1は、ミリ波レーダ22から取得した距離情報の信頼度が低下したと判定した場合でも、車両100の自動運転を継続させることはできるが、自動運転の水準は低下する可能性がある。つまり、第2制御量推論部122は、第1制御量推論部121よりも、自動運転制御量の推論に用いる車両周辺情報の数が少ないため、推論の水準の差が生じ得る。
 具体的には、例えば、第1制御量推論部121は、混雑時の車線変更等の複雑な制御を行うための自動運転制御量を推論できるのに対し、第2制御量推論部122は、走行中の車線をキープする走行を行うための自動運転制御量の推論しかできないというような、推論の水準の差が生じ得る。
 しかしながら、ミリ波レーダ22から出力される距離情報の信頼度が低下し得ることが考慮されていない場合、具体的には、仮に、自動運転制御装置1が、第1制御量推論部121しか備えないような構成である場合、距離情報の信頼度が低下すると、自動運転が正常に継続できなくなる可能性が高い。これに対し、実施の形態1に係る自動運転制御装置1は、第2制御量推論部122を備え、第2制御量推論部122がカメラ21から取得した撮影画像と第2機械学習モデル132とに基づいて、第2自動運転制御量を推論できるようにした。そして、ミリ波レーダ22から出力される距離情報の信頼度が低下した場合には、第2制御量推論部122が推論した第2自動運転制御量を用いて、車両100の自動運転が制御されるようにした。その結果、複数のセンサから取得した複数の車両周辺情報のうち、いずれかの車両周辺情報の信頼度が低下した場合でも、比較的低い水準ではあるが車両100の自動運転を継続することができる。
 以上の実施の形態1では、自動運転制御装置1は、監視部14が、距離情報の信頼度が低下したか否かを判定する(図3のステップST305参照)よりも前に、第1制御量推論部121および第2制御量推論部122が、それぞれ、第1自動運転制御量および第2自動運転制御量の推論を行っているものとした(図3のステップST302およびステップST303参照)。しかし、これは一例に過ぎず、第1制御量推論部121または第2制御量推論部122は、監視部14による、距離情報の信頼度が低下したか否かの判定を受けて、自動運転制御量の推論を行うようにしてもよい。具体的には、例えば、監視部14により距離情報の信頼度が低下したと判定されると、制御部15は、第2自動運転制御量を出力するように制御量推論部12を制御する。制御量推論部12が制御部15から第2自動運転制御量を出力するように制御された場合に、第2制御量推論部122は、第2自動運転制御量を推論する。一方、監視部14が、距離情報の信頼度が低下していないと判定すると、制御部15は、第1自動運転制御量を出力するように制御量推論部12を制御する。制御量推論部12が制御部15から第1自動運転制御量を出力するように制御された場合に、第1制御量推論部121は、第1自動運転制御量を推論する。制御量推論部12は、制御部15の制御に基づいて、第1制御量推論部121が推論した第1自動運転制御量または第2制御量推論部122が推論した第2自動運転制御量を、車両制御部3に出力するようにする。このような構成とする場合、自動運転制御装置1は、選択部123を備えないようにすることができる。
 また、以上の実施の形態1では、複数の車両周辺情報は撮影画像と距離情報の2つであり、かつ、距離情報のみ比較的問題が生じやすいことを前提としているため、複数の車両周辺情報のうちいずれかの信頼度が低下した場合の機械学習モデルとしては、撮影画像を入力とする第2機械学習モデル132のみが備えられているものとした。しかし、複数の車両周辺情報のうち、信頼度が低下する可能性を考慮すべき車両周辺情報が複数存在する場合もある。この場合、当該信頼度が低下する可能性を考慮すべき複数の車両周辺情報のいずれか一つを除いた車両周辺情報を入力として推論を行う第2機械学習モデル、および、当該信頼度が低下する可能性を考慮すべき複数の車両周辺情報の任意の複数の組合せを除いた車両周辺情報を入力として推論を行う第2機械学習モデルを備えるものとする。
 以上のように、実施の形態1によれば、自動運転制御装置1は、複数のセンサ(カメラ21、ミリ波レーダ22)からそれぞれ出力された複数の車両周辺情報を取得する情報取得部11と、情報取得部11が取得した複数の車両周辺情報と、機械学習モデル13とに基づいて自動運転制御量を推論し、当該自動運転制御量を出力する制御量推論部12と、情報取得部11が取得した複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下しているか否かを判定する監視部14と、監視部14により、複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下していると判定された場合、当該信頼度が低下していると判定された車両周辺情報の影響を除いた自動運転制御量を出力するように、制御量推論部12を制御する制御部15を備えるように構成した。
 そのため、複数のセンサからそれぞれ出力された複数の車両周辺情報と機械学習モデル13とに基づいて、自動運転制御量を推論して出力する自動運転制御装置1において、当該複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下した場合であっても、車両100の自動運転制御に適した自動運転制御量を出力することができる。
 より詳細には、実施の形態1に係る自動運転制御装置1において、制御量推論部12は、情報取得部11が取得した複数の車両周辺情報の全部と第1機械学習モデル131とに基づき第1自動運転制御量を推論する第1制御量推論部121と、情報取得部11が取得した複数の車両周辺情報の一部と第2機械学習モデル132とに基づき第2自動運転制御量を推論する第2制御量推論部122とを含み、制御部15は、監視部14により、複数の車両周辺情報のうち、第2機械学習モデル132に入力される複数の車両周辺情報の一部以外の車両周辺情報の信頼度が低下していると判定された場合、第2自動運転制御量を出力するように、制御量推論部12を制御するように構成した。そのため、複数のセンサからそれぞれ出力された複数の車両周辺情報と機械学習モデル13とに基づいて、自動運転制御量を推論して出力する自動運転制御装置1において、当該複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下した場合であっても、車両100の自動運転制御に適した自動運転制御量を出力することができる。
実施の形態2.
 実施の形態1では、複数のセンサのうち一部の1または複数のセンサから出力される車両周辺情報に実質的に問題は生じることはない一方、複数のセンサのうち他の1または複数のセンサから出力される車両周辺情報には、問題が比較的生じ易いものであることを前提とした。具体的には、実施の形態1においてセンサに含まれるカメラ21とミリ波レーダ22のうち、カメラ21から出力される撮影画像については、実質的に問題は生じることはない一方、ミリ波レーダ22から出力される距離情報については、問題が比較的生じ易いことを前提とした。
 実施の形態2では、複数のセンサのうち少なくとも1つがカメラ21である場合を想定する。そして、複数のセンサはいずれも、故障する可能性が、無視できる程度に低い一方、カメラ21から出力される撮影画像については、例えば気象の影響により、比較的問題が生じ易いものであることを前提とし、当該撮影画像の信頼度が低下した場合であっても、自動運転制御装置1が、車両100の自動運転制御に適した自動運転制御量の推論を行う実施の形態について説明する。
 実施の形態2に係る自動運転制御装置1aは、実施の形態1に係る自動運転制御装置1同様、車両100に搭載されることを想定している。
 実施の形態2では、後述する図4に示すとおり、センサは、カメラ21、および、ミリ波レーダ22である。上述のとおり、実施の形態2においては、カメラ21もミリ波レーダ22も、故障する可能性が、無視できる程度に低い一方、カメラ21から出力される撮影画像については、例えば気象の影響により、比較的問題が生じ易いものであることを前提とする。
 自動運転制御装置1aは、実施の形態1同様、カメラ21から出力される撮影画像、および、ミリ波レーダ22から出力される距離情報を、車両周辺情報として取得する。また、実施の形態2では、車両100にGNSS(Global Navigation Satellite System)23が搭載されており、自動運転制御装置1aは、GNSS23から出力される車両100の現在位置に関する情報を、撮影画像の信頼度が低下しているか否かを判定するための情報として取得する。
 図4は、実施の形態2に係る自動運転制御装置1aの構成例を示す図である。
 実施の形態2に係る自動運転制御装置1aについて、実施の形態1で図2を用いて説明した自動運転制御装置1と同じ構成には、同じ符号を付して重複した説明を省略する。実施の形態2に係る自動運転制御装置1aの構成は、実施の形態1に係る自動運転制御装置1の構成とは、気象判定部16を備える点が異なる。また、制御量推論部12aの第2制御量推論部122a、および、監視部14aの具体的な動作が、実施の形態1に係る自動運転制御装置1の第2制御量推論部122、および、監視部14の具体的な動作とは、異なる。
 上述のとおり、実施の形態2では、カメラ21から出力される撮影画像については、比較的問題が生じ易いものであることを前提とする。したがって、撮影画像の信頼度が低下した場合に備えるため、実施の形態2に係る第2機械学習モデル132aは、情報取得部11がミリ波レーダ22から取得した距離情報を入力として第2自動運転制御量を出力するものとなっている。第2制御量推論部122aは、情報取得部11がミリ波レーダ22から取得した距離情報と第2機械学習モデル132aとに基づき、第2自動運転制御量を推論する。
 情報取得部11は、カメラ21が撮影した撮影画像、および、ミリ波レーダ22が計測した距離情報を、車両周辺情報として取得する。情報取得部11は、取得した車両周辺情報を、制御量推論部12a、および、監視部14aに出力する。
 気象判定部16は、GNSS23から車両100の現在位置に関する情報を取得する。また、気象判定部16は、インターネット等のネットワークを介して、後述のクラウド気象サーバ5から気象情報を取得する。気象判定部16は、GNSS23から取得した車両100の現在位置に関する情報と、クラウド気象サーバ5から取得した気象情報とに基づき、車両100周辺の気象を判定する。気象判定部16は、例えば、車両100周辺に霧または降水があるか否かを判定する。
 ここで、気象判定部16が判定する、霧がある状態または降水がある状態とは、カメラ21から出力された撮影画像の信頼度が、自動運転制御量の推論に適さないほどに低下したものとなるような、濃霧の状態または激しい降水の状態である。カメラ21自体が故障していない場合でも、車両100の周辺に濃霧または激しい降水がある場合、カメラ21から出力された撮影画像には、車両100の周辺に存在する他車両等が明確には撮影されていないことがあるため、このような撮影画像は、自動運転制御量の推論に適さないものとなる。
 なお、気象判定部16が、霧または降水があるか否かを判定する対象となる、車両100周辺とは、例えば、車両100の現在地を中心とした周囲1km以内というように、予め決められているものとする。
 クラウド気象サーバ5は、気象状況に関する情報を配信するサーバである。
 気象判定部16は、判定した、車両100周辺の気象に関する情報を、監視部14aに出力する。
 監視部14aは、気象判定部16から出力された気象に関する情報に基づき、カメラ21から出力された撮影画像の信頼度が低下しているか否かを判定する。
 具体的には、監視部14aは、例えば、気象判定部16が車両100周辺に霧または降水があると判定した場合、カメラ21から得られた撮影画像の信頼度が低下していると判定する。
 実施の形態2に係る自動運転制御装置1aの動作について説明する。
 図5は、実施の形態2に係る自動運転制御装置1aの動作を説明するためのフローチャートである。
 情報取得部11は、複数のセンサからそれぞれ出力された複数の車両周辺情報を取得する。具体的には、情報取得部11は、カメラ21が撮影した撮影画像、および、ミリ波レーダ22が計測した距離情報を、車両周辺情報として取得する。また、気象判定部16は、GNSS23から車両100の現在位置に関する情報を取得する(ステップST501)。情報取得部11は、取得した車両周辺情報を、制御量推論部12aおよび監視部14aに出力する。
 制御量推論部12aの第1制御量推論部121は、ステップST501にて情報取得部11が取得した複数の車両周辺情報の全部と第1機械学習モデル131とに基づき、第1自動運転制御量を推論する。具体的には、第1制御量推論部121は、ステップST501にて情報取得部11がカメラ21から取得した撮影画像と、ステップST501にて情報取得部11がミリ波レーダ22から取得した距離情報と、第1機械学習モデル131とに基づき、第1自動運転制御量を推論する(ステップST502)。第1制御量推論部121は、推論した第1自動運転制御量を選択部123に出力する。
 制御量推論部12aの第2制御量推論部122aは、ステップST501にて情報取得部11が取得した複数の車両周辺情報の一部と第2機械学習モデル132aとに基づき、第2自動運転制御量を推論する。具体的には、第2制御量推論部122aは、ステップST501にて情報取得部11がミリ波レーダ22から取得した距離情報と、第2機械学習モデル132aとに基づき、第2自動運転制御量を推論する(ステップST503)。
 第2制御量推論部122aは、推論した第2自動運転制御量を選択部123に出力する。
 気象判定部16は、GNSS23から取得した車両100の現在位置に関する情報と、クラウド気象サーバ5から取得した気象情報に基づき、車両100周辺の気象を判定する(ステップST504)。気象判定部16は、判定した、車両100周辺の気象に関する情報を、監視部14aに出力する。
 監視部14aは、ステップST504にて気象判定部16から出力された気象に関する情報に基づき、カメラ21から得られた撮影画像の信頼度が低下しているか否かを判定する。
 具体的には、監視部14aは、気象判定部16から出力された気象に関する情報に基づき、例えば、車両100周辺に霧または降水があるか否かを判定する(ステップST505)。
 ステップST505にて、車両100周辺に霧も降水もないと判定した場合(ステップST505の“NO”の場合)、監視部14aは、カメラ21から取得された撮影画像の信頼度は低下していないと判定し、撮影画像の信頼度は低下していない旨の監視結果情報を、制御部15に出力する。
 制御部15は、ステップST502にて第1制御量推論部121が推論した第1自動運転制御量を出力するよう、制御量推論部12aを制御する。選択部123は、第1自動運転制御量を選択し、車両制御部3に出力する(ステップST506)。
 ステップST505において、車両100周辺に霧または降水があると判定した場合(ステップST505の“YES”の場合)、監視部14aは、カメラ21から取得された撮影画像の信頼度が低下していると判定し、撮影画像の信頼度が低下している旨の監視結果情報を、制御部15に出力する。
 制御部15は、ステップST503にて第2制御量推論部122aが推論した第2自動運転制御量を出力するよう、制御量推論部12aを制御する。選択部123は、第2自動運転制御量を選択し、車両制御部3に出力する(ステップST507)。
 ステップST506またはステップST507の動作を行うと、自動運転制御装置1aの動作は、ステップST501に戻り、以降の動作を繰り返す。
 以上で説明した動作について、気象判定部16が、GNSS23から車両100の現在位置に関する情報を取得する処理(図5のステップST501参照)、および、気象判定部16が、GNSS23から取得した車両100の現在位置に関する情報と、クラウド気象サーバ5から取得した気象情報に基づき、車両100周辺の気象を判定する処理(図5のステップST504、ステップST505参照)は、必ずしも毎回行わなくてもよい。例えば、以上で説明したステップST501~ステップST507の処理を行う間に、1分に1回だけ、行うようにしてもよい。気象判定部16が、車両100の位置情報と気象情報に基づき、車両100周辺の気象を判定する処理を毎回行わない場合は、気象判定部16は、クラウド気象サーバ5から取得した、最新の気象情報に基づき、車両100周辺の気象を判定する。
 以上のように、実施の形態2に係る自動運転制御装置1aは、カメラ21から出力された撮影画像の信頼度が、自動運転制御量の推論に適さないほどに低下したものとなるような、濃霧の状態または激しい降水の状態となるような気象状況下において、カメラ21が撮影した撮影画像の信頼度が低下していることを判定する。自動運転制御装置1aは、撮影画像の信頼度が低下していると判定した場合は、自動運転制御量の推論を、カメラ21から出力される撮影画像を用いず、継続実施することができる。
 なお、実施の形態2では、車両周辺情報を取得するために用いられる複数のセンサのうち少なくとも1つがカメラ21であればよく、カメラ21以外のセンサは、上記のミリ波レーダ22に限られない。
 ただし、カメラ21以外のセンサとしては、カメラ21から出力される撮影画像の信頼度が低下する気象条件において、当該センサから出力される車両周辺情報の信頼度が低下しないセンサが用いられることが必要である。
 また、以上の実施の形態2では、自動運転制御装置1aは、監視部14aが、撮影画像の信頼度が低下したか否かを判定する(図5のステップST505参照)よりも前に、第1制御量推論部121および第2制御量推論部122aが、それぞれ、第1自動運転制御量および第2自動運転制御量の推論を行っているものとした(図5のステップST502およびステップST503参照)。しかし、これは一例に過ぎず、第1制御量推論部121または第2制御量推論部122aは、監視部14aによる、撮影画像の信頼度が低下したか否かの判定を受けて、自動運転制御量の推論を行うようにしてもよい。具体的には、例えば、監視部14aにより撮影画像の信頼度が低下したと判定されると、制御部15は、第2自動運転制御量を出力するように制御量推論部12aを制御する。制御量推論部12aが制御部15から第2自動運転制御量を出力するように制御された場合に、第2制御量推論部122aは、第2自動運転制御量を推論する。一方、監視部14aが、撮影画像の信頼度が低下していないと判定すると、制御部15は、第1自動運転制御量を出力するように制御量推論部12aを制御する。制御量推論部12aが制御部15から第1自動運転制御量を出力するように制御された場合に、第1制御量推論部121は、第1自動運転制御量を推論する。制御量推論部12aは、制御部15の制御に基づいて、第1制御量推論部121が推論した第1自動運転制御量または第2制御量推論部122aが推論した第2自動運転制御量を、車両制御部3に出力するようにする。このような構成とする場合、自動運転制御装置1aは、選択部123を備えないようにすることができる。
 以上のように、実施の形態2によれば、自動運転制御装置1aは、複数のセンサ(カメラ21、ミリ波レーダ22)からそれぞれ出力された複数の車両周辺情報を取得する情報取得部11と、情報取得部11が取得した複数の車両周辺情報と、機械学習モデル13aとに基づいて自動運転制御量を推論し、当該自動運転制御量を出力する制御量推論部12aと、情報取得部11が取得した複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下しているか否かを判定する監視部14aと、監視部14aにより、複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下していると判定された場合、当該信頼度が低下していると判定された車両周辺情報の影響を除いた自動運転制御量を出力するように、制御量推論部12aを制御する制御部15を備えるように構成した。
 そのため、複数のセンサからそれぞれ出力された複数の車両周辺情報と機械学習モデル13aとに基づいて、自動運転制御量を推論して出力する自動運転制御装置1aにおいて、当該複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下した場合であっても、車両100の自動運転制御に適した自動運転制御量を出力することができる。
 より詳細には、実施の形態2に係る自動運転制御装置1aにおいて、制御量推論部12aは、情報取得部11が取得した複数の車両周辺情報の全部と第1機械学習モデル131とに基づき第1自動運転制御量を推論する第1制御量推論部121と、情報取得部11が取得した複数の車両周辺情報の一部と第2機械学習モデル132aとに基づき第2自動運転制御量を推論する第2制御量推論部122aとを含み、制御部15は、監視部14aにより、複数の車両周辺情報のうち、第2機械学習モデル132aに入力される複数の車両周辺情報の一部以外の車両周辺情報の信頼度が低下していると判定された場合、第2自動運転制御量を出力するように、制御量推論部12aを制御するように構成した。そのため、複数のセンサからそれぞれ出力された複数の車両周辺情報と機械学習モデル13aとに基づいて、自動運転制御量を推論して出力する自動運転制御装置1aにおいて、当該複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下した場合であっても、車両100の自動運転制御に適した自動運転制御量を出力することができる。
実施の形態3.
 実施の形態2では、複数のセンサのうち少なくとも1つがカメラ21である場合を想定した。そして、複数のセンサはいずれも、故障する可能性が無視できる程度に低い一方、カメラ21から出力される撮影画像については、例えば気象の影響により、比較的問題が生じ易いものであることを前提とした。そして、自動運転制御装置1aが、車両100周辺の気象に基づいて、カメラ21から出力される撮影画像の信頼度が低下したか否かを判定し、当該撮影画像の信頼度が低下した場合であっても、車両100の自動運転制御に適した自動運転制御量の推論を行う実施の形態について説明した。
 実施の形態3では、自動運転制御装置1bが、実施の形態2とは異なる方法で、カメラ21から出力される撮影画像の信頼度が低下したか否かを判定する実施の形態について説明する。
 実施の形態3に係る自動運転制御装置1bは、実施の形態1に係る自動運転制御装置1同様、車両100に搭載されることを想定している。
 実施の形態3では、後述する図6に示すとおり、センサは、カメラ21、および、ミリ波レーダ22である。上述のとおり、実施の形態3においては、カメラ21もミリ波レーダ22も、故障する可能性が、無視できる程度に低い一方、カメラ21から出力される撮影画像については、比較的問題が生じ易いものであることを前提とする。
 図6は、実施の形態3に係る自動運転制御装置1bの構成例を示す図である。
 実施の形態3に係る自動運転制御装置1bについて、実施の形態1で図2を用いて説明した自動運転制御装置1と同じ構成については、同じ符号を付して重複した説明を省略する。実施の形態3に係る自動運転制御装置1bにおいて、制御量推論部12bの第2制御量推論部122b、および、監視部14bの具体的な動作が、実施の形態1に係る自動運転制御装置1の第2制御量推論部122、および、監視部14の具体的な動作とは、異なる。
 上述のとおり、実施の形態3では、カメラ21から出力される撮影画像については、比較的問題が生じ易いものであることを前提とする。したがって、撮影画像の信頼度が低下した場合に備えるため、実施の形態3に係る第2機械学習モデル132bは、情報取得部11がミリ波レーダ22から取得した距離情報を入力として第2自動運転制御量を出力するものとなっている。第2制御量推論部122bは、情報取得部11がミリ波レーダ22から取得した距離情報と第2機械学習モデル132bとに基づき、第2自動運転制御量を推論する。
 監視部14bは、情報取得部11が取得した撮影画像の輝度に基づき、当該撮影画像の信頼度が低下しているか否かを判定する。
 具体的には、監視部14bは、例えば、情報取得部11が取得した撮影画像の各画素の輝度の最大値が、予め設定された閾値(以下「輝度判定用閾値」という。)以下である場合、カメラ21から得られた撮影画像の信頼度が低下していると判定する。輝度判定用閾値には、例えば、撮影画像のすべての画素が当該輝度判定用閾値以下の輝度となった場合に、撮影画像全体が物体を識別できないほど暗い画像となるような輝度の値が、予め設定されている。
 ここで、図7は、実施の形態3において、画素の輝度が異なる撮影画像の一例を説明するための図である。図7Aは、撮影画像のすべての画素が、当該撮影画像中の物体を十分識別できる輝度を有している場合の撮影画像の一例であり、図7Bは、撮影画像のすべての画素が、当該撮影画像中の物体を認識できないほど暗い画像となるような輝度を有している場合の撮影画像の一例であり、図7Cは、撮影画像のすべての画素が、当該撮影画像中の物体を認識できないほど明るい画像となるような輝度を有している場合の撮影画像の一例である。
 例えば、撮影画像において、真っ黒な画素の輝度を「0」、真っ白な画素の輝度を「255」とした場合、輝度判定用閾値には「5」が設定される。
 なお、図7Cに示すように、撮影画像が明るすぎても、撮影画像中の物体を認識できない。よって、例えば、輝度判定用閾値には、撮影画像のすべての画素が当該輝度判定用閾値以上の輝度となった場合に、撮影画像全体が物体を識別できないほど明るい画像となるような輝度の値が、予め設定されているようにしてもよい。この場合、監視部14bは、情報取得部11が取得した撮影画像の各画素の輝度の最小値が、輝度判定用閾値以上である場合、カメラ21から得られた撮影画像の信頼度が低下していると判定する。例えば、撮影画像にいて、真っ黒な画素の輝度を「0」、真っ白な画素の輝度を「255」とした場合、輝度判定用閾値には「250」が設定される。
 実施の形態3に係る自動運転制御装置1bの動作について説明する。
 図8は、実施の形態3に係る自動運転制御装置1bの動作を説明するためのフローチャートである。
 情報取得部11は、複数のセンサからそれぞれ出力された複数の車両周辺情報を取得する。具体的には、情報取得部11は、カメラ21が撮影した撮影画像、および、ミリ波レーダ22が計測した距離情報を、車両周辺情報として取得する(ステップST801)。情報取得部11は、取得した車両周辺情報を、制御量推論部12bおよび監視部14bに出力する。
 制御量推論部12bの第1制御量推論部121は、ステップST801にて情報取得部11が取得した複数の車両周辺情報の全部と第1機械学習モデル131とに基づき、第1自動運転制御量を推論する。具体的には、第1制御量推論部121は、ステップST801にて情報取得部11がカメラ21から取得した撮影画像と、ステップST801にて情報取得部11がミリ波レーダ22から取得した距離情報と、第1機械学習モデル131とに基づき、第1自動運転制御量を推論する(ステップST802)。第1制御量推論部121は、推論した第1自動運転制御量を選択部123に出力する。
 制御量推論部12の第2制御量推論部122bは、ステップST801にて情報取得部11が取得した複数の車両周辺情報の一部と第2機械学習モデル132bとに基づき、第2自動運転制御量を推論する。具体的には、第2制御量推論部122bは、ステップST801にて情報取得部11がミリ波レーダ22から取得した距離情報と、第2機械学習モデル132bとに基づき、第2自動運転制御量を推論する(ステップST803)。第2制御量推論部122bは、推論した第2自動運転制御量を選択部123に出力する。
 監視部14bは、情報取得部11が取得した複数の車両周辺情報について、複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下しているか否かを判定する。具体的には、まず、監視部14bは、ステップST801にて情報取得部11がカメラ21から取得した撮影画像を取得する(ステップST804)。
 そして、監視部14bは、ステップST804にて取得した撮影画像の各画素の輝度の最大値が輝度判定用閾値以下であるか否かを判定する(ステップST805)。
 ステップST805において、撮影画像中の画素の輝度の最大値が輝度判定用閾値より大きいと判定した場合(ステップST805の“NO”の場合)、監視部14bは、カメラ21から取得された撮影画像の信頼度が低下していないと判定し、撮影画像の信頼度が低下していない旨の監視結果情報を、制御部15に出力する。
 制御部15は、ステップST802にて第1制御量推論部121が推論した第1自動運転制御量を出力するよう、制御量推論部12bを制御する。選択部123は、第1自動運転制御量を選択し、車両制御部3に出力する(ステップST806)。
 ステップST805において、画像中の画素の輝度の最大値が輝度判定用閾値以下であると判定した場合(ステップST805の“YES”の場合)、監視部14bは、カメラ21から取得された撮影画像の信頼度が低下していると判定し、撮影画像の信頼度が低下している旨の監視結果情報を、制御部15に出力する。
 制御部15は、ステップST803にて第2制御量推論部122bが推論した第2自動運転制御量を出力するよう、制御量推論部12bを制御する。選択部123は、第2自動運転制御量を選択し、車両制御部3に出力する(ステップST807)。
 ステップST806またはステップST807の動作を行うと、自動運転制御装置1bの動作は、ステップST801に戻り、以降の動作を繰り返す。
 以上のように、実施の形態3に係る自動運転制御装置1bは、カメラ21から出力された撮影画像が、当該撮影画像の信頼度が、自動運転制御量の推論に適さないほどに低下したものとなるような、撮影画像中の物体を認識できない輝度を有する撮影画像である場合に、カメラ21が撮影した撮影画像の信頼度が低下していることを判定する。自動運転制御装置1bは、撮影画像の信頼度が低下していると判定した場合、撮影画像を用いずに、自動運転制御量の推論を継続実施することができる。撮影画像中の物体を認識できない輝度を有する撮影画像とは、例えば、真っ暗闇な状況、カメラ21の露出補正機能が不調な状況、または、カメラ21の前に遮蔽物があって撮影できない状況で撮影された撮影画像をいう。このような状況下では、自動運転制御装置1bがカメラ21から取得する撮影映像は、例えば、撮影画像中の物体を認識できないほど暗い画像、または、撮影画像中の物体を認識できないほど明るい画像となる。
 なお、実施の形態3では、車両周辺情報を取得するために用いられる複数のセンサのうち少なくとも1つがカメラ21であればよく、カメラ21以外のセンサは、上記のミリ波レーダ22に限られない。
 以上のように、実施の形態3によれば、自動運転制御装置1bは、複数のセンサ(カメラ21、ミリ波レーダ22)からそれぞれ出力された複数の車両周辺情報を取得する情報取得部11と、情報取得部11が取得した複数の車両周辺情報と、機械学習モデル13bとに基づいて自動運転制御量を推論し、当該自動運転制御量を出力する制御量推論部12bと、情報取得部11が取得した複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下しているか否かを判定する監視部14bと、監視部14bにより、複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下していると判定された場合、当該信頼度が低下していると判定された車両周辺情報の影響を除いた自動運転制御量を出力するように、制御量推論部12bを制御する制御部15を備えるように構成した。
 そのため、複数のセンサからそれぞれ出力された複数の車両周辺情報と機械学習モデル13bとに基づいて、自動運転制御量を推論して出力する自動運転制御装置1bにおいて、当該複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下した場合であっても、車両100の自動運転制御に適した自動運転制御量を出力することができる。
 より詳細には、実施の形態3に係る自動運転制御装置1bにおいて、制御量推論部12bは、情報取得部11が取得した複数の車両周辺情報の全部と第1機械学習モデル131とに基づき第1自動運転制御量を推論する第1制御量推論部121と、情報取得部11が取得した複数の車両周辺情報の一部と第2機械学習モデル132bとに基づき第2自動運転制御量を推論する第2制御量推論部122bとを含み、制御部15は、監視部14bにより、複数の車両周辺情報のうち、第2機械学習モデル132bに入力される複数の車両周辺情報の一部以外の車両周辺情報の信頼度が低下していると判定された場合、第2自動運転制御量を出力するように、制御量推論部12bを制御するように構成した。そのため、複数のセンサからそれぞれ出力された複数の車両周辺情報と機械学習モデル13bとに基づいて、自動運転制御量を推論して出力する自動運転制御装置1bにおいて、当該複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下した場合であっても、車両100の自動運転制御に適した自動運転制御量を出力することができる。
実施の形態4.
 実施の形態2および実施の形態3では、複数のセンサのうち少なくとも1つがカメラ21である場合を想定し、複数のセンサはいずれも、故障する可能性が無視できる程度に低い一方、カメラ21から出力される撮影画像については、比較的問題が生じ易いものであることを前提とした。そして、自動運転制御装置1a、1bが、車両100周辺の気象または撮影画像の画素の輝度に基づいて、カメラ21から出力される撮影画像の信頼度が低下したか否かを判定し、当該撮影画像の信頼度が低下した場合であっても、車両100の自動運転制御に適した自動運転制御量の推論を行う実施の形態について説明した。
 実施の形態4では、自動運転制御装置1cが、実施の形態2および実施の形態3とは異なる方法で、カメラ21から出力される撮影画像の信頼度が低下したか否かを判定する実施の形態について説明する。
 実施の形態4に係る自動運転制御装置1cは、実施の形態1~実施の形態3に係る自動運転制御装置1同様、車両100に搭載されることを想定している。
 実施の形態4では、後述の図9に示すように、センサは、カメラ21、ミリ波レーダ22である。実施の形態4でも、実施の形態2および実施の形態3同様、カメラ21もミリ波レーダ22も、故障する可能性が無視できる程度に低い一方、カメラ21から出力される撮影画像については、比較的問題が生じ易いものであることを前提とする。
自動運転制御装置1cは、実施の形態1~3同様、カメラ21から出力される撮影画像、および、ミリ波レーダ22から出力される距離情報を、車両周辺情報として取得する。また、実施の形態4では、自動運転制御装置1cは、車両走行センサ24から出力される、車両100が走行しているか否かを判定するための情報(以下「車両走行情報」という。)を取得する。実施の形態4において、「車両100が走行している」とは、「車両100が移動している」ことと同義である。「車両100が移動している」とは、「車両100の速度が「0」でない」ことと同義である。
 車両走行センサ24は、車両走行情報を出力する。車両走行センサ24は、車両100が走行しているか否かを判断できる情報が出力されるものであればよく、車両走行センサ24は、例えば、車輪の回転数を取得するセンサであってもよいし、車両100の現在位置に関する情報を取得するGNSS等であってもよい。
 なお、車両100が走行しているか否かの判定は、後述する走行判定部17が、車両走行センサ24から出力された車両走行情報に基づいて行う。
 図9は、実施の形態4に係る自動運転制御装置1cの構成例を示す図である。
 実施の形態4に係る自動運転制御装置1cについて、実施の形態1で図2を用いて説明した自動運転制御装置1と同じ構成については、同じ符号を付して重複した説明を省略する。実施の形態4に係る自動運転制御装置1cの構成は、実施の形態1に係る自動運転制御装置1の構成とは、走行判定部17を備える点が異なる。また、実施の形態4に係る自動運転制御装置1cにおいて、制御量推論部12cの第2制御量推論部122c、および、監視部14cの具体的な動作が、実施の形態1に係る自動運転制御装置1の第2制御量推論部122、および、監視部14の具体的な動作とは、異なる。
 上述のとおり、実施の形態4では、カメラ21から出力される撮影画像については、比較的問題が生じ易いものであることを前提とする。したがって、撮影画像の信頼度が低下した場合に備えるため、実施の形態4に係る第2機械学習モデル132cは、情報取得部11がミリ波レーダ22から取得した距離情報を入力として第2自動運転制御量を出力するものとなっている。第2制御量推論部122cは、情報取得部11がミリ波レーダ22から取得した距離情報と第2機械学習モデル132cとに基づき、第2自動運転制御量を推論する。
 情報取得部11は、カメラ21が撮影した撮影画像、および、ミリ波レーダ22が計測した距離情報を、車両周辺情報として取得する。情報取得部11は、取得した車両周辺情報を、制御量推論部12c、および、監視部14cに出力する。
 走行判定部17は、車両走行センサ24から取得した車両走行情報に基づき、車両100が走行中であるか否かを判定する。
 走行判定部17は、判定した、車両100が走行中であるか否かの情報を、監視部14cに出力する。
 監視部14cは、走行判定部17から取得した、車両100が走行中であるか否かの情報と、情報取得部11から取得した撮影画像とに基づき、撮影画像の信頼度が低下しているか否かを判定する。具体的には、監視部14cは、車両100が走行中であり、かつ、カメラ21から取得した撮影画像で撮影されている車両100周辺の風景が変化していないかどうかを判定する。監視部14cは、情報取得部11cから取得した撮影画像と、記憶部に蓄積されている撮影画像とに基づき、撮影画像で撮影されている風景が変化していないかどうかを判定する。例えば、監視部14cは、情報取得部11から取得した撮影画像(「第1撮影画像」とする。)と、直近に記憶部に記憶された撮影画像(「第2撮影画像」とする。)とを画素単位で比較し、比較の結果、予め設定された比較条件を満たした場合、第1撮影画像で撮影されている風景に変化がないと判定する。予め設定された比較条件とは、例えば、第1撮影画像および第2撮影画像の各画素の画素値の差の絶対値の平均が、予め設定された閾値以下であること、である。なお、これは一例に過ぎず、比較条件には、第1撮影画像と第2撮影画像が同一であると判定できるような条件が設定されていればよい。実施の形態4において、第1撮影画像と第2撮影画像とが同一である、とは、完全に同一であることに限らず、ほぼ同一であることも含む。
 監視部14cは、車両100は走行中であり、かつ、撮影画像で撮影されている車両100周辺の風景が変化していない場合、撮影画像の信頼度が低下していると判定する。
 車両100が走行中である場合、撮影画像で撮影されている風景は、変化すると想定される。したがって、車両100が走行中であるにもかかわらず、撮影画像で撮影されている風景に変化がないということは、撮影画像の信頼度が低下していることを意味する。
 なお、実施の形態4では、自動運転制御装置1cにおいて、情報取得部11は、カメラ21から取得した撮影画像を、記憶部に蓄積させているものとする。監視部14cは、情報取得部11から取得した撮影画像と、記憶部に蓄積されている撮影画像とに基づき、撮影画像で撮影されている風景に変化がないかどうかを判定する。
 実施の形態4に係る自動運転制御装置1cの動作について説明する。
 図10は、実施の形態4に係る自動運転制御装置1cの動作を説明するためのフローチャートである。
 情報取得部11は、複数のセンサからそれぞれ出力された複数の車両周辺情報を取得する。具体的には、情報取得部11は、カメラ21が撮影した撮影画像、および、ミリ波レーダ22が計測した距離情報を、車両周辺情報として取得する。また、走行判定部17は、車両走行センサ24から車両走行情報を取得する(ステップST1001)。情報取得部11は、取得した車両周辺情報を、制御量推論部12cおよび監視部14cに出力する。
 制御量推論部12cの第1制御量推論部121は、ステップST1001にて情報取得部11が取得した複数の車両周辺情報の全部と第1機械学習モデル131とに基づき、第1自動運転制御量を推論する。具体的には、第1制御量推論部121は、ステップST1001にて情報取得部11がカメラ21から取得した撮影画像と、ステップST1001にて情報取得部11がミリ波レーダ22から取得した距離情報と、第1機械学習モデル131とに基づき、第1自動運転制御量を推論する(ステップST1002)。第1制御量推論部121は、推論した第1自動運転制御量を選択部123に出力する。
 制御量推論部12cの第2制御量推論部122cは、ステップST1001にて情報取得部11cが取得した複数の車両周辺情報の一部と第2機械学習モデル132cとに基づき、第2自動運転制御量を推論する。具体的には、第2制御量推論部122cは、ステップST1001にて情報取得部11がミリ波レーダ22から取得した距離情報と、第2機械学習モデル132cとに基づき、第2自動運転制御量を推論する(ステップST1003)。
 第2制御量推論部122cは、推論した第2自動運転制御量を選択部123に出力する。
 走行判定部17は、車両走行センサ24から取得した車両走行情報に基づき、車両100が走行中であるか否かを判定する(ステップST1004)。走行判定部17は、判定した、車両100が走行中であるか否かの情報を、監視部14cに出力する。
 監視部14cは、過去にカメラ21から取得した撮影画像が、記憶部に蓄積されているか否かを判定する(ステップST1005)。
 ステップST1005において、撮影画像が記憶部に蓄積されていないと判定された場合(ステップST1005の“NO”の場合)、監視部14cは、カメラ21から取得された撮影画像の信頼度は低下していないと判定し、撮影画像の信頼度は低下していない旨の監視結果情報を、制御部15に出力する。自動運転制御装置1cの動作は、ステップST1007に進む。
 ステップST1005において、撮影画像が記憶部に蓄積されていると判定された場合(ステップST1005の“YES”の場合)、監視部14cは、ステップST1001にて情報取得部11から出力された撮影画像、および、ステップST1004にて走行判定部17から出力された、車両100が走行中であるか否かの情報に基づき、撮影画像の信頼度が低下しているか否かを判定する。具体的には、監視部14cは、車両100は走行中であり、かつ、撮影画像で撮影されている車両100周辺の風景が変化していないかどうかを判定する(ステップST1006)。
 ステップST1006において、監視部14cが、車両100は走行中ではないと判定した場合、または、撮影画像で撮影されている車両100周辺の風景が変化していると判定した場合(ステップST1006の“NO”の場合)、監視部14cは、カメラ21から取得された撮影画像の信頼度は低下していないと判定し、撮影画像の信頼度は低下していない旨の監視結果情報を、制御部15に出力する。自動運転制御装置1cの動作は、ステップST1007に進む。
 ステップST1007にて、制御部15は、ステップST1002にて第1制御量推論部121が推論した第1自動運転制御量を出力するよう、制御量推論部12cを制御する。選択部123は、第1自動運転制御量を選択し、車両制御部3に出力する(ステップST1007)。
 一方、ステップST1006において、車両100は走行中であり、かつ、撮影画像で撮影されている車両100周辺の風景が変化していないと判定した場合(ステップST1006の“YES”の場合)、監視部14cは、カメラ21から取得された撮影画像の信頼度が低下していると判定し、撮影画像の信頼度が低下している旨の監視結果情報を、制御部15に出力する。
 制御部15は、ステップST1003にて第2制御量推論部122cが推論した第2自動運転制御量を出力するよう、制御量推論部12cを制御する。選択部123は、第2自動運転制御量を選択し、車両制御部3に出力する(ステップST1008)。
 ステップST1007またはステップST1008の動作を行うと、自動運転制御装置1cの動作は、ステップST1001に戻り、以降の動作を繰り返す。
 以上のように、実施の形態4に係る自動運転制御装置1cは、自動運転制御量を正しく推論できないような、走行する車両100における車両周辺状況を適切に撮影できていない撮影画像しか取得できないような状況である場合、カメラ21から取得された撮影画像の信頼度が低下していると判定する。自動運転制御装置1cは、撮影画像の信頼度が低下していると判定した場合、自動運転制御量の推論を、カメラ21から出力される撮影画像を用いず、継続実施することができる。
 なお、実施の形態4では、車両周辺情報を取得するために用いられる複数のセンサのうち少なくとも1つがカメラ21であればよく、カメラ21以外のセンサは、上記のミリ波レーダ22に限られない。
 以上のように、実施の形態4によれば、自動運転制御装置1cは、複数のセンサ(カメラ21、ミリ波レーダ22)からそれぞれ出力された複数の車両周辺情報を取得する情報取得部11と、情報取得部11が取得した複数の車両周辺情報と、機械学習モデル13cとに基づいて自動運転制御量を推論し、当該自動運転制御量を出力する制御量推論部12cと、情報取得部11が取得した複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下しているか否かを判定する監視部14cと、監視部14cにより、複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下していると判定された場合、当該信頼度が低下していると判定された車両周辺情報の影響を除いた自動運転制御量を出力するように、制御量推論部12cを制御する制御部15を備えるように構成した。
 そのため、複数のセンサからそれぞれ出力された複数の車両周辺情報と機械学習モデル13cとに基づいて、自動運転制御量を推論して出力する自動運転制御装置1cにおいて、当該複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下した場合であっても、車両100の自動運転制御に適した自動運転制御量を出力することができる。
 より詳細には、実施の形態4に係る自動運転制御装置1cにおいて、制御量推論部12cは、情報取得部11が取得した複数の車両周辺情報の全部と第1機械学習モデル131とに基づき第1自動運転制御量を推論する第1制御量推論部121と、情報取得部11が取得した複数の車両周辺情報の一部と第2機械学習モデル132cとに基づき第2自動運転制御量を推論する第2制御量推論部122cとを含み、制御部15は、監視部14cにより、複数の車両周辺情報のうち、第2機械学習モデル132cに入力される複数の車両周辺情報の一部以外の車両周辺情報の信頼度が低下していると判定された場合、第2自動運転制御量を出力するように、制御量推論部12cを制御するように構成した。そのため、複数のセンサからそれぞれ出力された複数の車両周辺情報と機械学習モデル13cとに基づいて、自動運転制御量を推論して出力する自動運転制御装置1cにおいて、当該複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下した場合であっても、車両100の自動運転制御に適した自動運転制御量を出力することができる。
実施の形態5.
 実施の形態1に係る自動運転制御装置1において、センサから出力される車両周辺情報の信頼度が低下していると判定した場合に、当該信頼度が低下していることを示す情報を、自動運転制御装置1の外部に出力するようにすることもできる。
 実施の形態5では、自動運転制御装置1が、センサから出力される車両周辺情報の信頼度が低下していると判定した場合に、当該信頼度が低下していることを示す情報を、自動運転制御装置1の外部に出力する実施の形態について説明する。
 図11は、実施の形態5に係る自動運転制御装置1dの構成例を示す図である。
 実施の形態5に係る自動運転制御装置1dについて、実施の形態1で図2を用いて説明した自動運転制御装置1と同じ構成については、同じ符号を付して重複した説明を省略する。実施の形態5に係る自動運転制御装置1dの構成は、実施の形態1に係る自動運転制御装置1の構成とは、通知制御部18を備えた点が異なる。
 通知制御部18は、制御部15が第2自動運転制御量を出力するように制御量推論部12を制御した場合、複数の車両周辺情報のうちの一部の車両周辺情報の信頼度が低下していることを示す通知情報を出力する。具体的には、通知制御部18は、監視部14により距離情報の信頼度が低下していると判定され、制御部15が第2自動運転制御量を出力するよう制御量推論部12を制御した場合に、ミリ波レーダ22から出力される距離情報の信頼度が低下していることを示す通知情報を出力する。通知制御部18は、通知情報を、自動運転制御装置1dとネットワークを介して接続されている出力装置(図示省略)に出力する。出力装置は、例えば、車両100に搭載されているカーナビゲーションシステムが備えるディスプレイである。通知制御部18は、ディスプレイに、通知情報を表示させる。
 実施の形態4では、制御部15は、監視部14により、複数車両周辺情報の一部以外の車両周辺情報の信頼度が低下していると判定された場合、第2自動運転制御量を出力するよう制御するとともに、車両周辺情報の信頼度が低下していることを示す情報を、通知制御部18に出力する。
 ここで、図12および図13は、実施の形態5において、通知制御部18が通知情報を表示させたディスプレイの画面例を示す図である。
 通知制御部18は、例えば、図12に示すように、ミリ波レーダ22から出力される距離情報の信頼度が低下していることを示す情報として、ディスプレイに、「ミリ波レーダが使用できません」とのメッセージを表示させる(図12の1201参照)。このように、距離情報の信頼度が低下していることを示す情報には、例えば、信頼度が低下している車両周辺情報を出力するセンサが使用不可である旨のメッセージが含まれる。
 また、通知制御部18は、例えば、図13に示すように、ミリ波レーダ22から出力される距離情報の信頼度が低下していることを示す情報として、ディスプレイに、「現在車線変更機能は使用できません」とのメッセージを表示させる(図13の1301参照)。このように、距離情報の信頼度が低下していることを示す情報には、例えば、信頼度が低下していると判断された車両周辺情報があることによって車両100の自動運転制御に使用できない機能を通知するメッセージが含まれる。例えば、車両100の自動運転の制御においてミリ波レーダ22から出力される距離情報が使用できない場合、車線変更を行うことができない。
 実施の形態5に係る自動運転制御装置1dの動作について説明する。
 自動運転制御装置1dの動作は、実施の形態1において図3を用いて説明した動作と、基本的には同じであるため、フローチャートの図示は省略する。
 ステップST305において、ステップST304にて取得した基準距離と、ステップST301にて情報取得部11がミリ波レーダ22から取得した距離情報に基づく、車両100から当該物体までの距離との差がレーダ判定用閾値より大きいと判定した場合(ステップST305の“NO”の場合)、監視部14は、ミリ波レーダ22から取得された距離情報の信頼度が低下していると判定し、距離情報の信頼度が低下している旨の監視結果情報を、制御部15に出力する。
 制御部15は、ステップST303にて第2制御量推論部122が推論した第2自動運転制御量を出力するよう、制御量推論部12を制御するとともに、車両周辺情報の信頼度が低下していることを示す情報を、通知制御部18に出力する。通知制御部18は、複数の車両周辺情報のうちの一部の車両周辺情報の信頼度が低下していることを示す通知情報を出力する。
 このように、実施の形態5に係る自動運転制御装置1dは、制御部15が第2自動運転制御量を出力するように制御量推論部12を制御した場合、通知制御部18が、複数の車両周辺情報のうちの一部の車両周辺情報の信頼度が低下していることを示す通知情報を出力する。これにより、自動運転制御装置1dは、車両100の運転者等に対して、一部の車両周辺情報の信頼度が低下していることを知らせることができる。運転者等は、一部の車両周辺情報の信頼度が低下していることを確認すると、例えば、ミリ波レーダ22のアンテナが汚れていないか確認し、当該アンテナが汚れていれば、掃除を行う。または、運転者等は、ミリ波レーダ22の修理を行う。
 また、実施の形態5に係る自動運転制御装置1dにおいて、通知制御部18が、例えば、図13に示すような通知情報を出力する場合、推論できる自動運転の機能が変更になったことを運転者等に通知することができる。これにより、自動運転制御装置1dは、運転者等に対して、期待していた自動運転の機能を使用できないことを把握させ、運転者等による、期待していた自動運転の機能が使用できないことへの混乱を防ぐことができる。なお、上述のとおり、通知制御部18は、図12に示すような通知情報を出力することも可能であるが、図13に示すように、自動運転の制御における機能低下を通知したほうが、運転者等は、自動運転のどの機能が使用できないかを具体的に把握することができる。
 以上の実施の形態5では、一例として、通知制御部18が通知情報を出力する出力装置は、カーナビゲーションシステムが備えるディスプレイとしたが、これは一例に過ぎない。例えば、通知制御部18が通知情報を出力する出力装置は、インストルメントパネルとし、通知制御部18は、通知情報を、メッセージまたはアイコン等で表示させるようにしてもよい。また、通知制御部18は、通知情報を表示させることに限らず、音声にて出力するようにしてもよい。具体的には、例えば、出力装置をスピーカ等の音声出力装置とし、通知制御部18は、通知情報を、音声出力装置から出力するようにしてもよい。通知制御部18は、通知情報を、自動音声で出力するようにしてもよいし、単にブザー音として出力するようにしてもよい。また、通知制御部18は、通知情報を、メッセージとしてディスプレイに表示させるとともに、音声またはブザー音として出力させるようにしてもよい。
 また、以上で説明した実施の形態5に係る自動運転制御装置1dの構成を、上述の実施の形態2~4に適用してもよい。すなわち、実施の形態2に係る自動運転制御装置1a、実施の形態3に係る自動運転制御装置1b、または、実施の形態4に係る自動運転制御装置1cにおいて、通知制御部18を備えるようにし、通知制御部18は、カメラ21から取得した撮影画像の信頼度が低下していることを示す情報を出力するようにすることもできる。
 以上のように、実施の形態5によれば、自動運転制御装置1dは、実施の形態1に係る自動運転制御装置1の構成に加え、制御部15が第2自動運転制御量を出力するように制御量推論部12を制御した場合、複数の車両周辺情報のうちの一部の車両周辺情報の信頼度が低下していることを示す通知情報を出力する通知制御部18を備えるように構成した。そのため、自動運転制御装置1dは、センサから出力される車両周辺情報の信頼度が低下していると判定した場合に、当該信頼度が低下していることを、運転者等に通知することができる。
実施の形態6.
 実施の形態1~5に係る自動運転制御装置1~1dは、複数のセンサから出力された複数の車両周辺情報について、信頼度が低下している車両周辺情報がない場合には第1機械学習モデル131を用い、信頼度が低下している車両周辺情報がある場合には第2機械学習モデル132,132a~132cを用いるものであった。
 しかし、これらは一例に過ぎず、自動運転制御装置は、複数のセンサから出力された複数の車両周辺情報について、信頼度が低下している車両周辺情報がない場合にも、信頼度が低下している車両周辺情報がある場合にも、同じ1つの機械学習モデル13を用いるものとすることも可能である。実施の形態6では、自動運転制御装置が、上記2つ場合のいずれでも、同じ1つの機械学習モデルを用いる実施の形態について説明する。
 図14は、実施の形態6に係る自動運転制御装置1eの構成例を示す図である。
 なお、ここでは、一例として、実施の形態6に係る自動運転制御装置1eの構成および動作を、実施の形態1に係る自動運転制御装置1の構成および動作の一部が変更されたものとして説明する。しかし、実施の形態6に係る自動運転制御装置1eの構成および動作を、実施の形態2~5に係る自動運転制御装置1a~1dのいずれかの構成および動作を一部変更することで実現することもできる。
 実施の形態6に係る自動運転制御装置1eについて、実施の形態1で図2を用いて説明した自動運転制御装置1と同じ構成については、同じ符号を付して重複した説明を省略する。実施の形態6に係る自動運転制御装置1eの構成は、実施の形態1に係る自動運転制御装置1の構成とは、制御量推論部12eが、第1制御量推論部121、第2制御量推論部122、および、選択部123を備えず、機械学習モデル13eが、第1機械学習モデル131および第2機械学習モデル132を備えない点が異なる。
 また、実施の形態6に係る自動運転制御装置1eは、実施の形態1に係る自動運転制御装置1とは、制御部15eの動作が異なる。
 制御部15eは、情報取得部11が取得した複数の車両周辺情報の全部に、監視部14による信頼度の判定結果に基づく情報有効フラグを付与する。情報有効フラグは、各車両周辺情報が、有効か無効かを示す情報である。つまり、ある車両周辺情報の信頼度が低下していない場合は、当該車両周辺情報が有効であることを示す情報有効フラグが付与される。また、ある車両周辺情報の信頼度が低下している場合は、当該車両周辺情報が無効であることを示す情報有効フラグが付与される。
 実施の形態6では、後述の図14に示すように、センサは、実施の形態1のセンサと同様に、カメラ21、ミリ波レーダ22である。また、実施の形態6では、実施の形態1の前提と同様に、カメラ21の撮影画像については、実質的に問題は生じることはない一方、ミリ波レーダ22の距離情報については、比較的問題が生じ易いことを前提とする。
 したがって、制御部15eは、具体的には、監視部14により、ミリ波レーダ22から出力される距離情報の信頼度が低下していると判定された場合、カメラ21から出力された撮影画像に情報有効フラグ「1」を付与し、ミリ波レーダ22から出力された距離情報に情報有効フラグ「0」を付与する。実施の形態6では、一例として、情報有効フラグが「1」の場合、当該情報フラグが付与された車両周辺情報の信頼度が低下していないことを示し、情報有効フラグが「0」の場合、当該情報有効フラグが付与されたフラグ付き車両周辺情報の信頼度が低下していることを示すものとする。
 以下、情報有効フラグが付与された車両周辺情報を、「フラグ付き車両周辺情報」という。
 制御部15eは、情報取得部11が取得した複数の車両周辺情報の全部について情報有効フラグを付与して生成した、複数のフラグ付き車両周辺情報を、制御量推論部12eに出力する。
 制御量推論部12eは、制御部15eから複数のフラグ付き車両周辺情報を取得すると、当該複数のフラグ付き車両周辺情報の全部と、機械学習モデル13eとに基づき、自動運転制御量を推論し、当該自動運転制御量を出力する。
 機械学習モデル13eは、制御部15eから出力された複数のフラグ付き車両周辺情報の全部を入力とし、自動運転制御量を出力する。機械学習モデル13eは、複数のフラグ付き車両周辺情報のうち、情報有効フラグとして「0」が付与された車両周辺情報の影響を除いて、自動運転制御量を推論できるように学習されたものである。このような学習は、例えば、機械学習モデル13eへの入力となり得る複数のフラグ付き車両周辺情報と、当該複数のフラグ付き車両周辺情報のうち有効な車両周辺情報のみに基づき予め導出した理想的な自動運転制御量の正解とを組とした学習データに基づき行うことができる。
 制御量推論部12eは、上記の機械学習モデル13eと、複数のフラグ付き車両周辺情報とに基づき、自動運転制御量を推論することで、信頼度が低下した車両周辺情報の影響を除いた自動運転制御量を推論して、当該自動運転制御量を出力することができる。ここで、「信頼度が低下した車両周辺情報の影響を除いた」とは、信頼度が低下した車両周辺情報の影響を完全に除いた状態だけでなく、自動運転制御の継続が可能な自動運転制御量が取得できる程度に、信頼度が低下した車両周辺情報の影響が実質的に除かれた状態を含むものである。
 実施の形態6に係る自動運転制御装置1eの動作について説明する。
 図15は、実施の形態6に係る自動運転制御装置1eの動作を説明するためのフローチャートである。
 図15のステップST1501~ステップST1502の具体的な動作は、それぞれ、実施の形態1で説明した、図3のステップST301、ステップST304の具体的な動作と同様であるため、重複した説明を省略する。
 監視部14は、ミリ波レーダ22から取得した距離情報の信頼度が低下しているか否かの判定処理を行う(ステップST1503)。具体的には、監視部14は、ステップST1502にて取得した基準距離と、ステップST1501にて情報取得部11がミリ波レーダ22から取得した距離情報に基づく車両100から当該物体までの距離との差を算出し、当該算出された差がレーダ判定用閾値以下であるか否かを判定する(ステップST1503)。ステップST1503の具体的な動作は、実施の形態1で説明した、図3のステップST305の具体的な動作と同様である。
 算出された差がレーダ判定用閾値より大きいと判定した場合、監視部14は、ミリ波レーダ22から取得された距離情報の信頼度が低下していると判定し、距離情報の信頼度が低下している旨の監視結果情報を、制御部15eに出力する。
 一方、算出された差がレーダ判定用閾値以下であると判定した場合、監視部14は、ミリ波レーダ22から取得された距離情報の信頼度が低下していないと判定し、距離情報の信頼度が低下していない旨の監視結果情報を、制御部15eに出力する。
 制御部15eは、ステップST1503にて監視部14が判定した判定結果に基づき、車両周辺情報に情報有効フラグを付与する(ステップST1504)。具体的には、例えば、監視部14が、ミリ波レーダ22から取得された距離情報の信頼度が低下していると判定した場合、制御部15eは、距離情報に情報有効フラグ「0」を付与する。制御部15eは、距離情報を、監視部14から取得すればよい。例えば、監視部14が、ミリ波レーダ22から取得された距離情報の信頼度が低下していないと判定した場合、制御部15は、距離情報に情報有効フラグ「1」を付与する。
 実施の形態6では、実施の形態1の前提と同様に、カメラ21の撮影画像については、実質的に問題は生じることはない前提であるため、制御部15eは、撮影画像には、常に情報有効フラグ「1」を付与する。
 制御部15eは、フラグ付き車両周辺情報を、制御量推論部12eに出力する。
 制御量推論部12eは、制御部15eから出力されたフラグ付き車両周辺情報と機械学習モデル13eとに基づいて、車両100の自動運転制御量を推論する(ステップST1505)。そして、制御量推論部12eは、推論した自動運転制御量に基づく車両制御情報を車両制御部3に出力する(ステップST1506)。
 このように、自動運転制御装置1eにおいて、制御量推論部12eおよび機械学習モデル13eを、それぞれ、1つのみ備えるようにすることもできる。これにより、入力される車両周辺情報の数に応じた複数の機械学習モデルを用意する必要がなくなり、車両周辺情報の数に応じた複数の機械学習モデルを用意しておく場合に比べ、より簡易な構成で、自動運転制御量の推論を行うことができる。
 また、自動運転制御装置1eは、自動運転制御量の推論の際、車両周辺情報に情報有効フラグを付与して、車両周辺情報が、自動運転制御量の推論に使用されるのに有効か否かを判別できるようにした。これにより、自動運転制御装置1eは、複数のセンサのうち一部の1または複数のセンサから出力される車両周辺情報の信頼度が低下した場合であっても、車両100の自動運転制御に使用できる自動制御量を推論することができる。
 以上のように、実施の形態6によれば、自動運転制御装置1eは、複数のセンサ(カメラ21、ミリ波レーダ22)からそれぞれ出力された複数の車両周辺情報を取得する情報取得部11と、情報取得部11が取得した複数の車両周辺情報と、機械学習モデル13とに基づいて自動運転制御量を推論し、当該自動運転制御量を出力する制御量推論部12eと、情報取得部11が取得した複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下しているか否かを判定する監視部14と、監視部14により、複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下していると判定された場合、当該信頼度が低下していると判定された車両周辺情報の影響を除いた自動運転制御量を出力するように、制御量推論部12eを制御する制御部15eを備えるように構成した。
 そのため、複数のセンサからそれぞれ出力された複数の車両周辺情報と機械学習モデル13とに基づいて、自動運転制御量を推論して出力する自動運転制御装置1eにおいて、当該複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下した場合であっても、車両100の自動運転制御に適した自動運転制御量を出力することができる。
 より詳細には、実施の形態6に係る自動運転制御装置1eにおいて、制御部15eは、情報取得部11が取得した複数の車両周辺情報の全部に、監視部14による信頼度の判定結果に基づく情報有効フラグを付与するものであり、制御量推論部12eは、制御部15eが情報有効フラグを付与した複数の車両周辺情報の全部と、機械学習モデル13eとに基づいて、自動運転制御量を推論して、当該自動運転制御量を出力するようにした。そのため、複数のセンサからそれぞれ出力された複数の車両周辺情報と機械学習モデル13eとに基づいて、自動運転制御量を推論して出力する自動運転制御装置1eにおいて、当該複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下した場合であっても、車両100の自動運転制御に適した自動運転制御量を出力することができる。また、車両周辺情報の種類に応じて機械学習モデル13eを用意しておく場合に比べ、より簡易な構成で、自動運転制御量の推論を行うことができる。
 図16A,図16Bは、実施の形態1~実施の形態6に係る自動運転制御装置1~1eのハードウェア構成の一例を示す図である。
 実施の形態1~6において、情報取得部11と、制御量推論部12~12eと、監視部14~14cと、制御部15,15eと、気象判定部16と、走行判定部17と、通知制御部18の機能は、処理回路1601により実現される。すなわち、自動運転制御装置1~1eは、車両100の自動運転を制御するための自動運転制御量の推論を行う処理回路1601を備える。
 処理回路1601は、図16Aに示すように専用のハードウェアであっても、図16Bに示すようにメモリ1606に格納されるプログラムを実行するCPU(Central Processing Unit)1605であってもよい。
 処理回路1601が専用のハードウェアである場合、処理回路1601は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものが該当する。
 処理回路1601がCPU1605の場合、情報取得部11と、制御量推論部12~12eと、監視部14~14cと、制御部15,15eと、気象判定部16と、走行判定部17と、通知制御部18の機能は、ソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせにより実現される。すなわち、情報取得部11と、制御量推論部12~12eと、監視部14~14cと、制御部15,15eと、気象判定部16と、走行判定部17と、通知制御部18は、HDD(Hard Disk Drive)1602、メモリ1606等に記憶されたプログラムを実行するCPU1605、システムLSI(Large-Scale Integration)等の処理回路により実現される。また、HDD1602、メモリ1606等に記憶されたプログラムは、情報取得部11と、制御量推論部12~12eと、監視部14~14cと、制御部15,15eと、気象判定部16と、走行判定部17と、通知制御部18の手順または方法をコンピュータに実行させるものであるとも言える。ここで、メモリ1606とは、例えば、RAM、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)等の、不揮発性または揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)等が該当する。
 なお、情報取得部11と、制御量推論部12~12eと、監視部14~14cと、制御部15,15eと、気象判定部16と、走行判定部17と、通知制御部18の機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、情報取得部11については専用のハードウェアとしての処理回路1601でその機能を実現し、制御量推論部12~12eと、監視部14~14cと、制御部15,15eと、気象判定部16と、走行判定部17と、通知制御部18については処理回路1601がメモリ1606に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
 また、自動運転制御装置1~1eは、センサ、車両制御部3、または、出力装置等の装置と、有線通信または無線通信を行う入力インタフェース装置1603および出力インタフェース装置1604を備える。
 なお、以上の実施の形態1~6では、自動運転制御装置1~1eは、車両100に搭載される車載装置とし、情報取得部11と、制御量推論部12~12eと、監視部14~14cと、制御部15,15eと、気象判定部16と、走行判定部17と、通知制御部18は、自動運転制御装置1~1eに備えられているものとした。
 これに限らず、情報取得部11と、制御量推論部12~12eと、監視部14~14cと、制御部15,15eと、気象判定部16と、走行判定部17と、通知制御部18のうち、一部を車両100の車載装置に搭載されるものとし、その他を当該車載装置とネットワークを介して接続されるサーバに備えられるものとして、車載装置とサーバとで自動運転制御システムを構成するようにしてもよい。
 図17は、図2を用いて説明した実施の形態1に係る自動運転制御装置1がサーバ200に備えられた自動運転制御システムの構成例を示す図である。
 図17に一例として示すような自動運転制御システムでは、自動運転制御装置1と車載装置とは、通信装置101および通信装置201を介して接続される。センサが取得した車両周辺情報は、通信装置101および通信装置201を介してサーバ200上の自動運転制御装置1に送信される。自動運転制御装置1は車載装置から受信した車両周辺情報に基づき、自動運転制御量を推論する。そして、自動運転制御装置1が推論した自動運転制御量が、通信装置201および通信装置101を介して車載装置に搭載されている車両制御部3に送信される。車両制御部3は、取得した自動運転制御量に基づき、制御対象機器4を制御する。
 なお、ここでは、一例として、自動運転制御装置1のすべての機能がサーバ200に備えられるものとしたが、自動運転制御装置1の一部の機能がサーバ200に備えられるものとしてもよい。例えば、自動運転制御装置1の情報取得部11および監視部14が車載装置に備えられ、自動運転制御装置1のその他の機能がサーバ200に備えられるものとすることもできる。
 また、図17は、一例として、自動運転制御システムは、実施の形態1に係る自動運転制御装置1がサーバ200に備えられたものとしているが、当該自動運転制御システムは、実施の形態2~6に係る自動運転制御装置1a~1eのいずれかがサーバ200に備えられたものとしてもよい。自動運転制御システムを、実施の形態2~6に係る自動運転制御装置1a~1eのいずれかがサーバ200に備えられたものとした場合、図17に示すような構成例において、自動運転制御装置1a~1eの機能の一部または全部が、サーバ200に備えられる。
 また、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
 この発明に係る自動運転制御装置は、車両の自動運転制御を行う自動運転制御装置に適用することができる。
 1~1e 自動運転制御装置、11 情報取得部、12~12c,12e 制御量推論部、121 第1制御量推論部、122~122c 第2制御量推論部、123 選択部、13~13c,13e 機械学習モデル、131 第1機械学習モデル、132~132c 第2機械学習モデル、14~14c 監視部、15,15e 制御部、16 気象判定部、17 走行判定部、18 通知制御部、21 カメラ、22 ミリ波レーダ、23 GNSS、24 車両走行センサ、3 車両制御部、4 制御機器、200 サーバ、101,201 通信装置、1601 処理回路、1602 HDD、1603 入力インタフェース装置、1604 出力インタフェース装置、1605 CPU、1606 メモリ。

Claims (14)

  1.  複数のセンサからそれぞれ出力された複数の車両周辺情報を取得する情報取得部と、
     前記情報取得部が取得した前記複数の車両周辺情報と、機械学習モデルとに基づいて自動運転制御量を推論し、当該自動運転制御量を出力する制御量推論部と、
     前記情報取得部が取得した前記複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下しているか否かを判定する監視部と、
     前記監視部により、前記複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下していると判定された場合、当該信頼度が低下していると判定された車両周辺情報の影響を除いた自動運転制御量を出力するように、前記制御量推論部を制御する制御部
     を備えた自動運転制御装置。
  2.  前記制御量推論部は、前記情報取得部が取得した前記複数の車両周辺情報の全部と第1機械学習モデルとに基づき第1自動運転制御量を推論する第1制御量推論部と、前記情報取得部が取得した前記複数の車両周辺情報の一部と第2機械学習モデルとに基づき第2自動運転制御量を推論する第2制御量推論部とを含み、
     前記制御部は、前記監視部により、前記複数の車両周辺情報のうち、前記第2機械学習モデルに入力される前記複数の車両周辺情報の一部以外の車両周辺情報の信頼度が低下していると判定された場合、前記第2自動運転制御量を出力するように、前記制御量推論部を制御する
     ことを特徴とする請求項1記載の自動運転制御装置。
  3.  前記制御量推論部は、前記第1自動運転制御量、または、前記第2自動運転制御量のうち、いずれを出力するかを選択する選択部を備え、
     前記選択部は、前記制御量推論部が前記制御部により前記第2自動運転制御量を出力するように制御された場合、前記第2自動運転制御量を選択して出力する
     ことを特徴とする請求項2記載の自動運転制御装置。
  4.  前記第2制御量推論部は、前記制御量推論部が前記制御部により前記第2自動運転制御量を出力するように制御された場合に、前記第2自動運転制御量を推論する
     ことを特徴とする請求項2記載の自動運転制御装置。
  5. [規則91に基づく訂正 14.11.2019] 
     前記制御部は、前記情報取得部が取得した前記複数の車両周辺情報の全部に、前記監視部による信頼度の判定結果に基づく情報有効フラグを付与するものであり、
     前記制御量推論部は、前記制御部が前記情報有効フラグを付与した前記複数の車両周辺情報の全部と、前記機械学習モデルとに基づいて、前記自動運転制御量を推論して、当該自動運転制御量を出力する
     ことを特徴とする請求項1記載の自動運転制御装置。
  6.  前記複数のセンサには、少なくとも、カメラおよびミリ波レーダが含まれ、
     前記情報取得部は、前記複数の車両周辺情報として、少なくとも、前記カメラが前記車両周辺に存在する物体を撮影した撮影画像、および、前記ミリ波レーダが計測した前記物体までの距離に関する距離情報を取得し、
     前記監視部は、前記情報取得部が取得した撮影画像に基づく前記物体までの距離と、前記情報取得部が取得した距離情報に基づく前記物体までの距離との差が、レーダ判定用閾値より大きい場合、前記ミリ波レーダから取得された距離情報の信頼度が低下していると判定する
     ことを特徴とする請求項1記載の自動運転制御装置。
  7.  前記複数のセンサの1つは、カメラであり、
     前記情報取得部は、前記複数の車両周辺情報の1つとして、前記カメラが車両周辺を撮影した撮影画像を取得し、
     車両周辺の気象を判定する気象判定部を備え、
     前記監視部は、前記気象判定部が判定した気象に基づき、前記カメラから取得された撮影画像の信頼度が低下しているか否かを判定する
     ことを特徴とする請求項1記載の自動運転制御装置。
  8.  前記監視部は、前記気象判定部が前記車両周辺に霧または降水があると判定した場合、前記カメラから取得された撮影画像の信頼度が低下していると判定する
     ことを特徴とする請求項7記載の自動運転制御装置。
  9.  前記複数のセンサの1つは、カメラであり、
     前記情報取得部は、前記複数の車両周辺情報の1つとして、前記カメラが車両周辺を撮影した撮影画像を取得し、
     前記監視部は、前記情報取得部が取得した撮影画像の輝度に基づき、前記カメラから取得された撮影画像の信頼度が低下しているか否かを判定する
     ことを特徴とする請求項1記載の自動運転制御装置。
  10.  前記複数のセンサの1つは、カメラであり、
     前記情報取得部は、前記複数の車両周辺情報の1つとして、前記カメラが車両周辺を撮影した撮影画像を取得し、
     車両が走行中であるか否かを判定する走行判定部を備え、
     前記監視部は、前記走行判定部が前記車両は走行中であると判定し、かつ、前記情報取得部が取得した撮影画像で撮影されている前記車両周辺の風景に変化がない場合、前記カメラから取得された撮影画像の信頼度が低下していると判定する
     ことを特徴とする請求項1記載の自動運転制御装置。
  11.  前記制御部が前記第2自動運転制御量を出力するように前記制御量推論部を制御した場合、前記複数の車両周辺情報のうちの一部の車両周辺情報の信頼度が低下していることを示す通知情報を出力する通知制御部を備えた
     ことを特徴とする請求項2記載の自動運転制御装置。
  12.  前記通知情報は、
     前記信頼度が低下していると判定された車両周辺情報を出力するセンサが使用不可である旨のメッセージである
     ことを特徴とする請求項11記載の自動運転制御装置。
  13.  前記通知情報は、
     前記信頼度が低下していると判断された車両周辺情報があることによって自動運転制御に使用できない機能を通知するメッセージである
     ことを特徴とする請求項11記載の自動運転制御装置。
  14.  情報取得部が、複数のセンサからそれぞれ出力された複数の車両周辺情報を取得するステップと、
     制御量推論部が、前記情報取得部が取得した前記複数の車両周辺情報と、機械学習モデルとに基づいて自動運転制御量を推論し、当該自動運転制御量を出力するステップと、
     監視部が、前記情報取得部が取得した前記複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下しているか否かを判定するステップと、
     制御部が、前記監視部により、前記複数の車両周辺情報のうちいずれかの車両周辺情報の信頼度が低下していると判定された場合、当該信頼度が低下していると判定された車両周辺情報の影響を除いた自動運転制御量を出力するように、前記制御量推論部を制御するステップ
     を備えた自動運転制御方法。
PCT/JP2019/034441 2019-09-02 2019-09-02 自動運転制御装置および自動運転制御方法 WO2021044486A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US17/629,678 US20220242446A1 (en) 2019-09-02 2019-09-02 Automatic driving control device and automatic driving control method
JP2021543813A JP7330278B2 (ja) 2019-09-02 2019-09-02 自動運転制御装置および自動運転制御方法
PCT/JP2019/034441 WO2021044486A1 (ja) 2019-09-02 2019-09-02 自動運転制御装置および自動運転制御方法
CN201980099843.2A CN114286772A (zh) 2019-09-02 2019-09-02 自动驾驶控制装置以及自动驾驶控制方法
DE112019007681.7T DE112019007681T5 (de) 2019-09-02 2019-09-02 Automatische Fahrsteuerungsvorrichtung und automatisches Fahrsteuerungsverfahren

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/034441 WO2021044486A1 (ja) 2019-09-02 2019-09-02 自動運転制御装置および自動運転制御方法

Publications (1)

Publication Number Publication Date
WO2021044486A1 true WO2021044486A1 (ja) 2021-03-11

Family

ID=74852328

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/034441 WO2021044486A1 (ja) 2019-09-02 2019-09-02 自動運転制御装置および自動運転制御方法

Country Status (5)

Country Link
US (1) US20220242446A1 (ja)
JP (1) JP7330278B2 (ja)
CN (1) CN114286772A (ja)
DE (1) DE112019007681T5 (ja)
WO (1) WO2021044486A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2022201222A1 (ja) * 2021-03-22 2022-09-29

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006182086A (ja) * 2004-12-27 2006-07-13 Hitachi Ltd 車両検知装置
JP2017102838A (ja) * 2015-12-04 2017-06-08 トヨタ自動車株式会社 物体認識アルゴリズムの機械学習のためのデータベース構築システム
JP2017159790A (ja) * 2016-03-09 2017-09-14 トヨタ自動車株式会社 自動運転システム
JP2017182771A (ja) * 2016-03-24 2017-10-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 物体検出装置、物体検出方法及び物体検出プログラム
JP2018012370A (ja) * 2016-07-19 2018-01-25 株式会社デンソー 運転支援装置
US20180099646A1 (en) * 2016-10-06 2018-04-12 Ford Global Technologies, Llc Multi-Sensor Precipitation-Classification Apparatus and Method
JP2018060511A (ja) * 2016-10-06 2018-04-12 株式会社アドバンスド・データ・コントロールズ シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法
JP2019008796A (ja) * 2017-06-23 2019-01-17 ウーバー テクノロジーズ,インコーポレイテッド 自律可能車両用衝突回避システム
JP2019502212A (ja) * 2016-01-14 2019-01-24 株式会社Preferred Networks 時系列データ適合およびセンサ融合のシステム、方法、および装置
JP2019034664A (ja) * 2017-08-18 2019-03-07 ソニーセミコンダクタソリューションズ株式会社 制御装置および制御システム
WO2019116518A1 (ja) * 2017-12-14 2019-06-20 株式会社日立製作所 物体検出装置及び物体検出方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6690649B2 (ja) 2015-09-18 2020-04-28 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US11169537B2 (en) * 2016-04-15 2021-11-09 Honda Motor Co., Ltd. Providing driving support in response to changes in driving environment
US11353866B2 (en) * 2016-09-01 2022-06-07 Mitsubishi Electric Corporation Driving-automation-level lowering feasibility determination apparatus
JP6678776B2 (ja) 2017-01-17 2020-04-08 株式会社日立製作所 移動体の走行制御装置
US20200168094A1 (en) * 2017-07-18 2020-05-28 Pioneer Corporation Control device, control method, and program
JP7113958B2 (ja) * 2019-03-11 2022-08-05 三菱電機株式会社 運転支援装置及び運転支援方法
CN113508066A (zh) * 2019-03-29 2021-10-15 英特尔公司 自主交通工具系统

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006182086A (ja) * 2004-12-27 2006-07-13 Hitachi Ltd 車両検知装置
JP2017102838A (ja) * 2015-12-04 2017-06-08 トヨタ自動車株式会社 物体認識アルゴリズムの機械学習のためのデータベース構築システム
JP2019502212A (ja) * 2016-01-14 2019-01-24 株式会社Preferred Networks 時系列データ適合およびセンサ融合のシステム、方法、および装置
JP2017159790A (ja) * 2016-03-09 2017-09-14 トヨタ自動車株式会社 自動運転システム
JP2017182771A (ja) * 2016-03-24 2017-10-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 物体検出装置、物体検出方法及び物体検出プログラム
JP2018012370A (ja) * 2016-07-19 2018-01-25 株式会社デンソー 運転支援装置
US20180099646A1 (en) * 2016-10-06 2018-04-12 Ford Global Technologies, Llc Multi-Sensor Precipitation-Classification Apparatus and Method
JP2018060511A (ja) * 2016-10-06 2018-04-12 株式会社アドバンスド・データ・コントロールズ シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法
JP2019008796A (ja) * 2017-06-23 2019-01-17 ウーバー テクノロジーズ,インコーポレイテッド 自律可能車両用衝突回避システム
JP2019034664A (ja) * 2017-08-18 2019-03-07 ソニーセミコンダクタソリューションズ株式会社 制御装置および制御システム
WO2019116518A1 (ja) * 2017-12-14 2019-06-20 株式会社日立製作所 物体検出装置及び物体検出方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2022201222A1 (ja) * 2021-03-22 2022-09-29
WO2022201222A1 (ja) * 2021-03-22 2022-09-29 三菱電機株式会社 制御装置および制御方法
JP7370495B2 (ja) 2021-03-22 2023-10-27 三菱電機株式会社 制御装置および制御方法

Also Published As

Publication number Publication date
DE112019007681T5 (de) 2022-06-09
JPWO2021044486A1 (ja) 2021-11-25
CN114286772A (zh) 2022-04-05
JP7330278B2 (ja) 2023-08-21
US20220242446A1 (en) 2022-08-04

Similar Documents

Publication Publication Date Title
JP7332726B2 (ja) ヒートマップを使用したドライバーの注目の検出
JP7052174B2 (ja) 将来経路を推定するシステム及び方法
JP6091759B2 (ja) 車両のサラウンドビューシステム
CN107031656A (zh) 用于车轮止动器检测的虚拟传感器数据生成
CN111932901B (zh) 道路车辆跟踪检测设备、方法及存储介质
JP7143482B2 (ja) 情報処理方法
JP2010068069A (ja) 車両周辺撮影システム
US10166923B2 (en) Image generation device and image generation method
CN111507162B (zh) 基于车辆间通信的协作的盲点警告方法及装置
CN109416884B (zh) 识别区域推定装置、识别区域推定方法及识别区域推定程序
JP2007082594A (ja) 疲労検出装置
JP6349640B2 (ja) 情報提供装置及び方法
WO2021044486A1 (ja) 自動運転制御装置および自動運転制御方法
JP2020077251A (ja) 周辺監視装置
JP5687879B2 (ja) 情報処理装置、自動車、情報処理方法及びプログラム
US20230104858A1 (en) Image generation apparatus, image generation method, and non-transitory computer-readable medium
CN110930767B (zh) 一种智慧公路安全预警方法和预警系统
CN107914639A (zh) 使用外反射镜的车道显示装置及车道显示方法
WO2020208772A1 (ja) 車両姿勢測定装置および車両姿勢測定方法
KR20210102212A (ko) 화상 처리 장치, 화상 처리 방법 및 화상 처리 시스템
WO2022101982A1 (ja) センサノイズ除去装置およびセンサノイズ除去方法
US11694573B1 (en) Augmented reality system for educating drivers of vehicle dimensions
CN115951692B (zh) 基于模型预测控制的无人驾驶轨迹控制系统
JP2013109638A (ja) 画像処理装置、サーバ、携帯端末装置、及び画像処理方法
EP4194883A1 (en) Device and method for determining objects around a vehicle

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19944354

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021543813

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 19944354

Country of ref document: EP

Kind code of ref document: A1