WO2024003974A1 - 車両制御装置及び車両制御方法 - Google Patents

車両制御装置及び車両制御方法 Download PDF

Info

Publication number
WO2024003974A1
WO2024003974A1 PCT/JP2022/025472 JP2022025472W WO2024003974A1 WO 2024003974 A1 WO2024003974 A1 WO 2024003974A1 JP 2022025472 W JP2022025472 W JP 2022025472W WO 2024003974 A1 WO2024003974 A1 WO 2024003974A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
blind spot
spot area
future
vehicle control
Prior art date
Application number
PCT/JP2022/025472
Other languages
English (en)
French (fr)
Inventor
誠一 佐藤
Original Assignee
日立Astemo株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立Astemo株式会社 filed Critical 日立Astemo株式会社
Priority to PCT/JP2022/025472 priority Critical patent/WO2024003974A1/ja
Publication of WO2024003974A1 publication Critical patent/WO2024003974A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present invention relates to a vehicle control device and a vehicle control method.
  • Patent Document 1 discloses a technique for estimating a blind spot area caused by road shape and surrounding objects using current sensing results and sensor characteristics.
  • Patent Document 1 is a technology for estimating the blind spot area in the sensing range at the current position of the own vehicle, and when the sensing range of the external world recognition sensor mounted on the vehicle is narrow, the blind spot area is often determined. Become. Therefore, depending on the sensor specifications, it may not be possible to avoid a collision with an obstacle that suddenly appears from the blind spot.
  • a vehicle control device acquires a three-dimensional map in which three-dimensional position information of at least one of a feature or a road is set.
  • a map acquisition unit that acquires the current position of the own vehicle, a future position estimation unit that estimates the future position of the own vehicle at a future time based on the current position of the own vehicle, and a three-dimensional map.
  • the future position of the own vehicle, and sensor specification information indicating the specifications of at least one external world recognition sensor mounted on the own vehicle based on the following: a blind spot area calculating unit that calculates a blind spot area that is blocked by at least one side of the road; and a vehicle control value determining unit that determines a current control value for the host vehicle based on the blind spot area at a future time calculated by the blind spot area calculating unit. , is provided.
  • dangerous scenes can be predicted in the medium to long term by calculating the sensing area of the own vehicle at a future point in time based on the specifications of sensors installed in the own vehicle and map information, and identifying blind spots. be able to. This makes it possible to plan vehicle control and driving plans well in advance to avoid dangerous scenes. Problems, configurations, and effects other than those described above will be made clear by the following description of the embodiments.
  • FIG. 1 is a block diagram showing a vehicle control device and its peripheral configuration according to a first embodiment of the present invention.
  • 1 is a block diagram showing an example of a hardware configuration of a vehicle control device according to a first embodiment of the present invention.
  • FIG. 3 is a flowchart showing an example of control processing by the vehicle control device according to the first embodiment of the present invention.
  • FIG. 3 is a diagram illustrating the concept of a sensing possible area according to the first embodiment of the present invention.
  • FIG. 3 is a diagram showing an example of vehicle control based on a sensing possible area on a slope according to the first embodiment of the present invention.
  • FIG. 3 is a diagram showing an example of vehicle control based on a sensing possible area at a merge according to the first embodiment of the present invention.
  • FIG. 3 is a diagram showing an example of vehicle control based on a sensing possible area when a preceding vehicle is present on a slope according to the first embodiment of the present invention.
  • FIG. 3 is a diagram showing an example of vehicle control based on a sensing possible area on a curve with poor visibility according to the first embodiment of the present invention.
  • FIG. 2 is a block diagram showing a vehicle control device and its peripheral configuration according to a second embodiment of the present invention.
  • 7 is a flowchart illustrating an example of control processing by a vehicle control device according to a second embodiment of the present invention.
  • the vehicle control device 1 is configured as a computer as shown in FIG. 2 described below, and each function of the vehicle control device 1 described below is realized by a processor in the vehicle control device 1 executing an installed program. be done.
  • the vehicle control device 1 includes a communication section 10, a processing section 20, and a storage section 30.
  • the communication unit 10 transmits and receives information through the in-vehicle network.
  • CAN Controller Area Network
  • CAN FD CAN with Flexible Data rate
  • Ethernet registered trademark
  • the external world recognition sensor 4 is one or more sensors that recognize the surrounding environment of the host vehicle. Examples of the external world recognition sensor 4 include a camera, radar, lidar, and the like.
  • the vehicle information acquisition sensor 5 acquires the current behavior state of the own vehicle.
  • the current behavior state of the own vehicle includes speed, acceleration, yaw rate, etc.
  • the actuator 6 moves the vehicle in response to a vehicle control command, and includes a drive device, a braking device, a steering device, and the like.
  • the processing unit 20 includes an own vehicle information acquisition unit 21, a surrounding environment acquisition unit 22, a sensor specification acquisition unit 23, a map information acquisition unit 24, a future position estimation unit 25, a blind spot area calculation unit 26, and a vehicle information acquisition unit 21. and a control value determining section 27.
  • the own vehicle information acquisition unit 21 acquires information on the position and speed of the own vehicle.
  • the surrounding environment acquisition unit 22 obtains the surrounding environment of the host vehicle.
  • the sensor specification acquisition unit 23 acquires sensor specification information recognized by the external world recognition sensor 4 mounted on the own vehicle.
  • the map information acquisition unit 24 acquires the road shape and feature information of the vehicle's destination.
  • the road shapes acquired by the map information acquisition unit 24 include slopes, confluences, curves, and the like.
  • the feature information acquired by the map information acquisition unit 24 includes buildings, tunnels, and the like.
  • FIG. 2 shows an example of the hardware configuration of a computer (information processing device) that constitutes the vehicle control device 1.
  • the computer constituting the vehicle control device 1 includes a CPU (Central Processing Unit) 1a, which is a processor, a ROM (Read Only Memory) 1b, a RAM (Random Access Memory) 1c, and a nonvolatile storage 1d. Be prepared.
  • the nonvolatile storage 1d for example, an HDD (Hard Disk Drive) or an SSD (Solid State Drive) is used.
  • the computer configuring the vehicle control device 1 includes a network interface 1e, an input device 1f, and an output device 1g.
  • the CPU 1a causes the RAM 1c to configure the processing unit 20 (FIG. 1) by causing the RAM 1c to execute a program stored in the ROM 1b or the nonvolatile storage 1d.
  • the nonvolatile storage 1d stores programs for controlling the vehicle and the like, and also stores information as a database such as sensor specification information 31 and sensing possible area calculation result information 32.
  • the network interface 1e has a transmitting and receiving function as the communication section 10 shown in FIG.
  • the input device 1f receives information input from a sensor or the like connected to the vehicle control device 1.
  • the output device 1g outputs a control signal to an actuator or the like connected to the vehicle control device 1.
  • FIG. 3 is a flowchart showing the processing performed by the processing section 20 of the vehicle control device 1 of this embodiment.
  • the own vehicle information acquisition unit 21 uses the current vehicle position information specified by the own vehicle position determination device 2 and the behavior information of the own vehicle such as speed, acceleration, and yaw rate that can be acquired by the vehicle information acquisition sensor 5. , acquires own vehicle information by associating the vehicle behavior at the current position of the own vehicle (own vehicle information acquisition process: step S11).
  • the surrounding environment acquisition unit 22 determines the position and movement of surrounding objects (vehicles, pedestrians, bicycles, motorbikes, etc.) that impede the progress of the own vehicle, based on the results detected by one or more external world recognition sensors.
  • Information such as weather and road surface conditions is acquired (surrounding environment information acquisition process: step S12).
  • the sensor specification acquisition unit 23 also acquires specification information (installation position, maximum detection distance, horizontal/vertical viewing angle, sensor type) (step S13).
  • the sensor type here is a type of camera, radar, or the like. Since each sensor has detection characteristics, the sensor specification acquisition unit 23 can acquire the sensor type and use it to calculate the sensing possible area taking those characteristics into consideration.
  • the map information acquisition unit 24 acquires the road shape (gradient, curve curvature, merging, intersection, etc.) and feature information (buildings, tunnels, signs, etc.) of the destination where the own vehicle plans to travel (map acquisition process :Step S14).
  • the future position estimation unit 25 estimates the future position of the own vehicle relative to the current position of the own vehicle based on the current position of the own vehicle and the vehicle behavior acquired by the own vehicle information acquisition unit 21 (self-vehicle future position estimation). Processing: Step S15).
  • the blind spot area calculation unit 26 calculates the sensing possible area at each future position of the host vehicle set in step S15 (step S16).
  • the blind spot area calculation unit 26 uses the surrounding environment information of the own vehicle acquired in step S12, the sensor specification information of the external world recognition sensor mounted on the own vehicle acquired in step S13, and the road shape acquired in step S14.
  • the sensorable area at the future location is calculated based on the information on the area and the feature information.
  • the blind spot area calculation unit 26 estimates the blind spot area at the future position using the sensing possible area at the future position calculated in step S16 (blind spot area calculation process: step S17).
  • the blind spot area calculation unit 26 determines an area other than the sensing possible area as an area in which sensing is not possible, and sets this area as the blind spot area.
  • the blind spot area calculation unit 26 estimates the blind spot area, it estimates an appropriate blind spot area from the surrounding situation of the future position based on road information and the like.
  • FIG. 5 onwards A specific example in which the blind spot area calculation unit 26 estimates an appropriate blind spot area based on the surrounding conditions such as a road at a future location will be described from FIG. 5 onwards.
  • the sensing possible area information including the blind spot area information calculated by the blind spot area calculating section 26 is temporarily stored as sensing possible area calculation result information 32 in the storage section 30.
  • the blind spot area calculation unit 26 estimates the blind spot area, it may refer to past blind spot area information stored in the storage unit 30.
  • the vehicle control value determination unit 27 reads the sensing possible area including the blind spot area information at each future time, which is stored as sensing possible area calculation result information 32, and based on the read sensing possible area, Control values are set (step S18).
  • the vehicle control value of the own vehicle here is, for example, at least one of a target speed, a target acceleration, and a target lane change timing.
  • the sensing possible range based on the sensor specifications is determined from the sensor specification information.
  • the sensing possible area converted to the vehicle horizontal reference is determined based on the road information and terrain information at each future time. For example, on the slope shown in FIG. 4, when the own vehicle V2 senses the vicinity of the top of the slope at future time t1, it can be seen that the vicinity of the ground cannot be sensed with respect to the running slope of the vehicle, as in the sensing area possible area AREA2.
  • FIG. 5 is an example in which vehicle control based on the determination of the sensing possible area by the vehicle control device 1 of this embodiment is applied when the host vehicle V101 is traveling on a slope.
  • FIG. 5 a scene will be described in which the obstacle OB101 actually falls near the top of a slope.
  • the upper part of FIG. 5 is a cross-sectional view of a vehicle traveling on a sloped road 211. Further, the breaks in FIG. 5 indicate the control value of the vehicle speed, and the lower part of FIG. 5 indicates the sensing possible area based on the vehicle horizontal reference at each position.
  • AEB AEB
  • AES emergency steering avoidance
  • the vehicle speed control value (vehicle speed upper limit value) output by the vehicle control device 1 of this example is shown at time t0 when the control process of this example is performed.
  • the vehicle speed control value G101 obtained in gradually decreases at positions P102 and P103 (times t1 and t2), and is compared to the vehicle speed control value G102 for which there is no vehicle control plan. will be held. Therefore, at the time when the obstacle OB101 is detected at the immediately preceding position P103, the own vehicle V101 is in a situation where it can be stopped safely.
  • the vehicle control process of this example when the vehicle control process of this example is not performed, that is, when the vehicle speed control value G102 has no vehicle control plan, the vehicle continues to run at the maximum speed until time t2 when it approaches the top of the slope. Therefore, even if the obstacle OB101 is detected, depending on the speed, a situation may occur in which it is difficult for the host vehicle V101 to avoid it using AEB or AES.
  • control by the vehicle control device there is also a control system in which it is known from map information etc. that the vehicle is traveling on a slope, and the vehicle's traveling speed is reduced in advance when it approaches the top.
  • map information etc. it is known from map information etc. that the vehicle is traveling on a slope, and the vehicle's traveling speed is reduced in advance when it approaches the top.
  • the vehicle control device 1 of this example it is possible to know whether or not sensing near the ground is being performed satisfactorily by controlling the vehicle in consideration of sensor specifications (detection distance, horizontal/vertical viewing angle). Therefore, it becomes possible to perform suitable vehicle control by determining which scenes require deceleration and which scenes do not.
  • the vehicle control device 1 of this example specifies the sensing possible area at a future point in time. This makes it possible to perform safe and comfortable vehicle control even in situations where safe and comfortable vehicle control could not be performed using only the current sensing information of the own vehicle.
  • FIG. 6 shows an example of vehicle control based on sensing possible area detection obtained by the vehicle control device 1 of this example when the host vehicle V201 is traveling on a merging road to the main line.
  • the upper part of FIG. 6 is a top view of a vehicle traveling on a confluence road 222 to a main road 221, and the interruptions in FIG. 6 indicate vehicle speed control values.
  • the lower part of FIG. 6 shows the sensing possible area based on the vehicle horizontal reference at each position.
  • the sensor at the rear of the vehicle also performs sensing in order to sense another vehicle approaching from the side behind the vehicle.
  • the own vehicle V201 represents the current position P201 of the own vehicle.
  • the current position P201 of the host vehicle is in the middle of a merging road 222 that merges with a main road 221 in front.
  • Own vehicles V202 and V203 are estimates of own vehicles at positions P202 and P203 of the own vehicle at future times t1 and t2 relative to own vehicle V201 at the current position.
  • Position P202 is the starting position of the merging point where the vehicle starts running parallel to the main road 221
  • position P203 indicates the middle of the merging point where the vehicle starts running parallel to the main road 221.
  • the vehicle control device 1 calculates sensing possible areas within the sensing areas SR202 and SR203 based on sensor specification information. For example, the vehicle control device 1 uses road gradient information and features (donnels, walls) to calculate sensing possible areas AREA 202 and 203 based on the vehicle horizontal reference, as shown in the lower part of FIG.
  • the own vehicle V201 at the current position P201 is traveling on the merging road 222 toward merging.
  • the confluence road 222 on which the host vehicle travels and the main line 221 are blocked by a wall, and the host vehicle V201 is unable to sense the main line 221 side at all.
  • the case is assumed to be a scene such as an urban expressway where the area immediately before the merging section is blocked by a tunnel wall.
  • the process of this embodiment can be similarly applied when the connection between the confluence road 222 and the main road 221 is a slope from low land to high land, or vice versa.
  • the sensing area SR202 at the position P202 of the host vehicle at future time t1 is good on the front side, but is partially missing on the rear side due to the wall of the main road and the merging road. Furthermore, it can be seen that in the sensing possible region SR203 at the position P203 of the host vehicle at future time t2, both the front side and the rear side are good.
  • the vehicle control device 1 can determine that the optimum timing for the host vehicle V201 to merge with the main road 221 is from the position P203 onwards, and can plan the lane change determination. That is, as shown in the middle part of FIG. 6, the vehicle control device 1 outputs a vehicle speed control value G201 with a vehicle control plan.
  • the vehicle control device 1 knows that there is a blind spot area on the main road side at the merge even though the host vehicle V201 is at the current position P201. Lane changes are not allowed in certain situations, making it possible to smoothly limit lane change timing and driving speed.
  • the vehicle control device 1 can control the vehicle to change lanes under the best sensing conditions for the own vehicle.
  • the vehicle control device 1 has time to detect vehicles on the main line 221 side while traveling in the caution merging section SEC2, and can change lanes in the normal merging section SEC1, so that collision scenes with other vehicles can be avoided. It becomes possible to reduce the
  • FIG. 7 is an example in which vehicle control based on the sensing possible area in this embodiment is applied when a preceding vehicle LV301 is present in front of the own vehicle V301.
  • the upper part of FIG. 7 is a cross-sectional view of a vehicle traveling on a sloped road 231, and the interruptions in FIG. 7 indicate vehicle speed control values. Further, the lower part of FIG. 7 shows the sensing possible area based on the vehicle horizontal reference at each position.
  • the own vehicle V301 indicates the current position P301 of the own vehicle. At this time, the preceding vehicle LV301 is present in front of the own vehicle V301, and the own vehicle V301 is traveling while maintaining the inter-vehicle distance D1 from the preceding vehicle LV301.
  • the own vehicle V302 and V303 are the estimated positions P302 and P303 of the own vehicle at two future times t1 and t2 relative to the currently located own vehicle V301.
  • the vehicle control device 1 of the own vehicle V301 detects the relative position and relative speed of the preceding vehicle LV301 using an external world recognition sensor, and predicts the positions LV302 and LV303 where the preceding vehicle LV301 will be present at future times t1 and t2.
  • the vehicle control device 1 calculates sensing areas SR302 and SR303 based on sensor specification information. Then, the vehicle control device 1 uses the road gradient information and the position and size of the preceding vehicle detected by the external world recognition sensor to calculate the sensing possible areas AREA302 and AREA303 based on the vehicle horizontal reference. At this time, by treating the sensing possible area missed by the preceding vehicles LV302 and LV303 as the preceding vehicle blind spot area, the vehicle control device 1 distinguishes between a blind spot area caused by a normal road slope or a feature and a blind spot area caused by a moving object. Vehicle control can be performed.
  • the vehicle control device 1 predicts that the position P302 of the host vehicle at the future time t1 will be in the blind spot area.
  • the vehicle control device 1 generates a vehicle speed control value G301 with a vehicle control plan to reduce the traveling speed so that the distance D2 between the preceding vehicle LV302 and the preceding vehicle LV302 is wider than the distance D1 at the current position at the future time t1. Performs vehicle control for
  • the vehicle speed control value G102 is obtained without a vehicle control plan.
  • the preceding vehicle LV302 or LV303
  • the preceding vehicle notices the congested vehicles SV301 and SV302, decelerates, and comes to a stop.
  • AEB or AES will be activated, causing anxiety and discomfort to the occupants.
  • the blind spot area calculation unit 26 calculates a blind spot area
  • the blind spot area calculating section 26 may calculate an appropriate blind spot area based on the behavior of the moving object.
  • the blind spot area may also be calculated. This allows calculation of the blind spot area to be performed more accurately.
  • FIG. 8 is an example in which the vehicle control device 1 of this embodiment performs vehicle control based on the sensing possible area on a curved road 241 surrounded by walls, such as an urban expressway.
  • a scene will be described in which a traffic jam occurs at the end of a curve.
  • the upper part of FIG. 8 is a top view of a vehicle traveling just before entering a curved part of the road 241. Interruptions in FIG. 8 indicate the vehicle speed control value, and the lower part of FIG. 8 indicates the sensing possible area based on the vehicle horizontal reference at each position.
  • the position of the host vehicle V401 indicates the current position P401 of the host vehicle.
  • the own vehicle V402 and V403 are the estimated positions P402 and P403 of the own vehicle at future times t1 and t2 relative to the currently located own vehicle V401.
  • the vehicle control device 1 calculates blind spot areas within the sensing areas SR402 and SR403 based on sensor specifications. That is, as shown in the lower part of FIG. 8, the vehicle control device 1 uses road gradient information and feature information (tunnel, wall surface) to determine sensing possible areas AREA402, 403 based on the vehicle horizontal reference at each position P402, P403. calculate. Note that as the feature information (tunnel, wall surface, etc.), the results detected by an external world recognition sensor may be used.
  • the sensing possible area AREA402 at the position P402 of the own vehicle at future time t1 is a blind spot area because although the own vehicle will soon reach a curve, the area ahead of the curve cannot be sufficiently sensed.
  • the vehicle control device 1 By using the calculation result of this assumed blind spot area, it can be seen that when the host vehicle V401 approaches a curve while being at the current position P401, a blind spot area exists at the end of the curve. Therefore, it becomes possible for the own vehicle V401 to smoothly limit the traveling speed. Then, the vehicle control device 1 generates a speed control value G401 with a vehicle control plan that reduces the speed as the vehicle approaches a curve. As a result, the own vehicle approaches the curve with its traveling speed limited, so even if it actually detects the last vehicle SV401 in the congested vehicle line immediately before at position P403, there is a good chance that it can be avoided by AEB or AES. can be increased to
  • a speed control value G402 without a vehicle control plan is generated in which the vehicle actually runs at the maximum speed until it approaches a curve and detects the last vehicle SV401 in the congested vehicle line. be done. Therefore, if the speed control value G402 is used for control, a sudden brake operation will be required, which is not preferable.
  • the vehicle control device 1 of the present embodiment by considering the sensor specifications (detection distance, horizontal/vertical viewing angle) of the own vehicle, it is possible to know whether or not the sensing area ahead of the curve is good. , it is possible to perform suitable vehicle control by determining which scenes require deceleration and which scenes do not.
  • the vehicle control device 1 of this embodiment is configured to specify the sensing possible area at a future point in time.
  • the vehicle control device 1 of this embodiment can perform safer and more comfortable vehicle control than ever before, even in situations where safe and comfortable vehicle control could not be performed using only the current sensing information of the host vehicle.
  • vehicle control to avoid dangerous scenes can be planned well in advance.
  • the future sensing area can be identified while driving on the merging road, and the timing can be set to allow a smooth lane change to the main line (when there is no blind spot for sensing on the main line). You will be able to do this.
  • identifying the sensing area of the own vehicle at a future point in time is not limited to the above-mentioned merging scenes.
  • a vehicle control plan can be set in advance to reduce or avoid dangerous scenes that are assumed to have many potential risks, such as in parking lots, where there are many blind spots.
  • FIGS. 9 to 10 the same parts as in FIGS. 1 to 8 described in the first embodiment are denoted by the same reference numerals, and redundant explanation will be omitted.
  • the vehicle control device 101 is applied to a control device for an automatic driving system of a vehicle.
  • the automatic driving system means that the vehicle control device 101 of the own vehicle is responsible for all driving operations performed by the driver during normal times.
  • FIG. 9 shows a configuration example of the vehicle control device 101 of this embodiment.
  • the basic configuration of the vehicle control device 101 is the same as the vehicle control device 1 shown in FIG. 1 in the first embodiment, and is also configured with a computer as shown in FIG. 2.
  • the vehicle control device 101 shown in FIG. 9 differs from the processing unit 20 of the vehicle control device 1 shown in FIG. 1 in that an action plan for automatic driving control is generated in the processing unit 20'.
  • the storage unit 30' In addition to sensor specification information 31 for calculating the sensing possible area and sensing possible area calculation result information 32 which is the calculation result of the calculated sensing possible area, the storage unit 30' also stores the results of calculating the action plan. action plan information 33 is stored.
  • the processing unit 20′ includes a vehicle information acquisition unit 21, a surrounding environment acquisition unit 22, a sensor specification acquisition unit 23, a map information acquisition unit 24, a blind spot area calculation unit 26, an action plan acquisition unit 28, and an action plan generation section 29.
  • the own vehicle information acquisition unit 21, surrounding environment acquisition unit 22, sensor specification acquisition unit 23, map information acquisition unit 24, and blind spot area calculation unit 26 are the processing units of the vehicle control device 1 described in FIG.
  • the configuration is the same as that of 20.
  • the difference from the vehicle control device 1 shown in FIG. This is the point of calculating the blind spot area on the route the host vehicle is traveling on.
  • the action plan acquisition unit 28 acquires past action plans.
  • the action plan generation unit 29 generates an action plan for automatic driving of the own vehicle based on the sensing possible area including the blind spot area information calculated by the blind spot area calculation unit 26.
  • the rest of the configuration of the vehicle control device 101 is the same as the vehicle control device 1 shown in FIG. 1, so redundant explanation will be omitted.
  • FIG. 10 is a flowchart showing vehicle control processing by vehicle control device 101 according to this embodiment.
  • the own vehicle information acquisition unit 21 uses the current vehicle position information specified by the own vehicle position determination device 2 and the behavior information of the own vehicle such as speed, acceleration, and yaw rate that can be acquired by the vehicle information acquisition sensor 5. , the vehicle behavior at the current position of the host vehicle is associated and acquired (step S21).
  • the surrounding environment acquisition unit 22 acquires information such as the position and movement of surrounding objects (vehicles, pedestrians, bicycles, motorbikes, etc.), weather conditions, and road surface conditions, based on the results detected by the external world recognition sensor 4. Information is acquired (step S22).
  • the sensor specification acquisition unit 23 acquires specification information (installation position, maximum detection distance, horizontal/vertical viewing angle, horizontal/vertical viewing angle, , sensor type) (step S23).
  • the sensor type here refers to the type of camera, radar, etc. Each sensor has detection characteristics, and these characteristics can be used to calculate the sensing possible area.
  • the map information acquisition unit 24 acquires the road shape (gradient, curve curvature, merging, intersection, etc.) and feature information (buildings, tunnels, signs, etc.) of the destination where the own vehicle plans to travel (step S24). .
  • the action plan acquisition unit 28 also acquires the previously calculated automatic driving action plan information 33 stored in the storage unit 30' (step S25).
  • the action plan acquisition unit 28 extracts the future position of the own vehicle based on the action plan (driving route) acquired from the action plan information 33, thereby determining the future position of the own vehicle relative to the current position of the own vehicle.
  • the position is specified (step S26). For example, as shown in FIG. 4, the positions P2 and P3 of the host vehicle V2 and V3 at future times t1 and t2 are estimated relative to the current position P1 of the host vehicle at t0.
  • the future times t1 and t2 here may be preset times relative to the current time t0, as in the first embodiment, and the speed, acceleration, traveling direction, driving lane, etc. of the own vehicle and surrounding objects,
  • the time may be set according to information such as the surrounding traffic environment.
  • the future time may be set at any number of times, or may be set in advance at fixed intervals with the current time t0 as a reference. Note that the granularity of the setting interval may be adjusted according to the weather and road surface conditions that can be obtained by an external world recognition sensor or the like.
  • the blind spot area calculation unit 26 uses the surrounding environment information of the own vehicle acquired in step S22, the sensor specification information of the external world recognition sensor mounted on the own vehicle acquired in step S23, and the road shape and information acquired in step S24. Based on the feature information, the sensing possible area at each future position of the host vehicle set in step S25 is calculated (step S27).
  • the sensing possible area calculated here is determined based on the sensor specifications from the sensor specification information. That is, the blind spot area calculation unit 26 calculates a sensing possible area converted to the vehicle horizontal reference based on road information and terrain information at each future time. For example, on the slope shown in FIG. 4, when the own vehicle V2 senses the vicinity of the top of the slope at future time t1, there may be cases where sensing is not possible near the ground relative to the vehicle running slope, as in the sensing area possible area AREA2. You'll come to understand.
  • the shape of the sensing possible area may be calculated by using sensor type information. Specifically, since the detection accuracy of camera sensors decreases at night or in bad weather, it is possible to set the range of the sensing possible area to x%. x may be set in advance, or may be set based on the illuminance of the surrounding environment or the degree of bad weather.
  • the blind spot area calculation unit 26 estimates the blind spot area at the future position using the sensing possible area at the future position calculated at step S27 (step S28).
  • the blind spot area calculation unit 26 determines and sets an area other than the sensing possible area as a blind spot area where sensing is not possible.
  • the sensing possible area information including blind spot area information calculated by the blind spot area calculation section 26 is temporarily stored as sensing possible area calculation result information 32 in the storage section 30'.
  • the action plan generation unit 29 reads the sensing possible area including the blind spot area information at each future time stored as the sensing possible area calculation result information 32, and adjusts the automatic driving of the own vehicle based on the read sensing possible area.
  • An action plan (including a travel route, travel speed plan, etc.) is generated (step S29).
  • the action plan generated by the action plan generation section 29 is stored as action plan information 33 in the storage section 30' for sensing possible area calculation in the next step.
  • the blind spot area calculation unit 26 calculates the blind spot area as shown in FIG.
  • the size information of the preceding vehicle, which is a moving object may be acquired, and the blind spot area calculation unit 26 may calculate an appropriate blind spot area based on the behavior of the moving object.
  • the blind spot area may also be calculated. As a result, even when performing automatic driving control, calculation of the blind spot area can be performed more accurately.
  • the present invention is not limited to the embodiments described above, and includes various modifications.
  • the embodiments described above are described in detail to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the configurations described.
  • the driving speed, inter-vehicle distance, and lane change timing are controlled by specifying the sensing possible area at a future point in time.
  • a sensing possible region at a future point in time it may be used to control physical quantities related to the ride comfort of steering and suspension. This can lead to improved comfort for passengers inside the vehicle.
  • the vehicle control device is configured with a computer executed under the control of a CPU, but some or all of the functions performed by the vehicle control device can be implemented using an FPGA (Field Programmable Gate Array). It may also be realized by dedicated hardware such as or ASIC (Application Specific Integrated Circuit).
  • FPGA Field Programmable Gate Array
  • ASIC Application Specific Integrated Circuit
  • information such as programs, tables, files, etc. that realize the functions performed by the vehicle control device can be stored in various recording media such as memory, hard disk, SSD (Solid State Drive), IC card, SD card optical disk, etc.
  • 1...Vehicle control device 1a...CPU, 1b...ROM, 1c...RAM, 1d...Nonvolatile storage, 1e...Network interface, 1f...Input device, 1g...Output device, 2...Vehicle position determining device, 3...Map Information management device, 4... External world recognition sensor, 5... Vehicle information acquisition sensor, 6... Actuator, 10... Communication unit, 20, 20'... Processing unit, 21... Self-vehicle information acquisition unit, 22...

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

車両制御装置として、道路等の三次元の位置情報が設定された三次元地図を取得する地図取得部と、自車情報取得部と、自車両の現在位置に基づいて、将来時刻における自車両の将来位置を推定する将来位置推定部と、三次元地図と、自車両の将来位置と、自車両に搭載された外界認識センサの諸元を示すセンサ諸元情報とに基づいて、将来時刻に外界認識センサの検知領域内で道路等によって遮蔽された死角領域を求める死角領域演算部と、演算された将来時刻の死角領域に基づいて、現在の自車両の制御値を決定する車両制御値決定部と、を備える。

Description

車両制御装置及び車両制御方法
 本発明は、車両制御装置及び車両制御方法に関する。
 自動車などの車両において、先進運転支援システムや自動運転システムが実際に利用されるシーンは、道路形状や、比較遮蔽物の少ない自動車専用道路から遮蔽物や歩行者が多い市街地といった状況、天候等の組み合わせにより千差万別である。それらいずれのシーンにおいても、先進運転支援システムや自動運転システムは安全に走行できるように設計されなければならない。
 先進運転支援システムや自動運転システムの走行安全性を担保するためには、現在における自車の周囲環境を正確にセンシングすることが必須であり、そのセンシング結果に基づいて死角領域内に移動した物体の挙動を予測する技術が開発されている。
 例えば特許文献1には、現時刻のセンシング結果とセンサ特性を以て、道路形状や周囲物体により発生する死角領域を推定する技術が開示されている。
特開2001-34898号公報
 特許文献1に記載された技術は、自車の現在位置におけるセンシング範囲における死角領域を推定する技術であり、車両に搭載する外界認識センサのセンシング範囲が狭い場合は死角領域を判定することが多くなる。そのため、センサスペックによっては死角領域からの突発的に出現する障害物に対して衝突回避できない可能性がある。
 また、特許文献1に記載された技術では、トンネル壁や坂道によって本線をセンシングできずに突然本線との合流になるようなシーンの場合、現在位置のセンシング死角領域の推定だけでは本線への適切な車線変更のタイミングを決めることができない。
 このため、走行に伴って生じる死角領域を考慮した、適切な車両制御や走行ルートの決定が実現できることが望まれていた。
 上記課題を解決するために、例えば請求の範囲に記載の構成を採用する。
 本願は、上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、車両制御装置として、地物または道路の少なくとも一方の三次元の位置情報が設定された三次元地図を取得する地図取得部と、自車両の現在位置を取得する自車情報取得部と、自車両の現在位置に基づいて、将来時刻における自車両の将来位置を推定する将来位置推定部と、三次元地図と、自車両の将来位置と、自車両に搭載された少なくとも一つの外界認識センサの諸元を示すセンサ諸元情報と、に基づいて、将来時刻に外界認識センサの検知領域内で地物または道路の少なくとも一方によって遮蔽された死角領域を求める死角領域演算部と、死角領域演算部が求めた将来時刻の死角領域に基づいて、現在の自車両の制御値を決定する車両制御値決定部と、を備える。
 本発明によれば、自車両搭載のセンサ諸元と地図情報に基づいて自車両の将来時点におけるセンシング可能領域を計算し、死角領域を特定することで、中長期的に危険シーンの予測を行うことができる。これにより、危険シーンを回避する為の車両制御や運転計画を、十分に手前から計画することができるようになる。
 上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明の第1の実施の形態例に係る車両制御装置とその周辺構成を示すブロック図である。 本発明の第1の実施の形態例に係る車両制御装置のハードウェア構成例を示すブロック図である。 本発明の第1の実施の形態例に係る車両制御装置による制御処理例を示すフローチャートである。 本発明の第1の実施の形態例に係るセンシング可能領域の概念を説明する図である。 本発明の第1の実施の形態例に係る坂道におけるセンシング可能領域に基づく車両制御例を示す図である。 本発明の第1の実施の形態例に係る合流におけるセンシング可能領域に基づく車両制御例を示す図である。 本発明の第1の実施の形態例に係る坂道における先行車が存在する場合のセンシング可能領域に基づく車両制御例を示す図である。 本発明の第1の実施の形態例に係る見通しの悪いカーブにおけるセンシング可能領域に基づく車両制御例を示す図である。 本発明の第2の実施の形態例に係る車両制御装置とその周辺構成を示すブロック図である。 本発明の第2の実施の形態例に係る車両制御装置による制御処理の例を示すフローチャートである。
 以下、本発明の実施の形態例を順に説明する。
 本発明の実施の形態例は、車両の制御を行う車両制御装置として、自車両の将来時点におけるセンシング可能領域を特定することで、死角領域が多く発生するシーンにおいても、安全かつスムーズな車両制御を実現するものである。
 なお、本明細書におけるセンシング可能領域は、自車両に搭載されるセンサ諸元と地図情報に基づいて、ある時点において想定される自車の3次元センシング領域を車両水平基準に変換したものを指す。
<第1の実施の形態例>
 以下、本発明の第1の実施の形態例を、図1~図8を参照して説明する。
[車両制御装置の構成]
 図1は、第1の実施の形態例に係る車両制御装置の構成を示す図である。
 図1に示す車両制御装置1は、運転者が行う運転操作の一部を支援する安全運転支援システムを備えた車両を対象とする車両制御装置である。ここでの安全運転支援システムとしては、例えば車間距離制御装置(Adaptive Cruies Control:以下、ACCと称す)や車線逸脱防止支援システム(Lane Keep Assist:以下、LKAと称す)がある。
 車両制御装置1は、後述する図2に示すようにコンピュータとして構成され、以下に説明する車両制御装置1の各機能は、実装されたプログラムを車両制御装置1内のプロセッサが実行することによって実現される。
 車両制御装置1は、通信部10、処理部20、及び記憶部30を備える。
 通信部10は、車載ネットワークを通じて情報の送受信を行う。車載ネットワークとしては、CAN(Controller Area Network)、CAN FD(CAN with Flexible Data rate)、Ethernet(登録商標)等が適用可能である。
 処理部20は、通信部10で入力された情報に基づいて将来時点のセンシング可能領域を演算して死角領域を特定し、車両制御量を計画して設定する。設定する車両制御量としては、目標車速、目標加速度、目標操舵角等がある。処理部20は、これら目標車速、目標加速度、目標操舵角等の少なくとも一つ以上の車両制御量を設定する。
 記憶部30は、センシング可能領域を演算するためのセンサ諸元情報31と、演算したセンシング可能領域の演算結果であるセンシング可能領域計算結果情報32とを記憶したデータベースを備える。
 通信部10は、自車位置決定装置2、地図情報管理装置3、外界認識センサ4、車両情報取得センサ5、アクチュエータ6等と、車両制御装置1に必要となる情報のやり取りを行う。
 自車位置決定装置2は、GNSS(Global Navigation Satellite System)等を適用して自車の現在位置を特定する。
 地図情報管理装置3は、道路形状や側壁や建物のような地物に関する情報を管理する。
 外界認識センサ4は、自車両の周囲環境を認知する一つ乃至複数のセンサである。外界認識センサ4としては、例えばカメラ、レーダー、Lidar等がある。
 車両情報取得センサ5は、自車の現在の挙動状態を取得する。自車の現在の挙動状態としては、速度、加速度、ヨーレイトなどがある。
 アクチュエータ6は、車両制御指令を受けて車両を動かすものであり、駆動装置、制動装置、操舵装置等からなる。
 処理部20は、自車情報取得部21と、周辺環境取得部22と、センサ諸元取得部23と、地図情報取得部24と、将来位置推定部25と、死角領域演算部26と、車両制御値決定部27とを備える。
 自車情報取得部21は、自車の位置や速度の情報を取得する。
 周辺環境取得部22は、自車両の周辺環境を取得する。
 センサ諸元取得部23は、自車に搭載された外界認識センサ4によって認知されるセンサ諸元情報を取得する。
 地図情報取得部24は、自車の進行先の道路形状や地物情報を取得する。ここで地図情報取得部24が取得する道路形状としては、坂道、合流、カーブ等がある。また、地図情報取得部24が取得する地物情報としては、建物、トンネル等がある。
 将来位置推定部25は、将来の自車両の位置(将来位置)を推定する。
 死角領域演算部26は、将来位置において想定される自車両の死角領域を演算する。
 車両制御値決定部27は、死角領域演算部26で演算された死角領域情報を含むセンシング可能領域に基づいて自車両の車両制御量を設定する。
[車両制御装置のハードウェア構成]
 図2は、車両制御装置1を構成するコンピュータ(情報処理装置)のハードウェア構成例を示す。
 車両制御装置1を構成するコンピュータは、プロセッサであるCPU(中央処理ユニット:Central Processing Unit)1aと、ROM(Read Only Memory)1bと、RAM(Random Access Memory)1cと、不揮発性ストレージ1dとを備える。不揮発性ストレージ1dとしては、例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)が使用される。
 また、車両制御装置1を構成するコンピュータは、ネットワークインターフェース1eと、入力装置1fと、出力装置1gとを備える。
 CPU1aは、ROM1bまたは不揮発性ストレージ1dが記憶したプログラムをRAM1cで実行させることで、RAM1cに処理部20(図1)を構成させる。
 不揮発性ストレージ1dは、車両制御等を行うプログラムを記憶すると共に、センサ諸元情報31やセンシング可能領域計算結果情報32等のデータベースとしての情報を記憶する。
 ネットワークインターフェース1eは、図1に示す通信部10としての送受信機能を有する。
 入力装置1fは、車両制御装置1に接続されたセンサ等からの情報の入力を受け付ける。
 出力装置1gは、車両制御装置1に接続されたアクチュエータ等に制御信号を出力する。
[車両制御装置による制御処理]
 図3は、本実施の形態例の車両制御装置1の処理部20が行う処理を示すフローチャートである。
 まず、自車情報取得部21は、自車位置決定装置2で特定される現在の自車位置情報や、車両情報取得センサ5で取得できる速度、加速度、ヨーレイトといった自車両の挙動情報を用いて、自車両の現在位置における車両挙動を関連付けて自車情報を取得する(自車情報取得処理:ステップS11)。
 次に、周辺環境取得部22は、一つ乃至複数の外界認識センサで検知した結果から、自車の進行の妨げとなる周辺物体(車両、歩行者、自転車、バイク等)の位置や動き、天候、路面状態といった情報を取得する(周辺環境情報取得処理:ステップS12)。
 また、センサ諸元取得部23は、記憶部30に備えるセンサ諸元情報31として記憶された自車両が搭載する外界認識センサの諸元情報(設置位置、最大検知距離、水平/垂直視野角、センサ種別)を読み込む(ステップS13)。ここでのセンサ種別は、カメラやレーダー等の種類である。各センサには検知特性があるので、センサ諸元取得部23はセンサ種別を取得することで、それらの特性を考慮したセンシング可能領域の計算に役立てることができる。
 その後、地図情報取得部24は、自車が予定する進行先の道路形状(勾配、カーブ曲率、合流、交差点等)や、地物情報(建物、トンネル、標識等)を取得する(地図取得処理:ステップS14)。
 そして、将来位置推定部25は、自車情報取得部21で取得した自車の現在位置と車両挙動に基づいて、自車両の現在位置に対する自車両の将来位置を推定する(自車将来位置推定処理:ステップS15)。
 また、死角領域演算部26は、ステップS15で設定した自車両の各将来位置におけるセンシング可能領域を演算する(ステップS16)。ここでは、死角領域演算部26は、ステップS12で取得した自車両の周辺環境情報と、ステップS13で取得した自車両に搭載する外界認識センサのセンサ諸元情報と、ステップS14で取得した道路形状や地物情報に基づいて、将来位置におけるセンシング可能領域を演算する。
 さらに、死角領域演算部26は、ステップS16で演算した将来位置におけるセンシング可能領域を用いて、将来位置における死角領域を推定する(死角領域演算処理:ステップS17)。ここでは、死角領域演算部26は、センシング可能領域以外の領域をセンシングできない領域として判断し、この領域を死角領域として設定する。死角領域演算部26が死角領域を推定する際には、道路情報などに基づいて、将来位置の周囲の状況から、適正な死角領域を推定する。将来位置の道路などの周囲の状況から、死角領域演算部26が適正な死角領域を推定する具体的な例については、図5以降で説明する。
 なお、死角領域演算部26で演算された死角領域情報を含むセンシング可能領域情報は、記憶部30のセンシング可能領域計算結果情報32として一時的に記憶される。死角領域演算部26が死角領域を推定する際には、記憶部30が記憶した過去の死角領域の情報を参照してもよい。
 そして、車両制御値決定部27は、センシング可能領域計算結果情報32として記憶されている、各将来時刻における死角領域情報を含むセンシング可能領域を読み出し、読み出したセンシング可能領域に基づいて自車両の車両制御値を設定する(ステップS18)。ここでの自車両の車両制御値は、例えば目標速度、目標加速度、目標車線変更タイミングの少なくともいずれか一つである。
[センシング可能領域の判断例]
 図4は、ステップS15における将来位置推定部25での自車両の現在位置に対する自車両の将来位置の推定と、その推定した将来位置での、ステップS16における死角領域演算部26でのセンシング可能領域の判断例を示す。
 図4の上側は、上り坂の道路201を走行中の車両の現在時刻t0と将来時刻t1,t2における走行位置を示す。また、図4の下側のAREA1,AREA2,AREA3は、各時刻t0,t1,t2におけるセンサのセンシング可能領域SR0,SR1,SR2の車両水平基準でのセンシング可能領域の例を示す。
 例えば、将来位置推定部25は、図4に示すように、現在t0の自車両V1の位置P1に対する将来時刻t1、t2における自車両V2、V3の位置P2、P3を推定する。
 ここでの将来時刻t1、t2は、現在時刻t0に対する予め設定された時刻でもよい。あるいは将来時刻t1、t2は、自車両及び周辺物体についての速度、加速度、進行方向、走行車線、周辺の交通環境などの情報に応じて設定された時刻でもよい。
 また、将来時刻t1、t2は任意の複数時間で設定されてもよく、予め現在時刻t0を基準にある固定された間隔の時刻で設定してもよい。なお、将来時刻t1、t2は、外界認識センサ等で取得できる天候、路面状態に応じて、設定間隔の粒度を調整してもよい。
 死角領域演算部26におけるセンシング可能領域の判断時には、センサ諸元情報からセンサ諸元をベースとしたセンシング可能範囲が求まる。ここでは、各将来時刻における道路情報や地形情報に基づいて、車両水平基準に変換したセンシング可能領域が求まる。例えば図4の坂道において、将来時刻t1で自車両V2が坂道頂上付近をセンシングする場合は、センシングエリア可能領域AREA2のように、車両の走行勾配に対して地面付近がセンシングできないことが分かる。
 なお、死角領域演算部26におけるセンシング可能領域の演算において、センサ種別情報を用いることで、センシング可能領域の形状を演算してもよい。具体的には、カメラセンサは夜間や悪天候では検知精度が落ちることから、センシング可能領域の範囲をx%に設定するといったことが可能になる。ここで、xは予め設定してもよく、周辺環境の照度や悪天候の度合いを判断することによって設定してもよい。
[坂道における制御例]
 次に、本実施の形態例の車両制御装置1による車両の制御例を、図5~図8を参照して説明する。
 図5は、自車両V101が坂道を走行している場合に、本実施の形態例の車両制御装置1によるセンシング可能領域の判断に基づく車両制御を適用した例である。なお、図5では、実際に障害物OB101が坂道の頂上付近に落下しているシーンを説明する。図5の上段は、坂道の道路211を走行している車両を、断面で見たものである。また、図5の中断は、車速の制御値を示し、図5の下段は、各位置での車両水平基準でのセンシング可能領域を示している。
 自車両V101は、自車両の現在時刻t0の位置P101を表している。自車両V102、V103は、現在位置の自車両V101に対する2つの将来時刻t1、t2における自車両の位置P102、P103を推定したものである。
 自車両の各将来時刻t1、t2における位置P102、P103でのセンシング可能領域の演算について説明する。
 まず、死角領域演算部26は、センサ諸元に基づいて、センシングエリアSR102、SR103の中の死角領域を演算する。図5に示すセンシングエリアSR102、SR103は、道路211を断面で見た垂直面になっているが、演算されるセンシングエリアSR102、SR103は立体形状である。
 そして、死角領域演算部26は、道路211の勾配情報を用いて、図5の下側に示すように、車両水平基準でのセンシング可能領域AREA102、103を演算する。
 例えば、将来時刻t1における自車両の位置P102では、まもなく自車両が坂道になった道路211の頂上に接近するものの、坂道頂上付近の地面は十分にセンシングできないため、死角領域になっていることが分かる。
 この想定される死角領域の演算結果を用いることで、自車両V101は現在位置P101の時点にいながら、坂道頂上における地面付近に死角領域が存在することが分かる。このため、自車両V101はその走行速度を滑らかに制限することが可能となる。そして、自車両V101は走行速度を制限した状態(車両制御計画あり:G101)で坂道頂上に差し掛かるため、実際に障害物OB101を位置P103で直前に検知したとしても、緊急自動ブレーキ(以下、AEBと称す)や緊急操舵回避回避(以下、AESと称す)によって障害物OB101を回避する可能性を十分に高めることができる。
 具体的には、図5の中段に示すように、本例の車両制御装置1が出力する車速の制御値(車速の上限値)を示すと、本例の制御処理を行った場合の時刻t0で得られる車速制御値G101は、位置P102、P103(時刻t1、t2)で徐々に低下していき、車両制御計画がない車速制御値G102に比べて来位置の区間における上限速度を変更する処理が行われる。したがって、障害物OB101を直前の位置P103で検知した時点では、自車両V101は安全に停止できる状況になっている。
 一方、本例の車両制御処理を行わない場合、つまり車両制御計画がない車速制御値G102は、坂道の頂上に差し掛かる時刻t2まで最高速度で走行し続けてしまう。したがって、障害物OB101を検知したとしても、速度によっては、自車両V101はAEBやAESで回避するのが困難な状況が発生してしまう。
 なお、車両制御装置による制御として、地図情報などで自車両が坂道を走行していることが分かっていて、頂上付近に近づいたら自車両の走行速度を予め落とすといった制御を行うものもある。しかしながら、このような制御が行われた際には、坂道の勾配度合いが緩やかな場合には、乗員にとって不快で不要な減速が発生する場合もある。
 そこで、本例の車両制御装置1では、自車両のセンサ諸元(検知距離、水平/垂直視野角)も考慮して制御することで、地面付近のセンシングが良好に行われるか否かが分かるため、減速が必要なシーンと不要なシーンを判断して好適な車両制御が行えるようになる。
 さらに、本例の車両制御装置1は、将来時点のセンシング可能領域を特定するようにしている。これにより、これまで自車両の現在のセンシング情報だけでは安全かつ快適な車両制御を実施できなかったシーンに対しても、安全かつ快適な車両制御を行うことが可能になる。
 例えば、仮に自車両に搭載するセンサの検知距離が短い場合、“急”のつく動作が多くなる。図5に示すシーンでは、実際に自車両が坂道頂上付近に近づき地面付近の死角領域を検知したとしても、滑らかではない、ギクシャクとした減速を引き起こして乗員に不快感をあたえてしまいかねない。
 一方、本例の車両制御装置1の場合には、予め十分前もってセンシング可能領域を特定しておくことで、乗員の安全を担保しつつ、不快感を軽減する大きな効果を得ることができる。
[合流シーンにおける制御例]
 図6は、自車両V201が本線への合流路を走行している場合に、本例の車両制御装置1で得たセンシング可能領域検出に基づく車両制御の例を示している。図6の上段は、本線道路221への合流路222を走行している車両を、上から見たものであり、図6の中断は、車速の制御値を示す。また、図6の下段は、各位置での車両水平基準でのセンシング可能領域を示す。この図6の例の場合には、車両の後方の側方から接近する別の車両をセンシングするために、車両の後方のセンサでもセンシングを行っている。
 自車両V201は、自車両の現在の位置P201を表している。自車両の現在の位置P201は、前方で本線道路221に合流する合流路222の途中である。自車両V202、V203は、現在の位置にある自車両V201に対する将来時刻t1、t2における自車両の位置P202、P203にある自社両を推定したものである。位置P202は、本線道路221と並走し始めた合流地点の開始位置であり、位置P203は本線道路221と並走している合流地点の途中を示している。
 次に、自車両の各将来時刻t1,t2における位置P202、P203でのセンシング可能領域の演算例について説明する。
 まず、車両制御装置1は、センサ諸元情報に基づいてセンシングエリアSR202、SR203内のセンシング可能領域を演算する。例えば、車両制御装置1は、道路勾配情報や地物(ドンネル、壁)を用いて、図6の下段に示すように、車両水平基準のセンシング可能領域AREA202、203を演算する。
 現在位置P201における自車両V201は、合流に向けた合流路222を走行している。自車両が走行する合流路222と本線221は壁で遮られていて、自車両V201は本線221側を全くセンシングできない状態である。
 図6の例では都市型の高速道路のような合流区間直前までトンネル壁で遮られているようなシーンが前提になっている場合を説明した。これに対して、合流路222と本線道路221の接続が、低い土地から高い土地、あるいはその逆の坂道になっている場合も同様に本実施の形態例の処理を適用することができる。
 図6を見ると、将来時刻t1での自車両の位置P202におけるセンシングエリアSR202は、フロント側は良好で、リア側は本線道路と合流路の壁によって一部欠けていることが分かる。また、将来時刻t2での自車両の位置P203におけるセンシング可能領域SR203では、フロント側、リア側共に良好になっていることが分かる。
 したがって、車両制御装置1は、自車両V201は本線道路221と合流するタイミングとして、位置P203以降が最適と判断し、車線変更可否判断を計画することができる。すなわち、図6の中段に示すように、車両制御装置1は、車両制御計画ありの車速制御値G201を出力する。
 想定される死角領域の演算結果を用いることで、車両制御装置1は、自車両V201は現在位置P201の時点にいながら合流における本線道路側の死角領域が存在することが分かるため、死角領域がある状況での車線変更が許可されず、車線変更タイミングや走行速度を滑らかに制限することが可能となる。
 一方、本実施の形態例の処理を適用しない場合の車速制御値G202では、地点P202から車線変更が可能になる。ここで、もし本線道路221側の死角領域内に他車両が存在している中で車線変更が行われると、急にセンシング可能領域内に他車両が出現する様態となり、急減速や急に操舵を戻すといった車両制御が行われてしまう。これにより、乗員に不安と不快感を与えてしまいかねない。
 以上説明したように本実施の形態例の処理を適用することで、車両制御装置1は、自車両にとって最も良好なセンシング条件の下で車線変更を行うように制御することができる。また、車両制御装置1は、本線221側の車両を、注意合流区間SEC2を走行する間に検知する時間ができ、通常合流区間SEC1で車線変更することができるので、他車両との衝突シーンを低減することが可能になる。
[坂道で先行車がある場合における制御例]
 図7は、自車両V301の前方に先行車LV301が存在する場合に、本実施の形態例におけるセンシング可能領域に基づく車両制御を適用した例である。
 図7の上段は、坂道の道路231を走行している車両を、断面で見たものであり、図7の中断は、車速の制御値を示す。また、図7の下段は、各位置での車両水平基準でのセンシング可能領域を示す。
 自車両V301は自車両の現在の位置P301を示す。このとき、自車両V301の前方には先行車両LV301が存在しており、自車両V301は、先行車両LV301とは車間距離D1を維持して走行している。
 自車両V302、V303は、現在位置する自車両V301に対する2つの将来時刻t1、t2における自車両の位置P302、P303を推定したものである。
 自車両V301の車両制御装置1は、外界認識センサにより先行車両LV301の相対位置や相対速度を検知し、将来時刻t1、t2における先行車両LV301が存在する位置LV302、LV303を予測する。
 自車両の各将来時刻t1、t2における各位置P302、P303でのセンシング可能領域の演算について述べる。まず、車両制御装置1は、センサ諸元情報に基づいてセンシングエリアSR302、SR303として演算する。そして、車両制御装置1は、道路勾配情報、外界認識センサで検知した先行車両の位置及びサイズを用いて、車両水平基準でセンシング可能領域AREA302、AREA303を演算する。このとき、先行車両LV302、LV303によって欠けたセンシング可能領域は先行車死角領域として扱うことで、車両制御装置1は、通常の道路勾配や地物による死角領域と、移動物体による死角領域を区別して車両制御を行うことができる。
 将来時刻t1における自車両の位置P302では、まもなく自車両が頂上付近に到達するものの、先行車両LV302が存在するので、坂道頂上付近は十分にセンシングできない。このため、車両制御装置1は、将来時刻t1における自車両の位置P302が死角領域になると予想する。
 さらに、将来時刻t1における先行車両LV302が坂道頂上先で渋滞車両SV301に対する衝突回避のために急ブレーキをかけることも想定され、自車両が現在の車間距離D1のまま走行しているのは好ましくない。
 したがって、車両制御装置1は、将来時刻t1では先行車両LV302との車間距離D2を、現在位置における車間距離D1よりも広く空けるように走行速度を落とす車両制御計画ありの車速制御値G301を生成するための車両制御を行う。
 本実施の形態例を適用しない場合は、車両制御計画なしの車速制御値G102になる。この車速制御値G102の場合、図7の例では、先行車両LV301が坂道頂上付近に差し掛かると、先行車両(LV302またはLV303)は渋滞車両SV301、SV302に気づいて減速し、停車することになる。このとき、自車両はACCや自動運転で先行車両と一定の車間距離を保って走行していた場合、AEBやAESが発動してしまい、乗員に不安や不快感を与えてしまう。
 なお、図7に示すように先行車を検出して、死角領域演算部26が死角領域を演算する際には、その自車両の周囲に存在する移動物体である先行車のサイズ情報を取得して、その移動物体の挙動に基づいて、死角領域演算部26が適切な死角領域を演算するようにしてもよい。また、先行車がある場合の他に、図6に示すような合流シーンにおいても、本線側の車両のサイズ情報を取得して、その移動物体の挙動に基づいて、死角領域演算部26が適切な死角領域を演算するようにしてもよい。
 これによって、死角領域の演算がより正確に行えるようになる。
[カーブ先で渋滞している場合における制御例]
 図8は、都市型の高速道路のような壁面に囲われたカーブした道路241で、本実施の形態例の車両制御装置1が、センシング可能領域に基づく車両制御を行う例である。図8では、カーブの先には渋滞が発生しているシーンとして説明する。図8の上段は、道路241のカーブした箇所に入る直前を走行している車両を、上から見た図である。図8の中断は、車速の制御値を示し、図8の下段は、各位置での車両水平基準でのセンシング可能領域を示す。
 自車両V401の位置は自車両の現在の位置P401を示す。自車両V402、V403は、現在位置する自車両V401に対する将来時刻t1、t2における自車両の位置P402、P403を推定したものである。
 自車両の各将来時刻t1、t2における位置P402、P403でのセンシング可能領域の演算について述べる。まず、車両制御装置1は、センサ諸元に基づいてセンシングエリアSR402、SR403内の死角領域を演算する。すなわち、車両制御装置1は、図8の下段に示すように、道路勾配情報と地物情報(トンネル、壁面)を用いて、各位置P402、P403における車両水平基準でセンシング可能領域AREA402、403を演算する。なお、地物情報(トンネルや壁面など)は、外界認識センサによって検知した結果を用いてもよい。
 将来時刻t1における自車両の位置P402でのセンシング可能領域AREA402は、まもなく自車両がカーブに到達するものの、カーブ先は十分にセンシングできないため、死角領域になっていることが分かる。
 この想定される死角領域の演算結果を用いることで、自車両V401は現在位置P401の時点に居ながらカーブに差し掛かろうとするとカーブ先は死角領域が存在することが分かる。このため、自車両V401は走行速度を滑らかに制限することが可能になる。そして、車両制御装置1は、カーブに差し掛かるに従って速度を低下させるような車両制御計画ありの速度制御値G401を生成する。これにより、自車両は走行速度を制限した状態でカーブに差し掛かるため、実際に渋滞車列の最後尾車両SV401を位置P403で直前に検知したとしても、AEBやAESによって回避できる可能性を十分に高めることができる。
 本実施の形態例を適用しない場合には、実際に自車両がカーブに差し掛かり、渋滞車列の最後尾車両SV401を検知するまでは最高速度で走行する車両制御計画なしの速度制御値G402が生成される。このため、速度制御値G402で制御すると、急ブレーキの操作が必要になってしまい、好ましくない。
 また、本実施の形態例を適用しない場合でも、地図情報などで自車両がカーブを走行することが分かっていて、カーブに近づいたら自車両の走行速度を予め落とすといった制御を行うものもあるが、この制御は、本実施の形態例の制御とは相違する。すなわち、従来のカーブでの速度制御は、カーブの曲率や、壁面有無によってはカーブ先の渋滞車列や落下物といったケースに対して、適切に制御することができない虞がある。
 一方、本実施の形態例の車両制御装置1では、自車両のセンサ諸元(検知距離、水平/垂直視野角)を考慮することで、カーブ先のセンシング可能領域として良好か否かが分かるので、減速が必要なシーンと不要なシーンを判断して好適な車両制御を行うことできる。
 以上様々なシーンでの走行例で説明したように、本実施の形態例の車両制御装置1は、将来時点のセンシング可能領域を特定するようにしている。これにより、本実施の形態例の車両制御装置1によれば、これまで自車両の現在のセンシング情報だけでは安全かつ快適な車両制御を実施できなかったシーンに対しても、従来よりも安全かつ快適な車両制御を行うことができるようになる。
 すなわち、危険シーンを回避する為の車両制御を、十分に手前から計画することができるようになる。例えば、合流シーンでは、合流路を走行している段階で将来時点のセンシング可能領域を特定し、本線へスムーズに車線変更ができるタイミング(本線側のセンシングについて死角領域が無い時点)を設定することができるようになる。
 また、自車両の将来時点におけるセンシング可能領域を特定することは、上記に述べた合流シーンだけに限らず、先の状況が見えづらいアップダウンの激しいつづら折りの峠道、螺旋的に坂道が続く立体駐車場等の死角領域が多い潜在的なリスクを多いと想定される危険シーンに対して予め低減・回避できるように車両制御の計画を設定することができる。
<第2の実施の形態例>
 次に、本発明の第2の実施の形態例を、図9~図10を参照して説明する。図9~図10において、第1の実施の形態例で説明した図1~図8と同一の箇所には同一符号を付し、重複説明を省略する。
 本実施の形態例では、車両制御装置101を、車両の自動運転システム用の制御装置に適用したものである。ここで、自動運転システムとは、通常時に運転者が行う運転操作の全てを、自車両の車両制御装置101が担うことを意味する。
[車両制御装置の構成]
 図9は、本実施の形態例の車両制御装置101の構成例を示す。車両制御装置101の基本的な構成は、第1の実施の形態例で図1に示した車両制御装置1と同じであり、図2に示すようなコンピュータで構成される点も同じである。
 図9に示す車両制御装置101では、処理部20′において自動運転制御のための行動計画が生成される点が、図1に示す車両制御装置1の処理部20と相違する。また、記憶部30′は、センシング可能領域を演算するためのセンサ諸元情報31と、演算したセンシング可能領域の演算結果であるセンシング可能領域計算結果情報32の他に、行動計画を演算した結果の行動計画情報33を記憶する。
 処理部20′は、自車情報取得部21と、周辺環境取得部22と、センサ諸元取得部23と、地図情報取得部24と、死角領域演算部26と、行動計画取得部28と、行動計画生成部29とを備える。
 自車情報取得部21と、周辺環境取得部22と、センサ諸元取得部23と、地図情報取得部24と、死角領域演算部26については、図1で説明した車両制御装置1の処理部20が備える構成と同じである。
 図1に示す車両制御装置1と相違する点は、死角領域演算部26が死角領域を演算する際に、次に説明する行動計画取得部28で取得される過去の行動計画に基づいて、将来自車両が走行するルート上の死角領域を演算する点である。
 行動計画取得部28は、過去の行動計画を取得する。
 行動計画生成部29は、死角領域演算部26で演算された死角領域情報を含むセンシング可能領域に基づいて自車両の自動運転用の行動計画を生成する。
 車両制御装置101のその他の構成については、図1に示す車両制御装置1と同じなので、重複する説明は省略する。
[車両制御装置による制御処理]
 図10は、本実施の形態例による車両制御装置101による車両の制御処理を示すフローチャートである。
 まず、自車情報取得部21は、自車位置決定装置2で特定される現在の自車位置情報や、車両情報取得センサ5で取得できる速度、加速度、ヨーレイトといった自車両の挙動情報を用いて、自車両の現在位置における車両挙動を関連付けて取得する(ステップS21)。
 また、周辺環境取得部22は、外界認識センサ4で検知した結果から、自車の進行の妨げとなる周辺物体(車両、歩行者、自転車、バイク等)の位置や動き、天候、路面状態といった情報を取得する(ステップS22)。
 さらに、センサ諸元取得部23は、記憶部30′のセンサ諸元情報31として記憶された、自車両が搭載する外界認識センサの諸元情報(設置位置、最大検知距離、水平/垂直視野角、センサ種別)を読み込む(ステップS23)。ここでのセンサ種別とは、カメラやレーダー等の種類のことで、各センサには検知特性があり、それらの特性を考慮したセンシング可能領域の計算に役立てることができる。
 そして、地図情報取得部24は、自車が予定する進行先の道路形状(勾配、カーブ曲率、合流、交差点等)や、地物情報(建物、トンネル、標識等)を取得する(ステップS24)。
 また、行動計画取得部28は、記憶部30′に記憶されている、過去に演算された自動運転の行動計画情報33を取得する(ステップS25)。
 さらに、行動計画取得部28は、行動計画情報33から取得した行動計画(走行ルート)をもとに、自車両が将来走行する位置を抽出することにより、自車両の現在位置に対する自車両の将来位置を特定する(ステップS26)。例えば、図4に示すように、現在t0の自車両の位置P1に対する将来時刻t1やt2での自車両V2、V3の位置P2、P3を推定する。
 ここでの将来時刻t1、t2は、第1の実施の形態例と同様に、現在時刻t0に対する予め設定された時刻でもよく、自車両及び周辺物体についての速度、加速度、進行方向、走行車線、周辺の交通環境などの情報に応じて設定された時刻でもよい。
 将来時刻は、任意の複数時間で設定されるようにしてもよいが、予め現在時刻t0を基準として、ある固定された間隔の時刻で設定してもよい。なお、設定間隔の粒度は、外界認識センサ等で取得できる天候、路面状態に応じて調整されるようにしてもよい。
 そして、死角領域演算部26は、ステップS22で取得した自車両の周辺環境情報と、ステップS23で取得した自車両に搭載する外界認識センサのセンサ諸元情報と、ステップS24で取得した道路形状や地物情報に基づいて、ステップS25で設定した自車両の各将来位置におけるセンシング可能領域を演算する(ステップS27)。
 ここで演算されるセンシング可能領域は、センサ諸元情報からセンサ諸元をベースとして求まる。すなわち、死角領域演算部26は、各将来時刻における道路情報や地形情報に基づいて、車両水平基準に変換したセンシング可能領域を求める。
 例えば図4に示す坂道において、将来時刻t1で自車両V2が坂道頂上付近をセンシングする場合には、センシングエリア可能領域AREA2のように、車両の走行勾配に対して地面付近がセンシングできないといったことが分かるようになる。
 また、センシング可能領域の演算において、センサ種別情報を用いることで、センシング可能領域の形状を演算してもよい。具体的には、カメラセンサは夜間や悪天候では検知精度が落ちることから、センシング可能領域の範囲をx%に設定するといったことが可能である。xは予め設定してもよく、周辺環境の照度や悪天候の度合い判断によって設定してもよい。
 そして、死角領域演算部26は、ステップS27で演算した将来位置におけるセンシング可能領域を用いて、将来位置における死角領域を推定する(ステップS28)。ここでは、死角領域演算部26は、センシング可能領域以外の領域をセンシングできない死角領域として判断し、設定する。
 ここで、死角領域演算部26により演算された死角領域情報含むセンシング可能領域情報は、記憶部30′のセンシング可能領域計算結果情報32として一時的に記憶される。
 さらに、行動計画生成部29は、センシング可能領域計算結果情報32として記憶されている各将来時刻における死角領域情報を含むセンシング可能領域を読み出し、読み出したセンシング可能領域に基づいて自車両の自動運転の行動計画(走行ルート、走行速度計画等含む)を生成する(ステップS29)。
 行動計画生成部29において生成された行動計画は、次ステップにおけるセンシング可能領域演算のために、記憶部30′の行動計画情報33として記憶される。
 以上説明した本実施の形態例による車両制御装置101でも、将来時点のセンシング可能領域を特定することができる。したがって、自動運転システムを構築する場合でも、これまで自車両の現在のセンシング情報だけでは安全かつ快適な車両制御を実施できなかったシーンに対しても、安全かつ快適な自動運転制御を行うことが可能になる。
 なお、安全かつ快適な自動運転制御が行える具体的な例としては、第1の実施の形態例で説明した図5~図8と同様に、坂道、合流シーン、先行車ありの坂道、カーブ先渋滞シーンなどの様々なシーンに適用が可能である。
 また、この自動運転制御を行う場合であっても、図7に示すように先行車を検出して、死角領域演算部26が死角領域を演算する際には、その自車両の周囲に存在する移動物体である先行車のサイズ情報を取得して、その移動物体の挙動に基づいて、死角領域演算部26が適切な死角領域を演算するようにしてもよい。また、先行車がある場合の他に、図6に示すような合流シーンにおいても、本線側の車両のサイズ情報を取得して、その移動物体の挙動に基づいて、死角領域演算部26が適切な死角領域を演算するようにしてもよい。
 これによって、自動運転制御を行う場合であっても、死角領域の演算がより正確に行えるようになる。
<変形例>
 なお、本発明は、上述した各実施の形態例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施の形態例は、本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
 例えば、上述した各実施の形態例では、将来時点におけるセンシング可能領域の特定により、走行速度や車間距離、車線変更のタイミングの制御を場合に適用した。これに対して、将来時点におけるセンシング可能領域の特定により、ステアリングやサスペンションの乗り心地に関する物理量の制御に活用してもよい。これにより、車両内の乗員の快適性の向上につなげることができる。
 また、車両制御装置は、図2に示す構成では、CPUの制御で実行されるコンピュータで構成した例としたが、車両制御装置が行う機能の一部または全部を、FPGA(Field Programmable Gate Array)やASIC(Application Specific Integrated Circuit)などの専用のハードウェアによって実現してもよい。
 また、図1、図2、図9のブロック図では、制御線や情報線は説明上必要と考えられるものだけを示しており、製品上必ずしも必要な信号線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
 さらに、図3や図10に示すフローチャートに示す処理の順序についても一例を示すものであり、処理結果に影響を及ぼさない範囲で、処理の順序を変更してもよく、あるいは複数の処理を同時に実行してもよい。
 また、車両制御装置が行う機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)、ICカード、SDカード光ディスク等の各種記録媒体に置くことができる。
 1…車両制御装置、1a…CPU、1b…ROM、1c…RAM、1d…不揮発性ストレージ、1e…ネットワークインターフェース、1f…入力装置、1g…出力装置、2…自車位置決定装置、3…地図情報管理装置、4…外界認識センサ、5…車両情報取得センサ、6…アクチュエータ、10…通信部、20,20′…処理部、21…自車情報取得部、22…周辺環境取得部、23…センサ諸元取得部、24…地図情報取得部、25…将来位置推定部、26…死角領域演算部、27…車両制御値決定部、28…行動計画取得部、29…行動計画生成部、30,30′…記憶部、31…センサ諸元情報、32…センシング可能領域計算結果情報、33…行動計画情報、101…車両制御装置

Claims (7)

  1.  地物または道路の少なくとも一方の三次元の位置情報が設定された三次元地図を取得する地図情報取得部と、
     自車両の現在位置を取得する自車情報取得部と、
     前記自車両の現在位置に基づいて、将来時刻における前記自車両の将来位置を推定する将来位置推定部と、
     前記三次元地図と、前記自車両の将来位置と、前記自車両に搭載された少なくとも一つの外界認識センサの諸元を示すセンサ諸元情報と、に基づいて、前記将来時刻に前記外界認識センサの検知領域内で地物または道路の少なくとも一方によって遮蔽された死角領域を求める死角領域演算部と、
     前記死角領域演算部が求めた前記将来時刻の前記死角領域に基づいて、現在の前記自車両の制御値を決定する車両制御値決定部と、を備える
     車両制御装置。
  2.  前記車両制御値決定部は、前記自車両の将来位置において前記自車両の進行方向の前方に前記死角領域が存在する場合、前記現在位置から前記将来位置の区間における上限速度を変更する
     請求項1に記載の車両制御装置。
  3.  前記車両制御値決定部は、前記自車両の将来位置において前記自車両の車線変更先の隣接車線上の前記死角領域の範囲が閾値以下である場合、前記現在位置から前記将来位置の区間で前記隣接車線への車線変更を許可しない
     請求項1に記載の車両制御装置。
  4.  さらに、前記外界認識センサで検知される自車両の周囲に存在する移動物体のサイズ情報と、前記移動物体の挙動に基づいて、将来時刻に前記移動物体によって遮蔽される死角領域を求める死角領域演算部を備える
     請求項1~3のいずれか1項に記載の車両制御装置。
  5.  自車両の自動運転の行動計画を生成する行動計画生成部と、
     地物または道路の少なくとも一方の三次元の位置情報が設定された三次元地図を取得する地図情報取得部と、
     自車両の現在位置を取得する自車情報取得部と、
     前記行動計画と、前記自車両の現在位置と、に基づいて、将来時刻における前記自車両の将来位置を推定する将来位置推定部と、
     前記三次元地図と、前記自車両の将来位置と、前記自車両に搭載された少なくとも一つの外界認識センサの諸元を示すセンサ諸元情報と、に基づいて、前記将来時刻に前記外界認識センサの検知領域内で地物または道路の少なくとも一方によって遮蔽された死角領域を求める死角領域演算部と、を備え、
     前記行動計画生成部は、前記死角領域演算部が求めた前記将来時刻の前記死角領域に基づいて、現在の前記行動計画を生成する
     車両制御装置。
  6.  さらに、前記外界認識センサで検知される自車両の周囲に存在する移動物体のサイズ情報と、前記移動物体の挙動に基づいて、将来時刻に前記移動物体によって遮蔽される死角領域を求める死角領域演算部を備える
     請求項5に記載の車両制御装置。
  7.  情報処理装置による演算処理で、車両を制御する車両制御方法であって、
     前記情報処理装置による演算処理として、
     地物または道路の少なくとも一方の三次元の位置情報が設定された三次元地図を取得する地図取得処理と、
     自車両の現在位置及び速度を取得する自車情報取得処理と、
     前記自車両の現在位置及び速度に基づいて、将来時刻における前記自車両の将来位置を推定する将来位置推定処理と、
     前記三次元地図と、前記自車両の将来位置と、前記自車両に搭載された少なくとも一つの外界認識センサの諸元を示すセンサ諸元情報と、に基づいて、前記将来時刻に前記外界認識センサの検知領域内で地物または道路の少なくとも一方によって遮蔽された死角領域を求める死角領域演算処理と、
     前記死角領域演算処理により求めた前記将来時刻の前記死角領域に基づいて、現在の前記自車両の制御値を決定する車両制御値決定処理と、を含む
     車両制御方法。
PCT/JP2022/025472 2022-06-27 2022-06-27 車両制御装置及び車両制御方法 WO2024003974A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/025472 WO2024003974A1 (ja) 2022-06-27 2022-06-27 車両制御装置及び車両制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/025472 WO2024003974A1 (ja) 2022-06-27 2022-06-27 車両制御装置及び車両制御方法

Publications (1)

Publication Number Publication Date
WO2024003974A1 true WO2024003974A1 (ja) 2024-01-04

Family

ID=89381784

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/025472 WO2024003974A1 (ja) 2022-06-27 2022-06-27 車両制御装置及び車両制御方法

Country Status (1)

Country Link
WO (1) WO2024003974A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016030513A (ja) * 2014-07-29 2016-03-07 日産自動車株式会社 車両制御装置
JP2021084479A (ja) * 2019-11-26 2021-06-03 日産自動車株式会社 車線変更支援方法及び車線変更支援装置
JP2021100827A (ja) * 2019-12-24 2021-07-08 日立Astemo株式会社 車両制御システム、および、車両制御方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016030513A (ja) * 2014-07-29 2016-03-07 日産自動車株式会社 車両制御装置
JP2021084479A (ja) * 2019-11-26 2021-06-03 日産自動車株式会社 車線変更支援方法及び車線変更支援装置
JP2021100827A (ja) * 2019-12-24 2021-07-08 日立Astemo株式会社 車両制御システム、および、車両制御方法

Similar Documents

Publication Publication Date Title
JP5070171B2 (ja) 車両制御装置
JP6380920B2 (ja) 車両制御装置
JP6470039B2 (ja) 車両制御システム
JP6294247B2 (ja) 車両走行制御装置
JP7295012B2 (ja) 車両制御システム、および、車両制御方法
JP6525402B2 (ja) 車両制御装置
JP6525401B2 (ja) 車両制御装置
US11370442B2 (en) Vehicle control device and control method
CN111278706A (zh) 车辆控制装置
US20200117192A1 (en) Travel Control Device
US11247677B2 (en) Vehicle control device for maintaining inter-vehicle spacing including during merging
JP7315680B2 (ja) 車両を安全化するための方法
JP6376523B2 (ja) 車両制御装置
CN112384419A (zh) 车辆的驾驶辅助控制装置、车辆的驾驶辅助系统以及车辆的驾驶辅助控制方法
WO2020109547A1 (en) Advanced highway assist scenario
JP2019014454A (ja) 車両における制動支援装置および制動支援制御方法
JP2019043195A (ja) 車両制御装置
JP6805767B2 (ja) 車両制御システム
JP6376522B2 (ja) 車両制御装置
TWI714304B (zh) 預調速之主動安全輔助系統及其控制方法
US20230174106A1 (en) Path checking device and path checking method
WO2024003974A1 (ja) 車両制御装置及び車両制御方法
JP7446216B2 (ja) 車両制御装置
JP7345043B2 (ja) 車両制御方法及び車両制御装置
EP3974293A1 (en) Driving control apparatus for vehicle

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22949253

Country of ref document: EP

Kind code of ref document: A1