WO2024003964A1 - 車両制御装置、および、車両制御方法 - Google Patents

車両制御装置、および、車両制御方法 Download PDF

Info

Publication number
WO2024003964A1
WO2024003964A1 PCT/JP2022/025425 JP2022025425W WO2024003964A1 WO 2024003964 A1 WO2024003964 A1 WO 2024003964A1 JP 2022025425 W JP2022025425 W JP 2022025425W WO 2024003964 A1 WO2024003964 A1 WO 2024003964A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
vehicle control
lane
control device
poor visibility
Prior art date
Application number
PCT/JP2022/025425
Other languages
English (en)
French (fr)
Inventor
大樹 田中
裕史 大塚
雅幸 竹村
Original Assignee
日立Astemo株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立Astemo株式会社 filed Critical 日立Astemo株式会社
Priority to PCT/JP2022/025425 priority Critical patent/WO2024003964A1/ja
Publication of WO2024003964A1 publication Critical patent/WO2024003964A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present invention relates to a vehicle control device and a vehicle control method used in a system that implements driving support control such as ACC (Adaptive Cruise Control) and LKA (Lane Keep Assist).
  • driving support control such as ACC (Adaptive Cruise Control) and LKA (Lane Keep Assist).
  • Patent Document 1 a technique described in Patent Document 1 has been proposed as a vehicle control method for avoiding dangers caused by water splashes and the like.
  • the vehicle-mounted determination device a first acquisition means for acquiring surrounding information of the own vehicle; a second acquisition means for acquiring surrounding information of the own vehicle detected by a second sensor of a different type from the first sensor; and determining means for determining the type of rolled up object based on both the peripheral information acquired by the first acquiring means and the peripheral information acquired by the second acquiring means.
  • paragraph 0027 of the same document states, ⁇ The above-mentioned examples also apply when the object rolled up on the road is determined to be rainwater, and if it is determined to be rainwater, the vehicle speed is lowered and the object is determined to be snow and ice.'' ”, and paragraph 0037 states, “Therefore, in S450, the object rolled up on the road is determined to be snow and ice, and in S460, the object rolled up on the road is determined to be rainwater.” Then, in S470, this determination result is output to the travel control unit 13 (ECU 131 to 133). The travel control unit 13 performs the above-mentioned automatic driving based on this determination result, and for example, It is possible to adjust the distance between the vehicle and the vehicle or decide whether to change lanes.
  • Patent Document 1 if water splashing or the like is detected while the automatic driving system or driving support system is operating, the system reduces the vehicle speed or adjusts the distance between the vehicle and the vehicle in front.
  • vehicle control according to the needs of the vehicle.
  • the vehicle speed of the preceding vehicle traveling in the same direction as the own vehicle in the adjacent lane is slower than the own vehicle speed, and the adjacent vehicle generates water spray, etc. Even if the water spray, etc. does not originally pose an obstacle to overtaking the adjacent vehicle, the vehicle will decelerate to maintain the following distance from the adjacent vehicle (water spray, etc.). There is a problem in that it makes the driver of the own car feel uncomfortable.
  • the present invention provides a vehicle control device that changes the vehicle control appropriately according to the recognition status of the lane markings of the own lane when overtaking an adjacent vehicle using ACC control, and realizes ACC control that does not give the driver a sense of discomfort. , and a vehicle control method.
  • a vehicle control device of the present invention includes an image acquisition unit that acquires an image of the outside of the vehicle captured by a camera mounted on the vehicle, and a vehicle control device that recognizes the lane markings of the vehicle using the image.
  • a lane marking recognition unit a vehicle recognition unit that recognizes another vehicle traveling in a lane adjacent to the own lane and located ahead of the own vehicle; and a vehicle control unit that controls the vehicle based on whether or not the marking line is recognized.
  • ACC control when passing an adjacent vehicle using ACC control, if the adjacent vehicle generates water spray or the like, ACC control can be performed without giving the driver a sense of discomfort. Can be done.
  • FIG. 5 is a flowchart illustrating an example of the processing of the poor visibility area specifying unit 14.
  • FIG. 3 is a conceptual diagram showing an example of step S2 (determination area subdivision).
  • FIG. 3 is a conceptual diagram illustrating an example of processing by a poor visibility area identification unit 14.
  • FIG. 7 is a conceptual diagram showing an example of step S7 (digitizing the degree of poor visibility for each column).
  • 5 is a flowchart showing an example of processing by the vehicle control unit 16.
  • 3 is a conceptual diagram showing an example of vehicle control determined by a vehicle control unit 16.
  • FIG. The flowchart which shows an example of step S19 (vehicle control determination).
  • FIG. 1 is an example of the configuration of a driving support system 100 that includes a vehicle control device 10 of this embodiment.
  • This driving support system 100 is a system for implementing driving support control such as ACC and LKA, and is configured by connecting an imaging device 1 and an own vehicle information acquisition device 2 to a vehicle control device 10 as shown in the figure. It is a system that
  • the imaging device 1 is a camera attached to the own vehicle V0 so as to be able to image the area in front of the own vehicle, and specifically, it is a monocular camera, a stereo lamella, or the like. Note that in the following description, it is assumed that the imaging device 1 is a stereo camera.
  • the vehicle information acquisition device 2 is a device such as a vehicle speed sensor that acquires driving state information (vehicle speed v 0 , etc.) of the vehicle V 0 .
  • the vehicle control device 10 is a device that determines vehicle control of the own vehicle V0 based on information acquired from the imaging device 1 and the own vehicle information acquisition device 2, and specifically includes an arithmetic device such as a CPU, a semiconductor memory, etc. It is an ECU (Electronic Control Unit) that is equipped with hardware such as a storage device such as, and a communication device. The arithmetic unit executes a predetermined program to realize each functional unit (image acquisition unit 11, etc.) shown in FIG. Each of the 10 functional units will be explained in detail.
  • the image acquisition unit 11 is a functional unit that controls the imaging device 1 and acquires images captured by the imaging device 1. Note that since the imaging device 1 of this embodiment is a stereo camera, the image acquisition unit 11 of this embodiment controls the left and right cameras of the imaging device 1 to capture images simultaneously, thereby obtaining a pair of left and right cameras that are synchronously captured. Get the image.
  • the marking line recognition unit 12 recognizes the left and right marking lines of the lane in which the host vehicle V0 is currently traveling (hereinafter referred to as the “own lane”) based on the pair of left and right images acquired from the image acquisition unit 11 . It is a functional section that performs Here, the division line is a line painted in white, orange, etc. on the asphalt road surface. Therefore, since the asphalt road surface portion and the marking line portion have different colors and brightness, the marking line recognition unit 12 can extract the marking line by analyzing the image.
  • the imaging device 1 has a CMOS image sensor
  • brightness information and RGB values can be obtained from the captured image.
  • the brightness at the lane marking is higher than at the asphalt road surface, so an edge appears in the brightness.
  • RGB values representing characteristics of white and orange are acquired for the partition line portion. Since the partition line is painted linearly, the brightness feature and the RGB feature have continuity. The partition line may be recognized based on these feature amounts.
  • the lane marking recognition unit 12 acquires information such as the lane width, the farthest distance of the recognized lane markings, and the position for each of the left and right lane markings.
  • the vehicle recognition unit 13 determines whether the vehicle is adjacent to the vehicle based on the own vehicle driving state information acquired from the own vehicle information acquisition device 2, the captured image acquired from the image acquisition unit 11, and the lane marking recognition information acquired from the lane marking recognition unit 12.
  • a preceding vehicle traveling in the same direction as the host vehicle V 0 hereinafter referred to as "adjacent vehicle V 1 ” or a preceding vehicle traveling in the own lane (hereinafter referred to as "own lane leading vehicle V 2 ") is detected.
  • This is a functional unit that recognizes and acquires information such as the speed, position, and tracking information of other recognized vehicles.
  • the preceding vehicle refers to a vehicle whose front end protrudes further forward in the traveling direction than the front end of the own vehicle.
  • the vehicle recognition unit 13 of this embodiment also has a function of resetting the overtaking permission count C, which will be described later, when the adjacent vehicle V1 is not recognized for a predetermined period of time. The significance of this function will be discussed later.
  • the poor visibility area identification unit 14 acquires brightness information within the imaging area based on the image acquired from the image acquisition unit 11, and determines whether poor visibility has occurred in some area within the imaging area from the brightness information. This is a functional unit that determines whether visibility is poor or not, and calculates the degree of poor visibility if poor visibility has occurred.
  • the poor visibility area specifying unit 14 operates according to the following procedure.
  • Step S1 First, the poor visibility area identification unit 14 sets a target area (hereinafter referred to as "poor visibility determination area A") in which it is determined whether or not poor visibility has occurred in the image acquired from the image acquisition unit 11. do.
  • the width is set based on the position of the lower end, and the width is set based on the position information of the lane marking of the own lane recognized by the marking line recognition unit 12.
  • the vertical width of the poor visibility determination area A is set to the upper edge of the detection frame B 3 of the preceding vehicle V 2 in the own lane, which corresponds to the uppermost edge of the detection frame B in FIG .
  • the detection frame B 1 is set based on the position of the detection frame B 1 of the adjacent vehicle V 1 on the right side, which corresponds to the bottom edge of the detection frame B in FIG. 3 .
  • the width of the poor visibility determination area A is set based on the position where the extension line of the lower side of the detection frame B1 intersects the left and right lane markings of the vehicle's own lane. Through this procedure, a poor visibility determination area A of a predetermined size is set in front of the vehicle's own lane.
  • Step S2 The poor visibility area specifying unit 14 divides the poor visibility determination area A set in step S1 into an arbitrary number of areas. For example, as shown in FIG. 3, the poor visibility determination area A is divided into 5 equal parts in the horizontal direction and 5 equal parts in the vertical direction, resulting in a total of 25 divided areas a (a 1 to a 25 ). In FIG. 3, divided areas a 1 to a 5 are arranged from the upper left to the right of the poor visibility determination area A, and below them, divided areas a 6 to a 10 and divided areas a 11 to a are arranged in order. 15 , divided areas a 16 to a 20 , and divided areas a 21 to a 25 are arranged.
  • Step S3 The poor visibility area specifying unit 14 calculates a brightness ratio that is the ratio of the average brightness value in the divided area a divided in step S2 and the average brightness value of the entire image. Note that, as will be described later, this step is repeated multiple times, and finally, the brightness ratio is calculated for all 25 divided areas a.
  • Step S4 The poor visibility area specifying unit 14 calculates a brightness variance ratio, which is the ratio of the brightness variance in the divided area a divided in step S2 to the brightness variance of the entire image. Note that, as will be described later, this step is repeated a plurality of times, and finally, the brightness dispersion amount ratio is calculated for all of the 25 divided areas a.
  • Step S5 The poor visibility area specifying unit 14 calculates the degree of poor visibility p in the divided area a based on the brightness ratio acquired in step S3 and the brightness dispersion amount ratio acquired in step S4. Note that, as will be described later, since this step is repeated multiple times, the degree of poor visibility p is finally calculated for all 25 divided areas a.
  • an image area where poor visibility due to water splashes or the like has occurred has a higher average luminance value than an image area where no water splashes or the like has occurred. Therefore, by extracting the divided areas a n whose brightness ratio is higher than a predetermined threshold value, it is possible to specify an image area where there is a high possibility that poor visibility due to water spray or the like has occurred.
  • the amount of luminance dispersion is higher than in an image area where water splashes or the like have not occurred. Therefore, by extracting the divided areas a n whose brightness variance amount ratio is higher than a predetermined threshold value, it is possible to specify an image area where there is a high possibility that poor visibility due to water spray or the like has occurred.
  • thresholds Th 1 and Th 2 for the luminance ratio and thresholds Th a and Th b (Th a ⁇ Th b ) for the luminance dispersion amount ratio are provided, and these thresholds are set.
  • the degree of poor visibility in each divided area a is divided into three levels: "high poor visibility", "small visibility poor”, and "no poor visibility”.
  • a specific method of this distribution is illustrated in FIG. (1) A divided area a whose luminance ratio is equal to or greater than the threshold value Th 2 and whose luminance dispersion amount ratio is equal to or greater than Th b is classified as having a "high" degree of poor visibility and is given 2 points.
  • Step S6 The poor visibility area specifying unit 14 determines whether there are any remaining divided areas a n that have not been subjected to the processes from step S3 to step S5. If unprocessed divided areas a n remain, the process returns to step S3; otherwise, the process proceeds to step S7. Therefore, the degree of poor visibility p will ultimately be determined for all divided areas a.n.
  • Step S7 The poor visibility area specifying unit 14 identifies the poor visibility area on the own lane by grouping the divided areas a prepared in step S2 into columns, and then quantifying the degree of poor visibility P for each group G. .
  • the poor visibility determination area A is divided horizontally into five equal parts and vertically divided into five equal parts in step S2, a total of 25 divided areas a are generated.
  • five groups G 1 to G 5 are generated in which the divided regions a are grouped in columns.
  • the group G 1 is a group that includes the divided areas a 1 , a 6 , a 11 , a 16 , and a 21 .
  • the poor visibility degrees p 1 , p 6 , and p 11 assigned to each divided area are , p 16 , and p 21 , it is possible to calculate the degree of poor visibility P 1 for the group G 1 .
  • the poor visibility degrees P 2 to P 5 can be calculated in the same manner.
  • the flowchart in FIG. 2 is a process for identifying the group G in which water splash etc. from the adjacent vehicle V1 has occurred, in this step, the proportion occupied by the detection frame B3 of the preceding vehicle V2 in the own lane is determined.
  • group G in the example of FIG. 5, group G 3 ) in which is above a certain level (group G 3 in the example of FIG. 5)
  • 0 point is set as the poor visibility degree P instead of the total value of the poor visibility degrees p of each divided area.
  • the adjacent vehicle overtaking determination unit 15 determines when the own vehicle V 0 continues ACC based on the own vehicle speed v 0 according to the ACC acquired from the own vehicle information acquisition device 2 and the adjacent vehicle speed v 1 acquired from the vehicle recognition unit 13. This is a functional unit that determines whether or not to overtake the adjacent vehicle V1 , and sets an overtaking flag F according to the result of the determination.
  • the overtaking flag F is set to "passing".
  • the own vehicle speed v 0 is higher than the adjacent vehicle speed v 1 , it is determined that the own vehicle V 0 will overtake the adjacent vehicle V 1 , and the overtaking flag F is set to "passing".
  • the own vehicle speed v 0 is smaller than the adjacent vehicle speed v 1 , it is determined that the own vehicle V 0 will not overtake the adjacent vehicle V 1 and the overtaking flag F is set to "no overtaking vehicle".
  • the vehicle control unit 16 uses the marking line information of the own lane acquired from the marking line recognition unit 12, the other vehicle information acquired from the vehicle recognition unit 13, and the poor visibility area information acquired from the poor visibility area identification unit 14. , is a functional unit that determines vehicle control of own vehicle V0 .
  • the vehicle control unit 16 operates according to the following procedure.
  • the process in FIG. 6 is a process that is executed every time the image acquisition unit 11 acquires an image from the imaging device 1, so the process in FIG. 6 is repeatedly executed during ACC, which will be described later.
  • the count value of the overtaking permission count C increases or decreases within a predetermined range, which will be described later.
  • Step S11 The vehicle control unit 16 determines whether the preceding vehicle V2 in the own lane is generating water spray or the like. Then, if water splashing or the like is generated, the process proceeds to step S12, and if not, the process proceeds to step S13.
  • step S7 of FIG. 2 divided areas a 3 , a 8 , a belonging to group G (group G 3 in the example of FIG. 5) that overlap the detection frame B of the preceding vehicle V 2 in the own lane by a predetermined ratio or more 13 , a18 , and a23 , check whether there is an area where the poor visibility p is "large” or "small” (area with 2 points or 1 point), and if it exists, It is determined that the vehicle ahead in the lane, V2 , is making water splash. On the other hand, if such a divided region a does not exist, it is determined that the preceding vehicle V2 in the own lane is not making water splashes.
  • Step S12 When the preceding vehicle V 2 in the own lane is splashing water, the vehicle control unit 16 performs vehicle control (deceleration control) to increase the distance between the vehicle V 2 and the preceding vehicle V 2 in the own lane. In this way, by increasing the distance between the vehicle in front of the vehicle V2 , which is causing water spray in the vehicle's own lane, the area in the vehicle's own lane where visibility is not affected by water spray is expanded, and the area where visibility is not affected by water spray is increased. It becomes possible to suppress the influence of water spray.
  • vehicle control deceleration control
  • Step S13 The vehicle control unit 16 determines whether the overtaking flag F set by the adjacent vehicle overtaking determination unit 15 is “overtaking” or “no overtaking vehicle”. If the overtaking flag F is "overtaking”, the process advances to step S14. On the other hand, if the overtaking flag F is "no overtaking vehicle", the process advances to step S19.
  • Step S14 The vehicle control section 16 determines the section on the side where the adjacent vehicle V1 exists, based on the farthest distance information of the recognized lane mark obtained from the lane line recognition section 12 and the adjacent vehicle presence position information obtained from the vehicle recognition section 13. It is determined whether the line can be recognized further away than the adjacent vehicle V1 . If recognized, the process advances to step S17; otherwise, the process advances to step S15.
  • an adjacent vehicle V 1 is running in the left lane (adjacent lane) making water splash, etc.
  • a vehicle ahead in its own lane V 2 is running in the right lane (own lane) making water spray etc.
  • the farthest distance of the lane marking recognition result on the left side of the own lane is closer to the front than the current position of the adjacent vehicle V1 due to water spray etc., so this step is not performed. The judgment is No.
  • Step S15 If the marking line on the adjacent vehicle side cannot be recognized further than the adjacent vehicle V 1 (see FIG. 7), the vehicle control unit 16 uses other information to determine whether it is possible to overtake the adjacent vehicle V 1 .
  • the vehicle control unit 16 determines whether the vehicle is located opposite to the adjacent vehicle based on the farthest distance information of the recognized marking line obtained from the marking line recognizing unit 12 and the adjacent vehicle existing position information obtained from the vehicle recognizing unit 13. It is determined whether the side marking line can be recognized further away than the adjacent vehicle V1 . If the recognition is successful, the process proceeds to step S16; otherwise, the process proceeds to step S18.
  • the farthest distance of the lane marking recognition result on the right side of the own lane is further back than the current position of the adjacent vehicle V1 , so the determination in this step is Yes. .
  • Step S16 If the marking line on the opposite side of the adjacent car side can be recognized further than the neighboring car V 1 (see Figure 7), when passing the adjacent car V 1 , continue LKA using the marking line on the opposite side as the reference when passing the adjacent car V 1. can do. However, when this step is reached, the adjacent vehicle V 1 may be changing lanes from the adjacent lane to its own lane because the lane markings on the adjacent lane side cannot be recognized further than the adjacent vehicle V 1 . Therefore, in this step, it is determined whether or not it is possible to overtake, based on the recognition status of the adjacent vehicle V1 .
  • the vehicle control unit 16 determines whether the adjacent vehicle V 1 has been lost or whether the adjacent vehicle V 1 is changing lanes based on the adjacent vehicle existing position information acquired from the vehicle recognition unit 13. do. If neither of these conditions apply, it is determined that it is possible to safely overtake the adjacent vehicle V1 , and the process proceeds to step S17; otherwise, it is determined that the adjacent vehicle V1 should not be approached, and step S18 Proceed to.
  • the adjacent vehicle V 1 will cut into the own vehicle's path based on the adjacent vehicle location information. Since it is possible to judge whether or not the adjacent vehicle V1 is changing lanes into the own lane. Note that the vehicle's traveling path can be calculated based on the position information of the lane markings and the information on the lane width.
  • Step S17 If it is determined in step S14 or step S16 that it is possible to continue LKA and overtake the adjacent vehicle V1 (if the marking line on the adjacent vehicle's side can be sufficiently recognized, or If the marking line on the opposite side can be sufficiently recognized and the adjacent vehicle can be recognized), the vehicle control unit 16 adds a count value to an overtaking permission count C, which is used in step S19, which will be described later.
  • Step S18 On the other hand, if it is determined in step S15 or step S16 that it is not necessary to overtake the adjacent vehicle V1 (if neither the adjacent vehicle's marking line nor the marking line on the opposite side is sufficiently recognizable, (the lane markings can be sufficiently recognized, but the adjacent vehicle is lost, or the adjacent vehicle is changing lanes into the own lane), the vehicle control unit 16 calculates an overtaking permission count, which is used in step S19, which will be described later. Subtract the count value of C.
  • the process in FIG. 6 is performed each time the image acquisition unit 11 acquires an image, so if either step S17 or step S18 is performed continuously, the overtaking permission count C is The values will be monotonically increasing or decreasing. However, if the count value becomes excessively large or small, the responsiveness of vehicle control may be impaired, so in this embodiment, the count value of the overtaking permission count C is Upper and lower limits are set to ensure immediate response of vehicle control.
  • the count value of the overtaking permission count C is reset to a predetermined value (for example, 0). This can prevent the count value from the adjacent vehicle V1 that has already passed from influencing future vehicle control.
  • Step S19 The vehicle control unit 16 determines vehicle control based on the poor visibility information acquired from the poor visibility area specifying unit 14 and the count value of the overtaking permission count C added and subtracted in steps S17 and S18. Details of the process in step S19 are shown in the flowchart of FIG.
  • Step S19a The vehicle control unit 16 determines whether the overtaking flag F indicates "overtaking”. If the overtaking flag F is "overtaking”, the process advances to step S19b. On the other hand, if the overtaking flag F is "no adjacent vehicle", the process advances to step S19i.
  • Step S19b The vehicle control unit 16 determines whether the current ACC control of the own vehicle V 0 is a control for increasing the distance between the vehicle V 2 and the preceding vehicle V 2 in the own lane (deceleration control in step S12). If deceleration control is in progress, the process advances to step S19c; otherwise, the process advances to step S19d.
  • Step S19c The vehicle control unit 16 determines whether the count value of the overtaking permission count C is larger than a predetermined threshold value T1. If the count value is greater than the threshold T1, the process proceeds to step S19e, and if the count value is less than or equal to the threshold T1, the process proceeds to step S19f.
  • Step S19d The vehicle control unit 16 determines whether the count value of the overtaking permission count C is larger than a predetermined threshold value T2 (however, T1 ⁇ T2). If the count value is greater than the threshold T2, the process proceeds to step S19e, and if the count value is less than or equal to the threshold T1, the process proceeds to step S19f. Note that it is desirable to set the difference between the threshold value T1 and the threshold value T2 to be large so that the vehicle control in step S19e and step S19f, which will be described later, is not replaced in a short period of time (chattering prevention).
  • Step S19e When the count value of the overtaking permission count C is large (when it is considered that the adjacent vehicle V 1 can be safely overtaken by LKA), the vehicle control unit 16 controls the vehicle V 0 to overtake the adjacent vehicle V 1 . Set to .
  • Step S19f On the other hand, when the count value of the overtaking permission count C is small (such as when it is considered difficult to overtake the adjacent vehicle V 1 by LKA), the vehicle control unit 16 controls the vehicle V 0 and the adjacent vehicle V 1. Set the control to increase the distance between vehicles.
  • Step S19g The vehicle control unit 16 determines where within the own lane the own vehicle V 0 will travel when passing the adjacent vehicle V 1 . Therefore, specifically, the following judgments are made.
  • step S19h If poor visibility occurs only on the side of the adjacent vehicle in your own lane, and the marking line can be detected further away than the neighboring car V1 on the opposite side, move towards the side of the marking line where it was detected and spray water. It is determined that it is a safe driving method to avoid such obstacles, and the process proceeds to step S19h.
  • step S19i it is determined that driving in the center of the vehicle's own lane is a safe driving method, and the process proceeds to step S19i.
  • step S19g if the determination in step S19g is made based on a single recognition result, the vehicle may wander in the vehicle width direction. Therefore, the lane marking information and numerically quantified poor visibility information used to determine movement in the vehicle width direction can be determined based on the recognition results obtained multiple times in the past, and controls that cause the vehicle to sway can be suppressed.
  • Step S19h The vehicle control unit 16 sets the vehicle control to overtake the adjacent vehicle V1 , which is causing water splashes, etc., by approaching the marking line on the opposite side of the adjacent vehicle (see FIG. 7).
  • Step S19i The vehicle control unit 16 is set to control a vehicle traveling in the center of its own lane.
  • step S19a that is, when the adjacent vehicle V 1 is faster than the own vehicle V 0 , the vehicle control unit 16 controls the current speed of the own vehicle V 1 regardless of the existence of the adjacent vehicle V 1 . Continue running in the center.
  • step S19f that is, when the setting is made to leave a distance between the vehicle V1 and the adjacent vehicle V1 , which is slower than the own vehicle V0 , the vehicle control unit 16 decelerates and Continue driving in the center of your lane.
  • step S19g that is, if poor visibility has not occurred, the vehicle control unit 16 overtakes the adjacent vehicle V1 while traveling in the center of the own lane.
  • ACC control when passing an adjacent vehicle using ACC control, if the adjacent vehicle generates water spray, etc., ACC control is performed that does not give the driver a sense of discomfort. can do.
  • DESCRIPTION OF SYMBOLS 100 Driving support system, 1... Imaging device, 2... Vehicle information acquisition device, 10... Vehicle control device, 11... Image acquisition unit, 12... Marking line recognition unit, 13... Vehicle recognition unit, 14... Poor visibility area identification Part, 15... Adjacent vehicle overtaking determination unit, 16... Vehicle control unit, B... Detection frame, A... Poor visibility determination area, a... Divided area, p... Poor visibility degree of the divided area, G... Divided area in the vertical direction Grouped area, P... Group's poor visibility level, V 0 ... Own vehicle, V 1 ... Adjacent vehicle, V 2 ... Vehicle in front in own lane

Abstract

従来技術では、ACCやLKASなどの運転支援システムが動作中において、自車の前方を走行している車両が、水しぶきを発生させていることを検出した場合、水しぶきが自車線に影響を及ぼしていない場合においても、隣接車と車間を空けるために減速しまい、車両のドライバーの意図と異なる車両制御を行ってしまい違和感を与えてしまう課題がある。上記課題を解決するため、本発明の車両制御装置は、自車両に搭載したカメラによって撮像された、車外の画像を取得する画像取得部と、前記画像を用いて自車線の区画線を認識する区画線認識部と、前記自車線に隣接する車線を走行し、かつ、前記自車より前方に位置する他車両を認識する車両認識部と、前記自車線の区画線のうち前記他車両より前方の区画線が認識されたか否かに基づいて、車両の制御を行う車両制御部と、を備える。

Description

車両制御装置、および、車両制御方法
 本発明は、ACC(Adaptive Cruise Control)やLKA(Lane Keep Assist)などの運転支援制御を実施するシステムで利用される、車両制御装置、および、車両制御方法に関する。
 近年、自動車による交通事故の防止や被害軽減を目的として、運転支援システムを搭載した車両が増えている。この種の運転支援システムを実現するための技術要素の1つとして、カメラを用いた外界認識機能がある。
 外界認識にカメラを用いる場合、撮像領域内で他の走行車による水しぶき、雪の巻き上げ、砂煙等が発生すると、水しぶき等を撮像した画像領域では、自車周囲の物標や路面を正確に認識できない視界不良が発生するため、適切な車両制御を実行できない虞がある。そのため、水しぶき等の発生に起因する危険を回避するための車両制御として、特許文献1に記載の技術が提案されている。
 例えば、特許文献1の要約書では、課題として「路上巻き上げ物の種類を判定可能とする。」と記載されており、解決手段として「車載用判定装置は、第1センサにより検出された自車両の周辺情報を取得する第1取得手段と、前記第1センサとは種類が異なる第2センサにより検出された前記自車両の周辺情報を取得する第2取得手段と、前記自車両の周辺の路上巻き上げ物の種類を、前記第1取得手段により取得された前記周辺情報および前記第2取得手段により取得された前記周辺情報の双方に基づいて判定する判定手段と、を備える。」と記載されている。
 また、同文献の段落0027には「上述の幾つかの例は、路上巻き上げ物が雨水と判定された場合についても同様であり、更に、雨水と判定された時には車速を下げて、雪氷と判定された場合には車速を更に下げる、といった制御も可能である。」と記載されており、段落0037には「そのため、S450では路上巻き上げ物を雪氷と判定し、S460では路上巻き上げ物を雨水と判定する。その後、S470では、この判定結果を走行制御部13(ECU131~133)に出力する。走行制御部13は、この判定結果に基づいて前述の自動運転を行い、例えば、車両1と先行車との車間距離を調整し、或いは、車線変更を行うか否かを決定することができる。」と記載されている。
 このように、特許文献1では、自動運転システムや運転支援システムの動作中に水しぶき等を検出した場合、車速を下げたり、先行車との車間距離を調整したりする、路上巻き上げ物の種別に応じた車両制御を提案している。
特開2019-48530号公報
 しかしながら、特許文献1の技術では、隣接車線を自車と同方向に走行する先行車(以降、「隣接車」と称する)の車速が自車速より遅く、かつ隣接車が水しぶき等を発生させている場合、その水しぶき等が隣接車の追い抜きに本来障害とならない場合でも、隣接車(水しぶき等)との車間距離を維持するように減速してしまうため、ACC制御による隣接車の追い抜きを想定している自車のドライバーに違和感を与えてしまうという問題がある。
 そこで、本発明は、ACC制御によって隣接車を追い抜く際に、自車線の区画線の認識状況に応じて、車両制御を適宜変更し、ドライバーに違和感を与えないACC制御を実現する、車両制御装置、および、車両制御方法を提供することを目的とする。
 上記課題を解決するため、本発明の車両制御装置は、自車両に搭載したカメラによって撮像された、車外の画像を取得する画像取得部と、前記画像を用いて自車線の区画線を認識する区画線認識部と、前記自車線に隣接する車線を走行し、かつ、前記自車より前方に位置する他車両を認識する車両認識部と、前記自車線の区画線のうち前記他車両より前方の区画線が認識されたか否かに基づいて、車両の制御を行う車両制御部と、を備えるものとした。
 本発明の車両制御装置、および、車両制御方法によれば、ACC制御による隣接車の追い抜き時に、隣接車が水しぶき等を発生させていた場合、ドライバーに違和感を与えない、ACC制御を実施することができる。
前方の外界認識を実現するための構成の一例を示した図。 視界不良領域特定部14の処理の一例を示すフローチャート。 ステップS2(判定領域細分化)の一例を示す概念図。 視界不良領域特定部14の処理の一例を示す概念図。 ステップS7(列ごとに視界不良度を数値化)の一例を示す概念図。 車両制御部16の処理の一例を示すフローチャート。 車両制御部16で決定した車両制御の一例を示す概念図。 ステップS19(車両制御決定)の一例を示すフローチャート。
 以下、本発明の一実施例に係る車両制御装置、および、車両制御方法について、図面を用いて説明する。
 図1は、本実施例の車両制御装置10を有する、運転支援システム100の構成の一例である。この運転支援システム100は、ACCやLKAなどの運転支援制御を実施するためのシステムであり、図示するように、撮像装置1と自車情報取得装置2を車両制御装置10に接続することで構成したシステムである。
 撮像装置1は、自車前方を撮像できるように自車Vに取り付けたカメラであり、具体的には、単眼カメラやステレオラメラ等である。なお、以下では、撮像装置1がステレオカメラであるものとする。
 自車情報取得装置2は、自車Vの走行状態情報(自車速vなど)を取得する、車速センサ等の装置である。
 車両制御装置10は、撮像装置1と自車情報取得装置2から取得した情報に基づいて自車Vの車両制御を決定する装置であり、具体的には、CPU等の演算装置、半導体メモリ等の記憶装置、および、通信装置などのハードウェアを備えたECU(Electronic Control Unit)である。そして、演算装置が所定のプログラムを実行することで、図1に示す各機能部(画像取得部11等)を実現するが、以下では、このような周知技術を適宜省略しながら、車両制御装置10の各機能部を順次詳細に説明する。
 <画像取得部11>
 画像取得部11は、撮像装置1を制御するとともに、撮像装置1で撮像した画像を取得する機能部である。なお、本実施例の撮像装置1はステレオカメラであるため、本実施例の画像取得部11は、撮像装置1の左右カメラが同時に撮像するように制御することで、同期撮像された左右一対の画像を取得する。
 <区画線認識部12>
 区画線認識部12は、画像取得部11から取得した左右一対の画像に基づいて、自車Vが現在走行している車線(以降、「自車線」と称する)の左右の区画線を認識する機能部である。ここで、区画線とは、アスファルト路面に白色や橙色などで線状にペイントされた線である。そのため、アスファルト路面部と区画線部では色や輝度が異なっているため、区画線認識部12では、画像を解析することで区画線を抽出することが可能である。
 例えば、撮像装置1がCMOSイメージセンサを有する場合、取得した撮像からは輝度情報やRGB値を取得可能である。撮像画像に区画線が映っている場合、区画線部ではアスファルト路面部よりも輝度が高くなるため、輝度にエッジが出現する。また、区画線部では白色、及び橙色の特徴を示すRGB値が取得される。区画線は線状にペイントされるため、輝度の特徴量とRGBの特徴量は連続性を持つ特徴がある。これらの特徴量を基に区画線を認識してもよい。区画線認識部12では、車線幅と、認識した区画線の最遠方距離と、位置などの情報を左右それぞれの区画線に対し取得する。
 <車両認識部13>
 車両認識部13は、自車情報取得装置2から取得した自車走行状態情報と、画像取得部11から取得した撮像画像と、区画線認識部12から取得した区画線認識情報に基づいて、隣接車線を自車Vと同方向に走行する先行車(以降、「隣接車V」と称する)や、自車線を走行する先行車(以降、「自車線先行車V」と称する)を認識するとともに、認識した他車両の車速と、位置と、トラッキング情報などの情報を取得する機能部である。なお、先行車とは、その車両の前方先端部が、自車の前方先端部よりも進行方向前方に出ている車両のことを指す。
 例えば、撮像装置1で同期撮像した左右一対の画像から視差画像を作成したとき、立体物が存在する領域には、同じ視差の塊が検出される。その視差の塊が存在する領域と同じ領域を撮像画像から切り出し、切り出した撮像画像に対して、既に自動車や人などの立体物を学習済みの識別機を用いることで、車両を認識することができる。認識した車両の横位置と認識した区画線の位置から、認識した車両が自車線を走行しているか否かを判断することで、隣接車Vと自車線先行車Vを分類することができる。これにより、画像内に水しぶき等が撮像されている場合、隣接車Vによる水しぶき等と、自車線先行車Vによる水しぶき等を区別した、車両制御を判断することが可能になる。
 なお、本実施例の車両認識部13は、隣接車Vを所定時間認識しない場合、後述する追い抜き許可カウントCのカウント値をリセットする機能も有する。この機能の意義については後述する。
 <視界不良領域特定部14>
 視界不良領域特定部14は、画像取得部11から取得した画像に基づいて、撮像領域内の輝度情報を取得し、その輝度情報から、撮像領域内の一部領域で視界不良が発生しているか否かを判断し、視界不良が発生している場合は、視界不良度を演算する機能部である。
 ここで、視界不良領域特定部14による具体的な処理について、図2から図5を参照しながら詳細に説明する。図2のフローチャートに示すように、視界不良領域特定部14は、以下の手順で動作する。
 ステップS1:
 まず、視界不良領域特定部14は、画像取得部11から取得した画像内に、視界不良が発生しているか否かを判断する対象領域(以降、「視界不良判定領域A」と称する)を設定する。この視界不良判定領域Aの縦幅は、車両認識部13が認識した車両の検知枠B(n=1、2、・・・ :最大数は認識した他車両の数)の最上端と最下端の位置を基準に設定され、その横幅は、区画線認識部12が認識した自車線の区画線の位置情報を基準に設定される。
 具体的には、図3に例示するように、視界不良判定領域Aの縦幅を、図3内の検知枠Bの最上端に相当する、自車線先行車Vの検知枠Bの上辺の位置と、図3内の検知枠Bの最下端に相当する、右側の隣接車Vの検知枠Bの下辺の位置を基準にして設定する。次に、視界不良判定領域Aの横幅を、検知枠Bの下辺の延長線が自車線左右の区画線と交差する位置を基準に設定する。この手順により、自車線の前方に、所定の大きさの視界不良判定領域Aが設定される。
 ステップS2:
 視界不良領域特定部14は、ステップS1で設定した視界不良判定領域Aを任意の数に分割する。例えば、図3に示すように、視界不良判定領域Aを横方向に5等分、縦方向に5等分することで、合計25個の分割領域a(a~a25)に分割する。なお、図3では、視界不良判定領域Aの左上から右方向に分割領域a~aが配置されており、その下方に、順次、分割領域a~a10、分割領域a11~a15、分割領域a16~a20、分割領域a21~a25が配置されているものとする。
 ステップS3:
 視界不良領域特定部14は、ステップS2で分割した分割領域a内の平均輝度値と画像全体の平均輝度値の比率である輝度比率を算出する。なお、後述するように、本ステップは複数回繰り返され、最終的には、25個の分割領域aの全てに対して輝度比率が算出される。
 ステップS4:
 視界不良領域特定部14は、ステップS2で分割した分割領域a内の輝度分散量と画像全体の輝度分散量の比率である輝度分散量比率を算出する。なお、後述するように、本ステップは複数回繰り返され、最終的には、25個の分割領域aの全てに対して輝度分散量比率が算出される。
 ステップS5:
 視界不良領域特定部14は、ステップS3で取得した輝度比率と、ステップS4で取得した輝度分散量比率に基づいて、分割領域aにおける視界不良度pを算出する。なお、後述するように、本ステップは複数回繰り返されるため、最終的には、25個の分割領域aの全てに対して視界不良度pが算出される。
 ここで、一般的に、水しぶき等による視界不良が発生している画像領域では、水しぶき等が発生していない画像領域と比較して、平均輝度値が高くなる。そのため、輝度比率が所定の閾値より高い分割領域aを抽出することで、水しぶき等による視界不良が発生している可能性の高い画像領域を特定することができる。
 また、水しぶき等による視界不良が発生している画像領域では、水しぶき等が発生していない画像領域と比較して、輝度分散量が高くなる。そのため、輝度分散量比率が所定の閾値より高い分割領域aを抽出することで、水しぶき等による視界不良が発生している可能性の高い画像領域を特定することができる。
 そこで、本実施例では、輝度比率に対する閾値Th、Th(Th<Th)と、輝度分散量比率に対する閾値Th、Th(Th<Th)を設け、これらの閾値を基準として、各々の分割領域aの視界不良の程度を「視界不良大」、「視界不良小」、「視界不良なし」の三段階に振り分ける。この振り分けの具体的な方法を図4に例示する。
(1)輝度比率が閾値Th以上であり、かつ、輝度分散量比率がTh以上である分割領域aは、視界不良度「大」に分類され、2ポイントが与えられる。
(2)輝度比率が閾値Th以上であり、かつ、輝度分散量比率がTh以上である分割領域a(但し、視界不良度「大」と判断された分割領域aを除く)は、視界不良度「小」に分類され、1ポイントが与えられる。
(3)輝度比率が閾値Th未満、または、輝度分散量比率がTh未満である分割領域aは、視界不良度「なし」に分類され、0ポイントが与えられる。
 ステップS6:
 視界不良領域特定部14は、ステップS3からステップS5の処理を実行していない分割領域aが残されているかを判定する。そして、未処理の分割領域aが残されていればステップS3に戻り、そうでなければ、ステップS7に進む。従って、最終的には全ての分割領域aに対して視界不良度pが判定されることになる。
 ステップS7:
 視界不良領域特定部14は、ステップS2で用意した分割領域aを列ごとにグループ化した後、グループGごとに視界不良度Pを数値化することで、自車線上の視界不良領域を特定する。
 例えば図3のように、ステップS2にて、視界不良判定領域Aを横方向に5当分し、縦方向に5等分することで、合計25個の分割領域aを生成した場合であれば、本ステップでは、図5のように、分割領域aを列ごとに纏めた、5つのグループG~Gを生成する。この場合、グループGは、分割領域a、a、a11、a16、a21を纏めたグループであるため、各分割領域に付与された視界不良度p、p、p11、p16、p21を合計することで、グループGの視界不良度Pを算出することができる。残るグループG~Gについても同様の方法で視界不良度P~Pを算出することができる。
 但し、図2のフローチャートは、隣接車Vによる水しぶき等が発生しているグループGを特定するための処理であるため、本ステップでは、自車線先行車Vの検知枠Bが占める割合が一定以上のグループG(図5の例では、グループG)に関しては、各分割領域の視界不良度pの合計値ではなく、0ポイントを視界不良度Pとして設定する。このように各グループの視界不良度Pを設定することで、各グループの視界不良が、隣接車Vの水しぶき等による視界不良なのか、自車線先行車Vの水しぶき等による視界不良なのかを区別でき、後述する車両制御部16において、隣接車Vの水しぶき等に起因する視界不良の影響を抑制する車両制御判断が可能になる。
 <隣接車追い抜き判定部15>
 隣接車追い抜き判定部15は、自車情報取得装置2から取得したACCによる自車速vと、車両認識部13から取得した隣接車速vに基づいて、自車VがACCを継続した場合に、隣接車Vを追い抜くか否かを判断し、その判断結果に応じて追い抜きフラグFを設定する機能部である。
 例えば、自車速vが隣接車速vより大きい場合は、自車Vが隣接車Vを追い抜くと判断し、追い抜きフラグFを「追い抜き中」に設定する。一方、自車速vが隣接車速vより小さい場合は、自車Vが隣接車Vを追い抜かないと判断し、追い抜きフラグFを「追い抜き車両無し」に設定する。
 <車両制御部16>
 車両制御部16では、区画線認識部12から取得した自車線の区画線情報と、車両認識部13から取得した他車両情報と、視界不良領域特定部14から取得した視界不良領域情報に基づいて、自車Vの車両制御を決定する機能部である。
 ここで、車両制御部16による具体的な処理について、図6から図8を参照しながら詳細に説明する。図6のフローチャートに示すように、車両制御部16は、以下の手順で動作する。なお、図6の処理は、画像取得部11が撮像装置1から画像を取得する毎に実施される処理であるため、ACCの実施中に図6の処理が繰り返し実行されることで、後述する追い抜き許可カウントCのカウント値が後述する所定範囲内で増減することとなる。
 ステップS11:
 車両制御部16は、自車線先行車Vが水しぶき等を発生させているかを判断する。そして、水しぶき等を発生させていればステップS12に進み、そうでなければ、ステップS13に進む。
 なお、ここでの判断は、具体的には次のように行われる。すなわち、図2のステップS7において、自車線先行車Vの検知枠Bと所定の割合以上重複するグループG(図5の例では、グループG)に属する分割領域a、a、a13、a18、a23の中に、視界不良度pが「大」や「小」の領域(2ポイントや1ポイントの領域)が存在するか否かを確認し、存在する場合は、自車線先行車Vが水しぶきを上げていると判断する。一方、そのような分割領域aが存在しない場合は、自車線先行車Vが水しぶきを上げていないと判断する。
 ステップS12:
 自車線先行車Vが水しぶきを上げている場合、車両制御部16は、自車線先行車Vと車間距離を拡げる車両制御(減速制御)を行う。このように、自車線内で水しぶきを発生させている自車線先行車Vとの車間距離を拡げることで、自車線内で水しぶきによる視界不良が発生していない領域を広げ、外界認識への水しぶきの影響を抑制することが可能となる。
 ステップS13:
 車両制御部16は、隣接車追い抜き判定部15で設定した追い抜きフラグFが「追い抜き中」であるか、「追い抜き車両無し」であるかを判断する。そして、追い抜きフラグFが「追い抜き中」の場合は、ステップS14に進む。一方、追い抜きフラグFが「追い抜き車両無し」の場合は、ステップS19に進む。
 ステップS14:
 車両制御部16は、区画線認識部12から取得した認識区画線の最遠方距離情報と、車両認識部13から取得した隣接車存在位置情報に基づいて、隣接車Vが存在する側の区画線が、隣接車Vのよりも遠方まで認識できているか否かを判断する。そして、認識できていれば、ステップS17に進み、そうでなければ、ステップS15に進む。
 例えば、隣接車Vが水しぶき等を発生させながら左車線(隣接車線)を走行しており、自車線先行車Vが水しぶき等を発生させながら右車線(自車線)を走行している、図7の環境下であれば、隣接車Vが水しぶき等によって、自車線左側の区画線認識結果の最遠方距離が、隣接車Vの現在位置よりも手前側であるため、本ステップでの判断は、Noとなる。
 ステップS15:
 隣接車側の区画線が隣接車Vより遠方まで認識できない場合(図7参照)、車両制御部16は、他の情報を用いて隣接車Vを追い抜き可能か判断する。
 具体的には、車両制御部16は、区画線認識部12から取得した認識区画線の最遠方距離情報と、車両認識部13から取得した隣接車存在位置情報に基づいて、隣接車側と反対側の区画線が、隣接車Vより遠方まで認識できているか否かを判断する。そして、認識できていれば、ステップS16に進み、そうでなければ、ステップS18に進む。
 例えば、図7の環境下であれば、自車線右側の区画線認識結果の最遠方距離が、隣接車Vの現在位置よりも奥側であるため、本ステップでの判断は、Yesとなる。
 ステップS16:
 隣接車側と反対側の区画線が隣接車Vより遠方まで認識できる場合(図7参照)、隣接車Vの追い抜き時に、隣接車側と反対側の区画線を基準として、LKAを継続することができる。ただし、本ステップに至る場合、隣接車線側の区画線を隣接車Vより遠方まで認識できていないため、隣接車Vが隣接車線から自車線に車線変更中である可能性がある。そこで、本ステップでは、隣接車Vの認識状況を踏まえて、追い抜き可能か否かを判断する。
 具体的には、車両制御部16は、車両認識部13から取得した隣接車存在位置情報に基づいて、隣接車Vを見失ったか、または、隣接車Vが車線変更中であるかを判断する。そして、何れにも該当しなければ、安全に隣接車Vの追い抜きが可能と判断して、ステップS17に進み、そうでなければ、隣接車Vに接近するべきでないと判断し、ステップS18に進む。
 図7の例のように、隣接車側の区画線が認識できていなくても、隣接車Vを認識できていれば、隣接車存在位置情報から隣接車Vが自車進行路に割り込んできているかを、判断できるため、隣接車Vが自車線に車線変更中か否かを判断できる。なお、自車進行路は、区画線の位置情報と車線幅の情報を基に算出可能である。
 ステップS17:
 ステップS14やステップS16で、LKAの継続が可能であり、隣接車Vの追い抜きが可能な状況と判断された場合(隣接車側の区画線が十分に認識できた場合、または、隣接車の反対側の区画線が十分に認識でき、かつ、隣接車が認識できた場合)、車両制御部16は、後述するステップS19で利用する、追い抜き許可カウントCのカウント値を加算する。
 ステップS18:
 一方、ステップS15やステップS16で、隣接車Vの追い抜きをするべきではないと判断された場合(隣接車側の区画線も反対側の区画線も十分に認識できない場合、隣接車の反対側の区画線は十分に認識できるが、隣接車を見失った場合、または、隣接車が自車線に車線変更中である場合)、車両制御部16は、後述するステップS19で利用する、追い抜き許可カウントCのカウント値を減算する。
 なお、上記したように、図6の処理は、画像取得部11が画像を取得する毎に実施されるため、ステップS17またはステップS18の一方が連続実施される場合は、追い抜き許可カウントCのカウント値が単調増加または単調減少することになる。ただし、カウント値が過剰に大きくなった場合、あるいは、過剰に小さくなった場合には、車両制御の即応性が損なわれる可能性があるため、本実施例では、追い抜き許可カウントCのカウント値に上限と下限を設け、車両制御の即応性を確保できるようにしている。
 また、上記したように、車両認識部13が隣接車Vを所定時間認識しない場合、追い抜き許可カウントCのカウント値は所定値(例えば、0)にリセットされる。これにより、既に追い抜いた隣接車Vによるカウント値が将来の車両制御に影響することを防止することができる。
 ステップS19:
 車両制御部16は、視界不良領域特定部14から取得した視界不良情報と、ステップS17、S18で加減算された追い抜き許可カウントCのカウント値に基づいて、車両制御を決定する。ステップS19の処理の詳細を、図8のフローチャートに示す。
 ステップS19a:
 車両制御部16は、追い抜きフラグFが「追い抜き中」か否かを判断する。そして、追い抜きフラグFが「追い抜き中」の場合、ステップS19bに進む。一方、追い抜きフラグFが「隣接車無し」の場合、ステップS19iに進む。
 ステップS19b:
 車両制御部16は、自車Vの現在のACC制御が、自車線先行車Vとの車間距離を拡げる制御(ステップS12の減速制御)であるかを判断する。そして、減速制御中であれば、ステップS19cに進み、そうでなければ、ステップS19dに進む。
 ステップS19c:
 車両制御部16は、追い抜き許可カウントCのカウント値が所定の閾値T1より大きいかを判断する。そして、カウント値が閾値T1より大きい場合は、ステップS19eに進み、カウント値が閾値T1以下の場合は、ステップS19fに進む。
 ステップS19d:
 車両制御部16は、追い抜き許可カウントCのカウント値が所定の閾値T2(ただし、T1<T2)より大きいかを判断する。そして、カウント値が閾値T2より大きい場合は、ステップS19eに進み、カウント値が閾値T1以下の場合は、ステップS19fに進む。なお、後述するステップS19eとステップS19fの車両制御が短期間で入れ替わらないように(チャタリング防止)、閾値T1と閾値T2の差分を大きめに設定することが望ましい。
 ステップS19e:
 追い抜き許可カウントCのカウント値が大きい場合(LKAにより隣接車Vを安全に追い抜けると考えられる場合)、車両制御部16は、自車Vの車両制御を、隣接車Vの追い抜き制御に設定する。
 ステップS19f:
 一方、追い抜き許可カウントCのカウント値が小さい場合(LKAによる隣接車Vの追い抜きが困難と考えられる場合など)、車両制御部16は、自車Vの車両制御を、隣接車Vと車間距離を拡げる制御に設定する。
 ステップS19g:
 車両制御部16は、自車Vが隣接車Vを追い抜く際に、自車線内のどこを走行するかを判断する。そのため、具体的には、次の判断を行う。
 視界不良が自車線内の隣接車側でのみ発生しており、かつ、その反対側では隣接車Vより遠方まで区画線が検出できている場合は、検出できた区画線側に寄って水しぶき等を避けて走行することが安全な走行方法と判断し、ステップS19hに進む。
 一方、視界不良が発生していない場合、自車線両側で視界不良が発生している場合、または、隣接車反対側の区画線が隣接車Vより遠方まで認識できていない場合、の何れかに該当する場合は、自車線の中央部を走行することが安全な走行方法と判断し、ステップS19iに進む。
 なお、ステップS19gの判断を、1回の認識結果で行ってしまう場合、車両が車幅方向にふらついてしまうことが考えられる。そのため、車幅方向の移動の判断に使用する区画線情報、及び数値化した視界不良情報は、過去複数回の認識結果を基に判断し、車両をふらつかせる制御を抑制可能である。
 ステップS19h:
 車両制御部16は、水しぶき等を発生させている隣接車Vを、隣接車反対側の区画線に寄って追い抜く車両制御に設定する(図7参照)。これにより、隣接車追い抜き時に、隣接車Vが発生させた水しぶきによる視界不良が自車進行路を占める割合を減らすことが可能になり、外界認識への影響を抑制することができる。
 ステップS19i:
 車両制御部16は、自車線の中央部を走行する車両制御に設定する。
 ステップS19aから本ステップに至った場合、すなわち、自車Vより隣接車Vが速い場合であれば、車両制御部16は、隣接車Vの存在に拘わらず、現状速度での自車線中央部の走行を継続する。
 また、ステップS19fから本ステップに至った場合、すなわち、自車Vより遅い隣接車Vとの車間距離を空けるように設定された場合であれば、車両制御部16は、減速しつつ、自車線中央部の走行を継続する。
 一方、ステップS19gから本ステップに至った場合、すなわち、視界不良が発生していない場合等であれば、車両制御部16は、自車線中央部を走行しながら、隣接車Vを追い抜く。
 以上で説明したように、本実施例の車両制御装置によれば、ACC制御による隣接車の追い抜き時に、隣接車が水しぶき等を発生させていた場合、ドライバーに違和感を与えない、ACC制御を実施することができる。
100…運転支援システム、1…撮像装置、2…自車情報取得装置、10…車両制御装置、11…画像取得部、12…区画線認識部、13…車両認識部、14…視界不良領域特定部、15…隣接車追い抜き判定部、16…車両制御部、B…検知枠、A…視界不良判定領域、a…分割領域、p…分割領域の視界不良度、G…分割領域を縦方向にグループ化した領域、P…グループの視界不良度、V…自車、V…隣接車、V…自車線先行車

Claims (13)

  1.  自車に搭載したカメラによって撮像された、車外の画像を取得する画像取得部と、
     前記画像を用いて自車線の区画線を認識する区画線認識部と、
     前記自車線に隣接する車線を走行し、かつ、前記自車より前方に位置する他車両を認識する車両認識部と、
     前記自車線の区画線のうち前記他車両より前方の区画線が検出されたか否かに基づいて、車両の制御を行う車両制御部と、
     を有することを特徴とする車両制御装置。
  2.  請求項1に記載の車両制御装置において、
     前記車両制御部は、前記自車線のうち前記他車両より前方の区画線が検出されなかった場合、前記他車両との車間距離を拡げるように制御することを特徴とする車両制御装置。
  3.  請求項1に記載の車両制御装置において、
     前記車両制御部は、前記自車線のうち前記他車両より前方の区画線のうち少なくとも片側が検出された場合、前記他車両を追い抜くように制御することを特徴とする車両制御装置。
  4.  請求項1に記載の車両制御装置において、
     前記車両制御部は、前記他車両を認識できているか否かに基づいて、車両の制御を行うことを特徴とする車両制御装置。
  5.  請求項4に記載の車両制御装置において、
     前記車両認識部は、前記他車両を認識できず、かつ、前記自車線の区画線のうち他車両側の区画線であって前記他車両より前方の区画線の少なくとも一部が検出できない場合、前記他車両を追い抜くことを制限するように制御することを特徴とする車両制御装置。
  6.  請求項1に記載の車両制御装置において、
     さらに、前記車両認識部が認識した前記他車両の車速と前記自車の車速から、将来的に前記自車が前記他車両を追い抜くか否かを判定する追い抜き判定部を有することを特徴とする車両制御装置。
  7.  請求項1に記載の車両制御装置において、
     前記車両認識部は、自車線の前方を走行する他車両を認識することを特徴とする車両制御装置。
  8.  請求項1に記載の車両制御装置において、
     さらに、前記画像における視界不良の発生領域を特定する視界不良領域特定部を有することを特徴とする車両制御装置。
  9.  請求項8に記載の車両制御装置において、
     前記視界不良領域特定部は、前記視界不良の度合いを判定することを特徴とする車両制御装置。
  10.  請求項9に記載の車両制御装置において、
     前記視界不良領域特定部は、前記画像のうち、少なくとも前記自車線を含む領域を複数の領域に分割し、当該分割された領域ごとに前記視界不良の発生の有無および前記視界不良の度合いを判定することを特徴とする車両制御装置。
  11.  請求項8に記載の車両制御装置において、
     前記車両制御部は、前記視界不良が発生している領域が少なくなるように前記車両を制御することを特徴とする車両制御装置。
  12.  請求項1に記載の車両制御装置において、
     前記車両制御部は、車両制御の内容が短時間で切り替わるのを抑制することを特徴とする車両制御装置。
  13.  ECUによる車両制御方法であって、
     自車に搭載したカメラによって撮像された、車外の画像を取得する画像取得ステップと、
     前記画像を用いて自車線の区画線を認識する区画線認識ステップと、
     前記自車線に隣接する車線を走行し、かつ、前記自車より前方に位置する他車両を認識する車両認識ステップと、
     前記自車線の区画線のうち前記他車両より前方の区画線が検出されたか否かに基づいて、車両の制御を行う車両制御ステップと、
     を有することを特徴とする車両制御方法。
PCT/JP2022/025425 2022-06-27 2022-06-27 車両制御装置、および、車両制御方法 WO2024003964A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/025425 WO2024003964A1 (ja) 2022-06-27 2022-06-27 車両制御装置、および、車両制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/025425 WO2024003964A1 (ja) 2022-06-27 2022-06-27 車両制御装置、および、車両制御方法

Publications (1)

Publication Number Publication Date
WO2024003964A1 true WO2024003964A1 (ja) 2024-01-04

Family

ID=89381777

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/025425 WO2024003964A1 (ja) 2022-06-27 2022-06-27 車両制御装置、および、車両制御方法

Country Status (1)

Country Link
WO (1) WO2024003964A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101316353B1 (ko) * 2012-05-31 2013-10-08 현대자동차주식회사 차량 주변의 차선 생성 장치 및 방법
JP2016522886A (ja) * 2013-04-11 2016-08-04 グーグル インコーポレイテッド 車載センサを用いて気象状態を検出する方法及びシステム
JP2016212630A (ja) * 2015-05-08 2016-12-15 トヨタ自動車株式会社 走行制御装置
WO2019003295A1 (ja) * 2017-06-27 2019-01-03 本田技研工業株式会社 走行制御システムおよび車両の制御方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101316353B1 (ko) * 2012-05-31 2013-10-08 현대자동차주식회사 차량 주변의 차선 생성 장치 및 방법
JP2016522886A (ja) * 2013-04-11 2016-08-04 グーグル インコーポレイテッド 車載センサを用いて気象状態を検出する方法及びシステム
JP2016212630A (ja) * 2015-05-08 2016-12-15 トヨタ自動車株式会社 走行制御装置
WO2019003295A1 (ja) * 2017-06-27 2019-01-03 本田技研工業株式会社 走行制御システムおよび車両の制御方法

Similar Documents

Publication Publication Date Title
US10688994B2 (en) Vehicle control apparatus
US11667285B2 (en) Vehicle control method and apparatus, electronic device and storage medium
JP7291129B2 (ja) 路面状態と天候に基づく環境影響を認識し評価する方法及び装置
JP6158523B2 (ja) 車間距離制御装置
US9963128B2 (en) Travel assistance device
US11021155B2 (en) Vehicle control apparatus and vehicle control method
US9896097B2 (en) Driving support apparatus
JP4900211B2 (ja) 走行支援装置、車間距離設定方法
DE112016000695T5 (de) Evakuierungssteuervorrichtung und Evakuierungssteuerverfahren
JP5886809B2 (ja) 車外環境認識装置
US20160221604A1 (en) Lane following control device
DE112019003421B4 (de) Fahrunterstützungssteuerungsvorrichtung für ein Fahrzeug, Fahrunterstützungssteuerungssystem für ein Fahrzeug, und Fahrunterstützungssteuerverfahren für ein Fahrzeug
DE102014110206B4 (de) Fahrzeugaußenumgebungerkennungsvorrichtung
CN111142528B (zh) 车用危险场景感知方法、装置和系统
JP2019061613A (ja) 制御対象車両設定装置、制御対象車両設定システムおよび制御対象車両設定方法
JP2018001801A (ja) 車両制御装置及び車両制御方法
JP2022060074A (ja) 車両の運転支援装置
US20210122369A1 (en) Extensiview and adaptive lka for adas and autonomous driving
CN109070881A (zh) 用于运行车辆的方法
JPWO2019174682A5 (ja)
KR20100056883A (ko) 끼어드는 차량을 인식하는 감응식 순항 제어 시스템
JP2008165610A (ja) 道路区画線認識装置
WO2024003964A1 (ja) 車両制御装置、および、車両制御方法
KR20180078363A (ko) 차량 간 충돌 방지 방법 및 장치
JP5118468B2 (ja) 車両の走行制御装置。

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22949243

Country of ref document: EP

Kind code of ref document: A1