WO2016002405A1 - 駐車枠認識装置 - Google Patents

駐車枠認識装置 Download PDF

Info

Publication number
WO2016002405A1
WO2016002405A1 PCT/JP2015/065572 JP2015065572W WO2016002405A1 WO 2016002405 A1 WO2016002405 A1 WO 2016002405A1 JP 2015065572 W JP2015065572 W JP 2015065572W WO 2016002405 A1 WO2016002405 A1 WO 2016002405A1
Authority
WO
WIPO (PCT)
Prior art keywords
parking
parking frame
vehicle
frame line
traveling direction
Prior art date
Application number
PCT/JP2015/065572
Other languages
English (en)
French (fr)
Inventor
耕太 入江
雅男 坂田
尊史 萩
Original Assignee
クラリオン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クラリオン株式会社 filed Critical クラリオン株式会社
Publication of WO2016002405A1 publication Critical patent/WO2016002405A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to a parking frame recognition device for detecting a parking space in the traveling direction of the host vehicle.
  • a system that detects a parking space by using a camera or a distance measuring sensor installed in the vehicle and performs parking control (for example, automatic parking) with the detected parking space as a target. Proposed.
  • Patent Document 1 As a specific system, one that executes parking control by setting a parking frame detected with the highest accuracy among parking frames captured by a camera as a parking position (for example, Patent Document 1), and distance measurement A sensor that detects a space between parked vehicles using a sensor (for example, Patent Document 2) has been proposed.
  • the parking type is determined and the parking area is detected based on the distance between the parked vehicles measured by the distance measuring sensor. Even if it is detected that there is a space three vehicles ahead, there is no guarantee that the space is a parking space, so it is difficult to detect a parking space based only on the distance to the parked vehicle. It was.
  • a parking support device After detecting a parking area, the driver is provided with information on a parking area, and a parking route for controlling the vehicle to perform automatic parking is established. Therefore, it is desirable to detect a parking possible region from as far away as possible so that parking assistance can be performed at an early stage.
  • the far parking frame line is thinner than the neighboring parking frame line and the interval between the adjacent parking frame lines is narrower, the parking frame line can be detected stably from the image. Have difficulty. Therefore, for example, simply combining the methods described in Patent Document 1 and Patent Document 2 does not guarantee that a distant parking frame line can be reliably detected.
  • the present invention has been made in view of the above problems, and an object of the present invention is to reliably detect a parking space in the traveling direction of the host vehicle as far as possible.
  • the parking frame recognizing device reliably detects a space (parking frame) where the host vehicle can be parked from as far as possible from an image captured by an imaging unit attached to the host vehicle.
  • the parking frame recognizing device is attached to the host vehicle, and is provided with a side imaging unit that captures an image including a road surface on the left and right sides of the host vehicle, and the host vehicle is attached to the host vehicle.
  • a traveling direction imaging unit that captures an image including a road surface in a direction
  • a side parking frame line detection unit that detects a parking frame line on the left and right sides of the host vehicle from images captured by the side imaging unit
  • a parking frame line feature calculating unit that calculates the characteristics of the parking frame lines on the left and right sides of the host vehicle, and based on the features, an image of the traveling direction of the host vehicle from the images captured by the traveling direction imaging unit.
  • an image including a road surface on the left and right sides of the host vehicle is captured by the side imaging unit attached to the host vehicle, and the side parking frame line is captured.
  • a detection part detects the parking frame line of the left-right side of the own vehicle, and a parking frame line characteristic calculation part calculates the characteristic of a parking frame line.
  • the traveling direction parking frame line detection parameter setting unit sets parameters for detecting the parking frame line in the traveling direction of the host vehicle, and the traveling direction imaging unit captures an image. From the image including the road surface in the traveling direction of the host vehicle, the parking area detection unit for the traveling direction detects the parking frame in which the host vehicle can be parked. Can be reliably detected.
  • the parking assist device can reliably detect a parking space in the traveling direction of the host vehicle as far as possible.
  • FIG. 1 It is a functional block diagram which shows schematic structure of the parking frame recognition apparatus which concerns on Example 1 which is 1 embodiment of this invention. It is a figure explaining operation
  • FIG. 6 is a diagram illustrating an arrangement form of image pickup units in a modification example of Example 1.
  • a parking frame recognition device is mounted on a vehicle, and a parking assist system for detecting a parkable area in the traveling direction and transmitting it to a driver of the vehicle is configured.
  • a parking frame recognition apparatus 100 is installed in a vehicle 10 (own vehicle) and captures an image of a region including a road surface on the left and right sides of the vehicle 10. 12, a traveling direction imaging unit 15 that captures an image of an area including a road surface before and after the vehicle 10, input of images captured by the side imaging unit 12 and the traveling direction imaging unit 15, and necessary image processing are performed.
  • An electronic control unit (ECU) 20 a vehicle state acquisition unit 40 that acquires a vehicle state such as a vehicle speed, a steering angle, and a shift position of the vehicle 10, and a parking frame recognition result that is provided on the dashboard of the vehicle 10 is displayed. And a monitor 50.
  • the side imaging unit 12 is further installed in the vicinity of the right door mirror of the vehicle 10, and is installed in the vicinity of the right camera 12 a that captures an image of an area including the road surface on the right side of the vehicle 10 and the left door mirror of the vehicle 10.
  • a left camera 12b that captures an image of a region including the road surface on the left side of the vehicle 10.
  • the right camera 12a and the left camera 12b are preferably color cameras.
  • the present invention is not limited to a color camera, and a monochrome camera may be used. In that case, as will be described later, the types of features of the detectable parking frame line are limited.
  • the traveling direction imaging unit 15 is further installed at the front end of the vehicle 10, and is installed at the front camera 15 a that captures an image of an area including the road surface in front of the vehicle 10, and at the rear end of the vehicle 10. And a rear camera 15b that captures an image of an area including the rear road surface.
  • the front camera 15a and the rear camera 15b are preferably color cameras.
  • the present invention is not limited to a color camera, and a monochrome camera may be used. In that case, as will be described later, the types of features of the detectable parking frame line are limited.
  • the right camera 12a, the left camera 12b, the front camera 15a, and the rear camera 15b are respectively installed at predetermined positions in a predetermined direction.
  • the electronic control unit (ECU) 20 is composed of an image processing processor, an arithmetic unit made up of a microcomputer, and a storage device made up of a memory, and more specifically, an image input unit 22, a side parking frame line detection unit 23, and a parking device.
  • the frame line feature calculation unit 24, a traveling direction parking frame line detection parameter setting unit 26, a traveling direction parking possible area detection unit 28, a parking frame priority order determination unit 30, and a parking frame information output unit 32 are included.
  • the image input unit 22 performs A / D conversion on images captured by the side imaging unit 12 and the traveling direction imaging unit 15 and inputs the images to the electronic control unit (ECU) 20 as digital images.
  • ECU electronice control unit
  • the side parking frame line detection unit 23 is a parking frame that indicates the boundary position of the parking frame drawn on the road surface from the left and right side images of the input vehicle 10 captured by the side imaging unit 12. Detect lines.
  • the parking frame line feature calculation unit 24 determines whether there is a parking frame line, the interval between adjacent parking frame lines, the shape of the parking frame line, the parking frame line The color and the angle between the traveling direction of the vehicle 10 and the parking frame line are calculated and stored as the characteristics of the parking frame line. Furthermore, based on these characteristics, the parking classification showing the parking form with respect to a parking frame is determined.
  • the type of feature calculated here differs depending on the specifications of the right camera 12a, left camera 12b, front camera 15a, and rear camera 15b to be used.
  • the color of the parking frame line cannot be detected.
  • features other than the color of the parking frame line are calculated, and the subsequent processing is performed.
  • the traveling direction parking frame line detection parameter setting unit 26 calculates the image captured by the traveling direction imaging unit 15 based on the characteristics of the parking frame line on the left and right sides of the vehicle 10 calculated by the parking frame line feature calculation unit 24. From the inside, parameters necessary for detecting a parking frame line existing in the traveling direction of the vehicle 10 are set.
  • the traveling direction parking possible region detection unit 28 further includes a parking frame line length calculation unit 28a and a wheel detection unit 28b.
  • the traveling direction parking area detection unit 28 exists in the traveling direction of the vehicle 10 using the parameters set by the traveling direction parking frame line detection parameter setting unit 26 from the images captured by the traveling direction imaging unit 15. Detect parking borders. Then, the vehicle 10 can be parked based on the length of the parking frame line calculated by the parking frame line length calculation unit 28a and the appearance of the wheel of the parked vehicle (other vehicle) detected by the wheel detection unit 28b. Parking areas R1, R2,... (Parking frame) (see FIG. 13) are detected.
  • the parking frame priority determining unit 30 determines priorities in the order in which parking is easy when a plurality of parking possible areas (R1, R2,%) (Parking frames) are detected in the traveling direction of the vehicle 10.
  • FIG. 2A is a diagram illustrating the imaging range of the side imaging unit 12 (12a, 12b), and FIG. 2B shows an example of an image I R (x, y) actually captured by the right camera 12a.
  • FIG. 2C shows an example of an image I L (x, y) actually captured by the left camera 12b.
  • FIG. 3A is a diagram illustrating that the front camera 15a captures an image of the imaging range 16a
  • FIG. 3B is an example of an image I F (x, y) actually captured by the front camera 15a. Show.
  • the left and right side images are captured by the side imaging unit 12 (12a, 12b). That is, as shown in FIG. 2A, the image I R (x, y) (FIG. 2B) in the right imaging range 13a and the image I L (in the left imaging range 13b with respect to the traveling direction F of the vehicle 10). x, y) (FIG. 2C) are respectively imaged.
  • the electronic control unit (ECU) 20 determines that the side imaging unit 12 (12a, 12b) when the vehicle speed v of the vehicle 10 falls below a predetermined threshold value vth. Shall be activated.
  • a line segment that is considered to represent a parking frame line is detected from the image I R (x, y) and the image I L (x, y) thus captured.
  • a specific method for detecting the parking frame line will be described later.
  • the feature of the parking frame line is calculated.
  • This characteristic is, for example, the presence or absence of a parking frame line, the interval between adjacent parking frame lines, the shape of the parking frame line, the color of the parking frame line, and the angle between the traveling direction of the vehicle 10 and the parking frame line. The details of each feature and the calculation method will be described later in detail.
  • a parking type representing a parking mode for the parking frame in the parking lot 200 is determined.
  • parallel parking is a form in which the vehicle is parked in a parking frame that is aligned side by side in a direction orthogonal to the road side end, and the vehicle is parked in a parking frame that is aligned obliquely to the road side end. It is determined whether the parking is oblique or parallel parking in which the vehicle is parked in a vertical state in a parking frame aligned vertically along the road side end. For example, in the case of FIG. 2B and FIG. 2C, it determines with performing parallel parking. A specific parking type determination method will be described later. (Description of how to set the parking frame search area in the vehicle traveling direction)
  • the presence position of the parking frame line that is predicted to be observed by the front camera 15a that captures the traveling direction of the vehicle 10 is estimated.
  • This prediction is estimated based on the fact that the parking type is parallel parking, and the actual mounting position and mounting direction of the right camera 12a, the left camera 12b, and the front camera 15a.
  • the parking frame line wi in the image I F (x, y) captured by the front camera 15a exists, for example, inside the search areas 18a and 18b shown in FIG. 3A.
  • the captured actually by the front camera 15a the image I F (x, y) shown in Figure 3B from the detects a (from w1 w10) parking frame line wi shown in Figure 3A.
  • the distance between adjacent parking frame lines wi, wi + 1 the shape of the parking frame line wi, the color of the parking frame line wi, the traveling direction F of the vehicle 10 and the parking, which are the characteristics of the previously calculated parking frame line wi.
  • Information on the angle ⁇ formed by the frame line wi can be used.
  • the parking frame line wi is detected from the image IF (x, y) without any clues, but the right camera is limited to the search areas 18a and 18b.
  • the parking frame line wi in the front (traveling direction) of the vehicle 10 can be detected more reliably. it can. (Description of a method for detecting a parking frame line from an image captured by the side imaging unit)
  • FIG. 4A is a diagram for explaining how a parking frame line is detected from the image I R (x, y) (FIG. 2B) captured by the right camera 12a (FIG. 1).
  • the distance between the detected positive edge point and the negative edge point is calculated to determine the expected parking frame line thickness. All pairs of plus edge point and minus edge point that are substantially equal are detected.
  • parking frame line candidate points E11 to E51 are detected at the vertical position y1
  • Parking frame line candidate points E12 to E52 are detected at the vertical position y2.
  • FIG. 4A only the results of the vertical positions y1 and y2 are shown, but actually, the same processing is executed at more vertical positions yi.
  • the detected parking frame line candidate points E11 to E51 and the parking frame line candidate points E12 to E52 are respectively detected from the coordinate system of the image I R (x, y). Project to the existing vehicle coordinate system (X, Y).
  • the vehicle coordinate system (X, Y) has an installation position of the front camera 15a (FIG. 1) of the vehicle 10 as an origin O (0, 0), and the traveling direction of the vehicle is the X axis.
  • the right camera 12a, the left camera 12b, the front camera 15a, and the rear camera 15b are installed at predetermined positions in a predetermined direction, respectively.
  • the position on x, y) and the position on the vehicle coordinate system (X, Y) can be uniquely associated. Therefore, the projection processing described above can be performed by simple numerical calculation. This projection process can also be performed using a table created in advance.
  • the detected parking frame line candidate points (E11 to E51, E12 to E12 to E52 to E52 to E52 to E52 to E52) are detected based on the distribution state of the plurality of parking frame line candidate points (E11 to E51, E12 to E52) shown in FIG. In E52), it is determined that consecutive parking frame line candidate points, that is, parking frame line candidate points considered to form a line segment, constitute one parking frame line. For example, when the result of the projection processing shown in FIG. 4B is obtained, it is determined that there are five parking frame lines w1, w2, w3, w4, and w5.
  • the parking frame line wi can be similarly detected for the image I L (x, y) captured by the left camera 12b. (Explanation of parking frame feature calculation method)
  • FIG. 6A to FIG. 6C contents of features of the parking frame line detected from the images (I R (x, y), I L (x, y)) captured by the side imaging unit 12 (12a, 12b). 5, FIG. 6A to FIG. 6C will be used to explain.
  • interval Jw of the adjacent parking frame line wi and parking frame line wi + 1 among the detected parking frame lines wi is calculated. And when the space
  • the interval Jw between the adjacent parking frame line wi and the parking frame line wi + 1 is Jw ⁇ W PL Determines that the parking type is parallel parking or diagonal parking.
  • it is Jw ⁇ W PL determines that the parking type is a parallel parking.
  • the parking frame line wi may be composed of a single line, that is, a single line, or may be composed of two different lines, that is, a double line.
  • the parking frame line wi is composed of a single line, for example, among the parking frame lines wi detected by the method described in FIGS. 4A and 4B, the interval Jw between the adjacent parking frame lines wi and wi + 1. Is determined to be substantially equal between all detected parking frame lines wi and parking frame line wi + 1.
  • FIG. 6A to FIG. 6C show a parking frame line and parking frame shapes that are generally present, and a parking example of the vehicle V.
  • 6A shows a shape example of the parallel parking frame
  • FIG. 6B shows a shape example of the oblique parking frame
  • FIG. 6C shows a shape example of the parallel parking frame.
  • the parking frame line wi is constituted by a single line, for example, the parking frames Pa and Pc in FIG. 6A, the parking frames Pf and Pg in FIG. 6B, and the parking frames Ph to Pl in FIG.
  • An example can be given.
  • the parking frame line wi is composed of double lines
  • the parking frames Pb, Pd, and Pe in FIG. 6A can be cited.
  • the parking frame line wi is composed of double lines, for example, among the parking frame lines wi detected by the method described in FIGS. 4A and 4B, the adjacent parking frame line wi and the parking frame line
  • the interval Jw of wi + 1 is determined by appearing alternately as a large value and a small value.
  • the parking frame line wi is determined by the method described in FIGS. 4A and 4B. Is detected again, whether or not the end points of the adjacent parking frame line wi and parking frame line wi + 1 are connected is determined again by the brightness of the image I R (x, y) or the image I L (x, y). By referring to the distribution, it may be determined that the parking frame line wi is constituted by a double line.
  • Shape of parking frame There are various variations in the shape of the parking frame composed of a plurality of parking frame lines wi, but the left and right parallel lines, the front and rear parallel lines, the U shape, and the rectangular shape shown in FIG. Is a typical shape.
  • the specific shape of each parking frame is as shown in the corresponding drawings in FIGS. 6A to 6C as described in FIG. Which of the shapes of the parking frame formed by the detected parking frame line wi can be determined by analyzing the connection relationship between the detected different parking frame lines wi.
  • the shape of the parking frame is obtained by determining the presence or absence of the parking frame line wi detected by the method described in FIG. 4A and FIG. 4B and the connection relationship between the end points of the detected different parking frame lines wi. Can be identified.
  • Color of parking frame line When a color camera is used as the right camera 12a, left camera 12b, front camera 15a, and rear camera 15b, the color of the parking frame line can be detected.
  • the color of the parking frame line wi is typically white and orange.
  • the color of the parking frame line wi reads an image (I R (x, y) , I L (x, y)) color information (e.g. RGB values) of the pixels corresponding to the parking frame line candidate points in the Can be detected.
  • the angle ⁇ formed by the traveling direction F of the vehicle 10 and the parking frame line wi is represented by the angle ⁇ shown in FIGS.
  • This angle ⁇ can be calculated, for example, by obtaining an angle formed by the X axis indicating the direction of the detected parking frame line wi and the traveling direction of the vehicle 10 in FIG. 4B.
  • a plurality of parking frame lines wi are detected from the image I R (x, y) and the image I L (x, y), respectively, but the detected parking frame lines wi are parallel. Therefore, the angle ⁇ is obtained for each of the plurality of parking frame lines wi, and the calculated plurality of angles ⁇ may be averaged to obtain an angle ⁇ formed by the traveling direction of the vehicle and the parking frame line wi.
  • the determination of the parking type can be performed using the angle ⁇ formed by the traveling direction F of the vehicle 10 and the parking frame line wi, and the interval Jw between adjacent parking frame lines.
  • the parking type for the detected parking frame is parallel parking or diagonal parking. To be judged.
  • interval Jw is around 5 m, it is judged that the parking classification with respect to the detected parking frame is parallel parking.
  • FIG. 7 is a diagram illustrating a state of the angle ⁇ and the parking frame line interval Jw when it is determined that the parking type is parallel parking.
  • the detection of the parking frame line wi described with reference to FIGS. 4A and 4B detects the parking frame line wi based on the distance between the plus edge point and the minus edge point. Therefore, as shown in FIG. Even if the parked vehicle 250 (another vehicle) is parked, it can be executed without being affected by the presence of the parked vehicle 250.
  • FIG. 8 is a diagram illustrating a state of the angle ⁇ and the interval Jw between the parking frame lines when it is determined that the parking type is oblique parking.
  • FIG. 9 is a diagram illustrating the state of the angle ⁇ and the interval Jw between the parking frame lines when it is determined that the parking type is parallel parking. (Description of how to set the travel direction parking frame detection parameter)
  • the parameters set here are the distance between the parking frame lines wi, the shape of the parking frame line w i, the color of the parking frame line w i, the traveling direction F of the vehicle 10 and the parking, which are calculated by the parking frame line feature calculation unit 24 previously.
  • a search area for the parking frame line wi is set in the image IF (x, y) captured by the front camera 15a. Specifically, based on the alignment state of the parking frames detected from the images captured by the right camera 12a and the left camera 12b, the relative relationship between the right camera 12a and the left camera 12b is set at a known position. The position of the parking frame predicted to be captured in the image captured by the forward camera 15a is predicted, and the search area for the parking frame line wi is set.
  • the detection condition of the parking frame line wi is limited based on the angle ⁇ formed by
  • the parking frame line wi is detected as an area where parking frame line candidate points detected as a pair of plus edge point and minus edge point are continuous.
  • the color of the region between the plus edge point and the minus edge point can be predicted, and the extending direction of the parking frame line candidate point is predicted from the angle ⁇ formed by the traveling direction F of the vehicle 10 and the parking frame line wi. be able to.
  • the interval between the adjacent parking frame lines wi, wi + 1 and the shape of the parking frame line wi can be used. . (Description of parking frame line detection method from front camera image)
  • the detection of the parking frame line wi from the image I F (x, y) captured by the front camera 15a is performed by using the parking frame line wi from the image I R (x, y) captured by the right camera 12a as described above. It can be performed in the same manner as the detection method.
  • the inside of the previously set search area is scanned in a direction parallel to the traveling direction F of the vehicle 10 to calculate the luminance distribution of the image I F (x, y).
  • a parking frame line candidate point is detected based on the position of the minus edge point and the color between the plus edge point and the minus edge point. Then, among the detected parking frame line candidate points, continuous parking frame line candidate points extending in a direction near the angle ⁇ formed by the traveling direction F of the vehicle 10 and the parking frame line wi are calculated. Detect as line wi.
  • the parking area (parking frame) of the vehicle 10 is determined based on the parking frame line wi detected from the image IF (x, y) captured by the front camera 15a with reference to FIGS. A detection method will be described. (Explanation of the parking direction detection method for the direction of travel (Parallel parking))
  • FIG. 10A and FIG. 10B are diagrams for explaining the contents of processing for detecting a parking area in the parking lot 200 parked in parallel, and FIG. 10A shows the positions of the parking lot parked in parallel and the vehicle 10 (own vehicle). It is a figure explaining a relationship.
  • FIG. 10B is a diagram illustrating a result of detecting a parking area.
  • the parking frame lines w1 to w7 are detected by the detection process of the parking frame line wi described above, and the parking frames C1 to C6 are detected based on the result.
  • the parked vehicle 250 (other vehicle) is stopped except for the parking frame C3.
  • the length of the portion of the parking frame line wi that is shown in the image IF (x, y) shown in FIG. 10B is obtained.
  • the length of the portion of the parking frame line wi shown in the image I F (x, y) is represented by the parking frame line length L (wi) (FIG. 10A).
  • the parking frame line lengths L (w1) to L (w7) are respectively calculated.
  • the parking frame line length L (w1) extends from the position of the front camera 15a and contacts the end of the parked vehicle 250 (another vehicle) parked in the parking frame C1.
  • the distance between the intersection of the half line Q1 and the parking frame line w1 and the end point on the right side of the parking frame line w1 is shown.
  • the parking frame line lengths L (w2) to L (w7) are based on the positions of the intersections of the half lines Q2 to Q7 and the parking frame lines w2 to w7. (W7) is calculated respectively.
  • the parking frame line length L (wi + 1) on the side closer to the vehicle 10 (own vehicle) is compared with the far-side parking frame line length L (wi).
  • the parking frame line wi + 1 on the side close to the vehicle 10 (own vehicle) among the parking frame lines wi constituting the parking frame Ci is: It is observed longer than the parking frame line wi far from the vehicle 10 (own vehicle).
  • the parking frame line wi + 1 on the side closer to the vehicle 10 (the host vehicle) among the parking frame lines wi constituting the parking frame Ci is the vehicle 10. Observed shorter than the parking frame line wi on the far side from the host vehicle.
  • the parking frame line lengths L (wi) and L (wi + 1) are calculated for the adjacent parking frame lines wi and wi + 1, respectively.
  • L (wi)> L (wi + 1) the parking frame Ci is It is determined that the parking frame can be parked in parallel.
  • L (wi) ⁇ L (wi + 1) it is determined that the parking frame Ci cannot be parked in parallel.
  • the parking frame C3 is a parking frame that can be parked in parallel, and that other parking frames cannot be parked in parallel.
  • the parking frame C3 is detected as a parkingable area (parking frame) that can be parked in parallel, but of course, the parked vehicle 250 (other vehicles) is stopped at a plurality of parking frames.
  • a plurality of parking frames are detected as parking frames that can be parked in parallel.
  • a parking area where parallel parking is possible can be detected with reference to how the wheel H of the parked vehicle 250 (other vehicle) looks. . That is, among the adjacent parking frame lines wi and wi + 1, when the wheel H of another parked vehicle 250 is detected in the vicinity of the far side of the far side parking frame line wi as viewed from the vehicle 10, the adjacent parking frame line It can be determined that the space between wi and wi + 1 is a parking frame that can be parked in parallel. The method based on the appearance of the wheel H of the parked vehicle 250 can be applied only when the parked vehicle 250 is parked in the adjacent parking frame on the far side of the parking area.
  • Detecting the wheel of the parked vehicle 250 can be performed using, for example, Hough conversion.
  • a parameter space for estimating the center position of the wheel H is prepared, and among the adjacent parking frame lines wi and wi + 1, the wheel H is further located near the far side of the far side parking frame line wi. Is set, and an edge composing point having a large luminance difference between adjacent pixels is detected within the small area, and the normal direction of the edge at the pixel is obtained. Then, in the prepared parameter space, the vote value at a position corresponding to the predicted wheel radius is incremented from the position of the edge composing point toward the obtained normal direction.
  • the wheel radius observed in the image IF (x, y) can be predicted in advance according to the vertical position in the image, if the Hough transform is executed based on the predicted value, Good. That is, in the image I F (x, y), when the small region is set upward, the parameter space is voted with a small radius value, and conversely, when the small region is set downward, it is large. Vote on the parameter space with the radius value.
  • the parking frame C3 satisfies the condition of L (w3)> L (w4).
  • the parking frame C3 can also be determined to be a parking frame that can be parked in parallel by detecting the wheel H1 in the far adjacent parking frame of the parking frame line w3. . (Description of how to detect the direction of parking in the direction of travel (diagonal parking))
  • FIG. 11A and FIG. 11B are diagrams for explaining the contents of a process for detecting a parking available area in the parking lot 200 parked diagonally.
  • FIG. 11A shows the positions of the parking lot parked diagonally and the vehicle 10 (own vehicle). It is a figure explaining a relationship.
  • FIG. 11B is a diagram illustrating a result of detecting a parking area.
  • the parking frame lines w10 to w15 are detected by the detection processing of the parking frame line wi described above, and the parking frames C7 to C11 are detected based on the result.
  • the parked vehicle 250 (another vehicle) is stopped except for the parking frames C9 and C10.
  • the parking frame line lengths L (w10) to L (w15) are respectively calculated.
  • the parking frame line length L (w10) extends from the position of the front camera 15a and contacts the end of the parked vehicle 250 (another vehicle) parked in the parking frame C7.
  • the distance between the intersection of the half line Q6 and the parking frame line w10 and the end point on the left side of the parking frame line w10 is shown.
  • the parking frame line lengths L (w11) to L (w15) are determined based on the positions of the intersections of the half lines Q7 to Q9 and the parking frame lines w11 to w15. (W15) is calculated respectively.
  • the parking frame line wi + 1 on the side closer to the vehicle 10 (own vehicle) and the vehicle out of the parking frame lines wi constituting the parking frame Ci Both of the parking frame lines wi on the side far from 10 (own vehicle) are observed short.
  • the parking frame line wi + 1 and the vehicle 10 (on the side closer to the vehicle 10 (own vehicle)) out of the parking frame lines wi constituting the parking frame Ci Both of the parking frame lines wi far from the host vehicle are observed for a long time.
  • the parking frame line lengths L (wi) and L (wi + 1) are calculated for the adjacent parking frame lines wi and wi + 1, respectively, and both L (wi) and L (wi + 1) are predetermined parking frame lines.
  • L (wi) and L (wi + 1) are predetermined parking frame lines.
  • the parking frames C8, C9, C10, C11 are parking frames that can be diagonally parked, and that other parking frames cannot be diagonally parked.
  • the parking frames C8, C9, C10, C11 are certainly parking frames that can be diagonally parked. That is, when the wheel H of another parked vehicle 250 is not detected in the area between the adjacent parking frame lines wi and wi + 1, the space between the adjacent parking frame lines wi and wi + 1 is a parking frame that can be parked obliquely. It can be judged.
  • Detecting the wheel of the parked vehicle 250 can be performed using the Hough transform as described above.
  • the specific method is the same as that described above except that a small region for detecting the wheel H is set between the adjacent parking frame lines wi and wi + 1, and thus the description thereof is omitted.
  • the wheel H2 is detected inside the parking frame C8, and inside the parking frame C11.
  • the wheel H3 is detected. Therefore, it can be determined that only the parking frames C9 and C10 are parking frames that can be parked obliquely. (Description of how to detect the direction of parking in the direction of travel (Parallel parking))
  • FIG. 12A and FIG. 12B are diagrams for explaining the contents of processing for detecting a parking area in the parking lot 200 that is parked in parallel
  • FIG. 12A is the position of the parking lot that is parked in parallel and the vehicle 10 (own vehicle). It is a figure explaining a relationship
  • FIG. 12B is a diagram illustrating a result of detecting a parking area.
  • the parking frame lines w16 to w20 are detected by the detection processing of the parking frame line wi described above, and the parking frames C12 and C13 are detected based on the result. And among the detected parking frames C12 and C13, the parked vehicle 250 (another vehicle) shall stop other than parking frame C12.
  • the parking frame line lengths L (w16) to L (w20) are respectively calculated.
  • the parking frame line length L (w17) extends from the position of the front camera 15a and comes into contact with the end of the parked vehicle 250 (another vehicle) parked in the parking frame C13.
  • the distance between the intersection of the half line Q10 and the parking frame line w17 and the right end point of the parking frame line w17 is shown.
  • the parking frame line lengths L (w16) and L (w18) to L (w20) are calculated for the parking frame line lengths L (w16) and L (w18) to L (w20).
  • the parking frame line length L (wi + 1) on the side closer to the vehicle 10 (own vehicle) is compared with the far-side parking frame line length L (wi).
  • the parking frame line wi + 1 on the side close to the vehicle 10 (own vehicle) among the parking frame lines wi constituting the parking frame Ci is: It is observed longer than the parking frame line wi on the side far from the vehicle 10.
  • the parking frame line wi + 1 on the side closer to the vehicle 10 among the parking frame lines wi constituting the parking frame Ci is generally on the side far from the vehicle 10. Observed shorter than the parking frame wi.
  • the parking frame line lengths L (wi) and L (wi + 1) are calculated for the adjacent parking frame lines wi and wi + 1, respectively.
  • L (wi)> L (wi + 1) the parking frame Ci is It is determined that the parking frame can be parked in parallel.
  • L (wi) ⁇ L (wi + 1) it is determined that parallel parking is not possible in the parking frame Ci.
  • the parking frame C12 is a parking frame that allows parallel parking, and it is determined that parallel parking cannot be performed in other parking frames.
  • only the parking frame C12 is detected as a parkingable area where parallel parking is possible.
  • the parked vehicle 250 another vehicle
  • a plurality of parking frames are detected as parking frames that can be parked.
  • the parking frame priority order determination unit 30 gives priority to the detected plurality of parking areas Ri. Specifically, based on the current speed of the vehicle 10 (own vehicle) and the distance between the detected parking area Ri and the vehicle 10, the priority order is determined in the order in which parking is easy.
  • the distance between the vehicle 10 (own vehicle) and each detected parking area Ri is calculated.
  • each parking area Ri based on the current vehicle speed of the vehicle 10 (own vehicle) and the distance to each parking area Ri, without sudden braking. It is determined whether or not each parking area Ri can be stopped, that is, whether or not there is a deceleration allowance. For example, when the vehicle 10 approaches the parking area Ri with the current vehicle speed, and then gives a preset allowable maximum deceleration acceleration to the vehicle 10, the vehicle 10 It is determined based on whether or not the vehicle can stop in the parking area Ri, and when it is determined that the vehicle 10 can stop, it is determined that there is a deceleration allowance.
  • the steering angle generated in the vehicle 10 is also taken into consideration, and when the vehicle is moved to the parking area Ri without performing a predetermined steering or higher, a higher priority order is given. You may make it do. (Description of parking frame information output form)
  • the parking frame information output unit 32 converts the detected parking area Ri (parking frame) information into a form of an image that is easy to understand for the driver of the vehicle 10 (own vehicle) and displays it on the monitor 50.
  • the coordinates of the images captured by the front camera 15a, the rear camera 15b, the right camera 12a, and the left camera 12b are converted into a form in which the vehicle 10 is viewed from diagonally above the rear. Then, the coordinate-converted images are combined into a single image, and the detected parking area Ri (R1, R2 in the example of FIG. 13) is superimposed and displayed on the monitor 50.
  • Step S1 In the electronic control unit (ECU) 20, it is determined whether or not the vehicle speed v of the vehicle 10 (own vehicle) is smaller than the threshold value vth. If v ⁇ vth, the process proceeds to step S10, and otherwise, step S1 is repeated.
  • Step S10 The parking frame line feature calculation unit 24 calculates the characteristics of the parking frame line. More detailed processing contents will be described later.
  • Step S50 In the traveling direction parking frame line detection parameter setting unit 26, a parking frame line detection parameter in the traveling direction of the vehicle 10 (own vehicle) is set. More detailed processing contents will be described later.
  • Step S60 In the advancing direction parking area detection unit 28, a parking area in the advancing direction of the vehicle 10 (own vehicle) is detected. More detailed processing contents will be described later.
  • Step S90 The parking frame information output unit 32 outputs information on the detected parking area. More detailed processing contents will be described later. (Description of parking frame feature calculation processing flow)
  • step S10 in FIG. 14 the flow of the parking frame line feature calculation process
  • Step S12 Image input is performed from the left camera 12b and the right camera 12a, respectively.
  • Step S15 A parking frame line is detected from the captured image, and the feature is calculated. More detailed processing contents will be described later.
  • Step S40 It is determined whether or not the detected parking frame line is a double line. If it is a double line, the process proceeds to step S42; otherwise, the process proceeds to step S41.
  • Step S41 It is determined whether the interval Jw of the parking frame line is smaller than 4 m. When the interval Jw is smaller than 4 m, the process proceeds to step S42, and otherwise, the process proceeds to step S46.
  • Step S42 It is determined whether or not the angle ⁇ (see FIG. 7) formed by the traveling direction F of the vehicle 10 and the parking frame line wi is in the range of 80 ° to 100 °.
  • the process proceeds to step S43, and otherwise, the process proceeds to step S44.
  • Step S43 It is determined that the parking type is parallel parking.
  • Step S44 It is determined whether or not the angle ⁇ (see FIG. 8) formed by the traveling direction F of the vehicle 10 and the parking frame line wi is within a range of 30 ° to 60 °.
  • the process proceeds to step S45, and otherwise, it is determined that there is no parking type, and the process returns to the main routine (FIG. 14).
  • the process is terminated.
  • Step S45 It is determined that the parking type is diagonal parking.
  • Step S46 It is determined that the parking type is parallel parking.
  • Step S47 The calculated characteristics of the parking frame line (including the parking type) are stored, and the process returns to the main routine (FIG. 14). (Description of parking frame line detection process)
  • step S15 in FIG. 15 the flow of the parking frame line detection process
  • Step S20 A positive edge point and a negative edge point in the horizontal direction are detected from the images captured by the left camera 12b and the right camera 12a, respectively.
  • Step S22 Threshold processing is performed on the interval between the plus edge point and the minus edge point, and a pair of plus edge point and minus edge point having an interval close to the expected thickness of the parking frame line is extracted.
  • Step S24 The position of the midpoint of the pair of the extracted plus edge point and minus edge point is calculated.
  • Step S26 The calculated position of the midpoint of the pair of plus edge point and minus edge point is projected onto the XY plane constituting the vehicle coordinate system (X, Y).
  • Step S28 Based on the result of projection onto the XY plane, a parking frame line is detected and its characteristics are calculated. Thereafter, returning to the flowchart of FIG. 15, the process proceeds to step S40. (Description of the flow of the direction-of-travel parking frame detection parameter setting process)
  • step S50 in FIG. 14 the flow of the traveling direction parking frame line detection parameter setting process
  • Step S52 The stored parking frame feature is read.
  • Step S54 The search range of the traveling direction (front) parking frame line is set.
  • Step S56 The parameter for detecting the advancing direction (front) parking frame line is set. Thereafter, the process returns to the main routine (FIG. 14). (Explanation of the flow of the direction-of-travel parking area detection process)
  • step S60 in FIG. 14 the flow of the direction-of-travel parking area detection process
  • Step S62 An image is input from the front camera 15a.
  • Step S64 A parking frame line is detected from the captured image. The details of the processing are as shown in FIG.
  • Step S66 Based on the detection result of the parking frame line, it is determined whether or not there is a parking frame line pair. When a parking frame line pair is found, the process proceeds to step S68. Otherwise, the process proceeds to step S84.
  • Step S68 It is determined whether the parking type is parallel parking. When it is parallel parking, it progresses to step S70, and when that is not right, it progresses to step S74.
  • Step S70 It is determined whether or not the detected parking frame line length satisfies L (wi)> L (wi + 1). When the condition is satisfied, the process proceeds to step S82, and otherwise, the process proceeds to step S72.
  • Step S72 It is determined whether or not there is a wheel of another vehicle near the far side of the parking frame line wi. When there is a wheel of another vehicle, the process proceeds to step S82, and otherwise, the process proceeds to step S84.
  • Step S74 It is determined whether the parking type is diagonal parking. When it is diagonal parking, it progresses to step S76, and when that is not right, it progresses to step S80.
  • Step S76 It is determined whether L (wi)> L0 and L (wi + 1)> L0. If the condition is satisfied, the process proceeds to step S78. Otherwise, the process proceeds to step S84.
  • Step S78 It is determined whether or not there is a wheel of another vehicle between adjacent parking frame lines. If there is no wheel of another vehicle, the process proceeds to step S82, and otherwise, the process proceeds to step S84.
  • Step S80 It is determined whether or not the detected parking frame line length satisfies L (wi)> L (wi + 1). When the condition is satisfied, the process proceeds to step S82, and otherwise, the process proceeds to step S84.
  • Step S82 It is determined that there is a parking area. Thereafter, the process returns to the main routine (FIG. 14).
  • Step S84 It is determined that there is no parking area. Thereafter, the process returns to the main routine (FIG. 14) to end the process. (Description of the flow of parking area output processing)
  • step S90 in FIG. 14 the flow of the parking area output process
  • Step S92 It is determined whether a parking area is found. If a parking area is found, the process proceeds to step S93. Otherwise, the process returns to the main routine (FIG. 14) and ends.
  • Step S93 When a plurality of parking areas are found, the priority order of the parking frames constituting the parking area is determined. More detailed processing contents will be described later.
  • Step S99 Image information displaying the detected parking area is generated and output. Thereafter, the process returns to the main routine (FIG. 14) to end the process. (Description of parking frame priority order decision process)
  • step S93 in FIG. 19 the flow of the parking frame priority order determination process
  • Step S94 A distance from the vehicle 10 (own vehicle) to the detected parking area Ri is calculated.
  • Step S95 Assuming that the vehicle 10 (own vehicle) has been moved to each parking area Ri, it is determined whether or not there is a deceleration allowance.
  • Step S96 The time required to reach each detected parking area Ri is calculated.
  • Step S97 The order of priority of each detected parking area Ri is determined in the order of the shortest arrival time with the allowance for deceleration. Thereafter, returning to the flowchart of FIG. 19, the process proceeds to step S99. (Description of Modified Example of Example 1)
  • the front camera 15a described in the first embodiment may be a camera that captures an area farther and narrower than the side imaging unit 12 (the right camera 12a and the left camera 12b). That is, as shown in FIG. 21, a front narrow-angle camera 17a that captures an area narrower than the right camera 12a and the left camera 12b is installed in the front (traveling direction) of the vehicle 10 (own vehicle). An image of the imaging range 16b may be captured using an image captured by the front narrow-angle camera 17a to detect a parking area in front of the vehicle 10 (traveling direction).
  • a front narrow-angle camera 17a shown in FIG. 21 is installed in the vicinity of a room mirror in the interior of the vehicle 10 so as to image the front of the vehicle 10, and detects the position of the front lane marker while the vehicle 10 is traveling.
  • the camera used in the device for monitoring the lane departure of the vehicle 10 is used for parking frame detection.
  • the front narrow-angle camera 17a that captures an area narrower than the right camera 12a and the left camera 12b, the front of the vehicle 10 can be enlarged and photographed from a distance.
  • a parking space (parking frame line wi) can be reliably detected from a further distance.
  • the side imaging unit 12 (right camera 12a, attached to the vehicle 10 (own vehicle)).
  • the left camera 12b) picks up an image including the road surface on the left and right sides of the vehicle 10, and the side parking frame line detection unit 23 detects the parking frame line wi on the left and right sides of the vehicle 10, thereby
  • the line feature calculation unit 24 calculates the feature of the parking frame line wi.
  • the traveling direction parking frame line detection parameter setting unit 26 sets parameters for detecting the parking frame line wi in the traveling direction of the vehicle 10, and the traveling direction imaging unit 15 (front camera 15a), the traveling direction parking available area detection unit 28 detects the parking frame in which the vehicle 10 can be parked from the image including the road surface in the traveling direction of the vehicle 10, and the vehicle 10 travels.
  • the parking space in the direction can be reliably detected from as far away as possible.
  • the parking frame line characteristic calculation part 24 has the presence or absence of the parking frame line wi as a feature of the parking frame line wi, and adjoining.
  • the distance Jw between the parking frame lines wi and wi + 1, the shape of the parking frame line wi, the color of the parking frame line wi, and the angle ⁇ between the traveling direction F of the vehicle 10 and the parking frame line wi are calculated and calculated. Since the parking type indicating the parking mode of the vehicle 10 with respect to the parking frame line wi is determined based on the result, the parking type can be reliably specified by simple processing.
  • the traveling direction parking frame line detection parameter setting unit 26 calculates the parking frame line calculated by the parking frame line feature calculation unit 24. Based on the characteristics of wi and the parking type, as parameters representing the characteristics of the parking frame line wi, the search area of the parking frame line wi in the traveling direction F of the vehicle 10 and the parking frame line of the traveling direction F of the vehicle 10 In order to set the detection threshold value for detecting the feature of wi, the feature of the parking frame line wi detected from the image captured by the side imaging unit 12 (the right camera 12a and the left camera 12b) is included. The feature of the parking frame line wi that appears in the image captured by the traveling direction imaging unit 15 (the front camera 15a) can be predicted, and the parking frame line wi can be predicted from the image captured by the traveling direction imaging unit 15. Reliably detecting It can be.
  • the traveling direction parking possible area detection unit 28 uses the setting result of the traveling direction parking frame line detection parameter setting unit 26 as a result of the setting. Based on the detected parking frame line, an adjacent parking frame is detected based on the detected parking frame line from the image captured by the traveling direction imaging unit 15 (front camera 15a). A parking frame line length calculation unit 28a that calculates the length of each line, and a wheel that detects the wheel of the parked vehicle 250 (another vehicle) from images captured by the traveling direction imaging unit 15 (front camera 15a).
  • the calculation result of the parking frame line length calculation unit 28a, and the detection result of the wheel detection unit 28b In order to detect the parking frame in which the vehicle 10 can be parked based on the parking type, the calculation result of the parking frame line length calculation unit 28a, and the detection result of the wheel detection unit 28b. Parking border wi In the case can not be determined, the appearance of the wheel of the parked vehicle 250 (another vehicle) may be utilized, which makes it possible to reliably detect the available parking parking frame.
  • the parking type calculated by the parking frame line feature calculation unit 24 is parallel parking, and the adjacent parking frame Among the lengths of the lines, when the parking frame line wi on the far side is longer than the parking frame line wi on the side closer to the vehicle 10 (the host vehicle), or when the wheel detection unit 28b is adjacent to the parking frame line wi, When the wheel of the parked vehicle 250 (another vehicle) is detected in the vicinity of the far side of the far side parking frame line wi among the wi + 1, the traveling direction parking possible area detecting unit 28 detects the adjacent parking frame lines wi, wi + 1. Since it is determined that the vehicle 10 (own vehicle) is a parking frame that can be parked during the period, a parking frame that can be parked can be reliably detected in a parking lot that performs parallel parking.
  • the parking type calculated by the parking frame line feature calculation unit 24 is diagonal parking, and an adjacent parking frame
  • the parking area detection unit 28 determines that the vehicle 10 (own vehicle) is a parking frame that can be parked between adjacent parking frame lines wi and wi + 1, parking is possible in a parking lot that performs oblique parking.
  • the frame can be reliably detected.
  • the parking type calculated by the parking frame line feature calculation unit 24 is parallel parking, and the adjacent parking frame
  • the advancing direction parking possible region detection unit 28 performs the adjacent parking Since it is determined that the vehicle 10 (own vehicle) is a parking frame that can be parked between the frame lines wi, a parking frame that can be parked can be reliably detected in a parking lot that performs parallel parking.
  • region detection part 28 detected is possible. Since the parking frame information output unit 32 is displayed as image information, the occupant of the vehicle 10 can immediately recognize the location of the parking frame that can be parked.
  • the traveling direction parking possible area detection unit 28 detects a plurality of parking frames
  • a plurality of detected parking spaces are detected. Since each of the frames has a parking frame priority determining unit 30 that determines the priority in the order in which the vehicle 10 (own vehicle) is easy to park, when parking on a parking frame that can be parked, The vehicle 10 can be parked without causing a sudden change in vehicle behavior such as steering.
  • the parking frame priority order determination part 30 detects the speed of the vehicle 10 (own vehicle), and the advancing direction parking possible area
  • the traveling direction imaging unit 15 front narrow-angle camera 17a
  • the side imaging unit 12 rightward. Since the imaging range 16b that is farther and narrower than the camera 12a and the left camera 12b) is imaged, the parking possible region in the traveling direction of the vehicle can be reliably detected from a further distance.
  • the parking frame line wi in the traveling direction of the vehicle 10 (own vehicle) is detected from the image IF (x, y) captured by the front camera 15a.
  • the rear side of the vehicle 10 is in the traveling direction, so the parking frame line wi is detected from the image captured by the rear camera 15b. Since the traveling direction of the vehicle 10 can be determined based on the shift position, switching between the front camera 15a and the rear camera 15b may be performed based on the detection result of the shift position.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

自車両の進行方向にある駐車可能なスペースをできるだけ遠方から確実に検出する。 車両(10(自車両))に取り付けられた側方撮像部(12)によって車両(10)の左右側方の路面を含む画像を撮像して、側方駐車枠線検出部(23)が、車両(10)の左右側方の駐車枠線(wi)を検出して、駐車枠線特徴算出部(24)が、駐車枠線(wi)の特徴を算出する。こうして算出された駐車枠線(wi)の特徴に基づいて、進行方向駐車枠線検出パラメータ設定部(26)が車両(10)の進行方向の駐車枠線(wi)を検出するためのパラメータを設定して、進行方向撮像部(15)が撮像した車両(10)の進行方向の路面を含む画像の中から、進行方向駐車可能領域検出部(28)が、車両(10)の駐車可能領域を検出する。

Description

駐車枠認識装置
 本発明は、自車両の進行方向にある駐車可能なスペースを検出する駐車枠認識装置に関するものである。
 昨今、駐車場において車両を駐車する際に、車両に設置されたカメラや測距センサを用いて駐車スペースを検出し、検出された駐車スペースを目標として駐車制御(例えば自動駐車)を行うシステムが提案されている。
 具体的なシステムとして、カメラで撮像された駐車枠の中から、最も高い確度で検出された駐車枠を駐車位置とすることによって駐車制御を実行するもの(例えば特許文献1)、また、測距センサを用いて駐車車両の間のスペースを検出するもの(例えば特許文献2)が提案されている。
特開2012-136206号公報 特開2013-52754号公報
 しかしながら、特許文献1に記載された駐車制御システムでは、画像の中から最も確実に認識された駐車枠を駐車目的地点に決定するため、現在位置から駐車目的地点までの走行経路は考慮されていない。したがって、駐車を完了するまでの移動距離や切り返し回数の増大、駐車目的地点が自車に近接しすぎることにより急減速や急操舵が必要になる等、円滑な駐車支援を困難にする事象が発生する虞があった。
 また、特許文献2に記載された駐車支援装置では、測距センサによって計測された駐車車両の間隔に基づいて、駐車種別を判断するとともに、駐車可能領域を検出しているが、例えば、駐車車両3台先に空間があることが検出されたとしても、その空間が駐車可能な空間である保証はないため、駐車車両までの距離のみに基づいて駐車可能なスペースを検出するのは困難であった。
 このような駐車支援装置では、駐車可能領域を検出した後で、運転者に駐車可能場所を情報提供したり、車両を制御して自動駐車を行うための駐車経路を策定する。したがって、できるだけ遠方から駐車可能領域を検出して、早期に駐車支援を行えるようにするのが望ましい。しかし、遠方の駐車枠線は近傍の駐車枠線に比べて、駐車枠線が細くまた隣接する駐車枠線の間隔も狭くなるため、画像の中から駐車枠線を安定して検出するのが困難である。したがって、例えば特許文献1と特許文献2に記載された方法を単に組み合わせただけでは、遠方の駐車枠線を確実に検出できる保証はない。
 本発明は、上記課題に鑑みてなされたもので、自車両の進行方向にある駐車可能なスペースをできるだけ遠方から確実に検出することを目的とする。
 本発明に係る駐車枠認識装置は、自車両に取り付けられた撮像部によって撮像された画像の中から、自車両が駐車可能なスペース(駐車枠)をできるだけ遠方から確実に検出するものである。
 すなわち、本発明に係る駐車枠認識装置は、自車両に取り付けられて、自車両の左右側方の路面を含む画像を撮像する側方撮像部と、自車両に取り付けられて、自車両の進行方向の路面を含む画像を撮像する進行方向撮像部と、前記側方撮像部で撮像された画像の中から、自車両の左右側方の駐車枠線を検出する側方駐車枠線検出部と、自車両の左右側方の駐車枠線が有する特徴を算出する駐車枠線特徴算出部と、前記特徴に基づいて、前記進行方向撮像部で撮像された画像の中から自車両の進行方向の駐車枠線を検出するためのパラメータを設定する進行方向駐車枠線検出パラメータ設定部と、前記進行方向駐車枠線検出パラメータ設定部の設定結果に基づいて、前記進行方向撮像部で撮像された画像の中から、自車両が駐車可能な駐車枠を検出する進行方向駐車可能領域検出部と、を有することを特徴とする。
 このように構成された本発明に係る駐車枠認識装置によれば、自車両に取り付けられた側方撮像部によって自車両の左右側方の路面を含む画像を撮像して、側方駐車枠線検出部が、自車両の左右側方の駐車枠線を検出して、駐車枠線特徴算出部が、駐車枠線の特徴を算出する。こうして算出された駐車枠線の特徴に基づいて、進行方向駐車枠線検出パラメータ設定部が自車両の進行方向の駐車枠線を検出するためのパラメータを設定して、進行方向撮像部が撮像した自車両の進行方向の路面を含む画像の中から、進行方向駐車可能領域検出部が、自車両が駐車可能な駐車枠を検出するため、自車両の進行方向にある駐車可能なスペースをできるだけ遠方から確実に検出することができる。
 本発明に係る駐車支援装置によれば、自車両の進行方向にある駐車可能なスペースをできるだけ遠方から確実に検出することができる。
本発明の1実施形態である実施例1に係る駐車枠認識装置の概略構成を示す機能ブロック図である。 側方撮像部の動作について説明する図であり、駐車場における自車両と自車両に搭載された側方撮像部の撮像範囲について説明する図である。 右方カメラで撮像される画像の例を示す図である。 左方カメラで撮像される画像の例を示す図である。 進行方向撮像部の動作について説明する図であり、駐車場における自車両と自車両に搭載された前方カメラの撮像範囲について説明する図である。 前方カメラで撮像される画像の例を示す図である。 駐車枠線の検出方法について説明する図であり、右方カメラで撮像された画像の中から駐車枠線を検出する処理の内容を説明する図である。 図4Aに示す処理によって検出された駐車枠線候補点を、車両座標系(X,Y)に射影した結果を示す図である。 駐車枠線が有する特徴について説明する図である。 駐車枠線と駐車枠の形状特徴について説明する図であり、並列駐車枠の形状例を示す図である。 斜め駐車枠の形状例を示す図である。 縦列駐車枠の形状例を示す図である。 駐車場での駐車種別が並列駐車であることを認識する方法について説明する図である。 駐車場での駐車種別が斜め駐車であることを認識する方法について説明する図である。 駐車場での駐車種別が縦列駐車であることを認識する方法について説明する図である。 並列駐車された駐車場において、駐車可能領域を検出する処理の内容を説明する図であり、並列駐車された駐車場と自車両の位置関係を説明する図である。 駐車可能領域を検出した結果について説明する図である。 斜め駐車された駐車場において、駐車可能領域を検出する処理の内容を説明する図であり、斜め駐車された駐車場と自車両の位置関係を説明する図である。 駐車可能領域を検出した結果について説明する図である。 縦列駐車された駐車場において、駐車可能領域を検出する処理の内容を説明する図であり、縦列駐車された駐車場と自車両の位置関係を説明する図である。 駐車可能領域を検出した結果について説明する図である。 検出された駐車可能領域を出力した結果の一例を示す図である。 本発明の1実施形態である実施例1で行われる処理全体の流れを示すフローチャートである。 駐車枠線の特徴を算出する処理の流れを示すフローチャートである。 駐車枠線を検出する処理の流れを示すフローチャートである。 進行方向の駐車枠線を検出するためのパラメータ設定を行う処理の流れを示すフローチャートである。 進行方向駐車可能領域を検出する処理の流れを示すフローチャートである。 検出された駐車可能領域を出力する処理の流れを示すフローチャートである。 検出された複数の駐車可能領域の優先順位を決定する処理の流れを示すフローチャートである。 実施例1の変形例における撮像部の配置形態について説明する図である。
 以下、本発明に係る駐車支援装置の実施形態について、図面を参照して説明する。
 本実施例は、本発明の駐車枠認識装置を車両に実装して、進行方向の駐車可能領域を検出して、車両の運転者に伝達する駐車支援システムを構成したものである。
(実施例の構成の説明)
 まず、図1を用いて装置の構成を説明する。本実施例に係る駐車枠認識装置100は、図1に示すように、車両10(自車両)に設置されて、車両10の左右側方の路面を含む領域の画像を撮像する側方撮像部12と、車両10の前後の路面を含む領域の画像を撮像する進行方向撮像部15と、側方撮像部12と進行方向撮像部15で撮像された画像の入力、および必要な画像処理を行う電子制御ユニット(ECU)20と、車両10の車速、操舵角、シフトポジション等の車両状態を取得する車両状態取得部40と、車両10のダッシュボードに備えられて駐車枠の認識結果を表示するモニター50と、から構成されている。
 側方撮像部12は、さらに、車両10の右ドアミラー近傍に設置されて、車両10の右側方の路面を含む領域の画像を撮像する右方カメラ12aと、車両10の左ドアミラー近傍に設置されて、車両10の左側方の路面を含む領域の画像を撮像する左方カメラ12bと、からなる。この右方カメラ12aと左方カメラ12bはカラーカメラであることが望ましい。ただし、カラーカメラに限定されるものではなく、モノクロカメラを使用してもよい。その場合には、後述するように、検出可能な駐車枠線の特徴の種類が制限される。
 進行方向撮像部15は、さらに、車両10の前端に設置されて、車両10の前方の路面を含む領域の画像を撮像する前方カメラ15aと、車両10の後端に設置されて、車両10の後方の路面を含む領域の画像を撮像する後方カメラ15bと、からなる。この前方カメラ15aと後方カメラ15bはカラーカメラであることが望ましい。ただし、カラーカメラに限定されるものではなく、モノクロカメラを使用してもよい。その場合には、後述するように、検出可能な駐車枠線の特徴の種類が制限される。
 なお、右方カメラ12a,左方カメラ12b,前方カメラ15a,後方カメラ15bは、それぞれ所定の位置に所定の方向を向いて設置されているものとする。
 電子制御ユニット(ECU)20は、画像処理プロセッサやマイコンからなる演算装置、メモリからなる記憶装置によって構成されて、より詳しくは、画像入力部22と、側方駐車枠線検出部23と、駐車枠線特徴算出部24と、進行方向駐車枠線検出パラメータ設定部26と、進行方向駐車可能領域検出部28と、駐車枠優先順位決定部30と、駐車枠情報出力部32と、からなる。
 画像入力部22は、側方撮像部12と進行方向撮像部15で撮影された画像をそれぞれA/D変換して、デジタル画像として電子制御ユニット(ECU)20に入力する。
 側方駐車枠線検出部23は、側方撮像部12で撮像された入力された車両10の左右側方の画像の中から、それぞれ、路面に引かれた駐車枠の境界位置を示す駐車枠線を検出する。
 駐車枠線特徴算出部24は、車両10の左右側方の駐車枠線の検出結果に基づいて、駐車枠線の有無、隣接する駐車枠線の間隔、駐車枠線の形状、駐車枠線の色、車両10の進行方向と駐車枠線のなす角度を、駐車枠線の特徴として算出し記憶する。さらに、これらの特徴に基づいて、駐車枠に対する駐車形態を表す駐車種別を判定する。なお、ここで算出される特徴の種類は、使用する右方カメラ12a,左方カメラ12b,前方カメラ15a,後方カメラ15bの仕様によって異なる。例えば、右方カメラ12a,左方カメラ12b,前方カメラ15a,後方カメラ15bとしてモノクロカメラを使用したときには、駐車枠線の色を検出することができないため、その場合は、前記した駐車枠線の特徴のうち、駐車枠線の色以外の特徴を算出して、以降の処理を行う。
 進行方向駐車枠線検出パラメータ設定部26は、駐車枠線特徴算出部24で算出された、車両10の左右側方の駐車枠線の特徴に基づいて、進行方向撮像部15で撮像した画像の中から、車両10の進行方向に存在する駐車枠線を検出するために必要なパラメータを設定する。
 進行方向駐車可能領域検出部28は、さらに、駐車枠線長さ算出部28aとホイール検出部28bとを有する。
 進行方向駐車可能領域検出部28は、進行方向撮像部15で撮像した画像の中から、進行方向駐車枠線検出パラメータ設定部26で設定されたパラメータを用いて、車両10の進行方向に存在する駐車枠線を検出する。そして、駐車枠線長さ算出部28aで算出された駐車枠線の長さと、ホイール検出部28bで検出された駐車車両(他車両)のホイールの見え方と、に基づいて車両10を駐車可能な駐車可能領域R1,R2,…(駐車枠)(図13参照)を検出する。
 駐車枠優先順位決定部30は、車両10の進行方向に複数の駐車可能領域(R1,R2,…)(駐車枠)が検出されたときに、駐車しやすい順に優先順位を決定する。
 駐車枠情報出力部32は、検出された駐車可能領域Ri(=R1,R2,…)(駐車枠)の情報を、車両10の運転者にわかりやすい形態に変換する。
(実施例の動作概要の説明)
 次に、図2Aから図2C,図3A,図3Bを用いて、本実施例の動作概要について説明する。図2Aは、側方撮像部12(12a,12b)の撮像範囲を説明する図であり、図2Bは、右方カメラ12aで実際に撮像された画像I(x,y)の例を示す。また、図2Cは、左方カメラ12bで実際に撮像された画像I(x、y)の例を示す。さらに、図3Aは、前方カメラ15aが撮像範囲16aの画像を撮像することを説明する図であり、図3Bは、前方カメラ15aで実際に撮像された画像I(x,y)の例を示す。
 車両10(自車両)が駐車場200に進入すると、まず、側方撮像部12(12a,12b)によって左右側方の画像を撮像する。すなわち、図2Aに示すように、車両10の進行方向Fに対して、右側方の撮像範囲13aの画像I(x,y)(図2B)と左側方の撮像範囲13bの画像I(x、y)(図2C)がそれぞれ撮像される。
 なお、車両10が駐車場200に進入したことは、例えば、車両10に備えられたカーナビゲーションシステム(非図示)の情報に基づいて判断することができる。さらに、車両10が駐車場200の内部に存在するときに、電子制御ユニット(ECU)20が、車両10の車速vが所定の閾値vthを下回ったときには、側方撮像部12(12a,12b)が起動されるものとする。
 こうして撮像された画像I(x,y),画像I(x、y)の中から、駐車枠線を表すと考えられる線分を検出する。なお、駐車枠線を検出する具体的な方法は後述する。
 さらに、画像I(x,y),画像I(x、y)の中から検出された駐車枠線に基づいて、その駐車枠線が有する特徴を算出する。この特徴とは、例えば、駐車枠線の有無、隣接する駐車枠線の間隔、駐車枠線の形状、駐車枠線の色、車両10の進行方向と駐車枠線のなす角度である。なお、各々の特徴の内容と算出方法について、詳しくは後述する。
 次に、こうして算出された駐車枠線の特徴に基づいて、駐車場200における駐車枠に対する駐車形態を表す駐車種別を判定する。具体的には、道路側端に直交する方向に横並びに整列した駐車枠に車両を駐車させる形態である並列駐車、道路側端に対して斜交する方向に整列した駐車枠に車両を駐車させる斜め駐車、もしくは、道路側端に沿って縦並びに整列した駐車枠に縦列状態で車両を駐車させる縦列駐車のいずれであるかを判定する。例えば、図2B,図2Cの場合は、並列駐車を行うものと判定される。なお、具体的な駐車種別の判定方法は後述する。
(車両進行方向の駐車枠線探索領域の設定方法の説明)
 次に、車両10の進行方向を撮像する前方カメラ15aによって観測されると予測される駐車枠線の存在位置を推定する。この予測は、駐車種別が並列駐車であることと、右方カメラ12a,左方カメラ12b,前方カメラ15aの実際の取り付け位置と取り付け方向に基づいて推定される。この推定によって、前方カメラ15aで撮像される画像I(x、y)の中の駐車枠線wiは、例えば、図3Aに示す探索領域18a,18bの内部に存在するものと推定される。
 そして、実際に前方カメラ15aで撮像された、図3Bに示す画像I(x,y)の中から、図3Aに示す駐車枠線wi(w1からw10)の検出を行う。なお、このとき、先に算出した駐車枠線wiの特徴である隣接する駐車枠線wi,wi+1の間隔、駐車枠線wiの形状、駐車枠線wiの色、車両10の進行方向Fと駐車枠線wiのなす角度θの情報を用いることができる。
 このように、何の手掛かりもない状態で画像I(x,y)の中から駐車枠線wiの検出を行うのに対して、探索領域18a,18bに限定して、さらに、右方カメラ12aと左方カメラ12bで撮像した画像の中から実際に検出した駐車枠線wiの特徴を用いることによって、より確実に、車両10の前方(進行方向)の駐車枠線wiを検出することができる。
(側方撮像部で撮像された画像からの駐車枠線の検出方法の説明)
 次に、駐車枠線の具体的な検出方法について、図4A,図4Bを用いて説明する。図4Aは、右方カメラ12a(図1)で撮像された画像I(x,y)(図2B)の中から、駐車枠線を検出する様子を説明する図である。
 画像I(x,y)には、図4Aに示すように、画像の左上を原点として、水平方向右向きをx軸、縦方向下向きをy軸とする画像座標系(x,y)が設定されているものとする。このとき、画像I(x,y)の複数の縦方向位置yi(=y1,y2,…)に水平ラインを設定して、各水平ライン上で、画像I(x,y)を左から右に向かってスキャンしながら、隣接する画素間で、各画素に格納された値の変化(輝度の差分値)を算出する。
 そして、各画素に格納された値(輝度)が暗から明に変化する点(プラスエッジ点)と暗から明に変化する点(マイナスエッジ点)をそれぞれ検出する。
 画像I(x,y)の中に写る駐車枠線の太さは予めわかるため、検出したプラスエッジ点とマイナスエッジ点の間の距離を算出して、予想される駐車枠線の太さとほぼ等しくなる、プラスエッジ点とマイナスエッジ点のペアを全て検出する。
 このようにして検出されたプラスエッジ点とマイナスエッジ点のペアの中点の位置を求めると、図4Aに示すように、縦方向位置y1において駐車枠線候補点E11~E51が検出されて、縦方向位置y2において駐車枠線候補点E12~E52が検出される。なお、図4Aには縦方向位置y1,y2の結果のみを記載したが、実際は、より多くの縦方向位置yiにおいて同様の処理を実行する。
 また、駐車枠線の中には、図2Bに写った駐車枠線と直交する方向に延びる駐車枠線も存在する可能性がある。そのため、先に説明した駐車枠線候補点に加えて、画像I(x,y)の複数の横方向位置xi(=x1,x2,…)に垂直ラインを設定し、その垂直ライン上で、画像I(x,y)を上から下に向かってスキャンしながら、隣接する画素間で、各画素に格納された値(輝度)の変化を算出して、先と同様に駐車枠線候補点を検出してもよい。
 次に、図4Bに示すように、検出された駐車枠線候補点E11~E51と駐車枠線候補点E12~E52を、それぞれ、画像I(x,y)の座標系から、車両10が存在する車両座標系(X,Y)に射影する。
 この車両座標系(X,Y)は、例えば、図4Bに示すように、車両10の前方カメラ15a(図1)の設置位置を原点O(0,0)として、車両の進行方向をX軸、X軸に直交する方向をY軸として路面上に設定した座標系である。
 前述したように、右方カメラ12a,左方カメラ12b,前方カメラ15a,後方カメラ15bは、それぞれ所定の位置に所定の方向を向いて設置されているため、各カメラで撮像した画像座標系(x,y)上の位置と、車両座標系(X,Y)上の位置と、は一意に対応付けることができる。したがって、前述した射影処理は簡便な数値演算によって行うことができる。また、この射影処理は、予め作成したテーブルを用いて行うこともできる。
 射影処理を実行した後で、図4Bに示す複数の駐車枠線候補点(E11~E51,E12~E52)の分布状態に基づいて、検出された駐車枠線候補点(E11~E51,E12~E52)のうち、連続する駐車枠線候補点、すなわち、線分をなすと考えられる駐車枠線候補点は、1本の駐車枠線を構成するものと判断する。例えば、図4Bに示す射影処理の結果が得られた場合、5本の駐車枠線w1,w2,w3,w4,w5が存在しているものと判断する。
 なお、左方カメラ12bで撮像した画像I(x,y)についても、同様にして駐車枠線wiを検出することができる。
(駐車枠線の特徴算出方法の説明)
 次に、側方撮像部12(12a,12b)で撮像された画像(I(x,y),I(x、y))の中から検出された駐車枠線が有する特徴の内容について、図5,図6Aから図6Cを用いて説明する。
 (1)駐車枠線の有無
画像(I(x,y),I(x、y))の中から駐車枠線wiが検出されないときは、現在位置は、駐車枠が引かれた駐車場でないと判断して、以降の処理を中止する。一方、画像(I(x,y),I(x、y))の中から駐車枠線wiが検出されたときは、現在位置は、駐車枠が引かれた駐車場であると判断して、以降の処理を実行する。
 (2)駐車枠線の間隔
検出された駐車枠線wiのうち、隣接する駐車枠線wiと駐車枠線wi+1との間隔を算出する。そして、隣接する駐車枠線wiと駐車枠線wi+1との間隔Jwが2.5m前後であるときは、駐車枠への駐車形態である駐車種別が並列駐車または斜め駐車であると判断する。また、隣接する駐車枠線wiと駐車枠線wi+1との間隔Jwが5m前後であるときは、駐車種別が縦列駐車であると判断する。
 より具体的には、駐車枠線間隔閾値WPLを、例えば、WPL=4mに設定して、隣接する駐車枠線wiと駐車枠線wi+1との間隔Jwが、Jw<WPLであるときは駐車種別が並列駐車または斜め駐車であると判断する。また、Jw≧WPLであるときは駐車種別が縦列駐車であると判断する。
 (3)駐車枠線の形状
駐車枠線wiは、1本の線、すなわち単一線で構成される場合と、2本の異なる線、すなわち2重線で構成される場合とがある。このうち、駐車枠線wiが単一線で構成されることは、例えば、図4A,図4Bで説明した方法で検出された駐車枠線wiのうち、隣接する駐車枠線wi,wi+1の間隔Jwが、検出された全ての隣接する駐車枠線wiと駐車枠線wi+1間でほぼ等しい値になることによって判断される。
 図6Aから図6Cは、一般に存在する駐車枠線と駐車枠の形状例と、車両Vの駐車例を示している。そして、図6Aは並列駐車枠の形状例を示し、図6Bは斜め駐車枠の形状例を示し、図6Cは縦列駐車枠の形状例を示している。
 図6Aから図6Cのうち、駐車枠線wiが単一線で構成される例として、例えば、図6Aの駐車枠Pa,Pc,図6Bの駐車枠Pf,Pg,図6Cの駐車枠Ph~Plの例をあげることができる。
 一方、駐車枠線wiが2重線で構成される例としては、例えば、図6Aの駐車枠Pb,Pd,Peをあげることができる。このように駐車枠線wiが2重線で構成されることは、例えば、図4A,図4Bで説明した方法で検出された駐車枠線wiのうち、隣接する駐車枠線wiと駐車枠線wi+1の間隔Jwが、交互に大きい値と小さい値として出現することによって判断される。
 また、特に、図6Aの駐車枠Pd,Peのように、2重線の一方の端点間が接続されている駐車枠線wiについては、図4A,図4Bで説明した方法によって駐車枠線wiを検出した後で、隣接する駐車枠線wiと駐車枠線wi+1の端点間が接続されているか否かを、再度、画像I(x,y)または画像I(x、y)の輝度分布を参照することによって、駐車枠線wiが2重線で構成されるものと判断してもよい。
 (4)駐車枠の形状
複数の駐車枠線wiで構成される駐車枠の形状には様々なバリエーションが存在するが、図5に記載した左右平行線、前後平行線、U字状、矩形状が代表的な形状である。そして、それぞれの駐車枠の具体的な形状は、図5に記載した通り、図6Aから図6Cの対応する図面に示す通りである。検出した駐車枠線wiによって構成される駐車枠が、このうちいずれの形状をなしているかは、検出された異なる駐車枠線wi同士の接続関係を分析することによって判断できる。
 すなわち、駐車枠の形状は、図4A,図4Bで説明した方法によって検出された駐車枠線wiの有無と、検出された異なる駐車枠線wiの端点間の接続関係と、を求めることによって、特定することができる。
 (5)駐車枠線の色
右方カメラ12a,左方カメラ12b,前方カメラ15a,後方カメラ15bとしてカラーカメラを使用したときには、駐車枠線の色を検出することができる。駐車枠線wiの色は、白色とオレンジ色が代表的である。そして、駐車枠線wiの色は、画像(I(x,y),I(x、y))の中の駐車枠線候補点に対応する画素の色情報(例えばRGB値)を読み取ることによって検出することができる。
 (6)駐車枠線の方向
車両10の進行方向Fと駐車枠線wiのなす角度θは、図7~図9に示した角度θによって表される。この角度θは、例えば、図4Bにおいて、検出された駐車枠線wiの方向と車両10の進行方向を示すX軸のなす角度を求めることによって算出することができる。
 なお、一般には、画像I(x,y)、画像I(x、y)の中から、それぞれ複数の駐車枠線wiが検出されるが、検出された駐車枠線wiは平行であるため、複数の駐車枠線wiに対してそれぞれ角度θを求めて、算出された複数の角度θを平均化して、車両の進行方向と駐車枠線wiのなす角度θとすればよい。
(駐車種別の判定方法の説明)
 次に、検出された駐車枠線wiの検出結果に基づいて、駐車枠に対する駐車形態を表す駐車種別の判定方法について、図5、および図7~図9を用いて説明する。
 駐車種別の判定は、車両10の進行方向Fと駐車枠線wiのなす角度θと、隣接する駐車枠線の間隔Jwと、を用いて行うことができる。
 すなわち、図5に示すように、角度θが90°±10°のときは、検出された駐車枠に対する駐車種別は並列駐車または縦列駐車であると判断される。また、角度θが45°±15°のときは、検出された駐車枠に対する駐車種別は斜め駐車であると判断される。
 また、図5に示すように、隣接する駐車枠線wiと駐車枠線wi+1の間隔Jwが2.5m前後であるときは、検出された駐車枠に対する駐車種別は並列駐車または斜め駐車であると判断される。また、間隔Jwが5m前後であるときは、検出された駐車枠に対する駐車種別は縦列駐車であると判断される。
 したがって、角度θが90°±10°、かつ、間隔Jwが2.5m前後であるときは、検出された駐車枠線で構成された駐車枠に対する駐車種別は、並列駐車であると判断される。図7は、駐車種別が並列駐車であると判断された際の、角度θと駐車枠線の間隔Jwの様子を示す図である。
 なお、図4A,図4Bで説明した駐車枠線wiの検出は、プラスエッジ点とマイナスエッジ点の間の距離に基づいて駐車枠線wiを検出するため、図7に示すように、駐車枠に駐車車両250(他車両)が駐車している場合であっても、駐車車両250の存在に影響されることなく実行することができる。
 また、角度θが45°±15°、かつ、間隔Jwが2.5m前後であるときは、検出された駐車枠線で構成された駐車枠に対する駐車種別は、斜め駐車であると判断される。図8は、駐車種別が斜め駐車であると判断された際の、角度θと駐車枠線の間隔Jwの様子を示す図である。
 そして、角度θが90°±10°、かつ、間隔Jwが5m前後であるときは、検出された駐車枠線で構成された駐車枠に対する駐車種別は、縦列駐車であると判断される。図9は、駐車種別が縦列駐車であると判断された際の、角度θと駐車枠線の間隔Jwの様子を示す図である。
(進行方向駐車枠線検出パラメータの設定方法の説明)
 次に、算出された駐車枠線wiの特徴に基づいて、前方カメラ15aで撮像された画像I(x,y)の中から、車両10(自車両)の進行方向前方の駐車枠線wiを検出するためのパラメータを設定する方法について説明する。
 ここで設定されるパラメータは、先に駐車枠線特徴算出部24で算出した、駐車枠線wiの間隔、駐車枠線wiの形状、駐車枠線wiの色、車両10の進行方向Fと駐車枠線wiのなす角度θ、および、駐車種別である。なお、使用される右方カメラ12a,左方カメラ12b,前方カメラ15a,後方カメラ15bの仕様によって検出できない特徴は除外される。
 ここでは、まず、判定された駐車種別に基づいて、前方カメラ15aで撮像される画像I(x、y)の中に、駐車枠線wiの探索領域を設定する。具体的には、右方カメラ12aと左方カメラ12bで撮像した画像の中から検出した駐車枠の整列状態に基づいて、右方カメラ12aおよび左方カメラ12bと相対関係が既知の位置に設置された前方カメラ15aで撮像された画像の中に写ると予想される駐車枠の位置を予測して、駐車枠線wiの探索領域を設定する。
 さらに、先に駐車枠線特徴算出部24で算出した隣接する駐車枠線wi,wi+1の間隔、駐車枠線wiの形状、駐車枠線wiの色、車両10の進行方向Fと駐車枠線wiのなす角度θ、に基づいて、駐車枠線wiの検出条件を限定する。
 すなわち、駐車枠線wiは、先に説明した通り、プラスエッジ点とマイナスエッジ点のペアとして検出た駐車枠線候補点が連続する領域として検出するが、このとき、駐車枠線wiの色から、プラスエッジ点とマイナスエッジ点に挟まれた領域の色を予測することができ、車両10の進行方向Fと駐車枠線wiのなす角度θから、駐車枠線候補点の延びる方向を予測することができる。さらに、検出された複数の駐車枠線wiのいずれが駐車枠を構成するかを決定する際に、隣接する駐車枠線wi,wi+1の間隔と、駐車枠線wiの形状を利用することができる。
(前方カメラ画像からの駐車枠線の検出方法の説明)
 前方カメラ15aで撮像した画像I(x,y)からの駐車枠線wiの検出は、先に説明した、右方カメラ12aで撮像した画像I(x,y)から駐車枠線wiを検出する方法と同様に行うことができる。
 具体的には、先に設定した探索領域の内部を、車両10の進行方向Fと平行な方向にスキャンして、画像I(x,y)の輝度分布を算出した後、プラスエッジ点とマイナスエッジ点の位置と、プラスエッジ点とマイナスエッジ点の間の色に基づいて、駐車枠線候補点を検出する。そして、検出された駐車枠線候補点の中から、先に算出した、車両10の進行方向Fと駐車枠線wiのなす角度θに近い方向に延びる、連続した駐車枠線候補点を駐車枠線wiとして検出する。
 次に、図10から図12を用いて、前方カメラ15aで撮像した画像I(x,y)の中から検出した駐車枠線wiに基づいて、車両10の駐車可能領域(駐車枠)を検出する方法について説明する。
(進行方向駐車可能領域検出方法の説明(並列駐車))
 図10A,図10Bは、並列駐車された駐車場200において、駐車可能領域を検出する処理の内容を説明する図であり、図10Aは並列駐車された駐車場と車両10(自車両)の位置関係を説明する図である。図10Bは駐車可能領域を検出した結果について説明する図である。
 図10Aに示すように、先に説明した駐車枠線wiの検出処理によって駐車枠線w1~w7が検出されて、その結果に基づいて、駐車枠C1~C6が検出されたものとする。そして、検出された駐車枠C1~C6のうち、駐車枠C3以外には駐車車両250(他車両)が止まっているものとする。
 このとき、まず最初に、駐車枠線wiのうち、図10Bに示す画像I(x,y)に写っている部分の長さを求める。ここで、駐車枠線wiのうち、画像I(x,y)に写っている部分の長さを、駐車枠線長L(wi)(図10A)で表すものとする。
 すなわち、図10Aの状態にあるときには、駐車枠線長L(w1)~L(w7)がそれぞれ算出される。なお、例えば、駐車枠線長L(w1)は、図10Aに示すように、前方カメラ15aの位置から延びて、駐車枠C1に駐車している駐車車両250(他車両)の端部に接する半直線Q1と駐車枠線w1との交点と、駐車枠線w1の右側の端点との距離を表している。駐車枠線長L(w2)~L(w7)についても同様にして、半直線Q2~Q7と駐車枠線w2~w7との交点の位置に基づいて、駐車枠線長L(w2)~L(w7)がそれぞれ算出される。
 次に、隣接する駐車枠線のうち、車両10(自車両)に近い側の駐車枠線長L(wi+1)と、遠方側の駐車枠線長L(wi)とを比較する。
 駐車枠Ciに駐車車両250(他車両)が並列駐車しているときには、一般に、駐車枠Ciを構成する駐車枠線wiのうち、車両10(自車両)に近い側の駐車枠線wi+1は、車両10(自車両)から遠い側の駐車枠線wiよりも長く観測される。一方、駐車枠Ciに駐車車両250が並列駐車していないときには、一般に、駐車枠Ciを構成する駐車枠線wiのうち、車両10(自車両)に近い側の駐車枠線wi+1は、車両10(自車両)から遠い側の駐車枠線wiよりも短く観測される。
 したがって、隣接する駐車枠線wi,wi+1に対して、それぞれ、駐車枠線長L(wi),L(wi+1)を算出し、L(wi)>L(wi+1)であるときには、駐車枠Ciは並列駐車可能な駐車枠であると判断する。一方、L(wi)≦L(wi+1)であるときには、駐車枠Ciには並列駐車できないものと判断する。
 そして、図10Aの場合、駐車枠C3が並列駐車可能な駐車枠であると判断され、それ以外の駐車枠には並列駐車できないものと判断される。なお、図10Aの例では、並列駐車可能な駐車可能領域(駐車枠)として検出されるのは駐車枠C3のみであるが、当然、複数の駐車枠に駐車車両250(他車両)が止まっていないときには、複数の駐車枠が、並列駐車可能な駐車枠として検出される。
 なお、駐車枠線長L(wi),L(wi+1)以外に、駐車車両250(他車両)のホイールHの見え方を参考にして、並列駐車が可能な駐車可能領域を検出すことができる。すなわち、隣接する駐車枠線wi,wi+1のうち、車両10から見て遠方側の駐車枠線wiのさらに遠方側近傍に他の駐車車両250のホイールHが検出されたときには、隣接する駐車枠線wi,wi+1の間の空間は並列駐車可能な駐車枠であると判断することができる。この駐車車両250のホイールHの見え方を参考にした方法は、あくまでも、駐車可能領域の遠方側の隣接駐車枠に駐車車両250が駐車している場合のみ適用可能である。
 駐車車両250(他車両)のホイールの検出は、例えば、ハフ(Hough)変換を用いて行うことができる。具体的には、ホイールHの中心位置を推定するためのパラメータ空間を準備しておき、隣接する駐車枠線wi,wi+1のうち、遠方側の駐車枠線wiのさらに遠方側近傍に、ホイールHを検出する小領域を設定し、その小領域の内部で、隣接する画素間で大きい輝度差を有するエッジ構成点を検出し、さらに、その画素におけるエッジの法線方向を求める。そして、準備したパラメータ空間において、エッジ構成点の位置から、求めた法線方向に向かって、予測されるホイールの半径に相当する位置の投票値をインクリメントする。
 同様の処理を、設定した小領域の内部の画素に対して行うと、設定した小領域の中にホイールHが存在したときには、パラメータ空間内で、ホイールの中心に対応する位置において、突出した投票値が得られる。この突出した投票値を検出することによって、設定した小領域の中にホイールHがあるものと判断することができる。
 なお、画像I(x,y)の中で観測されるホイールの半径は、画像内の上下方向位置に応じて予め予測できるため、この予測された値に基づいて、ハフ変換を実行すればよい。すなわち、画像I(x,y)の中で、小領域が上方に設定されたときには、小さい半径値でパラメータ空間への投票を行い、逆に、小領域が下方に設定されたときには、大きい半径値でパラメータ空間への投票を行う。
 図10(b)の画像I(x,y)の場合、図10Aに示すように、駐車枠C3はL(w3)>L(w4)の条件を満たしているため、並列駐車可能な駐車枠であると判断されるが、さらに、駐車枠線w3の遠方隣接駐車枠内にホイールH1が検出されることによっても、駐車枠C3は並列駐車可能な駐車枠であると判断することができる。
(進行方向駐車可能領域検出方法の説明(斜め駐車))
 図11A,図11Bは、斜め駐車された駐車場200において、駐車可能領域を検出する処理の内容を説明する図であり、図11Aは斜め駐車された駐車場と車両10(自車両)の位置関係を説明する図である。図11Bは駐車可能領域を検出した結果について説明する図である。
 図11Aに示すように、先に説明した駐車枠線wiの検出処理によって駐車枠線w10~w15が検出されて、その結果に基づいて、駐車枠C7~C11が検出されたものとする。そして、検出された駐車枠C7~C11のうち、駐車枠C9,C10以外には駐車車両250(他車両)が止まっているものとする。
 このとき、まず最初に、駐車枠線wiのうち、図11Bに示す画像I(x,y)に写っている部分の長さを求める。
 すなわち、図11Aの状態にあるときには、駐車枠線長L(w10)~L(w15)がそれぞれ算出される。なお、例えば、駐車枠線長L(w10)は、図11Aに示すように、前方カメラ15aの位置から延びて、駐車枠C7に駐車している駐車車両250(他車両)の端部に接する半直線Q6と駐車枠線w10との交点と、駐車枠線w10の左側の端点との距離を表している。駐車枠線長L(w11)~L(w15)についても同様にして、半直線Q7~Q9と駐車枠線w11~w15との交点の位置に基づいて、駐車枠線長L(w11)~L(w15)がそれぞれ算出される。
 次に、隣接する駐車枠線長L(wi),L(wi+1)が、ともに、予め設定された所定の駐車枠線長L0よりも長いか否かを判定する。
 駐車枠Ciに駐車車両250(他車両)が斜め駐車しているときには、一般に、駐車枠Ciを構成する駐車枠線wiのうち、車両10(自車両)に近い側の駐車枠線wi+1と車両10(自車両)から遠い側の駐車枠線wiは、ともに短く観測される。一方、駐車枠Ciに駐車車両250が斜め駐車していないときには、一般に、駐車枠Ciを構成する駐車枠線wiのうち、車両10(自車両)に近い側の駐車枠線wi+1と車両10(自車両)から遠い側の駐車枠線wiは、ともに長く観測される。
 したがって、隣接する駐車枠線wi,wi+1に対して、それぞれ、駐車枠線長L(wi),L(wi+1)を算出し、L(wi),L(wi+1)が、ともに所定の駐車枠線長L0よりも長いときには、駐車枠Ciは斜め駐車可能な駐車枠であると判断する。一方、L(wi),L(wi+1)が、ともに所定の駐車枠線長L0よりも短いときには、駐車枠Ciには斜め駐車できないものと判断する。
 そして、図11Aの場合、駐車枠C8,C9,C10,C11が斜め駐車可能な駐車枠であると判断され、それ以外の駐車枠には斜め駐車できないものと判断される。
 次に、駐車車両250(他車両)のホイールHの見え方を参照して、駐車枠C8,C9,C10,C11が、確かに斜め駐車が可能な駐車枠であるか否かを確認する。すなわち、隣接する駐車枠線wi,wi+1の間の領域に他の駐車車両250のホイールHが検出されないときは、隣接する駐車枠線wi,wi+1の間の空間は斜め駐車可能な駐車枠であると判断することができる。
 駐車車両250(他車両)のホイールの検出は、前述したように、ハフ変換を用いて行うことができる。その具体的な方法は、隣接する駐車枠線wi,wi+1の間にホイールHを検出するための小領域を設定する点を除くと、前述した内容と同様であるため、説明は省略する。
 そして、図11Bの画像では、並列駐車可能な駐車枠として検出された駐車枠C8,C9,C10,C11のうち、駐車枠C8の内部にはホイールH2が検出されて、駐車枠C11の内部にはホイールH3が検出される。したがって、駐車枠C9,C10のみが、斜め駐車可能な駐車枠であると判断することができる。
(進行方向駐車可能領域検出方法の説明(縦列駐車))
 図12A,図12Bは、縦列駐車された駐車場200において、駐車可能領域を検出する処理の内容を説明する図であり、図12Aは縦列駐車された駐車場と車両10(自車両)の位置関係を説明する図である。図12Bは駐車可能領域を検出した結果について説明する図である。
 図12Aに示すように、先に説明した駐車枠線wiの検出処理によって駐車枠線w16~w20が検出されて、その結果に基づいて、駐車枠C12,C13が検出されたものとする。そして、検出された駐車枠C12,C13のうち、駐車枠C12以外には駐車車両250(他車両)が止まっているものとする。
 このとき、まず最初に、駐車枠線wiのうち、図12Bに示す画像I(x,y)に写っている部分の長さを求める。
 すなわち、図11Aの状態にあるときには、駐車枠線長L(w16)~L(w20)がそれぞれ算出される。なお、例えば、駐車枠線長L(w17)は、図12Aに示すように、前方カメラ15aの位置から延びて、駐車枠C13に駐車している駐車車両250(他車両)の端部に接する半直線Q10と駐車枠線w17との交点と、駐車枠線w17の右側の端点との距離を表している。駐車枠線長L(w16),L(w18)~L(w20)についても同様にして、駐車枠線長L(w16),L(w18)~L(w20)がそれぞれ算出される。
 次に、隣接する駐車枠線のうち、車両10(自車両)に近い側の駐車枠線長L(wi+1)と、遠方側の駐車枠線長L(wi)とを比較する。
 駐車枠Ciに駐車車両250(他車両)が縦列駐車しているときには、一般に、駐車枠Ciを構成する駐車枠線wiのうち、車両10(自車両)に近い側の駐車枠線wi+1は、車両10から遠い側の駐車枠線wiよりも長く観測される。一方、駐車枠Ciに駐車車両250が縦列駐車していないときには、一般に、駐車枠Ciを構成する駐車枠線wiのうち、車両10に近い側の駐車枠線wi+1は、車両10から遠い側の駐車枠線wiよりも短く観測される。
 したがって、隣接する駐車枠線wi,wi+1に対して、それぞれ、駐車枠線長L(wi),L(wi+1)を算出し、L(wi)>L(wi+1)であるときには、駐車枠Ciは縦列駐車可能な駐車枠であると判断する。一方、L(wi)≦L(wi+1)であるときには、駐車枠Ciには縦列駐車できないものと判断する。
 そして、図12Aの場合、駐車枠C12が縦列駐車可能な駐車枠であると判断され、それ以外の駐車枠には縦列駐車できないものと判断される。なお、図12Aの例では、縦列駐車可能な駐車可能領域として検出されるのは駐車枠C12のみであるが、当然、複数の駐車枠に駐車車両250(他車両)が止まっていないときには、縦列駐車可能な駐車枠として複数の駐車枠が検出される。
(駐車枠優先順位決定方法の説明)
 複数の駐車可能領域Ri(駐車枠)が検出されたときには、駐車枠優先順位決定部30は、検出された複数の駐車可能領域Riに優先順位を付与する。具体的には、現在の車両10(自車両)の速度と、検出された駐車可能領域Riと車両10との距離に基づいて、駐車しやすい順に優先順位を決定する。
 具体的には、まず、車両10(自車両)と、検出された各駐車可能領域Ri(駐車枠)と、の間の距離を算出する。
 次に、車両10(自車両)の現在の車速と、各駐車可能領域Riまでの距離と、に基づいて、車両10を各駐車可能領域Riまで移動させたときに、急制動をかけずに各駐車可能領域Riに停車できるか否か、すなわち、減速余裕の有無を判断する。この減速余裕は、例えば、現在の車速のままで駐車可能領域Riに接近して、その後、車両10に対して、予め設定された許容される最大減速加速度を与えたときに、車両10が、駐車可能領域Riに停車できるか否かに基づいて判定され、車両10が停車可能であると判定されたときには、減速余裕ありと判断される。
 さらに、前記条件で車両10を移動させたときに、車両10を各駐車可能領域Riまで移動させるのに要する時間を算出する。
 こうして算出された、減速余裕の有無と車両10を各駐車可能領域Riまで移動させるのに要する時間とに基づいて、減速余裕があると判断された駐車可能領域Riのうち、駐車可能領域Riまでの移動に要する時間が短い順に、優先順位が高いものと判断する。
 なお、優先順位の判断を行う際に、さらに、車両10に発生する操舵角も考慮して、所定以上の操舵を行うことなしに駐車可能領域Riまで移動させられるときには、より高い優先順位を付与するようにしてもよい。
(駐車枠情報出力形態の説明)
 駐車枠情報出力部32は、検出された駐車可能領域Ri(駐車枠)の情報を、車両10(自車両)の運転者にわかりやすい画像の形態に変換して、モニター50に表示する。
 具体的には、図13に示すように、前方カメラ15a,後方カメラ15b,右方カメラ12a,左方カメラ12bでそれぞれ撮像された画像を、車両10を後方斜め上から俯瞰した形態に座標変換して、座標変換された画像を1枚の画像に合成し、検出された駐車可能領域Ri(図13の例では、R1,R2)を重畳して、モニター50に表示する。
 なお、このとき、重畳する駐車可能領域Riには、決定した優先順位を示す情報が付与される。
 また、車両10(自車両)は、前方カメラ15a,後方カメラ15b,右方カメラ12a,左方カメラ12bで撮像されないため、車両10が存在する領域には、コンピュータグラフィックで作成した車両10の像を重畳する。
(処理の流れの説明)
 次に、実施例1で行われる処理の流れについて、図14のフローチャートを用いて説明する。
 (ステップS1)電子制御ユニット(ECU)20において、車両10(自車両)の車速vが閾値vthよりも小さいか否かを判断する。そして、v<vthのときはステップS10に進み、それ以外のときはステップS1を繰り返す。
 (ステップS10)駐車枠線特徴算出部24において駐車枠線の特徴を算出する。より詳細な処理内容については後述する。
 (ステップS50)進行方向駐車枠線検出パラメータ設定部26において、車両10(自車両)の進行方向における駐車枠線の検出パラメータを設定する。より詳細な処理内容については後述する。
 (ステップS60)進行方向駐車可能領域検出部28において、車両10(自車両)の進行方向における駐車可能領域を検出する。より詳細な処理内容については後述する。
 (ステップS90)駐車枠情報出力部32において、検出した駐車可能領域の情報を出力する。より詳細な処理内容については後述する。
(駐車枠線特徴算出処理の流れの説明)
 次に、駐車枠線特徴算出処理(図14のステップS10)の流れについて、図15のフローチャートを用いて説明する。
 (ステップS12)左方カメラ12b、右方カメラ12aから、それぞれ画像入力を行う。
 (ステップS15)撮像された画像の中から、駐車枠線を検出してその特徴を算出する。より詳細な処理内容については後述する。
 (ステップS40)検出された駐車枠線が二重線であるか否かを判断する。二重線であるときはステップS42に進み、それ以外のときはステップS41に進む。
 (ステップS41)駐車枠線の間隔Jwが4mよりも小さいか否かを判断する。間隔Jwが4mよりも小さいときはステップS42に進み、それ以外のときはステップS46に進む。
 (ステップS42)車両10の進行方向Fと駐車枠線wiのなす角度θ(図7参照)が80°から100°の範囲内にあるか否かを判断する。角度θが80°から100°の範囲内にあるときはステップS43に進み、それ以外のときは、ステップS44に進む。
 (ステップS43)駐車種別は並列駐車であると判断する。
 (ステップS44)車両10の進行方向Fと駐車枠線wiのなす角度θ(図8参照)が30°から60°の範囲内にあるか否かを判断する。角度θが30°から60°の範囲内にあるときはステップS45に進み、それ以外のときは、駐車種別なしと判断してメインルーチン(図14)に戻る。なお、駐車種別なしと判断されたときは、駐車可能領域はないと判断して処理を終了する。
 (ステップS45)駐車種別は斜め駐車であると判断する。
 (ステップS46)駐車種別は縦列駐車であると判断する。
 (ステップS47)算出した駐車枠線の特徴(駐車種別を含む)を記憶して、メインルーチン(図14)に戻る。
(駐車枠線検出処理の流れの説明)
 次に、駐車枠線検出処理(図15のステップS15)の流れについて、図16のフローチャートを用いて説明する。
 (ステップS20)左方カメラ12b、右方カメラ12aでそれぞれ撮像された画像の中から、水平方向のプラスエッジ点とマイナスエッジ点をそれぞれ検出する。
 (ステップS22)プラスエッジ点とマイナスエッジ点の間隔を閾値処理して、予想される駐車枠線の太さに近い間隔を有するプラスエッジ点とマイナスエッジ点のペアを抽出する。
 (ステップS24)抽出したプラスエッジ点とマイナスエッジ点のペアの中点の位置を算出する。
 (ステップS26)算出されたプラスエッジ点とマイナスエッジ点のペアの中点の位置を、車両座標系(X,Y)を構成するXY平面に射影する。
 (ステップS28)XY平面への射影結果に基づいて、駐車枠線を検出し、その特徴を算出する。その後、図15のフローチャートに戻って、ステップS40に進む。
(進行方向駐車枠線検出パラメータ設定処理の流れの説明)
 次に、進行方向駐車枠線検出パラメータ設定処理(図14のステップS50)の流れについて、図17のフローチャートを用いて説明する。
 (ステップS52)記憶された駐車枠線の特徴を読み出す。
 (ステップS54)進行方向(前方)駐車枠線の探索範囲を設定する。
 (ステップS56)進行方向(前方)駐車枠線を検出するためのパラメータを設定する。その後、メインルーチン(図14)に戻る。
(進行方向駐車可能領域検出処理の流れの説明)
 次に、進行方向駐車可能領域検出処理(図14のステップS60)の流れについて、図18のフローチャートを用いて説明する。
 (ステップS62)前方カメラ15aから画像入力を行う。
 (ステップS64)撮像された画像の中から駐車枠線を検出する。その詳細な処理内容は、図16に示した通りである。
 (ステップS66)駐車枠線の検出結果に基づいて、駐車枠線のペアがあるか否かを判断する。駐車枠線のペアが発見されたときはステップS68に進み、それ以外のときはステップS84に進む。
 (ステップS68)駐車種別が並列駐車であるか否かを判断する。並列駐車であるときはステップS70に進み、それ以外のときはステップS74に進む。
 (ステップS70)検出した駐車枠線長が、L(wi)>L(wi+1)を満たすか否かを判断する。条件を満足したときはステップS82に進み、それ以外のときは、ステップS72に進む。
 (ステップS72)駐車枠線wiの遠方側近傍に他車両のホイールがあるか否かを判断する。他車両のホイールがあるときはステップS82に進み、それ以外のときは、ステップS84に進む。
 (ステップS74)駐車種別が斜め駐車であるか否かを判断する。斜め駐車であるときはステップS76に進み、それ以外のときはステップS80に進む。
 (ステップS76)L(wi)>L0かつL(wi+1)>L0であるか否かを判断する。条件を満足したときはステップS78に進み、それ以外のときは、ステップS84に進む。
 (ステップS78)隣接する駐車枠線間に他車両のホイールがないか否かを判断する。他車両のホイールがないときはステップS82に進み、それ以外のときはステップS84に進む。
 (ステップS80)検出した駐車枠線長が、L(wi)>L(wi+1)を満たすか否かを判断する。条件を満足したときはステップS82に進み、それ以外のときは、ステップS84に進む。
 (ステップS82)駐車可能領域があると判断する。その後、メインルーチン(図14)に戻る。
 (ステップS84)駐車可能領域はないと判断する。その後、メインルーチン(図14)に戻って処理を終了する。
(駐車可能領域の出力処理の流れの説明)
 次に、駐車可能領域の出力処理(図14のステップS90)の流れについて、図19のフローチャートを用いて説明する。
 (ステップS92)駐車可能領域が見つかったか否かを判断する。駐車可能領域が見つかったときはステップS93に進み、それ以外のときは、メインルーチン(図14)に戻って処理を終了する。
 (ステップS93)駐車可能領域が複数見つかったときには、駐車可能領域を構成する駐車枠の優先順位を決定する。より詳細な処理内容については後述する。
 (ステップS99)検出した駐車可能領域を表示した画像情報を生成して出力する。その後、メインルーチン(図14)に戻って処理を終了する。
(駐車枠優先順位決定処理の流れの説明)
 次に、駐車枠優先順位決定処理(図19のステップS93)の流れについて、図20のフローチャートを用いて説明する。
 (ステップS94)車両10(自車両)から、検出した駐車可能領域Riまでの距離を算出する。
 (ステップS95)車両10(自車両)を各駐車可能領域Riまで移動させたと仮定して、減速余裕の有無を判断する。
 (ステップS96)検出した各駐車可能領域Riまで到達するのに要する時間を算出する。
 (ステップS97)減速余裕があり到達時間が短い順に、検出された各駐車可能領域Riの優先順位を決定する。その後、図19のフローチャートに戻って、ステップS99に進む。
(実施例1の変形例の説明)
 なお、実施例1で説明した前方カメラ15aは、側方撮像部12(右方カメラ12a,左方カメラ12b)よりも遠方かつ狭い領域を撮像するカメラとしてもよい。すなわち、車両10(自車両)の前方(進行方向)に、図21に示すように、右方カメラ12a,左方カメラ12bよりも狭い領域を撮像する前方狭角カメラ17aを設置して、この前方狭角カメラ17aで撮像された画像を用いて、撮像範囲16bの画像を撮像して、車両10の前方(進行方向)の駐車可能領域を検出するようにしてもよい。
 なお、図21に示す前方狭角カメラ17aは、車両10の室内のルームミラー近傍に、車両10の前方を撮像するように設置され、車両10の走行中に、前方のレーンマーカの位置を検出して、車両10の車線逸脱をモニタする装置に使用されるカメラを、駐車枠検出用として流用した例である。このように、右方カメラ12a,左方カメラ12bよりも狭い領域を撮像する前方狭角カメラ17aを用いることによって、車両10の前方を遠方から拡大して撮影することができるため、自車両が駐車可能なスペース(駐車枠線wi)を、より一層遠方から確実に検出することができる。
 以上説明したように、このように構成された本発明の実施例1に係る駐車枠認識装置100によれば、車両10(自車両)に取り付けられた側方撮像部12(右方カメラ12a,左方カメラ12b)によって車両10の左右側方の路面を含む画像を撮像して、側方駐車枠線検出部23が、車両10の左右側方の駐車枠線wiを検出して、駐車枠線特徴算出部24が、駐車枠線wiの特徴を算出する。こうして算出された駐車枠線wiの特徴に基づいて、進行方向駐車枠線検出パラメータ設定部26が車両10の進行方向の駐車枠線wiを検出するためのパラメータを設定して、進行方向撮像部15(前方カメラ15a)が撮像した車両10の進行方向の路面を含む画像の中から、進行方向駐車可能領域検出部28が、車両10が駐車可能な駐車枠を検出するため、車両10の進行方向にある駐車可能なスペースをできるだけ遠方から確実に検出することができる。
 また、このように構成された本発明の実施例1に係る駐車枠認識装置100によれば、駐車枠線特徴算出部24が、駐車枠線wiの特徴として、駐車枠線wiの有無、隣接する駐車枠線wi,wi+1の間隔Jw、駐車枠線wiの形状、駐車枠線wiの色、車両10の進行方向Fと駐車枠線wiのなす角度θのいずれかを算出するとともに、算出された結果に基づいて、駐車枠線wiに対する車両10の駐車形態を表す駐車種別を判定するため、簡単な処理で駐車種別を確実に特定することができる。
 また、このように構成された本発明の実施例1に係る駐車枠認識装置100によれば、進行方向駐車枠線検出パラメータ設定部26は、駐車枠線特徴算出部24が算出した駐車枠線wiの特徴と、駐車種別と、に基づいて、駐車枠線wiの特徴を表すパラメータとして、車両10の進行方向Fの駐車枠線wiの探索領域と、車両10の進行方向Fの駐車枠線wiの特徴を検出するための検出閾値と、を設定するため、側方撮像部12(右方カメラ12a,左方カメラ12b)で撮像した画像の中から検出した駐車枠線wiが有する特徴を用いて、進行方向撮像部15(前方カメラ15a)で撮像した画像の中に写る駐車枠線wiの特徴を予測することができ、進行方向撮像部15で撮像した画像の中から駐車枠線wiを確実に検出することができる。
 また、このように構成された本発明の実施例1に係る駐車枠認識装置100によれば、進行方向駐車可能領域検出部28は、前記進行方向駐車枠線検出パラメータ設定部26の設定結果に基づいて、進行方向撮像部15(前方カメラ15a)で撮像された画像の中から自車両の進行方向の駐車枠線を検出して、検出された駐車枠線に基づいて、各隣接する駐車枠線の各々の長さを算出する駐車枠線長さ算出部28aと、進行方向撮像部15(前方カメラ15a)で撮像された画像の中から駐車車両250(他車両)のホイールを検出するホイール検出部28bを備えて、駐車種別と、駐車枠線長さ算出部28aの算出結果と、ホイール検出部28bの検出結果と、に基づいて、車両10が駐車可能な駐車枠を検出するため、駐車枠線wiのみで判断できない場合は、駐車車両250(他車両)のホイールの見え方も利用することができ、これによって、駐車可能な駐車枠を確実に検出することができる。
 また、このように構成された本発明の実施例1に係る駐車枠認識装置100によれば、駐車枠線特徴算出部24が算出した駐車種別が並列駐車であって、なおかつ、隣接する駐車枠線の各長さのうち、車両10(自車両)に近い側の駐車枠線wiよりも遠方側の駐車枠線wiが長いとき、または、ホイール検出部28bが、隣接する駐車枠線wi,wi+1のうち、遠方側の駐車枠線wiのさらに遠方側近傍に駐車車両250(他車両)のホイールを検出したときに、進行方向駐車可能領域検出部28は、隣接する駐車枠線wi,wi+1の間は車両10(自車両)が駐車可能な駐車枠であると判断するため、並列駐車を行う駐車場において、駐車可能な駐車枠を確実に検出することができる。
 また、このように構成された本発明の実施例1に係る駐車枠認識装置100によれば、駐車枠線特徴算出部24が算出した駐車種別が斜め駐車であって、なおかつ、隣接する駐車枠線wi,wi+1の各長さが、ともに所定値以上であり、さらに、ホイール検出部28bが、隣接する駐車枠線の間に駐車車両250(他車両)のホイールを検出しないときに、進行方向駐車可能領域検出部28は、隣接する駐車枠線wi,wi+1の間は車両10(自車両)が駐車可能な駐車枠であると判断するため、斜め駐車を行う駐車場において、駐車可能な駐車枠を確実に検出することができる。
 また、このように構成された本発明の実施例1に係る駐車枠認識装置100によれば、駐車枠線特徴算出部24が算出した駐車種別が縦列駐車であって、なおかつ、隣接する駐車枠線wiの各長さのうち、車両10(自車両)に近い側の駐車枠線wiよりも遠方側の駐車枠線wiが長いときに、進行方向駐車可能領域検出部28は、隣接する駐車枠線wiの間は車両10(自車両)が駐車可能な駐車枠であると判断するため、縦列駐車を行う駐車場において、駐車可能な駐車枠を確実に検出することができる。
 また、このように構成された本発明の実施例1に係る駐車枠認識装置100によれば、進行方向駐車可能領域検出部28が検出した、車両10(自車両)が駐車可能な駐車枠を、画像情報として表示する駐車枠情報出力部32を有するため、車両10の乗員は、即座に駐車可能な駐車枠の場所を認識することができる。
 また、このように構成された本発明の実施例1に係る駐車枠認識装置100によれば、進行方向駐車可能領域検出部28が複数の駐車枠を検出したときに、検出された複数の駐車枠のそれぞれに対して、車両10(自車両)が駐車しやすい順に優先順位を決定する駐車枠優先順位決定部30を有するため、駐車可能な駐車枠に駐車を行う際に、急制動や急操舵等の急激な車両挙動の変化を引き起こさずに車両10を駐車させることができる。
 また、このように構成された本発明の実施例1に係る駐車枠認識装置100によれば、駐車枠優先順位決定部30は、車両10(自車両)の速度と、進行方向駐車可能領域検出部28によって検出された各駐車枠と車両10との距離と、に基づいて優先順位を決定するため、駐車可能な駐車枠から遠く離れた位置から、駐車可能領域Ri(駐車枠)への駐車のさせ易さを確実に判定することができる。
 さらに、このように構成された本発明の実施例1の変形例に係る駐車枠認識装置100によれば、進行方向撮像部15(前方狭角カメラ17a)は、側方撮像部12(右方カメラ12a,左方カメラ12b)よりも遠方かつ狭い撮像範囲16bを撮像するため、車両の進行方向の駐車可能領域を、より一層遠方から、確実に検出することができる。
 なお、実施例1では、前方カメラ15aで撮像した画像I(x,y)の中から、車両10(自車両)の進行方向の駐車枠線wiを検出したが、車両10を後退させながら駐車を行う環境にあっては、車両10の後方が進行方向になるため、後方カメラ15bで撮像した画像の中から駐車枠線wiを検出するものとする。そして、車両10の進行方向はシフトポジションによって判断することができるため、前方カメラ15aと後方カメラ15bの切り替えは、シフトポジションの検出結果に基づいて行えばよい。
 以上、本発明の実施例を図面により詳述したが、実施例は本発明の例示にしか過ぎないものであるため、本発明は実施例の構成にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲の設計の変更等があっても、本発明に含まれることは勿論である。
関連出願への相互参照
 本出願は、2014年7月4日に日本国特許庁に出願された特願2014-138530に基づいて優先権を主張し、その全ての開示は完全に本明細書で参照により組み込まれる。
10・・・車両(自車両)
12・・・側方撮像部
12a・・右方カメラ
12b・・左方カメラ
15・・・進行方向撮像部
15a・・前方カメラ
15b・・後方カメラ
20・・・電子制御ユニット(ECU)
22・・・画像入力部
23・・・側方駐車枠線検出部
24・・・駐車枠線特徴算出部
26・・・進行方向駐車枠線検出パラメータ設定部
28・・・進行方向駐車可能領域検出部
28a・・駐車枠線長さ算出部
28b・・ホイール検出部
30・・・駐車枠優先順位決定部
32・・・駐車枠情報出力部
40・・・車両状態取得部
50・・・モニター
100・・駐車枠認識装置

Claims (11)

  1.  自車両に取り付けられて、自車両の左右側方の路面を含む画像を撮像する側方撮像部と、
     自車両に取り付けられて、自車両の進行方向の路面を含む画像を撮像する進行方向撮像部と、
     前記側方撮像部で撮像された画像の中から、自車両の左右側方の駐車枠線を検出する側方駐車枠線検出部と、
     自車両の左右側方の駐車枠線が有する特徴を算出する駐車枠線特徴算出部と、
     前記特徴に基づいて、前記進行方向撮像部で撮像された画像の中から自車両の進行方向の駐車枠線を検出するためのパラメータを設定する進行方向駐車枠線検出パラメータ設定部と、
     前記進行方向駐車枠線検出パラメータ設定部の設定結果に基づいて、前記進行方向撮像部で撮像された画像の中から、自車両が駐車可能な駐車枠を検出する進行方向駐車可能領域検出部と、を有することを特徴とする駐車枠認識装置。
  2.  前記駐車枠線特徴算出部は、駐車枠線の特徴として、駐車枠線の有無、駐車枠線の間隔、駐車枠線の形状、駐車枠線の色、自車両の進行方向と駐車枠線のなす角度のいずれかを算出するとともに、算出された結果に基づいて、前記駐車枠線に対する車両の駐車形態を表す駐車種別を判定することを特徴とする請求項1に記載の駐車枠認識装置。
  3.  前記進行方向駐車枠線検出パラメータ設定部は、前記特徴と、前記駐車種別と、に基づいて、前記パラメータとして、自車両の進行方向の駐車枠線の探索領域と、自車両の進行方向の駐車枠線の前記特徴を検出するための検出閾値と、を設定することを特徴とする請求項2に記載の駐車枠認識装置。
  4.  前記進行方向駐車可能領域検出部は、前記進行方向駐車枠線検出パラメータ設定部の設定結果に基づいて、前記進行方向撮像部で撮像された画像の中から自車両の進行方向の駐車枠線を検出して、検出された駐車枠線に基づいて、各隣接する駐車枠線の各々の長さを算出する駐車枠線長さ算出部と、
     前記進行方向撮像部で撮像された画像の中から他車両のホイールを検出するホイール検出部を備えて、前記駐車種別と、前記駐車枠線長さ算出部の算出結果と、前記ホイール検出部の検出結果と、に基づいて、自車両が駐車可能な駐車枠を検出することを特徴とする請求項1から請求項3のいずれか1項に記載の駐車枠認識装置。
  5.  前記駐車枠線特徴算出部が算出した駐車種別が並列駐車であって、なおかつ、前記隣接する駐車枠線の各長さのうち、自車両に近い側の駐車枠線よりも遠方側の駐車枠線が長いとき、または、前記ホイール検出部が、前記隣接する駐車枠線のうち、前記遠方側の駐車枠線のさらに遠方側近傍に他車両のホイールを検出したときに、前記進行方向駐車可能領域検出部は、前記隣接する駐車枠線の間は自車両が駐車可能な駐車枠であると判断することを特徴とする請求項4に記載の駐車枠認識装置。
  6.  前記駐車枠線特徴算出部が算出した駐車種別が斜め駐車であって、なおかつ、前記隣接する駐車枠線の各長さが、ともに所定値以上であり、さらに、前記ホイール検出部が、前記隣接する駐車枠線の間に他車両のホイールを検出しないときに、前記進行方向駐車可能領域検出部は、前記隣接する駐車枠線の間は自車両が駐車可能な駐車枠であると判断することを特徴とする請求項4に記載の駐車枠認識装置。
  7.  前記駐車枠線特徴算出部が算出した駐車種別が縦列駐車であって、なおかつ、前記隣接する駐車枠線の各長さのうち、自車両に近い側の駐車枠線よりも遠方側の駐車枠線が長いときに、前記進行方向駐車可能領域検出部は、前記隣接する駐車枠線の間は自車両が駐車可能な駐車枠であると判断することを特徴とする請求項4に記載の駐車枠認識装置。
  8.  前記進行方向駐車可能領域検出部が検出した自車両が駐車可能な駐車枠を、画像情報として表示する駐車枠情報出力部を有することを特徴とする請求項1から請求項7のいずれか1項に記載の駐車枠認識装置。
  9.  前記進行方向駐車可能領域検出部が複数の駐車枠を検出したときに、検出された前記複数の駐車枠のそれぞれに対して、自車両が駐車しやすい順に優先順位を決定する駐車枠優先順位決定部を有することを特徴とする請求項1から請求項8のいずれか1項に記載の駐車枠認識装置。
  10.  前記駐車枠優先順位決定部は、自車両の速度と、前記進行方向駐車可能領域検出部によって検出された各駐車枠と自車両との距離と、に基づいて優先順位を決定することを特徴とする請求項9に記載の駐車枠認識装置。
  11.  前記進行方向撮像部は、前記側方撮像部よりも遠方かつ狭い領域を撮像するものであることを特徴とする請求項1から請求項10のいずれか1項に記載の駐車枠認識装置。
PCT/JP2015/065572 2014-07-04 2015-05-29 駐車枠認識装置 WO2016002405A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014138530A JP2016016681A (ja) 2014-07-04 2014-07-04 駐車枠認識装置
JP2014-138530 2014-07-04

Publications (1)

Publication Number Publication Date
WO2016002405A1 true WO2016002405A1 (ja) 2016-01-07

Family

ID=55018958

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/065572 WO2016002405A1 (ja) 2014-07-04 2015-05-29 駐車枠認識装置

Country Status (2)

Country Link
JP (1) JP2016016681A (ja)
WO (1) WO2016002405A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017068700A1 (ja) * 2015-10-22 2017-04-27 日産自動車株式会社 駐車スペース検出方法および装置
WO2017068701A1 (ja) * 2015-10-22 2017-04-27 日産自動車株式会社 駐車スペース検出方法および装置
CN109923586A (zh) * 2016-11-10 2019-06-21 株式会社电装 停车框识别装置
JP2020015372A (ja) * 2018-07-24 2020-01-30 株式会社デンソーテン 画像処理装置および画像処理方法
CN110785328A (zh) * 2017-07-07 2020-02-11 日产自动车株式会社 停车辅助方法及停车控制装置
CN112744213A (zh) * 2021-01-07 2021-05-04 广州小鹏自动驾驶科技有限公司 一种自动泊车的方法和装置
CN113327201A (zh) * 2020-02-12 2021-08-31 佛吉亚歌乐电子有限公司 图像处理装置及图像处理方法
US20210303881A1 (en) * 2020-03-31 2021-09-30 Honda Motor Co., Ltd. Parking space recognition system and parking assist system including the same

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6500436B2 (ja) * 2014-12-26 2019-04-17 アイシン精機株式会社 駐車支援装置
JP6467310B2 (ja) * 2015-07-23 2019-02-13 Kyb株式会社 駐車誘導装置
WO2017179205A1 (ja) * 2016-04-15 2017-10-19 三菱電機株式会社 駐車支援用表示制御装置および駐車支援用表示制御方法
CN105957393B (zh) * 2016-04-29 2019-11-12 百度在线网络技术(北京)有限公司 一种停车位的识别方法及装置
JP6745461B2 (ja) * 2016-09-30 2020-08-26 パナソニックIpマネジメント株式会社 駐車制御装置、駐車制御方法、および駐車制御プログラム
JP6677142B2 (ja) * 2016-11-10 2020-04-08 株式会社デンソー 駐車枠認識装置
JP6776842B2 (ja) * 2016-11-22 2020-10-28 日産自動車株式会社 駐車支援方法及び駐車支援装置
CN106448254B (zh) * 2016-12-05 2020-04-21 深圳市金溢科技股份有限公司 V2x车联网系统、车载终端、服务端以及车位检测方法
DE102017200069A1 (de) * 2017-01-04 2018-07-05 Robert Bosch Gmbh Verfahren zur Ermittlung einer Parkposition, sowie Anordnung zum Durchführen des Verfahrens
JP6828501B2 (ja) * 2017-02-21 2021-02-10 アイシン精機株式会社 駐車支援装置
JP7002210B2 (ja) 2017-04-07 2022-01-20 フォルシアクラリオン・エレクトロニクス株式会社 駐車支援装置
JP6852556B2 (ja) * 2017-05-16 2021-03-31 株式会社Jvcケンウッド 俯瞰映像生成装置、俯瞰映像表示システム、俯瞰映像生成方法およびプログラム
KR102102651B1 (ko) 2017-10-12 2020-05-29 엘지전자 주식회사 자율주행차량 및 이의 제어방법
JP7113351B2 (ja) 2018-08-06 2022-08-05 パナソニックIpマネジメント株式会社 駐車支援装置、車両、および記録媒体
JP6990686B2 (ja) 2019-06-24 2022-01-12 本田技研工業株式会社 駐車支援システム
JP6975766B2 (ja) * 2019-12-13 2021-12-01 本田技研工業株式会社 駐車支援装置、駐車支援方法及びプログラム
JP6982053B2 (ja) 2019-12-13 2021-12-17 本田技研工業株式会社 駐車支援システム
JP7482054B2 (ja) 2020-02-27 2024-05-13 フォルシアクラリオン・エレクトロニクス株式会社 画像処理装置及び画像処理方法
CN118043246A (zh) * 2021-09-29 2024-05-14 株式会社爱信 出库辅助系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008004633A1 (de) * 2008-01-16 2009-07-23 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erkennung und/oder Vermessung einer Parklücke
JP2010018205A (ja) * 2008-07-11 2010-01-28 Honda Motor Co Ltd 駐車を支援するための装置
JP2013001366A (ja) * 2011-06-22 2013-01-07 Nissan Motor Co Ltd 駐車支援装置および駐車支援方法
WO2013146139A1 (ja) * 2012-03-28 2013-10-03 日産自動車株式会社 駐車支援システム及び駐車支援方法
DE102012208288A1 (de) * 2012-05-16 2013-11-21 Robert Bosch Gmbh Verfahren zur Darstellung einer Fahrzeugumgebung auf einer Anzeige und Fahrassistenzsystem

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008004633A1 (de) * 2008-01-16 2009-07-23 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erkennung und/oder Vermessung einer Parklücke
JP2010018205A (ja) * 2008-07-11 2010-01-28 Honda Motor Co Ltd 駐車を支援するための装置
JP2013001366A (ja) * 2011-06-22 2013-01-07 Nissan Motor Co Ltd 駐車支援装置および駐車支援方法
WO2013146139A1 (ja) * 2012-03-28 2013-10-03 日産自動車株式会社 駐車支援システム及び駐車支援方法
DE102012208288A1 (de) * 2012-05-16 2013-11-21 Robert Bosch Gmbh Verfahren zur Darstellung einer Fahrzeugumgebung auf einer Anzeige und Fahrassistenzsystem

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017068700A1 (ja) * 2015-10-22 2017-04-27 日産自動車株式会社 駐車スペース検出方法および装置
WO2017068701A1 (ja) * 2015-10-22 2017-04-27 日産自動車株式会社 駐車スペース検出方法および装置
JPWO2017068701A1 (ja) * 2015-10-22 2018-08-02 日産自動車株式会社 駐車スペース検出方法および装置
US10163016B2 (en) 2015-10-22 2018-12-25 Nissan Motor Co., Ltd. Parking space detection method and device
CN109923586A (zh) * 2016-11-10 2019-06-21 株式会社电装 停车框识别装置
CN109923586B (zh) * 2016-11-10 2023-02-28 株式会社电装 停车框识别装置
CN110785328A (zh) * 2017-07-07 2020-02-11 日产自动车株式会社 停车辅助方法及停车控制装置
JP2020015372A (ja) * 2018-07-24 2020-01-30 株式会社デンソーテン 画像処理装置および画像処理方法
CN113327201A (zh) * 2020-02-12 2021-08-31 佛吉亚歌乐电子有限公司 图像处理装置及图像处理方法
US11620908B2 (en) * 2020-02-12 2023-04-04 Faurecia Clarion Electronics Co., Ltd. Image processor and image processing method
US20210303881A1 (en) * 2020-03-31 2021-09-30 Honda Motor Co., Ltd. Parking space recognition system and parking assist system including the same
US11842548B2 (en) * 2020-03-31 2023-12-12 Honda Motor Co., Ltd. Parking space recognition system and parking assist system including the same
CN112744213A (zh) * 2021-01-07 2021-05-04 广州小鹏自动驾驶科技有限公司 一种自动泊车的方法和装置

Also Published As

Publication number Publication date
JP2016016681A (ja) 2016-02-01

Similar Documents

Publication Publication Date Title
WO2016002405A1 (ja) 駐車枠認識装置
US8611609B2 (en) Lane line estimating apparatus
US10810446B2 (en) Parking space line detection method and device
US8244027B2 (en) Vehicle environment recognition system
JP5421072B2 (ja) 接近物体検知システム
JP3630100B2 (ja) 車線検出装置
KR102485480B1 (ko) 가상 주차선 생성에 의한 주차 지원 장치 및 그 방법
JP4714104B2 (ja) 物体傾き検出装置
US9965690B2 (en) On-vehicle control device
US8730325B2 (en) Traveling lane detector
JP5054612B2 (ja) 接近物検出装置および接近物検出方法
JP2011065219A (ja) 道路曲率推定装置
JP4721278B2 (ja) 車線逸脱判定装置、車線逸脱防止装置および車線追従支援装置
JP2018060422A (ja) 物体検出装置
JP7445501B2 (ja) 画像処理装置および画像処理方法
JP5287344B2 (ja) 駐車支援装置及び障害物検知方法
US11270452B2 (en) Image processing device and image processing method
US9827906B2 (en) Image processing apparatus
JP2009186301A (ja) 車両用物体検出装置
JP5931691B2 (ja) 白線検出装置および白線検出方法
JP5723561B2 (ja) 運転支援装置
JP5958368B2 (ja) 白線検出装置
JP2010018223A (ja) 車両用走行路面検出装置
US11417115B2 (en) Obstacle recognition device
WO2021176819A1 (ja) 処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15815580

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15815580

Country of ref document: EP

Kind code of ref document: A1