WO2023119656A1 - 駐車支援方法及び駐車支援装置 - Google Patents

駐車支援方法及び駐車支援装置 Download PDF

Info

Publication number
WO2023119656A1
WO2023119656A1 PCT/JP2021/048357 JP2021048357W WO2023119656A1 WO 2023119656 A1 WO2023119656 A1 WO 2023119656A1 JP 2021048357 W JP2021048357 W JP 2021048357W WO 2023119656 A1 WO2023119656 A1 WO 2023119656A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
image
feature points
target
surrounding
Prior art date
Application number
PCT/JP2021/048357
Other languages
English (en)
French (fr)
Inventor
康啓 鈴木
椋 竹田
武史 渡邉
僚大 山中
Original Assignee
日産自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社 filed Critical 日産自動車株式会社
Priority to PCT/JP2021/048357 priority Critical patent/WO2023119656A1/ja
Publication of WO2023119656A1 publication Critical patent/WO2023119656A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/06Automatic manoeuvring for parking

Definitions

  • the present invention relates to a parking assistance method and a parking assistance device.
  • edge points around a target parking position such as a parking frame are extracted from the brightness of an image obtained by photographing the surroundings of the own vehicle, and the parking frame is detected based on the extracted edge points.
  • a parking assistance device that assists a driver's parking operation based on a detected parking frame.
  • a parking assistance method for assisting parking of the own vehicle at the target parking position.
  • the parking support method includes: extracting feature points around the target parking position from an image obtained by photographing the surroundings of the vehicle in advance and storing the feature points in a storage device; Acquisition of an image by photographing the surroundings of the own vehicle when moving to, Extracting feature points around the own vehicle from the image around the own vehicle as surrounding feature points, Learning feature points and the target calculating the relative position of the own vehicle with respect to the target parking position based on the relative positional relationship between the parking position and the relative positional relationship between the surrounding feature points and the own vehicle; calculating a target travel trajectory from the current position of the vehicle to the target parking position based on the relative position of the vehicle, and assisting movement of the vehicle along the target travel trajectory.
  • a second area in which the shadow of the vehicle appears in the surrounding image which is an image obtained by photographing the surroundings of the vehicle when extracting target feature points that are at least one of the learned feature points and the surrounding feature points.
  • a first shadow region is extracted, image features in the extracted first shadow region are calculated, and a second shadow region, which is a region in which shadows of objects surrounding the vehicle appear in the surrounding image, is calculated based on the calculated image features.
  • a region is extracted, and as target feature points, feature points excluding edge points on the outer peripheral edges of the first shadow region and the second shadow region are extracted from the surrounding image.
  • the influence of the shadow on the image on the calculation accuracy can be suppressed.
  • FIG. 10 is an explanatory diagram of an example of processing for storing learned feature points
  • FIG. 7 is an explanatory diagram of an example of processing when parking assistance is performed
  • 2 is a block diagram of an example of a functional configuration of a controller in FIG. 1
  • FIG. 3 is a schematic diagram of a bird's-eye view image of the surroundings of the host vehicle
  • FIG. 4 is an explanatory diagram of a first shadow area
  • FIG. 11 is an explanatory diagram of a second shadow area
  • FIG. 10 is an explanatory diagram of the outer peripheral edge portion of the shadow area
  • FIG. 4 is an explanatory diagram of a first example of a region for detecting feature points
  • FIG. 10 is an explanatory diagram of an example of a region for detecting feature points
  • FIG. 10 is an explanatory diagram of a second example of a region for detecting feature points;
  • FIG. 11 is an explanatory diagram of a third example of a region for detecting feature points;
  • FIG. 10 is an explanatory diagram of a first example of processing for storing learned feature points;
  • FIG. 10 is an explanatory diagram of a first example of processing when parking assistance is performed;
  • FIG. 11 is an explanatory diagram of a second example of processing for storing learned feature points;
  • FIG. 11 is an explanatory diagram of a second example of processing when parking assistance is performed;
  • the host vehicle 1 includes a parking assistance device 10 that assists parking of the host vehicle 1 at a target parking position.
  • the parking assistance device 10 assists the vehicle 1 to travel along a target travel trajectory from the current position to the target parking position.
  • parking assistance device 10 There are various forms of parking assistance by the parking assistance device 10 .
  • automatic driving may be performed in which the own vehicle 1 is controlled to travel along the target travel trajectory of the own vehicle 1 to the target parking position.
  • Automatic driving that controls the own vehicle 1 to travel along the target travel trajectory of the own vehicle 1 to the target parking position means controlling all or part of the steering angle, driving force, and braking force of the own vehicle.
  • Parking of the own vehicle 1 may be assisted by displaying the target travel trajectory and the current position of the own vehicle 1 on a display device that can be visually recognized by the occupant of the own vehicle 1 .
  • the positioning device 11 measures the current position of the own vehicle 1 .
  • the positioning device 11 comprises, for example, a Global Positioning System (GNSS) receiver.
  • a GNSS receiver may be, for example, a global positioning system (GPS) receiver or the like.
  • a human machine interface (HMI) 12 is an interface device that exchanges information between the parking assistance device 10 and a passenger.
  • the HMI 12 includes a display device visible to the occupant of the vehicle 1, a speaker, a buzzer, and operators (buttons, switches, levers, dials, touch panels, etc.).
  • a shift switch (shift SW) 13 is a switch for switching the shift position of the vehicle 1 by the driver or the parking assistance device 10 .
  • the external sensor 14 detects objects within a predetermined distance range from the own vehicle 1 .
  • the external sensor 14 detects the surrounding environment of the own vehicle 1, such as the relative position between the object existing around the own vehicle 1 and the own vehicle 1, the distance between the own vehicle 1 and the object, and the direction in which the object exists.
  • the external sensor 14 may include, for example, a camera that captures the surrounding environment of the vehicle 1 .
  • the camera may be, for example, an around-view monitor camera that captures an image of the surroundings of the vehicle 1 and generates a captured image that is converted into a bird's-eye view image (around-view monitor image).
  • the camera of the external sensor 14 is simply referred to as "camera”.
  • the external sensor 14 may include a distance measuring device such as a laser range finder, radar, or LiDAR (Light Detection and Ranging) laser radar.
  • the vehicle sensor 15 detects various information (vehicle information) of the own vehicle 1.
  • vehicle sensors 15 include, for example, a vehicle speed sensor that detects the running speed of the vehicle 1, a wheel speed sensor that detects the rotation speed of each tire of the vehicle 1, and acceleration (including deceleration) of the vehicle 1 in three axial directions. ), a steering angle sensor that detects the steering angle, a steering angle sensor that detects the steering angle of the steered wheels, a gyro sensor that detects the angular velocity of the vehicle 1, and a yaw rate.
  • a yaw rate sensor may include a yaw rate sensor that
  • the controller 16 is an electronic control unit that performs parking support control of the own vehicle 1 .
  • Controller 16 includes a processor 20 and peripheral components such as storage device 21 .
  • the processor 20 may be, for example, a CPU or MPU.
  • the storage device 21 may include a semiconductor storage device, a magnetic storage device, an optical storage device, or the like.
  • the functions of the controller 16 to be described below are implemented, for example, by the processor 20 executing a computer program stored in the storage device 21 .
  • the controller 16 may be formed of dedicated hardware for executing each information processing described below.
  • the steering actuator 18 a controls the steering direction and steering amount of the steering mechanism of the vehicle 1 according to the control signal from the controller 16 .
  • the accelerator actuator 18b controls the accelerator opening of a driving device such as an engine or a driving motor according to a control signal from the controller 16.
  • the brake actuator 18c operates the braking device according to a control signal from the controller 16.
  • FIG. 2A When using the parking assistance by the parking assistance device 10, feature points are extracted from an image of the surroundings of the target parking position 30 where the vehicle 1 is to be parked, and stored in advance in the storage device 21. ⁇ In the following description, the feature points around the target parking position 30 stored in the storage device 21 are referred to as "learned feature points". Circle plots in FIG. 2A represent learned feature points. For example, when the own vehicle 1 is positioned near the target parking position 30 (for example, when the driver manually drives the own vehicle 1 at the target parking position 30), the parking assistance device 10 can detect the surroundings of the own vehicle 1 with a camera. Feature points around the target parking position 30 are extracted from the surrounding image obtained by photographing .
  • edge points and shapes where the brightness of adjacent pixels changes more than a predetermined amount such as the edges and corners of targets such as road markings, road boundaries, and obstacles, on images captured by a camera. is detected as a feature point.
  • the driver operates a "parking position learning switch" provided as an operator of the HMI 12.
  • the parking assistance device 10 stores the relative positional relationship between the learned feature points and the target parking position 30 .
  • the driver may operate the HMI 12 to input that the current position of the vehicle 1 is the target parking position 30 .
  • the parking assistance device 10 obtains the relative positional relationship between the learned feature points and the target parking position 30 based on the positions of the learned feature points detected when the vehicle 1 is positioned at the target parking position 30. good too.
  • an image captured by the camera is displayed on the HMI 12, and the driver designates the position of the target parking position 30 on the captured image to obtain the relative positional relationship between the learned feature point and the target parking position 30. good too.
  • the learned feature points on a coordinate system having a fixed point as a reference point (hereinafter referred to as "map coordinate system") and the coordinates of the target parking position 30 may be stored.
  • map coordinate system a coordinate system having a fixed point as a reference point
  • the current position on the map coordinate system measured by the positioning device 11 when the vehicle 1 is positioned at the target parking position 30 may be stored as the target parking position 30 .
  • each relative position of the target parking position 30 with respect to each learned feature point may be stored.
  • FIG. 2B is an explanatory diagram of an example of processing when parking assistance is performed.
  • the parking assistance device 10 performs parking assistance for the own vehicle 1 when the own vehicle 1 is located near the target parking position 30 .
  • the parking assistance device 10 determines whether or not the driver has performed a shift operation for switching between forward and backward movement of the vehicle 1 when the vehicle 1 is positioned near the target parking position 30 .
  • FIG. 2B shows an example in which the own vehicle 1 turns at the turning point 31 .
  • the parking assistance device 10 determines that a shift operation for switching has been performed, Parking assistance may be started.
  • the HMI 12 Parking assistance may be started when the driver operates a prepared "parking assistance activation switch". Conditions for starting parking assistance can be set arbitrarily.
  • the parking assistance device 10 extracts feature points around the own vehicle 1 from a surrounding image obtained by photographing the surroundings of the own vehicle 1 with a camera.
  • the feature points around the vehicle 1 that are extracted when the parking assistance is performed are referred to as "surrounding feature points”.
  • Triangular plots in FIG. 2B represent surrounding feature points.
  • the detection timing of the feature point is not particularly limited, and for example, the shift operation or the parking assistance activation switch may be always performed regardless of the operation.
  • the parking assistance device 10 matches the learned feature points stored in the storage device 21 with the surrounding feature points, and associates the same feature points with each other.
  • the parking assistance device 10 calculates the relative positional relationship between the surrounding feature points detected when the parking assistance is performed and the own vehicle 1, and the relative position between the learned feature points associated with the surrounding feature points and the target parking position 30. Based on the positional relationship, the relative position of the own vehicle 1 with respect to the target parking position 30 is calculated. For example, the parking assistance device 10 may calculate the position of the target parking position 30 on a coordinate system based on the current position of the own vehicle 1 (hereinafter referred to as "vehicle coordinate system"). For example, when the coordinates of the learned feature points and the target parking position 30 in the map coordinate system are stored in the storage device 21, the positions of the surrounding feature points detected when the parking assistance is performed and the learned feature points in the map coordinate system.
  • the coordinates of the target parking position 30 on the map coordinate system may be transformed into coordinates on the vehicle coordinate system.
  • the current position of the own vehicle 1 on the map coordinate system is obtained, and the position of the own vehicle 1 on the map coordinate system is obtained.
  • the relative position of the vehicle 1 with respect to the target parking position 30 may be calculated from the difference between the coordinates and the coordinates of the target parking position 30 .
  • the parking assistance device 10 calculates a target travel trajectory from the current position of the vehicle 1 to the target parking position 30 based on the relative position of the vehicle 1 with respect to the target parking position 30 . For example, if the position of the vehicle 1 at the start of parking assistance is the turn-around position 31, the trajectory 32 from the turn-around position 31 to the target parking position 30 is calculated as the target travel trajectory. Further, for example, when the position of the own vehicle 1 at the start of the parking assistance is a position 33 near the target parking position 30, a track 34 extending from the position 33 to the turn-over position 31 and a track 34 extending from the turn-over position 31 to the target parking position A trajectory 32 leading to 30 is calculated as a target travel trajectory. The parking assistance device 10 performs parking assistance control of the own vehicle 1 based on the calculated target travel trajectory.
  • the feature points extracted from the surrounding image obtained by photographing the surroundings of the vehicle include edge points where the brightness of adjacent pixels on the surrounding image changes by a predetermined amount or more. For this reason, an edge point on the outer edge of the shadow on the surrounding image may be detected as a feature point. Since the shadow on the surrounding image changes depending on the position of the light source (for example, the sun), extracting the edge points of the outer periphery of the shadow as the learned feature point or the surrounding feature point will give the relative position of the vehicle 1 with respect to the target parking position 30. There is a possibility that the calculation accuracy may deteriorate. Therefore, when extracting at least one of the learned feature points and the surrounding feature points, the parking assistance device 10 of the embodiment extracts these feature points so that edge points on the outer periphery of the shadow are excluded.
  • the functional configuration of the controller 16 is shown in FIG.
  • the human-machine interface control section (HMI control section) 40 When the parking position learning switch is operated by the driver, the human-machine interface control section (HMI control section) 40 outputs a map generation command to the storage device 21 to store the learned feature points to the map generation section 45 .
  • the HMI control unit 40 determines whether or not the driver has performed a shift operation for steering, and outputs the determination result to the parking assistance control unit 41 . Further, when it detects that the parking support activation switch of the HMI 12 has been operated by the driver, it outputs the detection result to the parking support control section 41 .
  • the parking assistance control unit 41 determines whether or not the vehicle 1 is positioned near the target parking position 30 . For example, it is determined whether or not the distance between the vehicle 1 and the target parking position 30 is less than or equal to a predetermined distance.
  • the parking assistance control unit 41 may determine whether or not the distance between the vehicle 1 and the target parking position 30 is less than or equal to a predetermined distance based on the current position of the vehicle 1 measured by the positioning device 11 . Further, for example, the feature amount of the target near the target parking position 30 may be stored in advance, and it may be determined whether or not the external sensor 14 detects a target having a similar feature amount.
  • the parking support control unit 41 starts parking support control.
  • the parking assist control is started.
  • Parking assistance control may be started under certain conditions.
  • the parking support control unit 41 When parking support control is started, the parking support control unit 41 outputs a parking position calculation command to the matching unit 47 to calculate the position of the target parking position 30 in the vehicle coordinate system.
  • a travel trajectory calculation command for calculating a target travel trajectory from the current position of the vehicle 1 to the target parking position 30 and a target vehicle speed profile along which the vehicle 1 travels on the target travel trajectory is output to the target trajectory generator 48 .
  • the target trajectory generation unit 48 calculates a target travel trajectory from the current position of the vehicle 1 to the target parking position 30 and a target vehicle speed profile, and outputs the calculated target vehicle speed profile to the parking assistance control unit 41 .
  • a well-known technique employed in automatic parking systems can be applied to the calculation of the target travel trajectory.
  • the target vehicle speed profile is such that the vehicle 1 is accelerated from the current position to a predetermined set speed, decelerates before the turning point 31, stops at the turning point 31, and reaches the set speed from the turning point 31. It may be a vehicle speed profile in which the vehicle accelerates, decelerates before the target parking position 30 , and stops at the target parking position 30 .
  • the set speed for calculating the speed profile may be set based on the calculated curvature of the target travel trajectory so that the higher the curvature, the lower the speed.
  • the parking assistance control unit 41 outputs the target travel trajectory and information on the current position of the host vehicle 1 to the HMI control unit 40 . If the target travel trajectory includes a turn-around position, information on the turn-around position is output to the HMI control unit 40 .
  • the HMI control unit 40 displays the target travel trajectory, the current position of the own vehicle 1 and the turning position on the HMI 12 .
  • the parking support control unit 41 also outputs a steering control command to the steering control unit 49 to control the steering so that the host vehicle 1 travels along the calculated target travel trajectory. It also outputs a vehicle speed control command for controlling the vehicle speed of the own vehicle 1 to the vehicle speed control unit 50 according to the calculated target vehicle speed profile.
  • the image converter 42 converts the captured image of the camera into a surrounding image as shown in FIGS. 2A and 2B.
  • the surrounding image is a bird's-eye view image (around-view monitor image) viewed from a virtual viewpoint right above the own vehicle 1 .
  • the surrounding image is an example of "a bird's-eye view image of the surroundings of the own vehicle based on the position of the own vehicle" described in the claims.
  • FIG. 2A is a surrounding image when learning feature points are stored in the storage device 21, and
  • FIG. 2B is a surrounding image when parking support control is performed.
  • the image conversion unit 42 generates surrounding images at predetermined intervals. For example, the image conversion unit 42 may generate a surrounding image each time the own vehicle 1 travels a predetermined distance (for example, 50 cm).
  • a peripheral image may be generated each time the vehicle travels for a predetermined period of time (for example, one second).
  • a predetermined period of time for example, one second.
  • the self-position calculator 43 calculates the current position of the vehicle 1 on the map coordinate system by dead reckoning based on the vehicle information output from the vehicle sensor 15 .
  • the feature point detection unit 44 detects the learned feature points and their image feature amounts from the surrounding image output from the image conversion unit 42.
  • surrounding feature points and their image feature amounts are detected.
  • the learned feature points and surrounding feature points may be collectively referred to as "feature points”.
  • the feature point detection unit 44 performs predetermined preprocessing such as noise removal, brightness adjustment, and edge enhancement on the surrounding image output from the image conversion unit 42 .
  • the feature point detection unit 44 detects feature points and their image feature amounts from the preprocessed surrounding image. Methods such as SIFT, SURF, ORB, BRIAK, KAZE, and AKAZE can be used for detecting feature points and calculating image feature amounts.
  • FIG. 4 is a schematic diagram of a surrounding image output from the image conversion unit 42.
  • a white area 71 on the surrounding image 70 is an area occupied by the vehicle 1 .
  • a shaded area 72 is a shadow area where the shadow of the vehicle 1 or surrounding objects appears in the surrounding image 70 . If the edge points on the outer periphery of the shadow area 72 are used as the learned feature points or the surrounding feature points as described above, there is a risk that the accuracy of calculating the relative position of the vehicle 1 with respect to the target parking position 30 will be degraded. Therefore, the feature point detection unit 44 extracts a first shadow area 73, which is an area where the shadow of the own vehicle 1 appears in the surrounding image 70 (FIG. 5).
  • the feature point detection unit 44 determines that the difference between the brightness values or the image feature amounts at the same coordinates between the surrounding images (that is, the frames at different times) taken at different times while the vehicle 1 is moving is smaller than a predetermined value.
  • a region may be extracted as a first shadow region 73 .
  • the pattern of the shape of the shadow of the vehicle 1 appearing in the surrounding image 70 is stored in advance in the storage device 21 based on the external shape of the vehicle 1, and the outer edge shape of the area below the predetermined brightness in the surrounding image 70 is calculated.
  • an area having an outer edge shape that is the same as or similar to the shape of the shadow of the own vehicle 1 may be extracted as the first shadow area 73 .
  • the feature point detection unit 44 calculates features of the extracted image of the first shadow region 73 .
  • the feature point detection unit 44 detects the average luminance value of the image of the first shadow region 73 , the luminance value histogram of the image of the first shadow region 73 , the outer edge of the first shadow region 73 , and the image characteristics of the first shadow region 73 .
  • At least one of the contrast of the area, the image feature amount of the outer edge of the first shadow area 73, and the extending direction of the first shadow area 73 with respect to the vehicle 1 may be calculated.
  • the feature point detection unit 44 extracts a second shadow area, which is an area in which shadows of objects around the host vehicle appear in the ambient image 70, based on the features of the image of the first shadow area 73.
  • FIG. Specifically, the feature point detection unit 44 extracts an image region having a feature amount similar to the feature of the image of the first shadow region 73 as the second shadow region.
  • FIG. 6 is an explanatory diagram of the second shadow area.
  • the area indicated by diagonal hatching indicates the range occupied by the second shadow area, the area 71 occupied by the vehicle 1, and the first shadow area 73 .
  • the area occupied by the second shadow area, the occupied area 71, and the first shadow area 73 may be referred to as "B area”, and the other area may be referred to as "A area”.
  • the feature point detection unit 44 extracts feature points from the surrounding image 70 excluding edge points on the outer peripheries of the first shadow area 73 and the second shadow area. For example, the feature point detection unit 44 detects the edge portion, which is the outer peripheral edge portion (for example, the boundary portion between the A and B regions) of the B region (the region indicated by diagonal hatching in FIG. 6) as the first shadow region 73 and the It may be calculated as an edge point on the outer edge of the second shadow area.
  • a region indicated by oblique hatching in FIG. 7 indicates a range occupied by the edge portion of the B region.
  • FIG. 8 shows an image obtained by removing the edge portion of FIG. 7 from the surrounding image 70 of FIG. A range indicated by oblique hatching in FIG.
  • the feature point detection unit 44 may extract feature points from an image obtained by removing the edge portion of the B area from the surrounding image 70 . As a result, edge points on the outer peripheries of the first shadow area 73 and the second shadow area are no longer detected as feature points.
  • Feature points may be extracted from one or both of the images obtained by extracting only the images (that is, the images obtained by removing the images within the A region from the surrounding image 70).
  • FIG. 9 shows an image obtained by extracting only the image within the A region
  • FIG. 10 shows an image obtained by extracting only the image within the B region. 9 and 10, the diagonally hatched areas indicate the areas excluded from the surrounding image 70 of FIG. Feature points are not detected at the boundary between the image and its outside (edge of the image). This is because detection of feature points requires a certain pixel range.
  • the feature point detection unit 44 synchronizes the current position of the vehicle 1 received at the time of acquisition of the surrounding image with the extracted feature points, and outputs them to the map generation unit 45 and matching unit 47 .
  • the map generation unit 45 receives a map generation command from the HMI control unit 40 .
  • the map generation unit 45 uses feature point information including the feature points output from the feature point detection unit 44, the current position of the vehicle 1 synchronized therewith, and the feature amounts of the feature points as learned feature points.
  • the map data 46 is generated by storing in the storage device 21 . Based on the current position of the vehicle 1, the positions of the feature points in the map coordinate system may be calculated and stored as feature point information.
  • the map generator 45 determines the current position of the own vehicle 1 on the map coordinate system from the positioning device 11 or It is received from the self-position calculator 43 and stored in the map data 46 as the target parking position 30 . That is, the relative positional relationship between the target parking position 30 and a plurality of feature points is stored as map data 46 .
  • the contact unit 47 receives a parking position calculation command from the parking support control unit 41 .
  • the matching unit 47 matches the feature point information stored as the learned feature points in the map data 46 with the feature point information of the surrounding feature points output from the feature point detection unit 44 when the parking assistance is performed.
  • the feature point information of the same feature point is associated with each other.
  • the collision unit 47 determines the target parking position based on the relative positional relationship between the surrounding feature points and the host vehicle 1 and the relative positional relationship between the target parking position 30 and the learned feature points associated with the surrounding feature points. A current relative position of the host vehicle 1 with respect to the position 30 is calculated.
  • the matching unit 47 calculates an affine transformation matrix M affine using the following equation based on the method of least squares.
  • a column vector (a 1 , a 2 , a 3 , a 4 ) T may be calculated as follows using the weighted least squares method.
  • the matching unit 47 converts the position (targetx m , targety m ) of the target parking position 30 on the map coordinate system stored in the map data 46 into a position (targetx, targety) on the vehicle coordinate system using the following equation.
  • the matching unit 47 The relative position of the vehicle 1 with respect to the target parking position 30 is calculated based on the surrounding feature points and the learned feature points extracted from the image of only the area (Fig. 9), and extracted from the image of only the B area (Fig. 10).
  • the relative position of the vehicle 1 with respect to the target parking position 30 may be calculated based on the surrounding feature points and the learned feature points.
  • the matching unit 47 may combine these separately calculated relative positions to calculate the final relative position. For example, the abutting section 47 may average or weight these relative positions to calculate the final relative position. Further, the relative position of the vehicle 1 with respect to the target parking position 30 may be calculated after mixing the feature points extracted from the image of only the A area and the image of only the B area.
  • the target trajectory generation unit 48 receives the travel trajectory calculation command from the parking support control unit 41, the target travel trajectory from the current position of the own vehicle 1 on the vehicle coordinate system to the target parking position 30 and the target travel trajectory of the own vehicle 1 are generated.
  • a target vehicle speed profile for traveling on a track is calculated.
  • the steering control unit 49 receives a steering control command from the parking support control unit 41, the steering control unit 49 controls the steering actuator 18a so that the own vehicle 1 travels along the target travel trajectory.
  • the vehicle speed control unit 50 controls the accelerator actuator 18b and the brake actuator 18c so that the vehicle speed of the own vehicle 1 changes according to the target vehicle speed profile.
  • the own vehicle 1 is controlled to travel along the target travel trajectory.
  • the parking support control unit 41 operates the parking brake 17 and shifts the shift position to the parking range (P range). switch.
  • FIG. 11 is a flowchart of an example of processing for storing learned feature points.
  • the image conversion unit 42 converts the captured image of the camera into a bird's-eye view image viewed from a virtual viewpoint right above the own vehicle 1, and obtains a surrounding image.
  • the feature point detection unit 44 performs predetermined preprocessing such as noise removal, brightness adjustment, and edge enhancement on the surrounding image.
  • the feature point detection unit 44 extracts the first shadow area from the surrounding image.
  • step S4 the feature point detection unit 44 calculates features of the image of the first shadow area.
  • step S5 the feature point detection unit 44 extracts the second shadow area from the surrounding image.
  • step S6 the feature point detection unit 44 extracts feature points from the surrounding image, excluding edge points on the outer peripheries of the first shadow area and the second shadow area.
  • step S7 the map generator 45 stores the feature points extracted in step S6 in the storage device 21 as learned feature points.
  • FIG. 12 is a flowchart of an example of processing when parking assistance is performed.
  • the processing of steps S10 to S14 is the same as steps S1 to S5 in FIG.
  • the feature point detection unit 44 extracts feature points from the surrounding image, excluding edge points on the outer peripheries of the first shadow area and the second shadow area, as surrounding feature points.
  • the parking assistance control unit 41 determines whether or not the distance between the host vehicle 1 and the target parking position 30 is equal to or less than a predetermined distance. If the distance is less than or equal to the predetermined distance (step S16: Y), the process proceeds to step S17. If the distance is not equal to or less than the predetermined distance (step S16: N), the process returns to step S10.
  • step S17 the parking assistance control unit 41 determines whether or not a shift operation for steering has been detected. If a shift operation is detected (step S17: Y), the process proceeds to step S19. If no shift operation is detected (step S17: N), the process proceeds to step S18.
  • step S18 the parking support control unit 41 determines whether or not the parking support activation SW has been operated by the driver. If the parking support start SW has been operated (step S18: Y), the process proceeds to step S19. If the parking support start SW is not operated (step S18: N), the process returns to step S10.
  • step S ⁇ b>19 the matching unit 47 reads the learned feature points from the storage device 21 .
  • step S20 the matching unit 47 matches the surrounding feature points detected in step S15 with the learned feature points.
  • step S21 the matching section 47 calculates the target parking position 30 based on the matched feature points.
  • step S22 the target trajectory generator 48 calculates a target travel trajectory from the current position of the vehicle 1 to the target parking position 30, and a target vehicle speed profile along which the vehicle 1 travels on the target travel trajectory.
  • the steering control unit 49 and the vehicle speed control unit 50 control the steering actuator 18a, the accelerator actuator 18b, and the brake actuator 18c based on the target travel trajectory and the target vehicle speed profile.
  • step S24 when the parking support control is completed, the parking support control unit 41 operates the parking brake 17 to switch the shift position to the P range. Processing then ends.
  • Feature points excluding edge points are extracted as learned feature points and surrounding feature points.
  • the surrounding feature points are extracted such that the edge points on the outer perimeter of the first shadow area and the second shadow area are excluded, and the learned feature points are extracted outside the first shadow area and the second shadow area. Edge points on the perimeter may be extracted without excluding them.
  • step S30 feature points are extracted from the surrounding image preprocessed in step S2.
  • step S7 the map generator 45 stores the feature points extracted in step S30 in the storage device 21 as learned feature points.
  • the learned feature points are extracted so that the edge points on the outer edges of the first shadow area and the second shadow area are excluded, and the surrounding feature points are extracted from the first shadow area and the second shadow area. Extract without excluding edge points on the perimeter. Please refer to FIG. Steps S12 to S15 in FIG. 12 are replaced with step S31. In step S31, surrounding feature points are extracted from the surrounding image preprocessed in step S11.
  • feature points around the target parking position are extracted as learned feature points from an image obtained by photographing the surroundings of the own vehicle in advance, and are stored in a storage device. Acquiring an image by photographing the surroundings of the own vehicle when the vehicle is moved to the target parking position; Extracting feature points around the own vehicle from the image of the surroundings of the own vehicle as surrounding feature points; calculating a relative position of the host vehicle with respect to the target parking position based on the relative positional relationship between the point and the target parking position and the relative positional relationship between the surrounding feature points and the host vehicle; calculating a target travel trajectory from the current position of the own vehicle to the target parking position based on the relative position of the own vehicle with respect to the position, and assisting the movement of the own vehicle along the target travel trajectory.
  • a second area in which the shadow of the vehicle appears in the surrounding image which is an image obtained by photographing the surroundings of the vehicle when extracting target feature points that are at least one of the learned feature points and the surrounding feature points.
  • a first shadow region is extracted, image features in the extracted first shadow region are calculated, and a second shadow region, which is a region in which shadows of objects surrounding the vehicle appear in the surrounding image, is calculated based on the calculated image features.
  • a region is extracted, and as target feature points, feature points excluding edge points on the outer peripheral edges of the first shadow region and the second shadow region are extracted from the surrounding image.
  • a bird's-eye view image of the surroundings of the own vehicle is taken as a surrounding image with reference to the position of the own vehicle, and brightness values or image features of the same coordinates are taken in the bird's-eye view images taken at different times while the own vehicle is moving.
  • a region in which the difference between the amounts is smaller than a predetermined value may be extracted from the bird's-eye view image as the first shadow region.
  • the shadow area of the own vehicle can be detected from the surrounding image.
  • a bird's-eye view image of the surroundings of the vehicle is taken as a surrounding image with reference to the position of the vehicle, and the shape of the shadow of the vehicle that appears in the bird's-eye image is stored in advance.
  • a first shadow region may be extracted by comparing the outer edge shape to the shadow shape. As a result, the shadow area of the own vehicle can be detected from the surrounding image.
  • Image features include the average brightness value of the image of the first shadow area, the brightness value histogram of the image of the first shadow area, the contrast of the outer edge of the first shadow area, and the image feature of the outer edge of the first shadow area. At least one of the amount and the extension direction of the first shadow area with respect to the host vehicle may be calculated. Thereby, the shadow area of the object around the own vehicle can be detected from the surrounding image.
  • Target feature points may be extracted from areas other than the peripheral edge portions of the first shadow area and the second shadow area in the surrounding image. As a result, feature points excluding edge points on the outer peripheries of the first shadow area and the second shadow area can be extracted from the surrounding image.
  • the own vehicle may be controlled to travel along the target travel trajectory, and the target travel trajectory and the position of the own vehicle may be displayed on a display device visible to the user of the own vehicle. Thereby, the parking of the own vehicle 1 can be assisted.

Abstract

駐車支援方法では、自車両の周囲を撮影して得られる画像である周囲画像を取得し(S1)、周囲画像において自車両の影が現れた領域である第1影領域を抽出し(S3)、抽出した第1影領域における画像の特徴を算出し(S4)、算出した画像の特徴に基づいて、周囲画像において自車両の周囲の物体の影が現れた領域である第2影領域を抽出し(S5)、第1影領域及び第2影領域の外周縁上のエッジ点を除いた特徴点を周囲画像から抽出し(S6)、抽出された特徴点に基づいて目標駐車位置に対する自車両の相対位置を算出する(S22)。

Description

駐車支援方法及び駐車支援装置
 本発明は、駐車支援方法及び駐車支援装置に関する。
 下記特許文献1には、自車両の周囲を撮影して得られた画像の輝度から駐車枠等の目標駐車位置の周辺のエッジ点を抽出し、抽出したエッジ点に基づいて駐車枠を検出し、検出された駐車枠に基づいて運転者の駐車操作を支援する駐車支援装置が記載されている。
特開第2013-193545号
 自車両の周囲画像から抽出した特徴点に基づいて目標駐車位置に対する自車両の相対位置を算出する場合、画像上の影の外周縁のエッジ点が特徴点として検出され、相対位置の算出精度が低下する虞がある。本発明は、自車両の周囲を撮影して得られる画像から抽出した特徴点に基づいて目標駐車位置に対する自車両の相対位置を算出する際に、画像上の影が相対位置の算出精度に及ぼす影響を抑制することを目的とする。
 本発明の一態様によれば、目標駐車位置への自車両の駐車を支援する駐車支援方法が与えられる。駐車支援方法は、予め、自車両の周囲を撮影して得られる画像から目標駐車位置の周囲の特徴点を学習済特徴点として抽出して記憶装置に記憶することと、自車両を目標駐車位置まで移動させる際に自車両の周囲を撮影して画像を取得することと、自車両の周囲の画像から自車両の周囲の特徴点を周囲特徴点として抽出することと、学習済特徴点と目標駐車位置との間の相対位置関係と、周囲特徴点と自車両との間の相対位置関係と基づいて、目標駐車位置に対する自車両の相対位置を算出することと、算出した目標駐車位置に対する自車両の相対位置に基づいて、自車両の現在位置から目標駐車位置へ至る目標走行軌道を算出し、目標走行軌道に沿った自車両の移動を支援することと、を含む。学習済特徴点及び周囲特徴点のうち少なくとも一方である対象特徴点を抽出する際に、自車両の周囲を撮影して得られる画像である周囲画像において自車両の影が現れた領域である第1影領域を抽出し、抽出した第1影領域における画像の特徴を算出し、算出した画像の特徴に基づいて、周囲画像において自車両の周囲の物体の影が現れた領域である第2影領域を抽出し、対象特徴点として、第1影領域及び第2影領域の外周縁上のエッジ点を除いた特徴点を周囲画像から抽出する。
 本発明によれば、自車両の周囲を撮影して得られる画像から抽出した特徴点に基づいて目標駐車位置に対する自車両の相対位置を算出する際に、画像上の影が算出精度に及ぼす影響を抑制できる。
駐車支援装置の概略構成例を示す図である。 学習済特徴点を記憶する処理の一例の説明図である。 駐車支援実施時の処理の一例の説明図である。 図1のコントローラの機能構成の一例のブロック図である。 自車両の周囲の俯瞰画像の模式図である。 第1影領域の説明図である。 第2影領域の説明図である。 影領域の外周縁部分の説明図である。 特徴点を検出する領域の第1例の説明図である。 特徴点を検出する領域の第2例の説明図である。 特徴点を検出する領域の第3例の説明図である。 学習済特徴点を記憶する処理の第1例の説明図である。 駐車支援実施時の処理の第1例の説明図である。 学習済特徴点を記憶する処理の第2例の説明図である。 駐車支援実施時の処理の第2例の説明図である。
 (構成)
 図1を参照する。自車両1は、目標駐車位置への自車両1の駐車を支援する駐車支援装置10を備える。駐車支援装置10は、自車両1の現在位置から目標駐車位置までの目標走行軌道に沿って走行することを支援する。駐車支援装置10による駐車支援には様々な形態がある。例えば、自車両1の目標走行軌道に沿って目標駐車位置まで走行するように自車両1を制御する自動運転を行ってもよい。自車両1の目標走行軌道に沿って目標駐車位置まで走行するように自車両1を制御する自動運転とは、自車両の操舵角、駆動力、制動力の全て、あるいは一部を制御して、自車両1の目標走行軌道に沿った走行の全てあるいは一部を自動的に実施する制御を意味する。また、目標走行軌道と自車両1の現在位置とを自車両1の乗員が視認可能な表示装置に表示することによって、自車両1の駐車を支援してもよい。
 測位装置11は、自車両1の現在位置を測定する。測位装置11は、例えば全地球型測位システム(GNSS)受信機を備える。GNSS受信機は、例えば地球測位システム(GPS)受信機等であってよい。
 ヒューマンマシンインタフェース(HMI)12は、駐車支援装置10と乗員との間で情報を授受するインタフェース装置である。HMI12は、自車両1の乗員が視認可能な表示装置や、スピーカやブザーや、操作子(ボタンやスイッチ、レバー、ダイヤル、タッチパネルなど)を備える。
 シフトスイッチ(シフトSW)13は、運転者や駐車支援装置10が自車両1のシフトポジションを切り替えるためのスイッチである。
 外界センサ14は、自車両1から所定距離範囲の物体を検出する。外界センサ14は、自車両1の周囲に存在する物体と自車両1との相対位置、自車両1と物体との距離、物体が存在する方向などの自車両1の周囲環境を検出する。外界センサ14は、例えば自車両1の周囲環境を撮影するカメラを含んでよい。カメラは、例えば自車両1の周囲を撮影して、俯瞰画像(アラウンドビューモニター画像)に変換される撮像画像を生成するアラウンドビューモニターカメラであってもよい。以下の説明において、外界センサ14が有するカメラを単に「カメラ」と表記する。外界センサ14は、レーザレンジファインダやレーダ、LiDAR(Light Detection and Ranging)のレーザレーダなどの測距装置を含んでもよい。
 車両センサ15は、自車両1の様々な情報(車両情報)を検出する。車両センサ15は、例えば、自車両1の走行速度を検出する車速センサ、自車両1が備える各タイヤの回転速度を検出する車輪速センサ、自車両1の3軸方向の加速度(減速度を含む)を検出する3軸加速度センサ(Gセンサ)、操舵角を検出する操舵角センサ、転舵輪の転舵角を検出する転舵角センサ、自車両1の角速度を検出するジャイロセンサ、ヨーレイトを検出するヨーレイトセンサを含んでよい。
 コントローラ16は、自車両1の駐車支援制御を行う電子制御ユニットである。コントローラ16は、プロセッサ20と、記憶装置21等の周辺部品とを含む。プロセッサ20は、例えばCPUやMPUであってよい。記憶装置21は、半導体記憶装置や、磁気記憶装置、光学記憶装置等を備えてよい。以下に説明するコントローラ16の機能は、例えばプロセッサ20が、記憶装置21に格納されたコンピュータプログラムを実行することにより実現される。なお、コントローラ16を、以下に説明する各情報処理を実行するための専用のハードウエアにより形成してもよい。
 ステアリングアクチュエータ18aは、コントローラ16の制御信号に応じて自車両1の操舵機構の操舵方向及び操舵量を制御する。アクセルアクチュエータ18bは、コントローラ16の制御信号に応じて、エンジンや駆動モータである駆動装置のアクセル開度を制御する。ブレーキアクチュエータ18cは、コントローラ16の制御信号に応じて制動装置を作動させる。
 次に、駐車支援装置10による駐車支援制御を説明する。
 図2Aを参照する。駐車支援装置10による駐車支援を利用する際には、自車両1を駐車させる位置である目標駐車位置30の周囲を撮影した画像から特徴点を抽出して予め記憶装置21に記憶させる。以下の説明において、記憶装置21に記憶する目標駐車位置30の周囲の特徴点を「学習済特徴点」と表記する。図2Aにおいて丸プロットは学習済特徴点を表している。
 例えば、駐車支援装置10は、自車両1が目標駐車位置30付近に位置するとき(例えば運転者が手動運転で自車両1を目標駐車位置30に駐車させるとき)にカメラで自車両1の周囲を撮影して得られる周囲画像から、目標駐車位置30の周囲の特徴点を抽出する。例えば、カメラで撮影して得られた撮像画像上の、路面標示や、道路境界、障害物などの物標のエッジやコーナーなど、隣接する画素の輝度が所定以上変化するエッジ点や形状に特徴を備える点を特徴点として検出する。
 学習済特徴点を記憶装置21に記憶させる際には、例えば、運転者がHMI12の操作子として用意された「駐車位置学習スイッチ」を操作する。
 駐車支援装置10は、学習済特徴点と目標駐車位置30との間の相対位置関係を記憶する。例えば、運転者がHMI12を操作することで、自車両1の現在位置が目標駐車位置30であることを入力してよい。駐車支援装置10は、自車両1が目標駐車位置30に位置するときに検出した学習済特徴点の位置に基づいて、学習済特徴点と目標駐車位置30との間の相対位置関係を求めてもよい。また、カメラの撮像画像をHMI12に表示させ、運転者が、撮像画像上で目標駐車位置30の位置を指定することで学習済特徴点と目標駐車位置30との間の相対位置関係を求めてもよい。
 学習済特徴点と目標駐車位置30との間の相対位置関係を記憶する際、例えば、固定の地点を基準点とする座標系(以下「地図座標系」と表記する)上における学習済特徴点と目標駐車位置30の座標を記憶してもよい。この場合、自車両1が目標駐車位置30に位置するときに測位装置11で測定した地図座標系上の現在位置を、目標駐車位置30として記憶してもよい。
 また、地図座標系の代わりに、各々の学習済特徴点に対する目標駐車位置30のそれぞれの相対位置を記憶してもよい。
 図2Bは、駐車支援実施時の処理の一例の説明図である。駐車支援装置10は、自車両1が目標駐車位置30付近に位置するときに自車両1の駐車支援を実施する。
 例えば駐車支援装置10は、自車両1が目標駐車位置30付近に位置するときに運転者が自車両1の前進と後退を切り替える切返しのためのシフト操作を行ったか否かを判定する。図2Bは切返し位置31で自車両1が切返しを行う例を示している。駐車支援装置10は、シフトポジションがドライブレンジ(Dレンジ)からリバースレンジ(Rレンジ)に切り替わったり、RレンジからDレンジに切り替わった場合に、切返しのためのシフト操作が行われたと判定し、駐車支援を開始してよい。
 また例えば、自車両1が目標駐車位置30付近の位置33(例えば、目標駐車位置30への入口付近など、目標駐車位置30からの距離が所定距離以下の位置33)にいるときに、HMI12に用意された「駐車支援起動スイッチ」を運転者が操作したときに駐車支援を開始してよい。駐車支援を開始する条件は任意に設定することかできる。
 このとき、駐車支援装置10は、カメラで自車両1の周囲を撮影して得られる周囲画像から、自車両1の周囲の特徴点を抽出する。以下の説明において、駐車支援実施時に抽出される自車両1の周囲の特徴点を「周囲特徴点」と表記する。図2Bにおいて三角形プロットは周囲特徴点を表している。特徴点の検出タイミングは特に限定されず、例えば、シフト操作や駐車支援起動スイッチが操作に関係なく常に実施されていてもよい。
 駐車支援装置10は、記憶装置21に記憶した学習済特徴点と周囲特徴点とをマッチングし、同一の特徴点同士を対応付ける。
 駐車支援装置10は、駐車支援実施時に検出した周囲特徴点と自車両1との間の相対位置関係と、周囲特徴点に対応付けられた学習済特徴点と目標駐車位置30との間の相対位置関係に基づいて、目標駐車位置30に対する自車両1の相対位置を算出する。
 例えば、駐車支援装置10は、自車両1の現在位置を基準とする座標系(以下「車両座標系」と表記する)上の目標駐車位置30の位置を算出してもよい。例えば、地図座標系における学習済特徴点と目標駐車位置30の座標が記憶装置21に記憶されている場合、駐車支援実施時に検出した周囲特徴点の位置と、地図座標系における学習済特徴点の位置に基づいて、地図座標系上の目標駐車位置30の座標を、車両座標系上の座標に変換してよい。
 または、駐車支援実施時に検出した周囲特徴点の位置と地図座標系における学習済特徴点の位置に基づいて、地図座標系上の自車両1の現在位置を求め、地図座標系における自車両1の座標と目標駐車位置30の座標の差分から、目標駐車位置30に対する自車両1の相対位置を算出してもよい。
 駐車支援装置10は、目標駐車位置30に対する自車両1の相対位置に基づいて、自車両1の現在位置から目標駐車位置30へ至る目標走行軌道を算出する。例えば、駐車支援を開始した時点の自車両1の位置が切返し位置31である場合には、切返し位置31から目標駐車位置30へ至る軌道32を目標走行軌道として算出する。また例えば、駐車支援を開始した時点の自車両1の位置が目標駐車位置30の付近の位置33である場合には、位置33から切返し位置31まで進む軌道34と、切返し位置31から目標駐車位置30へ至る軌道32を目標走行軌道として算出する。
 駐車支援装置10は、算出した目標走行軌道に基づいて自車両1の駐車支援制御を実施する。
 ここで、自車両の周囲を撮影して得られる周囲画像から抽出した特徴点には、周囲画像上において隣接する画素の輝度が所定以上変化するエッジ点が含まれる。このため、周囲画像上の影の外周縁のエッジ点が特徴点として検出されることがある。周囲画像上の影は光源(例えば太陽)の位置によって変化するため、影の外周縁のエッジ点を学習済特徴点や周囲特徴点として抽出すると、目標駐車位置30に対する自車両1の相対位置の算出精度が低下する虞がある。そこで実施形態の駐車支援装置10は、学習済特徴点又は周囲特徴点の少なくとも一方を抽出する際に、影の外周縁のエッジ点が除かれるようにこれら特徴点を抽出する。
 コントローラ16の機能構成を図3に示す。ヒューマンマシンインタフェース制御部(HMI制御部)40は、駐車位置学習スイッチが運転者に操作されると、学習済特徴点を記憶装置21に記憶させる地図生成指令を地図生成部45に出力する。HMI制御部40は、運転者が切返しのためのシフト操作を行ったか否かを判定し、判定結果を駐車支援制御部41に出力する。また、HMI12の駐車支援起動スイッチが運転者に操作されたことを検出すると、検出結果を駐車支援制御部41に出力する。
 駐車支援制御部41は、自車両1が目標駐車位置30の付近に位置するか否かを判定する。例えば、自車両1と目標駐車位置30との距離が所定距離以下であるか否かを判定する。駐車支援制御部41は、測位装置11により測定した自車両1の現在位置に基づいて、自車両1と目標駐車位置30との距離が所定距離以下であるか否かを判定してよい。また例えば、目標駐車位置30付近の物標の特徴量を予め記憶し、類似する特徴量を有する物標を外界センサ14が検出するか否かを判定してもよい。
 自車両1が目標駐車位置30の付近に位置し、駐車支援起動スイッチの操作をHMI制御部40が検出すると、駐車支援制御部41は駐車支援制御を開始する。または、自車両1が目標駐車位置30の付近に位置し、切返しのためのシフト操作を検出すると駐車支援制御を開始する。なお、自車両1と目標駐車位置30との距離が所定距離より大きい状態から所定距離以下となったことが検出された場合や、ハザードランプが点灯された場合、あるいは車両が停車した場合などの条件で駐車支援制御を開始してもよい。
 駐車支援制御を開始すると、駐車支援制御部41は、車両座標系における目標駐車位置30の位置を算出させる駐車位置算出指令を突合部47に出力する。自車両1の現在位置から目標駐車位置30へ至る目標走行軌道と、自車両1が目標走行軌道を走行する目標車速プロファイルと、を算出させる走行軌道算出指令を目標軌道生成部48に出力する。
 目標軌道生成部48は、自車両1の現在位置から目標駐車位置30へ至る目標走行軌道と目標車速プロファイルとを算出して駐車支援制御部41へ出力する。目標走行軌道の算出には、自動駐車装置に採用されている周知の手法を適用することができる。例えば自車両1の現在位置から切返し位置31を経て目標駐車位置30までをクロソイド曲線で接続することによって算出することができる。また例えば、目標車速プロファイルは、自車両1の現在位置から、予め定められた設定速度まで加速した後に、切返し位置31の手前で減速して切返し位置31で停車し、切返し位置31から設定速度まで加速して目標駐車位置30の手前で減速して目標駐車位置30で停車する車速プロファイルであってよい。速度プロファイルを算出する際の設定速度は、算出した目標走行軌道の曲率に基づいて、曲率が大きいほど低い速度となる様に設定してもよい。
 駐車支援制御部41は、目標走行軌道と自車両1の現在位置の情報をHMI制御部40へ出力する。目標走行軌道が切返しを含む場合、切返し位置の情報をHMI制御部40へ出力する。HMI制御部40は、目標走行軌道と自車両1の現在位置と切返し位置を、HMI12に表示する。
 また、駐車支援制御部41は、算出された目標走行軌道に沿って自車両1を走行させるように操舵制御する操舵制御指令を操舵制御部49へ出力する。また、算出された目標車速プロファイルに従って自車両1の車速を制御する車速制御指令を車速制御部50へ出力する。
 画像変換部42は、カメラの撮像画像を図2A及び図2Bに示すような周囲画像に変換する。周囲画像は自車両1の真上の仮想視点から見た俯瞰画像(アラウンドビューモニター画像)である。周囲画像は、特許請求の範囲に記載の「自車両の位置を基準とする自車両の周囲の俯瞰画像」の一例である。図2Aは記憶装置21に学習済特徴点を記憶する際の周囲画像であり、また、図2Bは駐車支援制御を実施する際の周囲画像である。
 画像変換部42は、所定の間隔で周囲画像を生成する。例えば画像変換部42は、自車両1が所定距離(例えば50cm)走行する毎に周囲画像を生成してよい。所定時間(例えば1秒間)走行する毎に周囲画像を生成してもよい。自車両1が異なる位置にあるときや、異なる時刻で取得した周囲画像の各々を「フレーム」と表記することがある。
 自己位置算出部43は、車両センサ15から出力される車両情報に基づくデッドレコニングにより地図座標系上の自車両1の現在位置を演算する。
 記憶装置21に学習済特徴点を記憶する場合に、特徴点検出部44は、画像変換部42から出力される周囲画像から学習済特徴点とその画像特徴量を検出する。駐車支援制御を実施する際には周囲特徴点とその画像特徴量を検出する。以下の説明において、学習済特徴点と周囲特徴点とを総称して「特徴点」と表記することがある。まず、特徴点検出部44は、画像変換部42から出力される周囲画像に、ノイズ除去、明度調整及びエッジ強調などの所定の前処理を実施する。特徴点検出部44は、前処理が実施された周囲画像から特徴点とその画像特徴量を検出する。特徴点の検出や画像特徴量の算出には、例えばSIFT、SURF、ORB、BRIAK、KAZE、AKAZE等の手法を利用できる。
 以下、特徴点検出部44による特徴点の検出方法について詳述する。図4は、画像変換部42から出力される周囲画像の模式図である。周囲画像70上の白抜きの領域71は自車両1の占有領域である。また網掛けで示された領域72は、周囲画像70において自車両1又は周囲の物体の影が現れた影領域である。上記のとおり影領域72の外周縁上のエッジ点を学習済特徴点や周囲特徴点として用いると、目標駐車位置30に対する自車両1の相対位置の算出精度が低下する虞がある。
 そこで、特徴点検出部44は、周囲画像70において自車両1の影が現れた領域である第1影領域73を抽出する(図5)。
 例えば特徴点検出部44は、自車両1が移動中の異なる時刻に撮影した周囲画像(すなわち異なる時刻のフレーム)の間において同じ座標の輝度値又は画像特徴量どうしの差分が所定値よりも小さい領域を、第1影領域73として抽出してよい。また例えば、自車両1の外形形状に基づいて周囲画像70に現れる自車両1の影の形状のパターンを予め記憶装置21に記憶しておき、周囲画像70における所定輝度以下の領域の外縁形状を自車両1の影の形状と比較することによって、自車両1の影の形状と同じ又は類似する外縁形状の領域を第1影領域73として抽出してもよい。
 次に、特徴点検出部44は、抽出した第1影領域73の画像の特徴を算出する。例えば特徴点検出部44は、第1影領域73の画像の特徴として、第1影領域73の画像の平均輝度値、第1影領域73の画像の輝度値ヒストグラム、第1影領域73の外縁部のコントラスト、第1影領域73の外縁部の画像特徴量、又は自車両1に対する第1影領域73の延伸方向の少なくとも1つを算出してもよい。
 特徴点検出部44は、第1影領域73の画像の特徴に基づいて、周囲画像70において自車両の周囲の物体の影が現れた領域である第2影領域を抽出する。具体的には、特徴点検出部44は、第1影領域73の画像の特徴と類似する特徴量を持つ画像領域を第2影領域として抽出する。
 図6は、第2影領域の説明図である。斜めのハッチングで示された領域は、第2影領域と自車両1の占有領域71と第1影領域73が占める範囲を示している。以下、第2影領域と占有領域71と第1影領域73が占める領域を「B領域」と表記し、その他の領域を「A領域」と表記することがある。
 特徴点検出部44は、第1影領域73及び第2影領域の外周縁上のエッジ点を除いた特徴点を周囲画像70から抽出する。
 例えば特徴点検出部44は、B領域(図6において斜めのハッチングで示された領域)の外周縁部分(例えば、A領域とB領域の境界部分)であるエッジ部分を第1影領域73及び第2影領域の外周縁上のエッジ点として算出してよい。図7において斜めのハッチングで示された領域は、B領域のエッジ部分が占める範囲を示している。
 図8は、図4の周囲画像70から図7のエッジ部分を除いた画像を示している。図8において斜めのハッチングで示された範囲は、図4の周囲画像70から図7のエッジ部分が除かれた範囲を示している。特徴点検出部44は、周囲画像70からB領域のエッジ部分を除いた画像から特徴点を抽出してもよい。この結果、第1影領域73及び第2影領域の外周縁上のエッジ点は、特徴点として検出されなくなる。
 また、図4の周囲画像70のうちA領域内の画像のみを抽出した画像(すなわち周囲画像70からB領域内の画像を除いた画像)、及び図4の周囲画像70のうちB領域内の画像のみを抽出した画像(すなわち周囲画像70からA領域内の画像を除いた画像)の一方又は両方から特徴点を抽出してもよい。図9は、A領域内の画像のみを抽出した画像を示し、図10は、B領域内の画像のみを抽出した画像を示している。図9及び図10において斜めのハッチングで示された範囲は、図4の周囲画像70から除かれた範囲を示している。
 画像とその外側との境界(画像の縁)では特徴点は検出されない。特徴点の検出にはある程度の画素範囲を要するためである。このためA領域内の画像やB領域内の画像で特徴点を検出すると、A領域とB領域の境界部分、すなわちB領域のエッジ部分では特徴点が検出されなくなる。
 特徴点検出部44は、周囲画像の取得時に受信した自車両1の現在位置と抽出した特徴点とを同期させて地図生成部45と突合部47に出力する。
 図3を参照する。学習済特徴点を記憶装置21に記憶する際に、運転者は駐車位置学習スイッチを操作して、手動運転によって自車両1を目標駐車位置に駐車する。このとき地図生成部45は、HMI制御部40から地図生成指令を受信する。地図生成部45は、特徴点検出部44から出力された特徴点と、これに同期した自車両1の現在位置と、特徴点の特徴量と、を含んだ特徴点情報を学習済特徴点として記憶装置21に記憶し、地図データ46を生成する。自車両1の現在位置に基づいて、特徴点の地図座標系の位置を算出して特徴点情報として記憶してもよい。
 また、自車両1の現在位置が目標駐車位置30であることを運転者が駐車支援装置10に入力すると、地図生成部45は、自車両1の地図座標系上の現在位置を測位装置11又は自己位置算出部43から受信して、目標駐車位置30として地図データ46に記憶する。すなわち、目標駐車位置30と複数の特徴点との相対位置関係を地図データ46として記憶する。
 その後に、駐車支援制御部41が駐車支援制御を開始すると、突合部47は、駐車支援制御部41から駐車位置算出指令を受信する。
 突合部47は、地図データ46に学習済特徴点として記憶されている特徴点情報と、駐車支援実施時に特徴点検出部44から出力されている周囲特徴点の特徴点情報とをマッチングして、同一の特徴点の特徴点情報どうしを対応付ける。突合部47は、周囲特徴点と自車両1との間の相対位置関係と周囲特徴点に対応付けられた学習済特徴点と目標駐車位置30との間の相対位置関係に基づいて、目標駐車位置30に対する自車両1の現在の相対位置を算出する。例えば、周囲特徴点を(x,y)と表記し、周囲特徴点(x,y)にそれぞれ対応付けられた学習済特徴点を(xmi,ymi)と表記する(i=1~N)。突合部47は、最小二乗法に基づいて次式によりアフィン変換行列Maffineを算出する。
Figure JPOXMLDOC01-appb-M000001
 重み付け最小二乗法を用いて次式のように列ベクトル(a,a,a,aを算出してもよい。
Figure JPOXMLDOC01-appb-M000002
 突合部47は、次式により地図データ46に記憶された地図座標系上の目標駐車位置30の位置(targetx,targety)を、車両座標系の位置(targetx,targety)に変換する。
Figure JPOXMLDOC01-appb-M000003
 なお、特徴点検出部44がA領域のみの画像(図9)とB領域のみの画像(図10)の両方から周囲特徴点と学習済特徴点を抽出する場合は、突合部47は、A領域のみの画像(図9)から抽出した周囲特徴点と学習済特徴点に基づいて目標駐車位置30に対する自車両1の相対位置を算出するとともに、B領域のみの画像(図10)から抽出した周囲特徴点と学習済特徴点に基づいて目標駐車位置30に対する自車両1の相対位置を算出してもよい。突合部47は、これら別々に算出した相対位置を複合して最終的な相対位置を算出してもよい。例えば、突合部47は、これら相対位置を平均、又は重み付けして最終的な相対位置を算出してもよい。また、これらA領域のみの画像とB領域のみの画像からそれぞれ抽出された特徴点を混合してから目標駐車位置30に対する自車両1の相対位置を算出してもよい。
 目標軌道生成部48は、駐車支援制御部41から走行軌道算出指令を受信すると、車両座標系上の自車両1の現在位置から目標駐車位置30まで至る目標走行軌道と、自車両1が目標走行軌道を走行する目標車速プロファイルとを算出する。操舵制御部49は、駐車支援制御部41から操舵制御指令を受信すると、自車両1が目標走行軌道に沿って自車両1を走行するようにステアリングアクチュエータ18aを制御する。車速制御部50は、駐車支援制御部41から車速制御指令を受信すると、自車両1の車速が目標車速プロファイルに従って変化するように、アクセルアクチュエータ18bとブレーキアクチュエータ18cを制御する。これにより、目標走行軌道に沿って走行するように自車両1が制御される。
 駐車支援制御部41は、自車両1が目標駐車位置30に到達して駐車支援制御が完了すると、駐車支援制御部41は、パーキングブレーキ17を作動させ、シフトポジションをパーキングレンジ(Pレンジ)に切り替える。
 (動作)
 図11は、学習済特徴点を記憶する処理の一例のフローチャートである。
 ステップS1において画像変換部42は、カメラの撮像画像を自車両1の真上の仮想視点から見た俯瞰画像に変換して周囲画像を取得する。ステップS2において特徴点検出部44は、ノイズ除去、明度調整及びエッジ強調などの所定の前処理を周囲画像に実施する。ステップS3において特徴点検出部44は、周囲画像から第1影領域を抽出する。
 ステップS4において特徴点検出部44は、第1影領域の画像の特徴を算出する。ステップS5において特徴点検出部44は、周囲画像から第2影領域を抽出する。ステップS6において特徴点検出部44は、第1影領域及び第2影領域の外周縁上のエッジ点を除いた特徴点を周囲画像から抽出する。ステップS7において地図生成部45は、ステップS6で抽出された特徴点を学習済特徴点として記憶装置21に記憶する。
 図12は、駐車支援実施時の処理の一例のフローチャートである。ステップS10~S14の処理は図11のステップS1~S5と同様である。ステップS15において特徴点検出部44は、第1影領域及び第2影領域の外周縁上のエッジ点を除いた特徴点を周囲画像から抽出して周囲特徴点とする。
 ステップS16において駐車支援制御部41は、自車両1と目標駐車位置30との距離が所定距離以下であるか否かを判定する。所定距離以下である場合(ステップS16:Y)に処理はステップS17へ進む。所定距離以下でない場合(ステップS16:N)に処理はステップS10へ戻る。
 ステップS17において駐車支援制御部41は、切返しのためのシフト操作を検出したか否かを判定する。シフト操作を検出した場合(ステップS17:Y)に処理はステップS19へ進む。シフト操作を検出しない場合(ステップS17:N)に処理はステップS18へ進む。
 ステップS18において駐車支援制御部41は、駐車支援起動SWが運転者に操作されたか否かを判定する。駐車支援起動SWが操作された場合(ステップS18:Y)に処理はステップS19へ進む。駐車支援起動SWが操作されない場合(ステップS18:N)に処理はステップS10へ戻る。
 ステップS19において突合部47は、記憶装置21から学習済特徴点を読み込む。ステップS20において突合部47は、ステップS15で検出した周囲特徴点と学習済特徴点とをマッチングする。ステップS21において突合部47は、マッチングした特徴点に基づいて、目標駐車位置30を算出する。ステップS22において目標軌道生成部48は、自車両1の現在位置から、目標駐車位置30まで至る目標走行軌道と、自車両1が目標走行軌道を走行する目標車速プロファイルとを算出する。ステップS23において操舵制御部49と車速制御部50は、目標走行軌道と目標車速プロファイルとに基づいてステアリングアクチュエータ18a、アクセルアクチュエータ18b、ブレーキアクチュエータ18cを制御する。ステップS24において駐車支援制御部41は、駐車支援制御が完了すると、パーキングブレーキ17を作動させてシフトポジションをPレンジに切り替える。その後に処理は終了する。
 (第2実施形態)
 第1実施形態では、記憶装置21に記憶する学習済特徴点を抽出する際と駐車支援実施時に周囲特徴点を抽出する際の両方において、第1影領域及び第2影領域の外周縁上のエッジ点を除いた特徴点を学習済特徴点や周囲特徴点として抽出した。これに代えて、周囲特徴点は第1影領域及び第2影領域の外周縁上のエッジ点が除外されるように抽出し、学習済特徴点は第1影領域及び第2影領域の外周縁上のエッジ点を除外しないで抽出してもよい。図13を参照する。図11のステップS3~S6がステップS30に置き換えられている。ステップS30ではステップS2において前処理が実施された周囲画像から特徴点を抽出する。ステップS7において地図生成部45は、ステップS30で抽出された特徴点を学習済特徴点として記憶装置21に記憶する。
 (第3実施形態)
 第3実施形態では、学習済特徴点は第1影領域及び第2影領域の外周縁上のエッジ点が除外されるように抽出し、周囲特徴点は第1影領域及び第2影領域の外周縁上のエッジ点を除外しないで抽出する。図14を参照する。図12のステップS12~S15がステップS31に置き換えられている。ステップS31ではステップS11において前処理が実施された周囲画像から周囲特徴点を抽出する。
 (実施形態の効果)
 (1)駐車支援方法では、予め、自車両の周囲を撮影して得られる画像から目標駐車位置の周囲の特徴点を学習済特徴点として抽出して記憶装置に記憶することと、自車両を目標駐車位置まで移動させる際に自車両の周囲を撮影して画像を取得することと、自車両の周囲の画像から自車両の周囲の特徴点を周囲特徴点として抽出することと、学習済特徴点と目標駐車位置との間の相対位置関係と、周囲特徴点と自車両との間の相対位置関係と基づいて、目標駐車位置に対する自車両の相対位置を算出することと、算出した目標駐車位置に対する自車両の相対位置に基づいて、自車両の現在位置から目標駐車位置へ至る目標走行軌道を算出し、目標走行軌道に沿った自車両の移動を支援することと、を含む。学習済特徴点及び周囲特徴点のうち少なくとも一方である対象特徴点を抽出する際に、自車両の周囲を撮影して得られる画像である周囲画像において自車両の影が現れた領域である第1影領域を抽出し、抽出した第1影領域における画像の特徴を算出し、算出した画像の特徴に基づいて、周囲画像において自車両の周囲の物体の影が現れた領域である第2影領域を抽出し、対象特徴点として、第1影領域及び第2影領域の外周縁上のエッジ点を除いた特徴点を周囲画像から抽出する。
 これにより、光源の位置によって変化する影の外周縁のエッジ点を特徴点として抽出することによる相対位置の算出精度の低下を抑制できる。
 (2)周囲画像として、自車両の位置を基準とする自車両の周囲の俯瞰画像を撮影し、自車両が移動中の異なる時刻に撮影した俯瞰画像の間において同じ座標の輝度値又は画像特徴量どうしの差分が所定値よりも小さい領域を第1影領域として俯瞰画像から抽出してもよい。
 これにより、周囲画像から自車両の影領域を検出できる。
 (3)周囲画像として、自車両の位置を基準とする自車両の周囲の俯瞰画像を撮影し、俯瞰画像に現れる自車両の影形状を予め記憶し、俯瞰画像において、所定輝度以下の領域の外縁形状を影形状と比較することによって第1影領域を抽出してもよい。
 これにより、周囲画像から自車両の影領域を検出できる。
 (4)画像の特徴として、第1影領域の画像の平均輝度値、第1影領域の画像の輝度値ヒストグラム、第1影領域の外縁部のコントラスト、第1影領域の外縁部の画像特徴量、又は自車両に対する第1影領域の延伸方向の少なくとも1つを算出してもよい。
 これにより、自車両の周囲の物体の影領域を周囲画像から検出できる。
 (5)周囲画像のうち第1影領域及び第2影領域の外周縁部分以外の領域から、対象特徴点を抽出してもよい。これにより、第1影領域及び第2影領域の外周縁上のエッジ点を除いた特徴点を周囲画像から抽出できる。
 (6)目標走行軌道に沿って走行するように自車両を制御しもよく、目標走行軌道及び自車両の位置を、自車両の使用者が視認可能な表示装置に表示してもよい。これにより、自車両1の駐車を支援できる。
 1…自車両、30…目標駐車位置、32、34…目標走行軌道、40…HMI制御部、41…駐車支援制御部、42…画像変換部、43…自己位置算出部、44…特徴点検出部、45…地図生成部、46…地図データ、47…突合部、48…目標軌道生成部、49…操舵制御部、50…車速制御部

Claims (8)

  1.  目標駐車位置への自車両の駐車を支援する駐車支援方法であって、
     予め、前記自車両の周囲を撮影して得られる画像から前記目標駐車位置の周囲の特徴点を学習済特徴点として抽出して記憶装置に記憶することと、
     前記自車両を前記目標駐車位置まで移動させる際に前記自車両の周囲を撮影して画像を取得することと、
     前記自車両の周囲の画像から前記自車両の周囲の特徴点を周囲特徴点として抽出することと、
     前記学習済特徴点と前記目標駐車位置との間の相対位置関係と、前記周囲特徴点と前記自車両との間の相対位置関係と基づいて、前記目標駐車位置に対する前記自車両の相対位置を算出することと、
     算出した前記目標駐車位置に対する前記自車両の相対位置に基づいて、前記自車両の現在位置から前記目標駐車位置へ至る目標走行軌道を算出し、前記目標走行軌道に沿った前記自車両の移動を支援することと、を含み、
     前記学習済特徴点及び前記周囲特徴点のうち少なくとも一方である対象特徴点を抽出する際に、
     前記自車両の周囲を撮影して得られる画像である周囲画像において前記自車両の影が現れた領域である第1影領域を抽出し、
     抽出した前記第1影領域における画像の特徴を算出し、
     算出した前記画像の特徴に基づいて、前記周囲画像において前記自車両の周囲の物体の影が現れた領域である第2影領域を抽出し、
     前記対象特徴点として、前記第1影領域及び第2影領域の外周縁上のエッジ点を除いた特徴点を前記周囲画像から抽出することを特徴とする駐車支援方法。
  2.  前記周囲画像として、前記自車両の位置を基準とする前記自車両の周囲の俯瞰画像を撮影し、
     前記自車両が移動中の異なる時刻に撮影した前記俯瞰画像の間において同じ座標の輝度値又は画像特徴量どうしの差分が所定値よりも小さい領域を前記第1影領域として前記俯瞰画像から抽出する、
     ことを特徴とする請求項1に記載の駐車支援方法。
  3.  前記周囲画像として、前記自車両の位置を基準とする前記自車両の周囲の俯瞰画像を撮影し、
     前記俯瞰画像に現れる前記自車両の影形状を予め記憶し、
     前記俯瞰画像において、所定輝度以下の領域の外縁形状を前記影形状と比較することによって前記第1影領域を抽出する、
     ことを特徴とする請求項1に記載の駐車支援方法。
  4.  前記画像の特徴として、前記第1影領域の画像の平均輝度値、前記第1影領域の画像の輝度値ヒストグラム、前記第1影領域の外縁部のコントラスト、前記第1影領域の外縁部の画像特徴量、又は前記自車両に対する前記第1影領域の延伸方向の少なくとも1つを算出することを特徴とする請求項1~3のいずれか一項に記載の駐車支援方法。
  5.  前記周囲画像のうち前記第1影領域及び第2影領域の外周縁部分以外の領域から、前記対象特徴点を抽出することを特徴とする請求項1~4のいずれか一項に記載の駐車支援方法。
  6.  前記目標走行軌道に沿って走行するように前記自車両を制御することを特徴とする請求項1~5のいずれか一項に記載の駐車支援方法。
  7.  前記目標走行軌道及び前記自車両の位置を、前記自車両の使用者が視認可能な表示装置に表示することを特徴とする請求項1~5のいずれか一項に記載の駐車支援方法。
  8.  自車両の周囲を撮影する撮像装置と、
     記憶装置と、
     予め、前記撮像装置により前記自車両の周囲を撮影して得られる画像から目標駐車位置の周囲の特徴点を学習済特徴点として抽出して記憶装置に記憶し、前記自車両を前記目標駐車位置まで移動させる際に前記自車両の周囲を撮影して画像を取得し、前記自車両の周囲の画像から前記自車両の周囲の特徴点を周囲特徴点として抽出し、前記学習済特徴点と前記目標駐車位置との間の相対位置関係と、前記周囲特徴点と前記自車両との間の相対位置関係と基づいて、前記目標駐車位置に対する前記自車両の相対位置を算出し、算出した前記目標駐車位置に対する前記自車両の相対位置に基づいて、前記自車両の現在位置から前記目標駐車位置へ至る目標走行軌道を算出し、前記目標走行軌道に沿った前記自車両の移動を支援するコントローラと、を備え、
     前記コントローラは、前記学習済特徴点及び前記周囲特徴点のうち少なくとも一方である対象特徴点を抽出する際に、
     前記自車両の周囲を撮影して得られる画像である周囲画像において前記自車両の影が現れた領域である第1影領域を抽出し、
     抽出した前記第1影領域における画像の特徴を算出し、
     算出した前記画像の特徴に基づいて、前記周囲画像において前記自車両の周囲の物体の影が現れた領域である第2影領域を抽出し、
     前記対象特徴点として、前記第1影領域及び第2影領域の外周縁上のエッジ点を除いた特徴点を前記周囲画像から抽出することを特徴とする駐車支援装置。
PCT/JP2021/048357 2021-12-24 2021-12-24 駐車支援方法及び駐車支援装置 WO2023119656A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/048357 WO2023119656A1 (ja) 2021-12-24 2021-12-24 駐車支援方法及び駐車支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/048357 WO2023119656A1 (ja) 2021-12-24 2021-12-24 駐車支援方法及び駐車支援装置

Publications (1)

Publication Number Publication Date
WO2023119656A1 true WO2023119656A1 (ja) 2023-06-29

Family

ID=86901808

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/048357 WO2023119656A1 (ja) 2021-12-24 2021-12-24 駐車支援方法及び駐車支援装置

Country Status (1)

Country Link
WO (1) WO2023119656A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006298115A (ja) * 2005-04-19 2006-11-02 Aisin Aw Co Ltd 運転支援方法及び運転支援装置
US20150179075A1 (en) * 2013-12-19 2015-06-25 Hyundai Mobis Co., Ltd. Parking assistance apparatus and parking assistance method for vehicle
JP2017138664A (ja) * 2016-02-01 2017-08-10 三菱重工業株式会社 自動運転制御装置、車両及び自動運転制御方法
JP2021062685A (ja) * 2019-10-11 2021-04-22 トヨタ自動車株式会社 駐車支援装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006298115A (ja) * 2005-04-19 2006-11-02 Aisin Aw Co Ltd 運転支援方法及び運転支援装置
US20150179075A1 (en) * 2013-12-19 2015-06-25 Hyundai Mobis Co., Ltd. Parking assistance apparatus and parking assistance method for vehicle
JP2017138664A (ja) * 2016-02-01 2017-08-10 三菱重工業株式会社 自動運転制御装置、車両及び自動運転制御方法
JP2021062685A (ja) * 2019-10-11 2021-04-22 トヨタ自動車株式会社 駐車支援装置

Similar Documents

Publication Publication Date Title
JP5313072B2 (ja) 外界認識装置
US10179608B2 (en) Parking assist device
JP4412380B2 (ja) 運転支援装置、運転支援方法及びコンピュータプログラム
US9043083B2 (en) Parking assistance apparatus
JP5421072B2 (ja) 接近物体検知システム
WO2007122862A1 (ja) 駐車支援装置及び駐車支援方法
JP2009196408A (ja) 駐車支援装置及び方法
JP2001187553A (ja) 駐車支援装置
JP2006273122A (ja) 駐車制動アシスト装置
JP5516988B2 (ja) 駐車支援装置
JP2012066709A (ja) 駐車支援装置
JP7426174B2 (ja) 車両周囲画像表示システム及び車両周囲画像表示方法
US20200369204A1 (en) Parking Assistance Method and Parking Assistance Device
JP2023010708A (ja) 車両駐車支援装置
CN112977426B (zh) 驻车辅助系统
JP2012023505A (ja) 運転支援装置
RU2737641C1 (ru) Способ помощи при парковке и устройство помощи при парковке
JP2003036500A (ja) 車両の走行区分線認識装置
WO2023119656A1 (ja) 駐車支援方法及び駐車支援装置
JP5557036B2 (ja) 退出判定装置、退出判定プログラム及び退出判定方法
WO2023007749A1 (ja) 駐車支援方法及び駐車支援装置
WO2024013807A1 (ja) 駐車支援方法及び駐車支援装置
WO2023238344A1 (ja) 駐車支援方法及び駐車支援装置
WO2023248468A1 (ja) 駐車支援方法及び駐車支援装置
JP2023021775A (ja) 駐車支援方法及び駐車支援装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21968383

Country of ref document: EP

Kind code of ref document: A1