WO2007013489A1 - 駐車支援装置 - Google Patents

駐車支援装置 Download PDF

Info

Publication number
WO2007013489A1
WO2007013489A1 PCT/JP2006/314731 JP2006314731W WO2007013489A1 WO 2007013489 A1 WO2007013489 A1 WO 2007013489A1 JP 2006314731 W JP2006314731 W JP 2006314731W WO 2007013489 A1 WO2007013489 A1 WO 2007013489A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
parking
reference line
shape
parked
Prior art date
Application number
PCT/JP2006/314731
Other languages
English (en)
French (fr)
Inventor
Toshiaki Kakinami
Hisashi Satonaka
Original Assignee
Aisin Seiki Kabushiki Kaisha
Toyota Jidosha Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Kabushiki Kaisha, Toyota Jidosha Kabushiki Kaisha filed Critical Aisin Seiki Kabushiki Kaisha
Priority to EP06781643A priority Critical patent/EP1908641A1/en
Priority to US11/996,571 priority patent/US20090121899A1/en
Publication of WO2007013489A1 publication Critical patent/WO2007013489A1/ja

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions

Definitions

  • the present invention relates to a parking support apparatus that detects obstacles around a vehicle and supports parking of the host vehicle. More particularly, the present invention relates to a parking support device that detects a stationary object such as another vehicle that is parked in a place where other vehicles are parked in addition to the own vehicle and supports parking of the own vehicle.
  • Patent Document 1 which is cited below, describes an invention of a system generally called a clearance sonar.
  • This is an invention that attempts to solve the problem that it has been difficult to identify the direction in which an obstacle exists with respect to a vehicle with a conventional vehicle-mounted small ultrasonic sonar having a wide directivity.
  • a number of sonars are installed at the rear of the vehicle, especially in order to prevent contact with the obstacles behind the vehicle when reversing. And, based on the reflected signals of each Sona force, it tries to specify the direction of the obstacle.
  • Patent Document 2 showing the source below, a sonar provided at four corners of a vehicle body is used to detect the distance to an obstacle, and an obstacle candidate is superimposed on a map around the vehicle.
  • An invention for creating a hazard map is described.
  • the detection range of the sonar provided at each corner is a fan shape in plan view or an elongated ellipse shape in plan view.
  • As an obstacle candidate it is difficult to detect the exact position of the obstacle within the detection range of the sona. Since detection by the sonar is repeated at a predetermined time period, obstacle candidates that are repeatedly detected are particularly extracted and reflected in the obstacle map.
  • Patent Document 3 showing the source below describes an invention for setting a target parking section of a vehicle. This is based on the white line when the white line of the parking area is clearly identifiable, and when it cannot be clearly identified, image processing is performed based on the obstacle and the target parking area of the vehicle is set. It is.
  • the method of detecting parked vehicles as obstacles It is as follows. Observe obstacles (parked vehicles) using a compound-eye camera and check the corresponding points of the two images. Based on the correlation, three-dimensional data of obstacles is generated by triangulation. In other words, the boundary point coordinates of the obstacle are extracted using the parallel stereo method.
  • the obtained three-dimensional data is projected onto the XY coordinate plane, which is the plane on which the vehicle moves, and a straight line is extracted from the projected two-dimensional data. Two straight lines perpendicular to each other corresponding to the parked vehicle are detected, and a rectangle formed by these straight lines is detected as an obstacle.
  • Patent Document 1 Japanese Patent Laid-Open No. 2003-63335 (paragraphs 5 to 11 and FIG. 2)
  • Patent Document 2 JP 2001-334897 (paragraphs 25-29, Fig. 3-4)
  • Patent Document 3 JP 2004-34946 A (paragraphs 3-12, 35-38, Fig. 10) Disclosure of the Invention
  • the present invention has been made in view of the above problems.
  • the purpose is to provide a parking assist device that can accurately detect obstacles around the parking area, detect a parking space that can be parked without touching the obstacles, and favorably support the driving operation.
  • a parking assist device that detects a stationary object existing around a vehicle and assists in parking the vehicle has the following characteristic configuration.
  • surface shape detecting means for detecting the surface shape information of the stationary object
  • shape recognition means for recognizing the contour shape of the stationary object based on the surface shape information
  • detecting the movement state of the vehicle Based on a movement state detection means, a relative arrangement calculation means for calculating a relative arrangement relationship between the vehicle and the stationary object based on the surface shape information, the contour shape, and the movement state, and on the basis of the arrangement relationship
  • parking space detecting means for detecting a parking space in which the vehicle can be parked.
  • the surface shape detection means detects the surface shape information of the object, and the shape recognition means recognizes the contour shape of the stationary object corresponding to the obstacle based on the surface shape information.
  • the surface shape information is information indicating the shape of the surface of a stationary object viewed from a vehicle (hereinafter referred to as “own vehicle” where appropriate) on which the parking assist device of the present invention is mounted.
  • stationary objects include parked vehicles, wall surfaces on narrow roads, utility poles adjacent to the wall surfaces on narrow roads, and posts such as street lamps.
  • the shape recognition means is based on the obtained surface shape information! Recognize the contour shape of the stationary object.
  • the relationship between the distance between the host vehicle and the stationary object and the surface shape information can also be obtained as information.
  • the contour shape of the stationary object is recognized from the surface shape information, the distance between the contour shape of the stationary object and the host vehicle can be grasped.
  • the relative arrangement calculating means can calculate the relative arrangement relationship between the host vehicle and the stationary object based on the surface shape information, the contour shape, and the moving state.
  • the parking space detecting means can detect whether or not there is a space where the host vehicle can be parked in the vicinity of a stationary object. For example, there are multiple stationary objects, and there is an empty space where the vehicle can be parked in a space between the stationary objects. It is possible to detect whether or not there is a gap.
  • the contour shape is recognized by the shape recognition means, it is possible to accurately detect an obstacle around the parking area, that is, a stationary object. Then, the parking space detection means can detect a parking space where parking is possible without contacting a stationary object. As a result, it is possible to provide a parking assist device that can assist the driver in driving operation.
  • the surface shape detection unit detects the surface shape information as the vehicle moves, and the shape recognition unit includes the surface shape.
  • the contour shape is recognized based on information and the movement state.
  • the surface shape detecting means detects the surface shape information as the host vehicle moves, the surface shape detecting means does not need a function for scanning a wide range.
  • the surface shape can be detected by using a distance sensor such as a single beam sensor or a point sensor that detects almost one point. Since the parking assist apparatus according to the present invention includes the moving state detecting means, the distribution of the surface shape information of the stationary object can be accurately known based on the surface shape information and the moving state. As a result, the shape recognition means can recognize the contour shape satisfactorily.
  • the parking assist device sets the parking space to a rectangular shape and sets a parking standard for parking the vehicle (own vehicle) within the range of the parking space.
  • a setting means is provided as shown below.
  • the parking reference setting means includes a first reference line provided on the entrance side of the parking space in parallel with one side of the entrance side where the vehicle (own vehicle) starts entering the parking space. And a second reference line provided at a predetermined position orthogonal to the first reference line is set as the parking reference.
  • the first reference line and the second reference line are such that either the front or rear end of the vehicle (host vehicle) in the longitudinal direction coincides with the first reference line, and the center of the vehicle in the major axis direction It is set so that parking is completed in a state where the axle which is a line coincides with the second reference line.
  • One is garage parking where the vehicle is parked at an angle of about 90 degrees with respect to the direction of travel.
  • this parking method there is a stationary object beside the host vehicle, and the vehicle is parked with the side of the host vehicle facing the stationary object. If the stationary object is a parked vehicle, the vehicle is parked with the sides of the vehicle facing each other. In the front-rear direction of the vehicle, the rear end or front end fits in the parking space! It is preferable to consider other vehicles and passers-by! /.
  • a first reference line is provided on the entrance side in parallel with one side on the entrance side where the vehicle starts to enter the parking space. Then, parking is completed in a state where the first reference line and the front end portion or the rear end portion of the host vehicle coincide with each other. When the host vehicle moves forward into the parking space, the first reference line and the rear end will be overlapped. When the host vehicle is moving backward, parking is performed with the first reference line and the front end aligned. In this way, it is possible to set a parking standard that allows the vehicle to park without protruding in the front-rear direction at least from the detected parking space.
  • the first reference line and the second reference line can clearly indicate the reference for parking the host vehicle in the detected parking space, and can support the parking operation well.
  • the parking assist device is further characterized in that the second reference line is determined so as to pass through a center of the parking space.
  • the host vehicle When the second reference line is determined to pass through the center of the detected parking space, the host vehicle is parked in the center of the detected parking space with an equivalent gap in the left-right direction of the host vehicle. You can make it happen.
  • the parking assist device provides a margin space between the stationary object and the vehicle (own vehicle) that is required when the vehicle (own vehicle) enters and leaves the parking space. It is provided in the parking space.
  • the second reference line is defined for the parking space excluding the excess space.
  • a vehicle As described above, there are two main methods for parking a vehicle.
  • One is garage parking, which has already been described, and the other is so-called parallel parking in which the vehicle is parked in parallel with the direction of travel of the vehicle (eg road).
  • parallel parking there are stationary objects before and after the vehicle, and the vehicle is parked with the front and rear parts of the vehicle facing the stationary object. If the stationary object is a parked vehicle, the vehicle is parked with its front and rear facing each other.
  • the vehicle width direction is preferably within the parking space in consideration of other vehicles and passers-by.
  • the first reference line and the second reference line have the left or right end in the vehicle width direction of the vehicle (own vehicle) coincided with the first reference line, and the vehicle (own vehicle) It is preferable that the vehicle is set so as to complete parking in a state in which either the front or rear end in the major axis direction coincides with the second reference line.
  • the parking assist device preferably has a parking standard for making the parking space square and parking the vehicle (own vehicle) within the range of the parking space.
  • the first reference line is set by the parking reference setting means on the entrance side of the parking space in parallel with one side of the entrance side where the vehicle (own vehicle) starts to enter the parking space. Is.
  • the second reference line is set by the parking reference setting means at a predetermined position orthogonal to the first reference line.
  • the parking assist device has a margin space between the stationary object and the vehicle (own vehicle) that is required when the vehicle (own vehicle) enters and exits the parking space. It is provided in the parking space.
  • the second reference line is defined with respect to the parking space excluding the marginal space.
  • the parking assist device is characterized in that the spare space is secured on the driver's seat side or the passenger seat side during parking and can be changed according to the size. To do.
  • the margin space can be changed as appropriate according to the parking situation. For example, when the driver is alone, it is convenient to widen the driver's seat when getting on or getting off. In such a case, a large margin can be secured on the driver's seat side. Naturally, it is possible to secure a wide margin on the passenger side.
  • the spare space on the side to be secured can be changed according to the area to be secured.
  • the parking assist apparatus is characterized in that the shape recognition means includes the following parts.
  • sample extraction to extract an arbitrary sample from the sample group constituting the surface shape information A shape model setting unit that determines a shape model based on the extracted sample, a coincidence degree calculating unit that calculates the degree of coincidence of the sample group with respect to the shape model, and based on the calculation result,
  • the shape model includes a determination unit that determines whether or not the force is suitable for the sample group.
  • the shape recognition means recognizes the contour shape from the sample group obtained from the surface shape detection means.
  • the sample group refers to a collection of individual data constituting the surface shape information.
  • each data is information corresponding to each location obtained by receiving a signal reflected at each location of an obstacle when, for example, a reflective sensor is used.
  • image data data obtained by various image processing such as edge extraction and three-dimensional conversion can be used. In this way, regardless of the type of shape recognition means, data representing the surface shape of an object is treated as a sample, and this collection of samples is called a sample group.
  • the sample extraction unit extracts some samples arbitrarily (randomly) from this sample group.
  • the shape model setting unit determines a shape model based on the extracted sample. When defining this shape model, it may be calculated geometrically from the extracted sample, or a method of preparing a plurality of templates in advance and applying them to the optimum one may be used. Then, the coincidence calculation unit calculates the coincidence of how much the entire sample group matches the shape model. The determination unit determines whether or not the embodied shape model is suitable for the sample group based on the calculation result.
  • the degree of coincidence between the determined shape model and the sample group will be low if the arbitrarily extracted sample contains a noisy sample. Therefore, it can be determined that this shape model does not fit the sample group.
  • the degree of coincidence increases. Therefore, it can be determined that the shape model matches the sample group. In this way, it is possible to recognize the contour shape of the target stationary object by removing the noisy sample with a small amount of computation.
  • the shape recognition means defines the sample number force shape model far less than the sample group. Therefore, the amount of calculation required when extracting a sample or determining a shape model is small. That Therefore, the device with a short calculation time is not enlarged.
  • the degree of matching of the sample group with respect to the shape model can be calculated geometrically using the coordinates in the space of each sample. Therefore, the degree of coincidence can be calculated with a small amount of calculation. Furthermore, since these calculation amounts are small, an increase in the total calculation amount can be suppressed even if different shape models are repeatedly determined and the degree of coincidence is calculated. As a result, the contour shape can be recognized with high accuracy.
  • the parking assist device is characterized in that the stationary object is a parked vehicle.
  • the contour shape is recognized by the shape recognition means, it is possible to accurately detect a parked vehicle as an obstacle (stationary object) around the parking area.
  • the parking space detecting means can detect a parking space where parking is possible without contacting the parked vehicle. As a result, it is possible to provide a parking assistance device that can assist the driver in driving operation.
  • the stationary object is a parked vehicle
  • the surface shape detection means detects the bumper of the parked vehicle or the side surface of the parked vehicle as the surface shape information. Any one of them is detected.
  • One is Garage Parking where the vehicle is parked at an angle of about 90 degrees with respect to the direction of travel.
  • this parking method there is a parked vehicle next to the host vehicle, and the vehicle is parked with the side surfaces of the vehicles facing each other.
  • the other is so-called parallel parking, which is parallel to the traveling direction of the vehicle (for example, a road).
  • a parked vehicle is parked in front of and behind the host vehicle, and the vehicle is parked with the front and rear of the vehicle facing each other.
  • the vehicle's front-rear direction is preferred in consideration of other vehicles and passers-by that the rear end or front end fits in the parking space! / ,.
  • Parked vehicle Based on the bumper, the parking position of the vehicle in the parking space can be clearly indicated. As in this feature configuration, if the bumper of the parked vehicle is detected as the surface shape information, good parking assistance is possible.
  • the vehicle width direction of the host vehicle is preferably within the parking space in consideration of other vehicles and passers-by.
  • the parking position of the vehicle in the parking space can be clearly indicated.
  • good parking assistance is possible.
  • FIG. 1 is a block diagram schematically showing the configuration of a parking assistance apparatus according to the present invention.
  • the distance sensor 1 corresponds to the surface shape detection means of the present invention. The detection result by the distance sensor 1 is input to the parking assistance ECU 9 and used for the calculation of parking assistance.
  • the moving state detection means 6 is, for example, a wheel speed sensor 6a or a steering angle sensor 6b.
  • the wheel speed sensor 6a is constituted by, for example, a rotation sensor. It is installed at four locations, the left and right (FL, FR) of the front wheels and the left and right (RL, RR) of the rear wheels, and detects the rotation speed and direction of the wheels.
  • the steering sensor 6b detects the steering angle of the vehicle 10 from the rotation angle of the steering. Note that the steering angle of the vehicle 10 may be calculated based on the difference in the rotation speed of the rotation sensor 6a.
  • Parking assistance ECU (Electronic Control Unit) 9 is the core of the parking assistance device of the present invention.
  • the parking assistance ECU 9 is composed of electronic circuits such as a microcomputer and DSP (Digital Signal Processor).
  • the parking assistance ECU 9 has means for sharing each function constituting the parking assistance device of the present invention, such as the shape recognition means 2, the relative arrangement calculation means 3, the parking space detection means 4, and the parking reference setting means 5.
  • Shape recognition means 2 can also
  • the memory unit 2a, the sample extraction unit 2b, the shape model setting unit 2c, the coincidence degree calculation unit 2d, the determination unit 2e, and the like have processing units that share functions for satisfactorily recognizing the surface shape of the parked vehicle.
  • the means and the processing units do not necessarily indicate physically different electronic circuits, but share functions as functions. For example, this includes cases where different functions are obtained by executing different programs with the same CPU.
  • the parking assist device includes a monitor device 7a, a buzzer (speaker) 7b, and the like as the notification means 7 for notifying the driver of the calculated support information.
  • the monitor device 7a informs the driver by superimposing support information on an image taken by, for example, an in-vehicle camera (not shown).
  • the screen of the monitor device 7a is a touch panel.
  • various switches are displayed via a GUI (Graphic User Interface) control means (not shown) provided in the parking assist ECU 9 or another ECU.
  • the driver can input an instruction to the parking assist ECU 9 by operating these switches. For example, the driver can input the start of the parking support mode, the type of parking mode, and the like using the touch panel.
  • pre-processing is performed.
  • the surface shape information of the parked vehicle existing around the vehicle is detected using the distance sensor 1 (surface shape detection step), and the contour shape of the parked vehicle is recognized around the shape recognition means 2 (shape recognition step). ).
  • the relative arrangement calculation means 3, the parking space detection means 4, the parking reference setting means 5 and the like are performed on the basis of the results of these preprocessing, and the relative arrangement calculation process, the parking space detection process, and the parking reference setting process are performed. Parking assistance is realized.
  • the embodiment will be described corresponding to each step.
  • the distance sensor 1 as the surface shape detecting means is, for example, a point sensor, that is, a single beam sensor or a sonar using ultrasonic waves.
  • a vehicle 10 equipped with the parking assist device of the present invention includes another vehicle 20 (hereinafter referred to as a parked vehicle) parked using a distance sensor 1 provided toward the side of the vehicle. And the distance from the vehicle.
  • the distance sensor 1 is provided only on the left side of the vehicle 10, but it may be provided on both sides as a matter of course.
  • the distance sensor 1 measures the distance from the parked vehicle 20 as the vehicle 10 moves.
  • the surface shape information of the parked vehicle 20 obtained in this way is discrete data corresponding to the travel distance of the vehicle 10 as shown in FIG. Although the details will be described later, the set of discrete data obtained in this way is called the sample group S (Large S).
  • “according to the moving distance” of the vehicle 10 also includes the meaning of “according to a predetermined time interval”. For example, when the vehicle 10 moves at a constant speed, if it is measured according to a predetermined time interval, it is measured according to the moving distance.
  • the speed information of the vehicle 10 may be obtained from the moving state detection means 6.
  • the moving speed, moving distance, and moving time of the vehicle 10 are determined linearly. Similarly, when the vehicle 10 is turned off, if the steering angle detected by the steering angle sensor 6b is obtained, the error due to the steering angle can be corrected. As described above, any method can be used to obtain the surface shape information as long as the surface shape information can be obtained almost uniformly as a result.
  • the distance sensor 1 may be provided with an accompanying sensor such as a timer for measuring the moving time, an encoder for measuring the moving distance, and a rotation sensor for measuring the moving speed separately from the moving state detecting means 6 and the like.
  • an accompanying sensor such as a timer for measuring the moving time, an encoder for measuring the moving distance, and a rotation sensor for measuring the moving speed separately from the moving state detecting means 6 and the like.
  • surface shape information may be detected by scanning a certain angle in the horizontal direction.
  • the detected surface shape information of the parked vehicle 20 is not limited to the front surface of the parked vehicle as in the examples shown in FIGS. Further, the vehicle side surface may be detected as in the examples shown in FIGS. That is, the required location of the parked vehicle 20 is detected based on the difference in the parking mode of the vehicle 10.
  • the difference in parking mode is, for example, garage parking where the vehicle 10 is parked at an angle of about 90 degrees with respect to the traveling direction, or parallel parking where the vehicle 10 is parked parallel to the traveling direction ( Parallel parking).
  • the end of the door mirror may be detected on the side of the vehicle 10.
  • the end of the door mirror is sufficiently small relative to the total length of the vehicle 10.
  • the surface shape information S is measurement data obtained discretely along the outer shape of the bumper portion of the parked vehicle 20.
  • the group of these discretely obtained data is the sample group S (Large S).
  • the sample group S is a data set that is a recognition target of the contour shape.
  • the point-by-point data composing the data set is called the sample s (small S).
  • the surface shape information measured by the distance sensor 1 is input to the shape recognition means 2 (see FIG. 1).
  • the input surface shape information (sample group S) is detected on a two-dimensional plane with the u and V directions as axes shown in Fig. 2 (and Fig. 4). Then, as shown in FIG. 6, it is mapped to the two-dimensional rectangular coordinates of uv and stored in the sample storage unit 2a.
  • the inlier is a specimen that forms the contour shape of the parked vehicle 20.
  • the outliner is a so-called noisy specimen in which the contour shape force of the parked vehicle 20 is also removed.
  • the specimen storage unit 2a includes a memory.
  • a form incorporated in a parking assist ECU 9 configured by a microcomputer is shown.
  • a so-called external form may be used by using a memory separate from the microcomputer.
  • other storage media such as a register and a hard disk may be used regardless of whether they are internal or external.
  • the surface shape of the parked vehicle 20 is recognized as described below.
  • the sample extraction unit 2b extracts a number of arbitrary samples si (i is the sample number) from the sample group S (samples sl to sl3) (sample extraction process, Fig. 9 # 1).
  • the sample s to be extracted is determined randomly.
  • random numbers are used.
  • the parking assist ECU 9 is provided with a random number generator (not shown) to generate a random number.
  • the sample number may be determined by a random number generation program executed by the parking assist ECU 9. Then, a sample si having the generated random number as a sample number is extracted.
  • the minimum number of samples to be extracted varies depending on the recognized shape! For example, it is 2 points when recognizing a straight line, and 5 points if it is a quadratic curve. In this embodiment, five points are extracted in order to approximate the bumper shape of the parked vehicle 20 to a quadratic curve as shown in FIG.
  • the collection of individual data and sample s extracted in this way is a conceptual subset corresponding to the data set.
  • the shape model setting unit 2c determines a shape model (shape model setting step, Fig. 9 # 2).
  • Fig. 7 is an explanatory diagram for calculating the degree of coincidence between the sample model S arbitrarily selected from the sample group S shown in the scatter diagram of Fig. 6 and the shape model L (first shape model L1) defined by the sample group S. is there.
  • This first shape model L1 is determined based on five samples s of samples sl, s5, s8, sl l, and sl3.
  • This shape model L can be easily obtained by linear calculation with a light computational load. Alternatively, prepare several template shapes in advance and select the most suitable one from these template shapes.
  • the effective range W for the first curve model L1 shown in FIG. 7 includes all the samples s except the outliers of the samples s2, s7, and si0. Therefore, the degree of coincidence of the first shape model L1 with the sample group S is 77% (10Z13). That is, the first shape model L1 It can be said that the agreement (consensus) was obtained with a high support rate (77%) for each sample s constituting the sample group S.
  • the determination unit 2e determines whether or not the degree of coincidence exceeds a predetermined threshold (determination step, FIG. 9 # 4). In other words, it is determined whether or not the shape model matches the sample group S. If it matches, the shape model (first shape model L1) determined from the extracted subset is recognized as the recognition result (certification process, Fig. 9 # 5). That is, the first shape model L1 is the contour shape. For example, when the threshold is set to 75%, the first shape model L1 is set as the contour shape. If the threshold is not exceeded, the process returns to process # 1 in the flowchart of FIG. 9, and another sample s is extracted again to form a new subset, and the same process is performed. If the threshold value is not exceeded even after repeating # 1 to # 4 multiple times, it is determined that there is no parked vehicle 20. This number may be specified in advance.
  • the total number of samples s constituting the sample group S is 13 in order to facilitate understanding.
  • the threshold value (75%) is also a value for facilitating the description of the present embodiment. Therefore, neither the number of samples nor the judgment threshold value for the degree of coincidence is a value that limits the present invention. For example, if the number of samples is large, the number of inliers relative to the outlier will be relatively large, and a threshold value higher than the above example can be set. Also, in # 4 in Fig. 9, the judgment formula is shown with an inequality sign, but of course an inequality sign with an equal sign may be used. Here, it is sufficient if it can be determined whether or not the shape model fits the sample group S.
  • samples s2, s4, s7, slO, and sl3 are extracted as subsets.
  • the samples s2, s7, and slO are so-called noise samples in which the contour shape force of the parked vehicle 20 is also removed. Therefore, it is a specimen that should be an outlier when viewed from the outline shape of the parked vehicle 20. Therefore, as shown in FIG. 8, there are many samples s that are outside the effective range W for the second shape model L2.
  • the second shape model L2 is determined based on a subset including the samples s2, s7, and slO which are outliers, the conformity to the sample group S is low.
  • the degree of coincidence is calculated by the same method as the first shape model L1, the degree of coincidence is 38% (5/13). In other words, the second shape model L2 is higher for each sample s constituting the sample group S. With consensus on the approval rate! /, N, and so on.
  • the contour shape as a recognition result is the first shape model L1.
  • the samples s2, s7, and slO which are noise samples s, are unused. These noise samples were treated as outliers and removed. In other words, even with a small amount of computation as described above, even if non-detection target data (outlier) is mixed, it can be removed and the shape of the object can be recognized stably.
  • Hough transform takes advantage of the property that straight lines that exist on Cartesian coordinates (for example, the uv plane) intersect at one point on polar coordinates- ⁇ space.
  • the conversion formula is as follows.
  • the method of "calculating the degree of coincidence of the sample group S with respect to the shape model L determined based on the sample s arbitrarily extracted from the sample group S constituting the surface shape information" of the present invention Requires a small amount of computation and a small memory capacity.
  • the degree of coincidence between the shape model L and the sample group S is examined. If a certain threshold is exceeded, the shape model L is taken as the recognition result. In other words, the shape model L that exceeds the threshold first is the recognition result. However, the shape model L may not be immediately recognized as a recognition result when the threshold value is simply exceeded, and a plurality of shape models L may be evaluated. A specific procedure will be described below.
  • FIG. 10 is a flowchart for explaining another example of the method for recognizing the contour shape from the sample group shown in the scatter diagram of FIG.
  • a subset is extracted a plurality of times to define a shape model L, and among them, the shape model L with the highest degree of coincidence is used as the recognition result.
  • this method will be described with reference to FIG.
  • processes # 1 to # 4 are the same as those in the flowchart shown in FIG.
  • the number of repetitions is temporarily stored.
  • the number of repetitions temporarily stored is cleared (initialization process, Fig. 10 # 0).
  • the sample s is randomly extracted from the sample group S in the sample extraction step (# 1) to create a subset.
  • the shape model setting step (# 2) a shape model L is determined based on this subset.
  • the degree of coincidence between the shape model L and the sample group S is calculated in the coincidence degree calculation step (# 3), and the force that the degree of coincidence exceeds a predetermined threshold value in the determination step (# 4) Determine whether or not.
  • the threshold value exceeds the threshold as a result of the determination, the previously determined shape model L and the degree of coincidence with this shape model L are stored in a temporary storage unit (not shown) (storage step, # 41).
  • storage step, # 41 storage step, # 41.
  • second determination step, # 44 second threshold is a high degree of coincidence, for example, almost close to the perfect score. This step is provided because it is not necessary to repeat and extract a subset if it shows a very high degree of coincidence.
  • the recognized shape model L) is used as the recognition result (recognition process, # 5).
  • the threshold value and the value (second threshold value) are changed. If it is determined that it has not exceeded, the process proceeds to the counting step (# 42). In other words, since the evaluation for one shape model L is completed, the number of repetitions is incremented.
  • the second threshold value may not be set, and after the storing step (# 41), the process may proceed to the counting step (# 42) without performing the second determination step (# 44).
  • the shape model L for the predetermined number of repetitions is always evaluated, and the shape model L with the highest degree of coincidence in the recognition process (# 51) is the recognition result.
  • the shape model L determined based on the subset is recognized as the contour shape.
  • the small shape model L determined based on the number of specimens may not reproduce the exact contour shape.
  • the degree of coincidence between the shape model L and all samples in the sample group S is evaluated. Therefore, it can be considered that the shape model L can reproduce (recognize) the contour shape almost accurately.
  • the ability of the shape model L determined from the small number of samples constituting the subset to reproduce the contour shape greatly contributes to a reduction in the amount of computation.
  • the samples s constituting the sample group S can be defined as inliers and outliers.
  • the inliers and outliers are certified.
  • the shape is recalculated using the method of least squares for all the samples s certified as inliers (recalculation process). Mentioned above In this way, the least squares method may not be able to reproduce the shape correctly due to the influence of the noisy sample s! However, in this recalculation process, since the noisy sample S is removed as an outlier, an accurate contour shape can be reproduced.
  • FIG. 11 is an explanatory diagram showing an example in which the surface shape information (sample group S) of the parked vehicle 20 detected in the case of FIG. 2 is projected on the shield coordinates.
  • the world coordinates are the reference coordinates of the XY two-dimensional coordinates.
  • the relative arrangement calculation means 3 defines a relative arrangement relationship between the movement locus LC of the vehicle 10 including the current position and the sample group S which is the surface shape information of the parked vehicle 20 on the world coordinates.
  • FIG. 12 is an explanatory diagram showing a method of identifying the parked vehicle 20 from the recognized contour shape of the front end or the rear end of the parked vehicle 20.
  • the shape of the parked vehicle 20 is estimated based on the contour shape E.
  • the contour shape E is recognized as the shape of the front end or the rear end of the parked vehicle
  • the shape of the parked vehicle 20 is estimated as follows.
  • a line (normal line) perpendicular to the tangent at the center of the contour E is defined as the center line CL
  • the direction of the center line CL is defined as the direction D of the parked vehicle 20.
  • the full width of the parked vehicle 20 is determined by the detected contour shape E, and the total length of the parked vehicle 20 is defined as a predetermined full length value FL in the long axis direction.
  • This total length may be set to a value of about 4 to 5 m, which is the total length of a general vehicle that does not need to be accurately detected.
  • the distance sensor 1 can satisfactorily detect the surface shape of the front end and the rear end of the parked vehicle 20 facing each other. That is, the full width of the parked vehicle 20 can be detected accurately. However, it is difficult to accurately detect the entire length in the depth direction. Therefore, the full length of a standard vehicle is used.
  • the shape of the parked vehicle 20 is estimated as follows.
  • a line (normal line) perpendicular to the tangent line in the central portion of the contour E is defined as a center line CL
  • a direction D perpendicular to the center line CL is defined as a direction of the parked vehicle 20.
  • the total length of the parked vehicle 20 is determined from the detected contour shape E.
  • the full width of the parked vehicle 20 is defined as the predetermined full width value FW. As mentioned above, this full width Should be set to a value of about 1.6 to 1.8 m, which is the full width of a typical vehicle that does not need to be detected accurately.
  • the parking space PE of the vehicle 10 is detected in world coordinates.
  • the exact coordinates on the world coordinates are the shape, position, and direction of the vehicle 10, which is the host vehicle, and the contour shape of the front ends of the parked vehicles 20a and 20b.
  • the schematic shapes of the parked vehicles 20a and 20b are estimated as indicated by broken lines in FIG.
  • the parking standard setting means 5 sets the parking standard P for satisfactorily completing the parking of the vehicle 10 within the range of the parking space PE.
  • FIG. 15 shows an example of the parking standard P in the case of so-called garage parking as shown in FIG.
  • the first reference line P1 is provided on the entrance side of the parking space PE almost parallel to one side of the entrance side of the parking space PE.
  • a second reference line P2 perpendicular to the first reference line P1 is provided at a predetermined position.
  • the second reference line P2 is provided so as to pass through the center of the parking space PE.
  • the driver of the vehicle 10 drives backward so that the second reference line P2 coincides with the axle C that is the center line of the long axis direction of the vehicle 10. Then, the driver completes the parking of the vehicle 10 by matching the first reference line P1 with the front end F of the vehicle 10 in the long axis direction. Then, the driver can park the vehicle 10 well in the parking space PE. That is, by operating the vehicle according to the parking standard P, it is possible to obtain a parking assist device that allows the driver to park the vehicle 10 satisfactorily.
  • the parking standard P is not limited to the above example. Considering the total length of the vehicle 10, the position of the first reference line P1 may be changed as appropriate. If vehicle 10 is short, Car space PE entry loca You can keep away. Conversely, if the vehicle 10 is long, it may be closer to the entrance side of the parking space PE. Since it is sufficient that the vehicle 10 does not protrude from the parking space PE, the vehicle 10 may coincide with one side of the entrance side of the parking space PE having a square shape.
  • the position of the second reference line P2 may be changed as appropriate. For example, when it is desired to widen the side where the inner ring difference is generated depending on the direction of delivery, the second reference line P2 may be shifted from the center of the parking space PE. That is, as shown in FIG. 16, a margin space M between the parked vehicle 20 and the vehicle 10 necessary for leaving the vehicle is provided in the parking space PE. Then, a second reference line P2 may be provided at the center of the parking space PE excluding the margin space M. In addition, the extra space M may be provided when the driver's seat side needs to be widened or the passenger's seat side is widened, regardless of whether or not necessary power is required.
  • the first reference line P1 may be changed by providing a margin space M in any of the front and rear directions of the parking space PE. For example, it is effective when it is desired to secure a sufficient space for putting in and out equipment such as a wheelchair and a stroller from the trunk or cargo room of the vehicle 10.
  • FIG. 17 is a diagram showing an example of the parking standard P set in the case of so-called parallel parking as shown in FIG.
  • the first reference line P1 is provided on the entrance side of the parking space PE almost parallel to one side of the entrance side of the parking space PE.
  • a second reference line P2 orthogonal to the first reference line P1 is provided at a predetermined position.
  • a margin space M is provided between the parked vehicle 20 and the vehicle 10 as a space when the vehicle 10 leaves the parking space PE.
  • a second reference line P2 is provided for the parking space PE excluding this margin space M.
  • the second reference line P2 is provided so as to coincide with one side of the parking space PE, excluding the margin space M.
  • the driver of the vehicle 10 drives backward so that the first reference line P1 coincides with the side end portion T of the vehicle 10 in the long axis direction. Then, the driver completes parking of the vehicle 10 by aligning the second reference line P2 with the front end F of the vehicle 10 in the long axis direction. Then, the driver can park the vehicle 10 well in the parking space PE. In other words, by operating according to the parking standard P, the parking assistance device that allows the driver to park the vehicle 10 satisfactorily. You can get a position. Further, after setting the first reference line P1, a third reference line that coincides with the axle C of the vehicle 10 may be set.
  • the driver can drive backward so that the third reference line coincides with the axle C, which is the center line in the long axis direction of the vehicle 10, as in the above-described garage parking.
  • a guide line can be shown on the monitor device 7a of the vehicle 10.
  • the third reference line is merely a geometrical shift of the first reference line P1. Therefore, the present embodiment using the third reference line belongs to the technical scope of the present invention.
  • FIG. 18 shows an example in which the detected parking space PE is displayed on the monitor device 7a and notified to the driver in the case of parallel parking as shown in FIG. This is an example in which the detected parking space PE is superimposed and displayed on a vehicle periphery image taken by a back camera (not shown) mounted on the vehicle 10. The driver can check that there is a parking space by looking at the monitor device 7a. Further, a guide line based on the parking standard P may be displayed on this screen.
  • FIG. 19 and FIG. 20 show an example in which the expected movement locus EL of the vehicle 10 driven by the driver is calculated, and the driver is notified of the presence or absence of interference with the parked vehicle 20.
  • the predicted movement trajectory EL of the vehicle 10 is calculated by the parking assist ECU 9 based on the detection result by the movement state detection means 6 such as the wheel speed sensor 6a and the steering angle sensor 6b.
  • 19 shows an example of garage parking as shown in FIG. 2
  • FIG. 20 shows an example of parallel parking as shown in FIG.
  • the contour shape E force of the portion close to the vehicle 10 in the end portion of the parked vehicle 20 is detected almost faithfully. Therefore, the driving assistance ECU 9 can accurately determine the possibility that the vehicle 10 and the parked vehicle 20 interfere with each other. As a result of the determination, if there is a possibility that the vehicle 10 and the parked vehicle 20 interfere with each other, this is notified to the driver via the monitor device 7a and the buzzer 7b. It is also transmitted to the steering control unit 8a. The steering angle may be changed, or the vehicle 10 may be decelerated or stopped by transmitting to the brake control unit 8b.
  • an obstacle around the parking area is detected with high accuracy, a parking space that can be parked without touching the obstacle is detected, and the driving operation is favorably supported.
  • a support device can be provided.
  • the present invention can be applied to a vehicle driving support device, a parking support device, a navigation system mounted on a vehicle, and the like.
  • FIG. 1 is a block diagram schematically showing the configuration of a parking assistance device according to the present invention.
  • FIG. 2 is an explanatory diagram showing an example in which a vehicle equipped with the parking assist device of the present invention detects surface shape information of a parked vehicle.
  • FIG. 3 is an explanatory diagram showing an example of surface shape information of a parked vehicle detected in the case of FIG.
  • FIG. 4 is an explanatory diagram showing another example in which a vehicle equipped with the parking assist device of the present invention detects surface shape information of a parked vehicle.
  • FIG. 5 is an explanatory diagram showing an example of surface shape information of a parked vehicle detected in the case of FIG.
  • FIG. 7 is an explanatory diagram for calculating the degree of coincidence between the first shape model and the sample group determined from the samples arbitrarily extracted from the sample group shown in the scatter diagram of FIG.
  • FIG. 8 is an explanatory diagram for calculating the degree of coincidence between the second shape model and the sample group determined from samples arbitrarily extracted from the sample group shown in the scatter diagram of FIG.
  • FIG. 9 illustrates an example of a method for recognizing the contour shape of the sample group shown in the scatter diagram of FIG.
  • FIG. 10 is a flowchart for explaining another example of the method for recognizing the contour shape from the sample group shown in the scatter diagram of FIG.
  • FIG. 11 is an explanatory diagram showing an example in which the surface shape information of the parked vehicle detected in the case of FIG. 2 is projected onto world coordinates.
  • FIG. 13 An explanatory diagram showing a method for certifying a parked vehicle from the contour shape of the side surface of the recognized parked vehicle.
  • FIG. 14 is an explanatory diagram showing an example of detecting a parking space in world coordinates.
  • FIG. 15 is an explanatory diagram showing an example of setting a parking standard in a parking space.
  • FIG. 16 is an explanatory diagram showing a modification of the example shown in FIG.
  • FIG. 17 is an explanatory diagram showing another example of setting a parking standard in a parking space.
  • FIG. 18 is an explanatory view showing an example of displaying the parking space shown in FIG. 16 on the monitor device.
  • FIG. 19 is an explanatory diagram showing an example of a case where the predicted movement locus of the own vehicle interferes with a parked vehicle.
  • FIG. 20 is an explanatory diagram showing another example of the case where the predicted movement trajectory of the own vehicle and the parked vehicle interfere with each other.
  • P Parking reference (P1: First reference line, P2: Second reference line)

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

 駐車区画周辺の障害物を精度良く検出し、障害物に接触することなく駐車可能な駐車空間を検出して、良好に運転操作を支援する駐車支援装置を提供する。  車両の周辺に存在する静止物体を検出して車両の駐車を支援する駐車支援装置であって、以下の構成を備える。静止物体の表面形状情報を検出する表面形状検出手段1と、表面形状情報に基づいて静止物体の輪郭形状を認識する形状認識手段2と、車両の移動状態を検出する移動状態検出手段6と、表面形状情報と輪郭形状と移動状態とに基づいて、車両と静止物体との相対的な配置関係を演算する相対配置演算手段3と、配置関係に基づいて車両が駐車可能な駐車空間を検出する駐車空間検出手段4と、を備える。

Description

明 細 書
駐車支援装置
技術分野
[0001] 本発明は、車両の周辺に存在する障害物を検出して自車両の駐車を支援する駐 車支援装置に関する。特に自車両以外に他の車両も駐車される場所において、駐 車されて!ヽる他の車両などの静止物体を検出して自車両の駐車を支援する駐車支 援装置に関する。
背景技術
[0002] 車両を駐車させる場合の運転操作を支援する駐車支援装置は、様々なものが提案 されている。下記に出典を示す特許文献 1には、一般にクリアランスソナ一と称される システムの発明が記載されている。これは、従来の広指向性を有する車載用の小型 超音波ソナ一では、車両に対する障害物の存在方向を特定することが困難であった ことを解決しょうとする発明である。これによると、特に後退時の後方障害物への接触 防止を図る目的で、複数のソナーを車両の後部に設置している。そして、それぞれの ソナ一力 の反射信号に基づいて、障害物の存在方向を特定しょうとするものである
[0003] 下記に出典を示す特許文献 2には、車体の 4つのコーナー部に設けられたソナー を用いて、障害物までの距離を検出し、車両周辺の地図に障害物候補を重畳した障 害物地図を作成する発明が記載されている。各コーナーに備えられたソナ一の検出 範囲は、平面視扇形や平面視細長楕円形となる。障害物は障害物候補として、ソナ 一の検出範囲内において、ソナ一力 一定の距離にあると検出できる力 正確な存 在位置の検出は困難である。ソナ一による検出は、所定時間周期で繰り返されるた め、繰り返し検出される障害物候補を特に抽出して障害物地図に反映する。
[0004] 下記に出典を示す特許文献 3には、車両の目標駐車区画を設定する発明が記載 されている。これは、駐車区画の白線が明瞭に識別可能な場合にはこの白線に基づ いて、明瞭に識別できない場合には障害物に基づいて画像処理を行い、車両の目 標駐車区画を設定するものである。特に障害物としての駐車車両を検出する方法は 以下のようなものである。複眼カメラを用いて、障害物 (駐車車両)を観測し、 2つの画 像の対応点を照合する。そして、その相関関係に基づいて三角測量法により障害物 の三次元データを生成する。つまり、平行ステレオ法を用いて障害物の境界点座標 を抽出する。そして、得られた三次元データを自車両が移動する平面である XY座標 平面に投影し、投影された二次元データから直線を抽出する。駐車車両に対応して 互いに直交する 2つの直線を検出し、これらの直線により形成される矩形を障害物と して検出する。
特許文献 1 :特開 2003— 63335号公報 (第 5〜11段落、第 2図)
特許文献 2:特開 2001— 334897号公報 (第 25 - 29段落、第 3—4図)
特許文献 3 :特開 2004— 34946号公報 (第 3— 12段落、第 35— 38段落、第 10図) 発明の開示
発明が解決しょうとする課題
[0005] 特許文献 1及び特許文献 2に記載の発明では、ソナ一の検出範囲内に障害物が存 在する場合に、その障害物までのおおよその距離を知ることはできる。しかし、検出 範囲内のどの位置に障害物が存在するの力までは検出しない。また、障害物の形状 の特定をしておらず、例えば、車両が障害物に接触する力否かの判定精度に限界が ある。
[0006] 特許文献 3に記載の発明では、障害物の存在位置や概略形状を比較的詳細に分 祈している。しかし、障害物としての駐車車両を最終的に矩形として表現しているた め、実際には曲面である駐車車両のコーナー部分は、余分に角張って検出されてい ることとなる。従って、矩形に基づいて駐車目標を設定すると、マージンを余分に設け ることとなる。これは障害物との接触の可能性を低下させる上では良好なことである。 しかし、駐車支援への期待がより高まる狭い場所において高精度に駐車支援する場 合には、このマージンを減らす必要がある。
[0007] 本願発明は上記課題に鑑みてなされたものである。その目的は、駐車区画周辺の 障害物を精度良く検出し、障害物に接触することなく駐車可能な駐車空間を検出し て、良好に運転操作を支援する駐車支援装置を提供することにある。
課題を解決するための手段 [0008] 上記目定を達成するため、本発明に係る、車両の周辺に存在する静止物体を検出 して前記車両の駐車を支援する駐車支援装置は、下記の特徴構成を備える。
即ち、前記静止物体の表面形状情報を検出する表面形状検出手段と、前記表面 形状情報に基づ ヽて前記静止物体の輪郭形状を認識する形状認識手段と、前記車 両の移動状態を検出する移動状態検出手段と、前記表面形状情報と前記輪郭形状 と前記移動状態とに基づいて、前記車両と前記静止物体との相対的な配置関係を 演算する相対配置演算手段と、前記配置関係に基づいて前記車両が駐車可能な駐 車空間を検出する駐車空間検出手段と、を備えることを特徴とする。
[0009] この特徴構成によれば、表面形状検出手段が物体の表面形状情報を検出し、この 表面形状情報に基づいて、形状認識手段が障害物に相当する静止物体の輪郭形 状を認識する。
ここで、表面形状情報とは、本発明の駐車支援装置が搭載される車両 (以下、適宜 「自車両」と称する。)から見た静止物体の表面の形状を示す情報である。また、静止 物体とは、駐車車両、狭路に於ける壁面、狭路上の壁面に隣接する電柱や街灯など の支柱などがその一例である。表面形状情報の検出には、電波や超音波等を用い た反射型のセンサや、可視光や赤外光等を利用して画像データを得るイメージセン サ、カメラ (動画、静止画を問わず)を用いることができる。
[0010] 形状認識手段は、得られた表面形状情報に基づ!ヽて静止物体の輪郭形状を認識 する。表面形状情報を得る際には、自車両と静止物体との距離と、表面形状情報と の関係も情報として取得できている。また、表面形状情報より静止物体の輪郭形状が 認識されるので、静止物体の輪郭形状と自車両との距離も把握できる。
自車両が移動しながら表面形状情報を取得する場合、自車両の移動状態は移動 状態検出手段により検出されている。従って、相対配置演算手段は、表面形状情報 、輪郭形状、移動状態により、自車両と静止物体との相対的な配置関係を演算する ことができる。
自車両の外形形状は既知であるから、駐車空間検出手段は、静止物体の近傍に 自車両が駐車可能な空間があるか否かを検出することができる。例えば、静止物体 が複数あり、それら静止物体と静止物体とに挟まれた空間に自車両が駐車可能な空 間が存在する力否かを検出することができる。
[0011] 上記特徴構成によれば、形状認識手段により輪郭形状を認識しているので、駐車 区画周辺の障害物、即ち静止物体を精度良く検出できる。そして、駐車空間検出手 段は、静止物体に接触することなく駐車可能な駐車空間を検出することができる。そ の結果、運転者に対して良好に運転操作を支援することのできる駐車支援装置を提 供することができる。
[0012] また、本発明に係る駐車支援装置は、前記表面形状検出手段が、前記車両の移 動に伴って前記表面形状情報を検出するものであり、前記形状認識手段が、前記表 面形状情報と前記移動状態とに基づいて前記輪郭形状を認識することを特徴とする
[0013] 表面形状検出手段が、自車両の移動に伴って前記表面形状情報を検出するもの であると、表面形状検出手段には広範囲を走査する機能が不要となる。即ち、シング ルビームセンサやポイントセンサなどの、ほぼ一点を検出対象とする距離センサを用 いて、表面形状を検出できる。そして、本発明に係る駐車支援装置は、移動状態検 出手段を備えているので、表面形状情報と移動状態とに基づいて、静止物体の表面 形状情報の分布を正確に知ることができる。その結果、形状認識手段は、良好に輪 郭形状を認識することができる。
[0014] さらに、本発明に係る駐車支援装置は、前記駐車空間を方形状にすると共に、前 記車両(自車両)を前記駐車空間の範囲内に駐車させるための駐車基準を設定する 駐車基準設定手段を下記に示す如く備えることを特徴とする。
ここで、前記駐車基準設定手段は、前記駐車空間に前記車両(自車両)が進入を 開始する進入口側の一辺に平行して前記駐車空間の前記進入口側に設けられた第 一基準線と、この第一基準線に直交して所定位置に設けられた第二基準線と、を前 記駐車基準として設定するものである。
そして、これら第一基準線及び第二基準線は、前記車両(自車両)の長軸方向の前 後何れかの端部が前記第一基準線と一致し、前記車両の長軸方向の中心線である 車軸が前記第二基準線と一致した状態で駐車を完了するように設定されるものであ る。 [0015] 車両の駐車に際しては、大きく 2つの方法がある。一つは、車両が進行方向に対し て 90度程度の角度をもって駐車される車庫入れ駐車 (Garage Parking)である。この 駐車方法の場合、自車両の横には静止物体があり、自車両の側面と静止物体とを対 向させて駐車状態となる。静止物体が駐車車両であれば、車両の側面同士を対向さ せて駐車状態となる。車両の前後方向は、後端部、又は前端部が駐車空間に収まつ て!、ることが他の車両や通行人への配慮の上で好まし!/、。
そこで、上記構成のように、駐車空間に対して自車両が進入を開始する進入口側 の一辺に平行して、この進入口側に第一基準線を設ける。そして、この第一基準線と 自車両の前端部又は後端部が一致した状態で駐車を完了するようにする。自車両が 駐車空間に対して前進進入する場合には第一基準線と後端部とがー致し、後退進 入する場合には第一基準線と前端部とがー致した状態で駐車を完了するようにする このようにすれば、少なくとも検出した駐車空間から自車両が前後方向にはみ出す ことなく駐車可能な駐車基準を設定することができる。また、前記第一基準線に直交 して所定位置に設けられた第二基準線と、自車両の長軸方向の中心線である車軸と がー致した状態で駐車を完了するようにする。従って、第一基準線と第二基準線とに よって、検出された駐車空間において自車両を駐車する基準を明確に示すことがで き、良好に駐車運転を支援することができる。
[0016] ここで、本発明に係る駐車支援装置は、さらに、前記第二基準線が、前記駐車空間 の中央を通るように定められることを特徴とする。
[0017] 第二基準線が検出された駐車空間の中央を通るように定められると、自車両の左 右方向に同等の隙間を有して、検出された駐車空間の中央に自車両を駐車させるこ とがでさる。
[0018] また、本発明に係る駐車支援装置は、前記車両(自車両)が前記駐車空間より入出 庫する際に必要となる前記静止物体と前記車両(自車両)との間の余裕空間を前記 駐車空間内に設けることを特徴とする。また、この場合に、前記第二基準線が前記余 裕空間を除いた前記駐車空間に対して定められることを特徴とする。
[0019] 例えば、車庫入れ駐車 (Garage Parking)の状態から、自車両を出庫させる場合に は、左右何れかの方向に向かって進行する。車両が左右方向に舵を切って進行する 場合、先行する車輪の軌跡に対して後方にある車輪の軌跡は、舵を切る方向の内側 を通るようになる。つまり、先行する車輪と後方にある車輪との間に、いわゆる内輪差 と称される軌跡の差が生じる。そこで、駐車する前に出庫する方向が決まっている場 合には、この内輪差を考慮して静止物体と自車両との間に余裕空間を設けておくとよ い。そして、検出された駐車空間からこの余裕空間を除き、残った駐車空間に対して 、上記第二基準線を設けると、内輪差も考慮した上で、自車両の駐車基準を明確に 示すことができる。同様に入庫の際にも下車側に余裕空間を設けておきたいような場 合に駐車基準を明確に示すことができる。
[0020] 上述したように車両の駐車に際しては、大きく 2つの方法がある。一方は、既に説明 した車庫入れ駐車 (Garage Parking)であり、他方は車両の進行方向(例えば道路)に 平行に駐車するいわゆる縦列駐車 (Parallel Parking)である。縦列駐車の場合、自車 両の前後には静止物体があり、自車両の前後部と静止物体とを対向させて駐車状態 となる。静止物体が駐車車両であれば、それぞれ車両の前方と後方とを対向させて 駐車状態となる。車両の車幅方向は、駐車空間に収まっていることが他の車両や通 行人への配慮の上で好まし 、。
[0021] このような場合、第一基準線及び第二基準線が、前記車両(自車両)の車幅方向の 左右何れかの端部が前記第一基準線と一致し、前記車両(自車両)の長軸方向の前 後何れかの端部が前記第二基準線と一致した状態で駐車を完了するように設定され ると好適である。
すでに述べたように、好適には、本発明に係る駐車支援装置は、前記駐車空間を 方形状にすると共に、前記車両(自車両)を前記駐車空間の範囲内に駐車させるた めの駐車基準を設定する駐車基準設定手段を備える。
そして、第一基準線は、前記駐車基準設定手段が、前記駐車空間に前記車両(自 車両)が進入を開始する進入口側の一辺に平行して前記駐車空間の前記進入口側 に設定するものである。第二基準線は、前記駐車基準設定手段が、この第一基準線 に直交して所定位置に設定するものである。
[0022] 第一基準線と自車両の側端部が一致した状態で駐車を完了するようにする。このよ うにすれば、少なくとも検出した駐車空間から自車両が車幅方向にはみ出すことなく 駐車可能な駐車基準を設定することができる。また、前記第一基準線に直交して所 定位置に設けられた第二基準線と、自車両の長軸方向の前後何れかの端部である 前端部又は後端部とがー致した状態で駐車を完了するようにする。このようにすれば 、第一基準線と第二基準線とによって、検出された駐車空間において自車両を駐車 する基準を明確に示すことができ、良好に駐車運転を支援することができる。
[0023] また、本発明に係る駐車支援装置は、前記車両(自車両)が前記駐車空間より入出 庫する際に必要となる前記静止物体と前記車両(自車両)との間の余裕空間が前記 駐車空間内に設けられることを特徴とする。ここで、前記第二基準線は、前記余裕空 間を除いた前記駐車空間に対して定められる。
[0024] 縦列駐車 (Parallel Parking)の場合、自車両の前方にある静止物体と自車両との間 にある程度の隙間が無ければ、出庫の際に困難である。駐車空間において、前後方 向の中央部分に自車両を駐車してもよいが、出庫の際に改めて一度後退させて、前 方に隙間を空ける操作を有することになる。そこで、予め駐車の際に、自車両の前方 にこの隙間に相当する余裕空間を設けるとよい。同様に入庫の際にも下車側の側方 に余裕空間を設けておきたいような場合に駐車基準を明確に示すことができる。
[0025] また、本発明に係る駐車支援装置は、前記余裕空間が、駐車時に運転席側あるい は助手席側にお 、て確保した 、広さに応じて変更自在であることを特徴とする。
[0026] 本特徴構成によれば、駐車時の状況に応じて上記余裕空間を、適宜変更すること ができる。例えば、運転者が一人だけで乗車しているような場合には、運転席側を広 くすることが乗車や下車の際に都合が良い。このような場合には、運転席側の余裕空 間を広く確保することができる。当然、助手席側の余裕空間を広く確保することもでき る。
例えば、幼児や老人などの乗り降りに充分な空間を確保したい場合、確保したい側 の余裕空間を、確保したい広さに応じて変更することができる。
[0027] また、本発明に係る駐車支援装置は、前記形状認識手段が、下記の各部を有して 構成されることを特徴とする。
即ち、前記表面形状情報を構成する標本群から任意の標本を抽出する標本抽出 部と、抽出した前記標本に基づいて形状モデルを定める形状モデル設定部と、前記 形状モデルに対する前記標本群の一致度を演算する一致度演算部と、この演算結 果に基づ 、て、前記形状モデルが前記標本群に適合する力否かを判定する判定部 とを有して構成されることを特徴とする。
[0028] 形状認識手段は、表面形状検出手段より得られた標本群より、輪郭形状を認識す る。ここで、標本群とは、表面形状情報を構成する個々のデータの集合体のことをい う。個々のデータとは、既に説明したように、例えば、反射型のセンサを用いた場合に は、障害物の各場所で反射された信号を受信して得られた各場所に対応した情報で ある。画像データを利用した場合には、エッジ抽出、三次元変換等の種々の画像処 理により得られたデータを用いることができる。このように、形状認識手段の種類に依 らず、物体の表面形状を表すデータを標本として扱い、この標本の集合体を標本群 と称する。
[0029] 標本抽出部は、この標本群より任意に (ランダムに)いくつかの標本を抽出する。そ して、形状モデル設定部は、抽出した標本に基づいて形状モデルを定める。この形 状モデルを定めるに際しては、抽出した標本より幾何学的に算出してもよいし、予め 複数のテンプレートを用意して最適なものに当てはめる方法を用いてもよい。そして、 一致度演算部は、標本群全体がこの形状モデルに対して、どの程度一致するかの 一致度を演算する。判定部は、この演算結果に基づいて、具現化された形状モデル が標本群に適合するものか否かを判定する。
[0030] このよう〖こすると、任意に抽出した標本にノイズ性の標本が含まれていた場合には、 定めた形状モデルと標本群との一致度が低くなる。従って、この形状モデルは標本 群に適合しな 、と判定できる。ノイズ性の標本を含まずに形状モデルを定めた場合 には、一致度は高くなる。従って、形状モデルは標本群に適合すると判定できる。こ のように、少ない演算量で、ノイズ性の標本を除去して対象となる静止物体の輪郭形 状を認識することができる。
[0031] 任意に抽出された標本は、標本群を構成する標本数よりも遥かに少ないので、形 状認識手段は、標本群よりも遥かに少な 、標本数力 形状モデルを定めることになる 。従って、標本の抽出や形状モデルを定める際に必要となる演算量も少ない。そのた め、演算時間も短ぐ装置も大規模化しない。また、形状モデルに対する標本群の一 致度は、各標本の空間上の座標を用いて、幾何学的に演算することができる。従つ て、一致度の演算も少ない演算量で行うことができる。さらに、これらの演算量が少な いことより、繰り返し異なる形状モデルを定めて一致度を演算しても総演算量の増大 を抑制することができる。その結果、高い精度で輪郭形状を認識することができる。
[0032] また、本発明に係る駐車支援装置は、前記静止物体が、駐車車両であることを特 徴とする。
[0033] 自車両を駐車させる場所としては、例えば、道路の路肩や駐車場などが考えられる 。路肩や駐車場において、存在する確立が高ぐまた、運転者にとって緊張感を伴う 静止物体は、駐車されている他の車両 (駐車車両)である。
本特徴構成によれば、形状認識手段により輪郭形状を認識しているので、駐車区 画周辺の障害物 (静止物体)としての駐車車両を精度良く検出できる。そして、駐車 空間検出手段は、駐車車両に接触することなく駐車可能な駐車空間を検出すること ができる。その結果、運転者に対して良好に運転操作を支援することのできる駐車支 援装置を提供することができる。
[0034] また、本発明に係る駐車支援装置は、前記静止物体が、駐車車両であり、前記表 面形状検出手段が、前記表面形状情報として、前記駐車車両のバンパーあるいは 前記駐車車両の側面の何れかを検出することを特徴とする。
[0035] 他の車両 (駐車車両)が存在する場所 (路肩や駐車場)にお ヽて自車両を駐車する 場合、大きく 2つの方法が考えられる。
一つは、車両が進行方向に対して 90度程度の角度をもって駐車される車庫入れ駐 車 (Garage Parking)である。この駐車方法の場合、自車両の横には駐車車両があり、 それぞれ車両の側面同士を対向させて駐車状態となる。
他方は車両の進行方向(例えば道路)に平行に駐車するいわゆる縦列駐車 (Parall el Parking)である。この駐車方法の場合、自車両の前後には駐車車両が駐車され、 それぞれ車両の前方と後方とを対向させて駐車状態となる。
車庫入れ駐車の場合、車両の前後方向は、後端部、又は前端部が駐車空間に収 まって!/、ることが通行する他の車両や通行人への配慮の上で好まし!/、。駐車車両の バンパーを基準とすると、駐車空間における自車両の駐車位置を明確に示すことが できる。本特徴構成のように、表面形状情報として、駐車車両のバンパーを検出する と、良好な駐車支援が可能となる。
縦列駐車の場合、自車両の車幅方向が、駐車空間に収まっていることが通行する 他の車両や通行人への配慮の上で好ましい。駐車車両の側面を基準とすると、駐車 空間における自車両の駐車位置を明確に示すことができる。本特徴構成のように、 表面形状情報として、駐車車両の側面を検出すると、良好な駐車支援が可能となる。 発明を実施するための最良の形態
[0036] 〔システム構成〕
以下、車両の周辺に存在する駐車車両 (静止物体)を障害物とする場合の、本発 明の駐車支援装置の実施例を図面に基づいて説明する。但し、下記に説明する本 発明の原理より明らかなように、障害物は駐車車両に限らず、狭路に於ける壁面や、 狭路上の壁面に隣接する電柱など、種々の静止物体を対象とすることができる。 図 1は、本発明に係る駐車支援装置の構成を模式的に示すブロック図である。距離 センサ 1は、本発明の表面形状検出手段に相当するものである。距離センサ 1による 検出結果は駐車支援 ECU9に入力され、駐車支援の演算に用いられる。また、本発 明の駐車支援装置が搭載された車両の移動状態を検出する移動状態検出手段 6の 検出結果も駐車支援 ECU9に入力され、駐車支援の演算に用いられる。移動状態 検出手段 6は、例えば、車輪速センサ 6aや舵角センサ 6bである。車輪速センサ 6aは 、例えば回転センサなどにより構成される。前輪の左右 (FL、 FR)、後輪の左右 (RL 、 RR)の 4箇所に設置され、車輪の回転数や回転方向を検出する。操舵センサ 6bは 、ステアリングの回転角度より、車両 10の舵角を検出する。尚、回転センサ 6aの回転 数の差により、車両 10の舵角を演算してもよい。
[0037] 駐車支援 ECU (Electronic Control Unit) 9は、本発明の駐車支援装置の中核をな すものである。例えば、マイクロコンピュータや DSP (Digital Signal Processor)などの 電子回路によって構成されている。駐車支援 ECU9は、形状認識手段 2、相対配置 演算手段 3、駐車空間検出手段 4、駐車基準設定手段 5など、本発明の駐車支援装 置を構成する各機能を分担する手段を有している。形状認識手段 2は、また、標本記 憶部 2a、標本抽出部 2b、形状モデル設定部 2c、一致度演算部 2d、判定部 2eなど、 駐車車両の表面形状を良好に認識するための機能を分担する処理部を有している。 尚、上記各手段、各処理部は、必ずしも物理的に異なる電子回路を示すものではな ぐ機能としての分担を示すものである。例えば、異なるプログラムを同一の CPUによ つて実行することにより、異なる機能を得るような場合も含むものである。
[0038] 図 1に示すように、駐車支援装置は、演算した支援情報を運転者に報知するため の報知手段 7として、モニタ装置 7aやブザー (スピーカ) 7bなどを備えている。モニタ 装置 7aは、例えば車載カメラ (不図示)により撮影された画像に支援情報を重畳して 、運転者に報知する。モニタ装置 7aの画面は、タツチパネルになっている。この画面 には、駐車支援 ECU9又は他の ECUに備えられた GUI (Graphic User Interface)制 御手段 (不図示)を介して種々のスィッチが表示される。運転者は、これらのスィッチ を操作することにより、指示を駐車支援 ECU9に入力することができる。例えば、運転 者は、駐車支援モードの開始や、駐車形態の種類などをタツチパネルを使って入力 することができる。
[0039] 駐車支援に際しては、いわゆる前処理が行われる。つまり、距離センサ 1を用いて 車両の周辺に存在する駐車車両の表面形状情報を検出し (表面形状検出工程)、形 状認識手段 2を中心として駐車車両の輪郭形状を認識する (形状認識工程)。
そして、これら前処理の結果を受けて相対配置演算手段 3、駐車空間検出手段 4、 駐車基準設定手段 5などにより、相対配置演算工程、駐車空間検出工程、駐車基準 設定工程が実施され、好適な駐車支援が実現される。以下、理解を容易にするため それぞれの工程に対応させて、その実施形態を説明する。
[0040] 〔表面形状検出工程〕
初めに、表面形状検出工程について説明する。表面形状検出手段としての距離セ ンサ 1は、例えばポイントセンサ、即ち、シングルビームセンサや超音波を利用したソ ナ一等である。図 2に示すように、本発明の駐車支援装置を搭載した車両 10は、車 両の側方に向けて備えられた距離センサ 1を用いて駐車中の他の車両 20 (以下、駐 車車両と称す。)と、自車両との距離を測定する。つまり、車両 10は、駐車車両 20の そばを図示 u方向へ通過する際に、距離センサ 1によって駐車車両 20までの距離を 計測する。尚、図 2には、簡略のため、車両 10の左側方にのみ距離センサ 1を設けて いるが、当然両側方に設けていてもよい。
[0041] 距離センサ 1は、車両 10の移動に応じて駐車車両 20との距離を計測する。このよう にして得られた駐車車両 20の表面形状情報は、図 3に示すように、車両 10の移動距 離に応じた離散的なデータである。詳細は後述するが、こうして得られた離散的なデ ータの集合を標本群 S (ラージエス)と称する。尚、車両 10の「移動距離に応じて」に は、「所定時間間隔に応じて」の意味も含むものである。例えば、車両 10が等速で移 動する場合には、所定時間間隔に応じて計測すれば、移動距離に応じて測定するこ とになる。車両 10の速度が変動する場合には、移動状態検出手段 6より、車両 10の 速度情報を入手すればよい。車両 10の移動速度、移動距離、移動時間は、線形的 に定まる。また、車両 10が舵を切られている場合にも同様に舵角センサ 6bにより検 出された操舵角を入手すれば、舵角による誤差を補正できる。このように、結果として 概ね均等に表面形状情報を得ることができる方法であれば、どのような方法を用いて 表面形状情報を取得してもよ 、。
[0042] 尚、距離センサ 1が移動時間を計測するタイマ、移動距離を計測するエンコーダ、 移動速度を計測する回転センサ等の付随するセンサを移動状態検出手段 6などとは 別に備えていてもよい。また、車両 10の移動に伴って表面形状情報を取得するもの ではなぐ例えば、水平方向に一定の角度を走査することにより、表面形状情報を検 出するものであってもよい。
[0043] 検出される駐車車両 20の表面形状情報は、図 2及び図 3に示した例のように駐車 車両の前面に限らず、勿論後面でもよい。また、図 4及び図 5に示す例のように車両 の側面が検出されるものでもよい。つまり、車両 10の駐車形態の違いによって、駐車 車両 20の必要な場所が検出される。駐車形態の違いとは、例えば、車両 10が進行 方向に対して 90度程度の角度をもって駐車される車庫入れ駐車 (Garage Parking) であるか、進行方向に対して平行に駐車される縦列駐車 (Parallel Parking)であるか の違いである。
尚、図 5に示すように、車両 10の側面ではなぐドアミラーの端部が検出されるような 場合もある。しかし、車両 10の全長に対してドアミラーの端部は充分に少ない。従つ て、例えドアミラーの端部が検出されたとしても、車両 10の側面の表面形状情報の取 得に関してほとんど影響はない。また、ドアミラーよりも低い位置において車両 10の 側面の表面形状情報を検出した場合には、もちろんドアミラーの端部は検出されな い。
[0044] 図 3に示した例において、表面形状情報 Sは駐車車両 20のバンパー部の外形形 状に沿った形で離散的に得られた計測データである。上述したように、これら離散的 に得られたデータの一群は標本群 S (ラージエス)である。標本群 Sは、輪郭形状の 認識対象となるデータセットである。データセットを構成する一点一点のデータは標 本 s (スモールエス)と称する。
[0045] 距離センサ 1によって測定された表面形状情報は、形状認識手段 2に入力される ( 図 1参照)。入力された表面形状情報 (標本群 S)は、図 2 (及び図 4)に示す u方向及 び V方向を軸とする二次元平面上で検出される。そして、図 6に示すように uvの二次 元直交座標にマッピングされて、標本記憶部 2aに記憶される。尚、説明を容易にす るため、図中には全ての標本 sを示していない。図 6に示した標本中、黒点で示す標 本 sをインライア (inlier)、白抜き点で示す標本 sをアウトライア(outlier)と称する。図中 、標本 sl、 si 3等はインライアであり、標本 s2、 s7、 slOはアウトライアである。詳細は 後述するが、インライアは駐車車両 20の輪郭形状を構成する標本である。アウトライ ァは駐車車両 20の輪郭形状力も外れたいわゆるノイズ性の標本である。
[0046] 標本記憶部 2aは、メモリで構成されて 、る。本実施形態にぉ 、ては、マイクロコンビ ユータで構成された駐車支援 ECU9に内蔵する形態を示している。勿論、マイクロコ ンピュータとは別体のメモリを用いて、いわゆる外付けの形態としてもよい。また、内蔵 、外付けを問わず、レジスタ、ハードディスク等、他の記憶媒体を用いてもよい。いず れにせよ、標本記憶部 2aに記憶された表面形状情報を用いて、以下に説明するよう に駐車車両 20の表面形状が認識される。
[0047] 〔形状認識工程 (1)〕
以下、図 1のブロック図にカ卩え、図 9に示すフローチャートも利用して、得られた標本 群 Sより、駐車車両 20の輪郭形状を認識する手順 (形状認識工程)について説明す る。 [0048] 標本抽出部 2bは、標本群 S (標本 sl〜sl3)より任意の標本 si(iは標本番号)を数 点抽出する(標本抽出工程、図 9 # 1)。どの標本 sを抽出するかについてはランダム に定める。好適には乱数を用いる。例えば、駐車支援 ECU9に乱数発生器 (不図示 )を設け、乱数を生成する。あるいは、駐車支援 ECU9が実行する乱数発生プロダラ ムによって標本番号を定めてもよい。そして、生成した乱数を標本番号とする標本 si を抽出する。
[0049] 抽出する標本の最小数は、認識した!/、対象形状によって異なる。例えば直線の認 識をする場合には 2点であり、二次曲線であれば 5点である。本実施形態においては 、図 3に示すように駐車車両 20のバンパー形状を二次曲線に近似するため、 5点を 抽出する。このようにして抽出された個々のデータ、標本 sの集合は、データセットに 対応する概念としてのサブセットである。
[0050] 続、て、このサブセット (ランダムに抽出した標本 sの集合体)に基づ!/、て形状モデ ル設定部 2cが形状モデルを定める(形状モデル設定工程、図 9 # 2)。
図 7は、図 6の散布図に示す標本群 Sから任意に抽出した標本 3はり定めた形状モ デル L (第一の形状モデル L1)と標本群 Sとの一致度を演算する説明図である。この 第一の形状モデル L1は、標本 sl、 s5、 s8、 sl l、 sl3の 5つの標本 sに基づいて定め られたものである。この形状モデル Lは、演算負荷の軽い線形計算により容易に求め ることができる。または、予め数種類のテンプレート形状を用意しておき、これらテン プレート形状の中より最適なものを選択するようにして定めてもょ 、。
[0051] また、図 7に示すように、形状モデル Lの接線に対して直交する両方向に所定距離 離れた点を形状モデル Lに沿って結び、点線 B1及び B2を定める。この点線 B1及び B2に挟まれた部分が有効範囲 Wとなる。そして、一致度演算部 2dにおいて、定めた 形状モデル Lと、標本群 Sとの一致度を演算する。具体的には、上記のように定めた 有効範囲 Wの中に、標本群 Sを構成する各標本 siが、どの程度含まれるかによつて 一致度を算出する (一致度演算工程、図 9 # 3)。
[0052] 図 7に示した第一の曲線モデル L1に対する有効範囲 Wの中には、標本 s2、 s7、 si 0のアウトライアを除く全ての標本 sが含まれている。従って、第一の形状モデル L1の 標本群 Sに対する一致度は、 77% (10Z13)となる。つまり、第一の形状モデル L1 は、標本群 Sを構成する各標本 sにより、高い支持率 (77%)で合意 (コンセンサス)を 得たということができる。
[0053] 次に、判定部 2eにおいて、この一致度が所定のしきい値を超えているか否かを判 定する (判定工程、図 9 # 4)。つまり、形状モデルが標本群 Sに適合するか否かを判 定する。そして、適合している場合には抽出したサブセットより定めた形状モデル (第 一の形状モデル L1)を認識結果として認定する (認定工程、図 9 # 5)。即ち、第一の 形状モデル L1を輪郭形状とする。例えば、しきい値が、 75%と設定されているような 場合には、第一の形状モデル L1を輪郭形状とする。しきい値を超えていない場合に は、図 9のフローチャートの処理 # 1に戻り、再度、別の標本 sを抽出して新たなサブ セットを構成し、同様の処理を行う。複数回処理 # 1〜# 4を繰り返してもしきい値を 超えないような場合には、駐車車両 20が無い、と判断する。この回数は、予め規定し ておけばよい。
[0054] 尚、本実施形態にぉ ヽては、理解を容易にするために標本群 Sを構成する標本 sの 総数を 13ケとしている。しきい値の値 (75%)も、本実施形態の説明を容易にするた めの値である。従って、標本数、一致度の判定しきい値共に、本発明を限定する値で はない。例えば、標本数が多ければ、アウトライアに対するインライアの数は相対的に 多くなり、上記の例よりも高いしきい値を設定することもできる。また、図 9の # 4では 不等号で判定式を示したが、もちろん等号付きの不等号でもよい。ここでは、形状モ デルが標本群 Sに適合するか否かを判定できれば充分である。
[0055] 図 8に示した形状モデル L (第二の形状モデル L2)では、サブセットとして標本 s2、 s4、 s7、 slO、 sl3が抽出されている。上述したように標本 s2、 s7、 slOは、駐車車両 20の輪郭形状力も外れたいわゆるノイズ性の標本である。従って、駐車車両 20の輪 郭形状から見た場合には、アウトライアとなるべき、標本である。そのため、図 8に示 すように、第二の形状モデル L2に対する有効範囲 Wから外れる標本 sが多数存在す る。つまり、第二の形状モデル L2は、アウトライアである標本 s2、 s7、 slOを含むサブ セットに基づいて定められているため、標本群 Sに対する適合性が低くなる。第一の 形状モデル L1と同様の方法により一致度を演算すると、その一致度は 38% (5/13 )となる。つまり、第二の形状モデル L2は、標本群 Sを構成する各標本 sにより、高い 支持率で合意 (コンセンサス)を得られて!/、な 、と 、うことになる。
[0056] 上記 2つの形状モデル L1及び L2が抽出されるような場合、認識結果となる輪郭形 状は第一の形状モデル L1となる。第一の形状モデル L1を定めるに際しては、ノイズ 性の標本 sである標本 s2、 s7、 slOは、未使用である。これらノイズ性の標本は、アウト ライアとして扱われ、除去されたこととなる。即ち、上記説明したような少ない演算量で 、非検出対象のデータ (アウトライア)が混在してもこれを除去し、安定して物体の形 状を認識することができる。
[0057] 〔従来の形状認識方法との比較〕
このような方法を用いず、標本 Sより輪郭形状を算出する方法は従来、種々提案さ れている。その一つは、最小自乗法である。最小自乗法では、データセットの全ての 標本 sを用いて、夫々の標本 sが同一の重みとなって形状が計算される。その結果、 上述したアウトライア (標本 s2等)の影響を受けて、本来とは異なった輪郭形状を認識 する。輪郭形状を認識した後に、データセット全体との一致度を再確認することも可 能ではある。しかし、最小自乗法自体の演算負荷が比較的重い上、この再確認の結 果により繰り返し最小自乗法による形状認識を行うとさらに演算負荷を重くすることに なる。
[0058] また別の方法として、特に直線の認識に好適なハフ(Hough)変換を利用する方法 もある。ハフ変換はよく知られているように、直交座標(例えば uv平面)上に存在する 直線は、極座標 - Θ空間)上では 1点で交差する、という性質を利用したものであ る。その変換式は、下記である。
p = U' cos Θ + v sin Θ
上記式より、理解できるように極座標空間で pや Θの範囲を広げたり、細かい分解能 を得たりしょうとすると、それだけ演算量が増大する。つまり、一次記憶手段としての、 メモリは大容量が要求され、計算回数も多くなる。
[0059] これら従来の演算に比べ、本発明の「表面形状情報を構成する標本群 Sから任意 に抽出した標本 sに基づいて定めた形状モデル Lに対する標本群 Sの一致度を演算 する」方法は、演算量が少なぐ必要となるメモリ容量も少ない。
[0060] 上記説明にお!/、ては、形状モデル Lと標本群 Sとの一致度を調べ、この一致度が所 定のしきい値を超えていれば、その形状モデル Lを認識結果とする。つまり、最先に しきい値を超えた形状モデル Lがそのまま認識結果となる。これに限らず、単にしきい 値を超えただけで直ちにその形状モデル Lを認識結果とはせず、複数個の形状モデ ル Lを評価するようにしてもよい。具体的な手順については、以下に説明する。
[0061] 〔形状認識工程 (2)〕
図 10は、図 6の散布図に示す標本群から輪郭形状を認識する方法の他の例を説 明するフローチャートである。この方法では、サブセットを複数回抽出して形状モデル Lを定め、その中で最も一致度の高力つた形状モデル Lを認識結果とするようにして いる。以下、図 10に基づいて、この方法について説明する。但し、処理 # 1〜# 4は 図 9に示したフローチャートと同様であるので、説明を省略する。
[0062] 図 10に示す方法では、サブセットを複数回繰り返して抽出するので、繰り返し回数 を一時記憶する。形状認識工程の開始に当たって、まず初めにこの一時記憶する繰 り返し回数をクリアする(初期化工程、図 10 # 0)。以下、図 9に示した方法と同様に、 標本抽出工程(# 1)にて、標本群 Sよりランダムに標本 sを抽出してサブセットを作る 。次に、形状モデル設定工程(# 2)にて、このサブセットに基づいて形状モデル Lを 定める。そして、一致度演算工程(# 3)にて、形状モデル Lと標本群 Sとの一致度を 演算し、判定工程(# 4)にて、一致度が所定のしきい値を超えている力否かを判定 する。
[0063] 判定の結果、しき 、値を超えて 、た場合には、先に定めた形状モデル Lとこの形状 モデル Lに対する一致度を一時記憶部(不図示)に記憶する(記憶工程、 # 41)。次 に、この一致度が、さらに高い値に設定した第二のしきい値を超えているか否かを判 定する(第二判定工程、 # 44)。この第二のしきい値は、例えばほぼ満点に近いよう な高い一致度である。非常に高い一致度を示している場合には、サブセットを繰り返 し抽出する必要がないため、この工程が設けられている。第二判定工程(# 44)にお いて、第二のしきい値を超えていると判定されると、形状モデル設定工程 # 2で定め た形状モデル L ( =記憶工程 ( # 41)で記憶した形状モデル L)を認識結果とする (認 定工程、 # 5)。
[0064] 判定工程 ( # 4)又は第二判定工程 ( # 44)にお 、て、しき 、値 (第二のしき 、値)を 超えていないと判定されると、計数工程(# 42)へ移行する。つまり、一つの形状モデ ル Lに対する評価が完了したので、繰り返し回数をインクリメントする。
[0065] 次に、繰り返し回数が所定の回数に達した力否か (超えた力否かでもよ!/、)を判定 する(離脱判定工程、 # 43)。所定の回数に達していなければ、標本抽出工程(# 1 )に戻り、以下判定工程(# 4)までを行って、新たな形状モデル Lの評価を行う。所定 の回数に達していた場合には、記憶されている形状モデル Lの内、最も一致度の高 力つた形状モデル Lを選択し、これを認識結果としての輪郭形状とする (認定工程、 # 51)。ここで、判定工程(# 4)において一致度のしきい値を超えたものが一つも無 力 たような場合には、認定工程(# 51)において該当無しと判断する。
尚、第二のしきい値を設定せず、記憶工程(# 41)の後、第二判定工程(# 44)を行 わずに計数工程(# 42)に移行してもよい。つまり、常に所定の繰り返し回数分の形 状モデル Lを評価して、認定工程( # 51)において最も一致度の高カゝつた形状モデ ル Lを認識結果としてもょ ヽ。
[0066] このように、図 9に示す方法、図 10に示す方法共に、サブセットに基づいて定めた 形状モデル Lを輪郭形状と認定して 、る。一般に少な 、標本数に基づ 、て定めた形 状モデル Lは、正確な輪郭形状を再現するものではない、とも考えられる。しかし、本 発明にお 、ては、結果的に形状モデル Lと標本群 Sの全標本との一致度を評価して いることになる。従って、形状モデル Lはほぼ正確に輪郭形状を再現 (認識)できてい ると考えてよい。このように、サブセットを構成する少ない標本数から定めた形状モデ ル Lが輪郭形状を再現できることは、演算量の削減に大きく貢献している。
[0067] 上述したように、形状モデル Lをそのまま認識結果として輪郭形状と認定することは 、演算量の削減に大きく貢献する。しかし、本発明はこれに限定されるものではない。 駐車支援 ECU9などの演算手段の能力に余裕のある場合などでは、輪郭形状を再 計算してちょい。
[0068] 例えば、一致度がしき ヽ値を超えた形状モデル Lを基準とすれば、標本群 Sを構成 する標本 sの夫々をインライア、アウトライアとして定義することができる。認定工程で は、このインライア、アウトライアを認定する。そして、インライアと認定された全ての標 本 sを対象として最小自乗法等を用いて形状を再計算する (再計算工程)。上述した ように最小自乗法ではノイズ性の標本 sの影響を受けて、形状を正しく再現できな!、 場合がある。しかし、この再計算工程においては、ノイズ性の標本 Sはアウトライアとし て除去されているため、正確な輪郭形状の再現が可能となる。
[0069] 〔相対配置演算工程〕
図 11は、図 2の場合に検出される駐車車両 20の表面形状情報 (標本群 S)をヮー ルド座標に投影した例を示す説明図である。ここで、ワールド座標とは、 XY二次元座 標の基準座標である。相対配置演算手段 3は、ワールド座標上において、現在位置 を含む車両 10の移動軌跡 LCと、駐車車両 20の表面形状情報である標本群 Sとの 相対配置関係が定義される。
[0070] 一方、上述したように、標本群 Sに基づいて輪郭形状が認識されている。図 12は、 認識された駐車車両 20の前端又は後端の輪郭形状から駐車車両 20を認定する方 法を示す説明図である。図 12に示すように、輪郭形状 Eに基づいて駐車車両 20の 形状が推定される。例えば、図に示すように、輪郭形状 Eが駐車車両の前端、又は後 端の形状として認識された場合は、以下のように駐車車両 20の形状を推定する。輪 郭形状 Eの中央部における接線に直交する線 (法線)を中心線 CLとし、この中心線 CLの方向を駐車車両 20の方向 Dとする。即ち、この場合、駐車車両 20の長軸方向 の中心である車軸が中心線 CLであるとする。駐車車両 20の全幅は、検出した輪郭 形状 Eより定まり、駐車車両 20の全長は長軸方向に所定の全長値 FLであると定義 する。この全長は、正確に検出される必要はなぐ一般的な車両の全長である 4〜5 m程度の値に設定すればよい。距離センサ 1は、対面する駐車車両 20の前端部や 後端部の表面形状は良好に検出可能である。つまり、駐車車両 20の全幅は正確に 検出できる。しかし、奥行き方向である全長を正確に検出することは、困難である。従 つて、標準的な車両の全長を用いている。
[0071] また、図 13に示すように、輪郭形状 Eが駐車車両 20の側面の形状として認識され た場合は、以下のように駐車車両 20の形状を推定する。輪郭形状 Eの中央部分にお ける接線に直交する線 (法線)を中心線 CLとし、この中心線 CLに直交する方向 Dを 駐車車両 20の方向とする。駐車車両 20の全長は、検出した輪郭形状 Eより定まる。 駐車車両 20の全幅は所定の全幅値 FWであると定義する。上述したように、この全幅 は、正確に検出される必要はなぐ一般的な車両の全幅である 1. 6〜1. 8m程度の 値に設定すればよい。
[0072] 〔駐車空間検出工程〕
このようにして、ワールド座標上において、車両 10と駐車車両 20との相対配置関係 がわかり、駐車車両 20の形状が推定できる。従って、図 14に示すように車両 10の駐 車空間 PEがワールド座標上において検出される。図 14に実線で示すように、ワール ド座標上で正確に対応付けられているのは、自車両である車両 10の形状、位置、方 向と、駐車車両 20a及び 20bの前端部の輪郭形状 Eである。しかし、図 12及び図 13 に基づいて説明したように、駐車車両 20a及び 20bの概略形状は、図 14に破線で示 すように推定されている。駐車空間検出手段 4は、駐車車両 20aと 20bとの間に挟ま れた空間力 車両 10を駐車させるために充分であるとワールド座標上で確認すると、 これを駐車空間 PEとして検出する。
[0073] 〔駐車基準設定工程〕
駐車空間 PEが検出されると、駐車基準設定手段 5が、この駐車空間 PEの範囲内 に車両 10を良好に駐車完了させるための駐車基準 Pを設定する。
図 15は、図 2に示したようないわゆる車庫入れ駐車(Garage Parking)の場合の駐車 基準 Pの一例である。駐車空間 PEの進入口側に、駐車空間 PEの進入口側の一辺と ほぼ平行して、第一基準線 P1が設けられている。そして、この第一基準線 P1に直交 した第二基準線 P2が所定位置に設けられている。図 15に示した例では、駐車空間 PEの中央を通るように第二基準線 P2が設けられて 、る。
[0074] ここで、車両 10の運転者は、第二基準線 P2が車両 10の長軸方向の中心線である 車軸 Cと一致するように後退運転する。そして、運転者は、第一基準線 P1を車両 10 の長軸方向の前端部 Fと一致させて、車両 10の駐車を完了する。そうすると、運転者 は、車両 10を駐車空間 PE内に良好に駐車させることができる。つまり、駐車基準 Pに 従って運転操作することによって、運転者が良好に車両 10を駐車させることができる 駐車支援装置を得ることができる。
[0075] 尚、もちろん、駐車基準 Pは、上記の例に限るものではない。車両 10の全長を考慮 して、適宜第一基準線 P1の位置を変更してもよい。車両 10の全長が短ければ、駐 車空間 PEの進入ロカ 遠ざけてよい。逆に車両 10の全長が長い場合には、駐車空 間 PEの進入口側に近づけてもよい。車両 10が駐車空間 PEからはみ出すことが無け れば充分であるので、方形状である駐車空間 PEの進入口側の一辺と一致するもの であってもよい。
[0076] また、第二基準線 P2も適宜、位置を変更してよい。例えば、出庫の方向によって内 輪差を生じる側を広く空けたい場合には、第二基準線 P2を駐車空間 PEの中央から ずらしてもよい。つまり、図 16に示すように、出庫する際に必要となる駐車車両 20と 車両 10との間の余裕空間 Mを駐車空間 PEの中に設ける。そして、この余裕空間 M を除いた駐車空間 PEに対して、その中央に第二基準線 P2を設けてもよい。また、余 裕空間 Mは、出庫の際に必要力否かに拘らず、運転席側を広く空けたい場合や、逆 に助手席側を広く空けた 、場合に設けてもょ 、。幼児や老人などの乗り降りに充分 な空間を確保したい場合に有効である。また、図 16に示す例において、余裕空間 M を駐車空間 PEの前後方向の何れかに設けて、第一基準線 P1を変更してもよい。例 えば、車両 10のトランクやカーゴルームから、車椅子、ベビーカーといった器具の出 し入れに充分な空間を確保したい場合に有効である。
[0077] 図 17は、図 4に示したようないわゆる縦列駐車 (Parallel Parking)の場合に設定され る駐車基準 Pの一例を示す図である。駐車空間 PEの進入口側の一辺とほぼ平行し て、駐車空間 PEの進入口側に第一基準線 P1が設けられている。そして、この第一 基準線 P1に直交した第二基準線 P2が所定位置に設けられている。図 17に示した 例では、車両 10が駐車空間 PEから出庫する際のゆとりとして、駐車車両 20と車両 1 0との間に余裕空間 Mが設けられている。そして、この余裕空間 Mを除いた駐車空間 PEに対して、第二基準線 P2を設けている。図 17に示した例では、余裕空間 Mを除 V、た駐車空間 PEの一つの辺と一致するように第二基準線 P2が設けられて 、る。
[0078] ここで、車両 10の運転者は、第一基準線 P1が車両 10の長軸方向の側端部 Tと一 致するように後退運転する。そして、運転者は、第二基準線 P2を車両 10の長軸方向 の前端部 Fと一致させて、車両 10の駐駐を完了する。そうすると、運転者は、車両 10 を駐車空間 PE内に良好に駐車することができる。つまり、駐車基準 Pに従って運転 操作することによって、運転者が良好に車両 10を駐車させることができる駐車支援装 置を得ることができる。また、第一基準線 P1を設定した上で、車両 10の車軸 Cと一致 する第三基準線を設定してもよい。この場合、運転者は、上述した車庫入れ (Garage Parking)と同様に、第三基準線が車両 10の長軸方向の中心線である車軸 Cと一致 するように後退運転することができる。基準線 Pに基づいて、車両 10のモニタ装置 7a にガイド線を示すことができる。この際、駐車方法に拘らず、車両 10の車軸 Cに対応 するガイド線が示されると、運転者にとって利便性の高いものとなる。尚、本例におい て、第三基準線は、第一基準線 P1を幾何学的に移動させたものに過ぎない。従って 、第三基準線を用いる本実施形態は、本発明の技術範囲に属するものである。
[0079] 〔運転者への報知〕
上述したように、モニタ装置 7aに駐車基準 Pに基づくガイド線を示すことができる。 以下に、運転支援の結果を運転者に報知するその他の例を示す。図 18は、図 4に示 したような縦列駐車 (Parallel Parking)の場合に、検出した駐車空間 PEをモニタ装置 7aに表示して運転者に報知する例を示している。これは、車両 10に搭載されたバッ クカメラ(不図示)により撮影された車両周辺画像に検出した駐車空間 PEを重畳して 表示する例である。運転者は、モニタ装置 7aを見て、駐車可能な空間が存在するこ とを確認することができる。また、この画面上にさらに、駐車基準 Pに基づくガイド線を 表示させてもよい。
[0080] 図 19及び図 20は、運転者によって運転される車両 10の予想移動軌跡 ELを算出 し、駐車車両 20との干渉の有無を運転者に報知する例を示すものである。車両 10の 予想移動軌跡 ELは、車輪速センサ 6aや、舵角センサ 6bなどの移動状態検出手段 6 による検出結果に基づいて、駐車支援 ECU9が演算する。図 19は図 2に示したよう な車庫入れ駐車(Garage Parking)の場合、図 20は図 4に示したような縦列駐車(Para llel Parking)の場合の例である。
[0081] 上述したように、駐車車両 20の端部のうち、車両 10に近い部分については、その 輪郭形状 E力 ほぼ忠実に検出されている。従って、運転支援 ECU9は、車両 10と 駐車車両 20とが干渉する可能性について、精度良く判定することができる。判定の 結果、車両 10と駐車車両 20とが干渉する可能性がある場合には、モニタ装置 7aや ブザー 7bを介して、それを運転者に報知する。また、ステアリング制御部 8aに伝達し て舵角を変更させたり、ブレーキ制御部 8bに伝達して車両 10を減速させたり、停止 させたりしてちよい。
[0082] 以上、説明したように本発明によって、駐車区画周辺の障害物を精度良く検出し、 障害物に接触することなく駐車可能な駐車空間を検出して、良好に運転操作を支援 する駐車支援装置を提供することができる。
産業上の利用可能性
[0083] 本発明は、車両の運転支援装置、駐車支援装置、車両に搭載されるナビゲーショ ンシステムなどに適用することができる。
図面の簡単な説明
[0084] [図 1]本発明に係る駐車支援装置の構成を模式的に示すブロック図
[図 2]本発明の駐車支援装置を搭載した車両が駐車車両の表面形状情報を検出す る例を示す説明図
[図 3]図 2の場合に検出される駐車車両の表面形状情報の例を示す説明図
[図 4]本発明の駐車支援装置を搭載した車両が駐車車両の表面形状情報を検出す る別の例を示す説明図
[図 5]図 4の場合に検出される駐車車両の表面形状情報の例を示す説明図
[図 6]表面形状情報の測定結果を二次元直交座標上にマッピングした散布図
[図 7]図 6の散布図に示す標本群から任意に抽出した標本より定めた第一の形状モ デルと標本群との一致度を演算する説明図
[図 8]図 6の散布図に示す標本群から任意に抽出した標本より定めた第二の形状モ デルと標本群との一致度を演算する説明図
[図 9]図 6の散布図に示す標本群カゝら輪郭形状を認識する方法の一例を説明するフ
Π' ~チャ^ ~卜
[図 10]図 6の散布図に示す標本群から輪郭形状を認識する方法の他の例を説明す るフローチャート
[図 11]図 2の場合に検出される駐車車両の表面形状情報をワールド座標に投影した 例を示す説明図
[図 12]認識された駐車車両の前端又は後端の輪郭形状から駐車車両を認定する方 法を示す説明図
[図 13]認識された駐車車両の側面の輪郭形状から駐車車両を認定する方法を示す 説明図
[図 14]ワールド座標において駐車空間を検出する例を示す説明図
[図 15]駐車空間において駐車基準を設定する例を示す説明図
[図 16]図 15に示す例の変形例を示す説明図
[図 17]駐車空間において駐車基準を設定する別の例を示す説明図
[図 18]図 16に示す駐車空間をモニタ装置に表示する一例を示す説明図
[図 19]自車両の予想移動軌跡と駐車車両とが干渉する場合の例を示す説明図
[図 20]自車両の予想移動軌跡と駐車車両とが干渉する場合の他の例を示す説明図 符号の説明
1:距離センサ (表面形状検出手段)
2:形状認識手段
(2a:標本記憶部、 2b:標本抽出部、 2c:形状モデル設定部、 2d:—致度演算部、 2e:判定部)
3:相対配置演算手段
4:駐車空間検出手段
5:駐車基準設定手段
6:移動状態検出手段
9:駐車支援 ECU
10:車両
20:駐車車両 (静止物体)
PE:駐車空間
P:駐車基準 (P1:第一基準線、 P2:第二基準線)
s:標本 (表面形状情報)
S:標本群 (表面形状情報)

Claims

請求の範囲
[1] 車両の周辺に存在する静止物体を検出して前記車両の駐車を支援する駐車支援 装置において、
前記静止物体の表面形状情報を検出する表面形状検出手段と、
前記表面形状情報に基づいて前記静止物体の輪郭形状を認識する形状認識手 段と、
前記車両の移動状態を検出する移動状態検出手段と、
前記表面形状情報と前記輪郭形状と前記移動状態とに基づ!/、て、前記車両と前記 静止物体との相対的な配置関係を演算する相対配置演算手段と、
前記配置関係に基づいて前記車両が駐車可能な駐車空間を検出する駐車空間 検出手段と、を備える駐車支援装置。
[2] 前記表面形状検出手段は、前記車両の移動に伴って前記表面形状情報を検出す るものであり、前記形状認識手段は、前記表面形状情報と前記移動状態とに基づい て前記輪郭形状を認識する請求項 1に記載の駐車支援装置。
[3] 前記駐車空間を方形状にすると共に、前記車両を前記駐車空間の範囲内に駐車 させるための駐車基準を設定する駐車基準設定手段が備えられ、
前記駐車基準設定手段は、前記駐車空間に前記車両が進入を開始する進入口側 の一辺に平行して前記駐車空間の前記進入口側に設けられた第一基準線と、この 第一基準線に直交して所定位置に設けられた第二基準線と、を前記駐車基準として 設定するものであり、
これら第一基準線及び第二基準線は、前記車両の長軸方向の前後何れかの端部 が前記第一基準線と一致し、前記車両の長軸方向の中心線である車軸が前記第二 基準線と一致した状態で駐車を完了するように設定される請求項 1に記載の駐車支 援装置。
[4] 前記駐車空間を方形状にすると共に、前記車両を前記駐車空間の範囲内に駐車 させるための駐車基準を設定する駐車基準設定手段が備えられ、
前記駐車基準設定手段は、前記駐車空間に前記車両が進入を開始する進入口側 の一辺に平行して前記駐車空間の前記進入口側に設けられた第一基準線と、この 第一基準線に直交して所定位置に設けられた第二基準線と、を前記駐車基準として 設定するものであり、
これら第一基準線及び第二基準線は、前記車両の車幅方向の左右何れかの端部 が前記第一基準線と一致し、前記車両の長軸方向の前後何れかの端部が前記第二 基準線と一致した状態で駐車を完了するように設定される請求項 1に記載の駐車支 援装置。
[5] 前記第二基準線は、前記駐車空間の中央を通るように定められる請求項 4に記載 の駐車支援装置。
[6] 前記車両が前記駐車空間より入出庫する際に必要となる前記静止物体と前記車両 との間の余裕空間が前記駐車空間内に設けられ、前記第二基準線は、前記余裕空 間を除いた前記駐車空間に対して定められる請求項 3に記載の駐車支援装置。
[7] 前記余裕空間は、駐車時に運転席側ある ヽは助手席側にぉ ヽて確保した ヽ広さ に応じて変更自在である請求項 6に記載の駐車支援装置。
[8] 前記形状認識手段は、
前記表面形状情報を構成する標本群から任意の標本を抽出する標本抽出部と、 抽出した前記標本に基づいて形状モデルを定める形状モデル設定部と、 前記形状モデルに対する前記標本群の一致度を演算する一致度演算部と、 この演算結果に基づ 、て、前記形状モデルが前記標本群に適合する力否かを判 定する判定部と、を有する請求項 1〜5の何れか一項に記載の駐車支援装置。
[9] 前記静止物体は、駐車車両である請求項 1に記載の駐車支援装置。
[10] 前記静止物体は、駐車車両であり、前記表面形状検出手段は、前記表面形状情 報として、前記駐車車両のバンパーあるいは前記駐車車両の側面の何れかを検出 する請求項 2に記載の駐車支援装置。
PCT/JP2006/314731 2005-07-27 2006-07-26 駐車支援装置 WO2007013489A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP06781643A EP1908641A1 (en) 2005-07-27 2006-07-26 Parking assistance device
US11/996,571 US20090121899A1 (en) 2005-07-27 2006-07-26 Parking assistance device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005217369A JP2007030700A (ja) 2005-07-27 2005-07-27 駐車支援装置
JP2005-217369 2005-07-27

Publications (1)

Publication Number Publication Date
WO2007013489A1 true WO2007013489A1 (ja) 2007-02-01

Family

ID=37683379

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/314731 WO2007013489A1 (ja) 2005-07-27 2006-07-26 駐車支援装置

Country Status (4)

Country Link
US (1) US20090121899A1 (ja)
EP (1) EP1908641A1 (ja)
JP (1) JP2007030700A (ja)
WO (1) WO2007013489A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009119577A1 (ja) * 2008-03-25 2009-10-01 パナソニック電工 株式会社 駐車空間監視装置
JP2014034321A (ja) * 2012-08-09 2014-02-24 Denso Corp 駐車支援装置
WO2014091858A1 (ja) * 2012-12-12 2014-06-19 本田技研工業株式会社 駐車スペース検出装置
US8988250B2 (en) 2007-10-01 2015-03-24 Nissan Motor Co., Ltd. Parking assistant and parking assisting method

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4662147B2 (ja) 2005-10-20 2011-03-30 アイシン精機株式会社 物体認識装置
JP4618506B2 (ja) * 2005-10-20 2011-01-26 アイシン精機株式会社 物体認識装置
JP5088074B2 (ja) * 2007-10-01 2012-12-05 日産自動車株式会社 駐車支援装置及び方法
KR101104609B1 (ko) * 2007-10-26 2012-01-12 주식회사 만도 차량의 목표주차위치 인식 방법 및 그 시스템
DE102008003662A1 (de) * 2008-01-09 2009-07-16 Robert Bosch Gmbh Verfahren und Vorrichtung zum Anzeigen der Umgebung eines Fahrzeugs
KR101244610B1 (ko) 2008-11-04 2013-03-25 주식회사 만도 주차 공간의 곡률을 반영한 주차 위치 결정 방법 및 주차 보조 장치
DE102008058652B4 (de) * 2008-11-22 2020-06-18 HELLA GmbH & Co. KGaA Verfahren zur Berechnung der Einparktrajektorie eines Kraftfahrzeugs und Fahrzeugassistenzvorrichtung
JP5109950B2 (ja) * 2008-12-02 2012-12-26 トヨタ自動車株式会社 駐車支援装置
JP5403330B2 (ja) 2009-02-25 2014-01-29 アイシン精機株式会社 駐車支援装置
JP5523448B2 (ja) * 2009-04-23 2014-06-18 パナソニック株式会社 運転支援システム、情報表示装置、及び情報表示プログラム
JP5443886B2 (ja) * 2009-07-31 2014-03-19 クラリオン株式会社 駐車空間認識装置
US8457844B2 (en) 2010-04-12 2013-06-04 Delphi Technologies, Inc. Parallel parking assistant system and method thereof
JP5659602B2 (ja) * 2010-07-26 2015-01-28 株式会社日本自動車部品総合研究所 駐車空間検出装置
DE102010040591B4 (de) * 2010-09-10 2020-07-02 Robert Bosch Gmbh Einparkassistent zur Unterstützung eines Einparkvorgangs bei einer Mehrzahl vorhandener Parklücken
JP5617643B2 (ja) * 2011-01-07 2014-11-05 株式会社日本自動車部品総合研究所 駐車空間検出装置
DE102011003881A1 (de) * 2011-02-09 2012-08-09 Robert Bosch Gmbh Verfahren zur Unterstützung eines Fahrers eines Kraftfahrzeugs
DE102011113916A1 (de) * 2011-09-21 2013-03-21 Volkswagen Aktiengesellschaft Verfahren zur Klassifikation von Parkszenarien für ein Einparksystem eines Kraftfahrzeugs
KR101316501B1 (ko) * 2011-10-14 2013-10-10 현대자동차주식회사 메쉬형 공간 해석기법을 이용한 주차 공간 탐지방법 및 그 시스템
JP5786775B2 (ja) * 2012-03-16 2015-09-30 株式会社デンソー 駐車支援装置
KR20130118116A (ko) * 2012-04-19 2013-10-29 현대모비스 주식회사 자동 주차 보조 시스템에서 장애물 충돌 회피 장치 및 방법
JP5660073B2 (ja) * 2012-04-19 2015-01-28 トヨタ自動車株式会社 駐車支援装置、駐車支援方法、及び駐車支援プログラム
KR101374878B1 (ko) * 2012-05-25 2014-03-18 주식회사 만도 차량의 주차제어시스템 및 그를 이용한 주차 제어 방법
JP5991382B2 (ja) * 2012-11-27 2016-09-14 日産自動車株式会社 車両用加速抑制装置及び車両用加速抑制方法
KR101449176B1 (ko) * 2012-12-20 2014-10-08 현대오트론 주식회사 평행 주차 공간 탐지 시스템 및 이를 사용한 공간 탐지 방법
KR101438954B1 (ko) 2012-12-20 2014-09-11 현대오트론 주식회사 평행 주차 공간 탐지 시스템 및 이를 사용한 공간 탐지 방법
KR101406072B1 (ko) 2012-12-20 2014-06-11 현대오트론 주식회사 평행 주차 공간용 장애물 검출 시스템 및 이를 사용한 장애물 검출 방법
KR101477231B1 (ko) * 2013-05-10 2014-12-29 현대모비스 주식회사 차량 출차 보조 방법 및 장치와 이를 이용한 시스템
US10328932B2 (en) * 2014-06-02 2019-06-25 Magna Electronics Inc. Parking assist system with annotated map generation
JP6316161B2 (ja) * 2014-09-29 2018-04-25 クラリオン株式会社 車載用画像処理装置
US9834141B2 (en) 2014-10-28 2017-12-05 Nissan North America, Inc. Vehicle object detection system
US9725040B2 (en) 2014-10-28 2017-08-08 Nissan North America, Inc. Vehicle object detection system
US9880253B2 (en) 2014-10-28 2018-01-30 Nissan North America, Inc. Vehicle object monitoring system
JP2016084094A (ja) 2014-10-28 2016-05-19 アイシン精機株式会社 駐車支援装置
JP6365238B2 (ja) * 2014-10-29 2018-08-01 株式会社デンソー 駐車支援装置
US10214206B2 (en) * 2015-07-13 2019-02-26 Magna Electronics Inc. Parking assist system for vehicle
JP6272582B2 (ja) * 2015-10-06 2018-01-31 三菱電機株式会社 駐車形態判定装置
RU2700635C1 (ru) * 2015-10-22 2019-09-18 Ниссан Мотор Ко., Лтд. Способ и устройство обнаружения мест для парковки
FR3043049B1 (fr) * 2015-11-03 2017-12-08 Newtl Dispositif d'assistance pour les manœuvres d'accostage au niveau d'un quai
US10703360B2 (en) * 2015-12-17 2020-07-07 Nissan Motor Co., Ltd. Parking support method and device
US10635909B2 (en) * 2015-12-30 2020-04-28 Texas Instruments Incorporated Vehicle control with efficient iterative triangulation
KR102488512B1 (ko) * 2016-04-15 2023-01-13 주식회사 에이치엘클레무브 주차 지원 장치 및 그의 주차 제어 방법
KR101916515B1 (ko) * 2016-07-20 2018-11-07 현대자동차주식회사 원격 전자동 주차지원시스템에서의 주차모드 안내 방법
US10606272B2 (en) * 2016-07-20 2020-03-31 Hyundai Motor Company Method for guiding parking mode in remote automatic parking support system
CN110178047A (zh) * 2017-01-18 2019-08-27 三菱电机株式会社 停车辅助装置
US10810882B2 (en) * 2017-06-29 2020-10-20 Hall Labs Llc Parking assist apparatus
CN108520637B (zh) * 2018-03-30 2020-01-24 合肥城市泊车投资管理有限公司 一种具备停车诱导功能的智能化停车系统
CN110687539B (zh) * 2018-07-06 2021-04-13 广州小鹏汽车科技有限公司 一种车位检测方法、装置、介质和设备
KR102452556B1 (ko) * 2018-08-28 2022-10-07 현대자동차주식회사 차량 주차 제어 장치, 그를 포함한 시스템 및 그 방법
JP7090576B2 (ja) * 2019-03-29 2022-06-24 本田技研工業株式会社 車両制御システム
JP6890744B2 (ja) * 2019-05-10 2021-06-18 三菱電機株式会社 駐車形態判定装置
JP7205701B2 (ja) * 2019-10-11 2023-01-17 トヨタ自動車株式会社 車両警報装置
DE102020215298A1 (de) 2020-12-03 2022-06-09 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und System zur Fahrerassistenz, wobei freie Parkplätze in einer Fahrzeugumgebung erkannt werden
CN117872384A (zh) * 2024-03-12 2024-04-12 合肥工业大学 车载雷达侧边障碍物识别及车位角点定位方法和系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11339194A (ja) * 1998-05-28 1999-12-10 Aisin Seiki Co Ltd 駐車補助装置
JP2003063337A (ja) * 2001-08-24 2003-03-05 Nissan Motor Co Ltd 駐車支援装置
JP2004062380A (ja) * 2002-07-26 2004-02-26 Nissan Motor Co Ltd 車両用障害物接触判定装置
JP2004074930A (ja) * 2002-08-19 2004-03-11 Mitsubishi Motors Corp 運転支援装置付き車両
JP2004108944A (ja) * 2002-09-18 2004-04-08 Nissan Motor Co Ltd 障害物検出装置
JP2005132180A (ja) * 2003-10-29 2005-05-26 Toyota Industries Corp 駐車支援装置
JP2005193698A (ja) * 2003-12-26 2005-07-21 Mitsubishi Motors Corp 駐車支援装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7366595B1 (en) * 1999-06-25 2008-04-29 Seiko Epson Corporation Vehicle drive assist system
DE10146712A1 (de) * 2001-09-21 2003-04-10 Bayerische Motoren Werke Ag Einparkhilfsvorrichtung für Kraftfahrzeuge
JP3977368B2 (ja) * 2004-09-30 2007-09-19 クラリオン株式会社 駐車支援システム
JP4386082B2 (ja) * 2007-02-20 2009-12-16 トヨタ自動車株式会社 車両走行支援装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11339194A (ja) * 1998-05-28 1999-12-10 Aisin Seiki Co Ltd 駐車補助装置
JP2003063337A (ja) * 2001-08-24 2003-03-05 Nissan Motor Co Ltd 駐車支援装置
JP2004062380A (ja) * 2002-07-26 2004-02-26 Nissan Motor Co Ltd 車両用障害物接触判定装置
JP2004074930A (ja) * 2002-08-19 2004-03-11 Mitsubishi Motors Corp 運転支援装置付き車両
JP2004108944A (ja) * 2002-09-18 2004-04-08 Nissan Motor Co Ltd 障害物検出装置
JP2005132180A (ja) * 2003-10-29 2005-05-26 Toyota Industries Corp 駐車支援装置
JP2005193698A (ja) * 2003-12-26 2005-07-21 Mitsubishi Motors Corp 駐車支援装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8988250B2 (en) 2007-10-01 2015-03-24 Nissan Motor Co., Ltd. Parking assistant and parking assisting method
WO2009119577A1 (ja) * 2008-03-25 2009-10-01 パナソニック電工 株式会社 駐車空間監視装置
JP2009234294A (ja) * 2008-03-25 2009-10-15 Panasonic Electric Works Co Ltd 駐車空間監視装置
US8742947B2 (en) 2008-03-25 2014-06-03 Panasonic Corporation Parking space monitoring device
DE112009000681B4 (de) * 2008-03-25 2017-01-19 Panasonic Intellectual Property Management Co., Ltd. Parklückenüberwachungsvorrichtung
JP2014034321A (ja) * 2012-08-09 2014-02-24 Denso Corp 駐車支援装置
WO2014091858A1 (ja) * 2012-12-12 2014-06-19 本田技研工業株式会社 駐車スペース検出装置
JP5909289B2 (ja) * 2012-12-12 2016-04-26 本田技研工業株式会社 駐車スペース検出装置
US9613533B2 (en) 2012-12-12 2017-04-04 Honda Motor Co., Ltd. Parking space detector

Also Published As

Publication number Publication date
US20090121899A1 (en) 2009-05-14
JP2007030700A (ja) 2007-02-08
EP1908641A1 (en) 2008-04-09

Similar Documents

Publication Publication Date Title
WO2007013489A1 (ja) 駐車支援装置
US9815460B2 (en) Method and device for safe parking of a vehicle
KR101889085B1 (ko) 차량 궤적을 이용한 통행 정보 생성 장치 및 그 방법
WO2006090736A1 (ja) 物体認識装置
CN102483457B (zh) 停车辅助装置
JP4600760B2 (ja) 障害物検出装置
WO2018105179A1 (ja) 車載用画像処理装置
CN110867132B (zh) 环境感知的方法、装置、电子设备和计算机可读存储介质
US20050002558A1 (en) Camera based position recognition for a road vehicle
US20140156178A1 (en) Road marker recognition device and method
CN104859563A (zh) 车道偏离预警方法和系统
JP2002243857A (ja) 周囲物体認識装置
JP2002228734A (ja) 周囲物体認識装置
JP2022502642A (ja) 移動手段周辺の物体が移動手段の運転操作に及ぼす影響を評価する方法
KR20140076866A (ko) 선행차량의 거동을 이용한 주행 차로의 곡률 측정 방법 및 장치
US8031908B2 (en) Object recognizing apparatus including profile shape determining section
JP2006234493A (ja) 物体認識装置及び方法
CN109637148B (zh) 车载鸣笛监控系统、方法、存储介质及设备
JP2012234373A (ja) 運転支援装置
CN109195849B (zh) 摄像装置
JP4618506B2 (ja) 物体認識装置
WO2018179965A1 (ja) 障害物検知装置
JP6287106B2 (ja) 運転支援装置及び記号登録装置
JP2006276985A (ja) 物体認識方法及び装置
JP2006276984A (ja) 物体認識方法及び装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006781643

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11996571

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE