WO2018116686A1 - 駐車支援装置 - Google Patents

駐車支援装置 Download PDF

Info

Publication number
WO2018116686A1
WO2018116686A1 PCT/JP2017/040494 JP2017040494W WO2018116686A1 WO 2018116686 A1 WO2018116686 A1 WO 2018116686A1 JP 2017040494 W JP2017040494 W JP 2017040494W WO 2018116686 A1 WO2018116686 A1 WO 2018116686A1
Authority
WO
WIPO (PCT)
Prior art keywords
parking
vehicle
cpu
positional relationship
image
Prior art date
Application number
PCT/JP2017/040494
Other languages
English (en)
French (fr)
Inventor
前田 優
充保 松浦
博彦 柳川
大塚 秀樹
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to DE112017006366.3T priority Critical patent/DE112017006366T5/de
Publication of WO2018116686A1 publication Critical patent/WO2018116686A1/ja
Priority to US16/442,799 priority patent/US10885356B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Definitions

  • This disclosure relates to a parking assistance device.
  • the apparatus described in Japanese Patent Application Laid-Open No. 2012-1081 takes an image around the vehicle with a camera attached to the vehicle, detects a white line based on the taken image, and calculates the size of the parking frame from the detected white line. It is determined whether the parking frame is a parking frame that can be parked in parallel or a parking frame that can be parked in parallel.
  • a partition line such as a white line for defining a parking frame may not be detected well.
  • the white line becomes thin due to wear, etc., when a new white line is formed on the thinned old white line and both parking modes are different, when the rope is laid on the ground instead of the white line, In the first place, when a white line or the like is not provided. Or the parking aspect different from the parking aspect based on the partition line provided clearly beforehand may be set temporarily. In these cases, the device described in Japanese Patent Application Laid-Open No. 2012-1081 cannot determine the parking mode.
  • the parking support device is configured to support the parking of the vehicle in the parking space by being mounted on the vehicle.
  • This parking assistance device An imaging unit provided to acquire image information corresponding to an image around the vehicle; An image processing unit provided to recognize the feature shape in the image by processing the image information acquired by the imaging unit; An obstacle detection unit provided to acquire positional relationship information corresponding to a positional relationship between the vehicle and an obstacle existing around the parking space; Based on the feature shape recognized by the image processing unit and the positional relationship information acquired by the obstacle detection unit, the parking mode of the vehicle in the parking space includes parallel parking and parallel parking.
  • a parking mode selection unit provided to select from among a plurality of mode candidates; It has.
  • a vehicle 10 is a so-called four-wheeled vehicle and includes a vehicle body 11 having a substantially rectangular shape in plan view.
  • a direction orthogonal to the vehicle center line L and defining the vehicle width of the vehicle 10 is referred to as a “vehicle width direction”.
  • the vehicle width direction is the left-right direction in FIG.
  • one of the directions parallel to the vehicle center line L ie, the upward direction in FIG. 1 is referred to as “front direction”, and the other (ie, the downward direction in FIG. 1) is referred to as “rear direction”.
  • the front direction side of the vehicle 10 and the vehicle body 11 is referred to as “front side”, and the opposite side is referred to as “rear side”.
  • the right side in FIG. 1 of the vehicle 10 and the vehicle body 11 is simply referred to as “right side”, and the left side in FIG. 1 is simply referred to as “left side”.
  • a front bumper 13 is attached to the front surface portion 12 which is the front end portion of the vehicle body 11.
  • a rear bumper 15 is attached to a rear surface portion 14 which is a rear end portion of the vehicle body 11.
  • a door panel 17 is provided on the side surface 16 of the vehicle body 11. In the specific example shown in FIG. 1, a total of four door panels 17 are provided, two on each side.
  • a door mirror 18 is attached to the front door panel 17.
  • the parking assist device 20 is mounted on the vehicle 10.
  • the parking assistance device 20 is configured to assist the parking of the vehicle 10 in the parking space PS. See Fig. 2 for the parking space PS.
  • the parking assist device 20 includes a distance measuring sensor 21, an imaging unit 22, a vehicle speed sensor 23, a shift position sensor 24, a steering angle sensor 25, a control unit 26, and a display 27. Yes.
  • the detail of each part which comprises the parking assistance apparatus 20 is demonstrated.
  • the electrical connection relationship between each part which comprises the parking assistance apparatus 20 is abbreviate
  • the distance measuring sensor 21 transmits the exploration wave WS toward the outside of the vehicle 10 and includes a reflected wave of the exploration wave WS by the detected obstacle DO and has an intensity corresponding to the distance between the vehicle 10 and the detected obstacle DO. It is provided to receive the reception wave WR.
  • the distance measuring sensor 21 is a so-called ultrasonic sensor, and is configured to transmit a search wave WS that is an ultrasonic wave and to receive a received wave WR including the ultrasonic wave. ing.
  • the distance measuring sensor 21 is electrically connected to the control unit 26.
  • the distance measuring sensor 21 transmits a search wave WS under the control of the control unit 26 and generates a signal corresponding to the reception result of the received wave WR (hereinafter referred to as “reception information”) to the control unit 26. It is supposed to send.
  • a plurality of distance measuring sensors 21 are attached to the vehicle body 11. That is, the front bumper 13 is equipped with a first front sonar SF1, a second front sonar SF2, a third front sonar SF3, and a fourth front sonar SF4 as distance measuring sensors 21.
  • the rear bumper 15 is equipped with a first rear sonar SR1, a second rear sonar SR2, a third rear sonar SR3, and a fourth rear sonar SR4 as distance measuring sensors 21.
  • a first side sonar SS 1, a second side sonar SS 2, a third side sonar SS 3, and a fourth side sonar SS 4 are mounted on the side surface portion 16 of the vehicle body 11 as distance measuring sensors 21.
  • the first front sonar SF1 is arranged at the left front corner of the vehicle body 11.
  • the second front sonar SF ⁇ b> 2 is disposed at the right front corner of the vehicle body 11.
  • the first front sonar SF1 and the second front sonar SF2 are provided symmetrically with respect to the vehicle center line L.
  • the third front sonar SF3 is disposed between the first front sonar SF1 and the vehicle center line L.
  • the fourth front sonar SF4 is disposed between the second front sonar SF2 and the vehicle center line L.
  • the third front sonar SF3 and the fourth front sonar SF4 are provided symmetrically with respect to the vehicle center line L.
  • the first rear sonar SR1 is disposed at the left rear corner of the vehicle body 11.
  • the second rear sonar SR ⁇ b> 2 is disposed at the right rear corner of the vehicle body 11.
  • the first rear sonar SR1 and the second rear sonar SR2 are provided symmetrically with respect to the vehicle center line L.
  • the third rear sonar SR3 is disposed between the first rear sonar SR1 and the vehicle center line L.
  • the fourth rear sonar SR4 is disposed between the second rear sonar SR2 and the vehicle center line L.
  • the third rear sonar SR3 and the fourth rear sonar SR4 are provided symmetrically with respect to the vehicle center line L.
  • the first side sonar SS1 is disposed between the left door mirror 18 and the first front sonar SF1 in the front-rear direction of the vehicle 10.
  • the second side sonar SS2 is arranged between the right door mirror 18 and the second front sonar SF2 in the front-rear direction of the vehicle 10.
  • the first side sonar SS1 and the second side sonar SS2 are provided symmetrically across the vehicle center line L.
  • the third side sonar SS3 is disposed between the left front door panel 17 and the first rear sonar SR1 in the longitudinal direction of the vehicle 10.
  • the fourth side sonar SS4 is disposed between the right front door panel 17 and the second rear sonar SR2 in the front-rear direction of the vehicle 10.
  • the third side sonar SS3 and the fourth side sonar SS4 are provided symmetrically with respect to the vehicle center line L.
  • the imaging unit 22 is a camera including an image sensor such as a charge coupled device, and is provided so as to acquire image information corresponding to an image around the vehicle 10.
  • the charge coupled device is also called a CCD.
  • the imaging unit 22 is electrically connected to the control unit 26. That is, the imaging unit 22 acquires image information under the control of the control unit 26 and transmits the acquired image information to the control unit 26.
  • the vehicle 10 is equipped with a plurality of imaging units 22, that is, a front camera CF, a rear camera CB, a left camera CL, and a right camera CR.
  • the front camera CF is attached to the front surface portion 12 of the vehicle body 11 so as to acquire image information corresponding to an image in front of the vehicle 10.
  • the rear camera CB is attached to the rear surface portion 14 of the vehicle body 11 so as to acquire image information corresponding to an image behind the vehicle 10.
  • the left camera CL is attached to the left door mirror 18 so as to acquire image information corresponding to an image on the left side of the vehicle 10.
  • the right camera CR is attached to the right door mirror 18 so as to acquire image information corresponding to an image on the right side of the vehicle 10.
  • the vehicle speed sensor 23, the shift position sensor 24, and the steering angle sensor 25 are electrically connected to the control unit 26.
  • the vehicle speed sensor 23 is provided to generate a signal corresponding to the traveling speed of the vehicle 10 and transmit the signal to the control unit 26.
  • the traveling speed of the vehicle 10 is simply referred to as “vehicle speed”.
  • the shift position sensor 24 is provided so as to generate a signal corresponding to the shift position and transmit it to the control unit 26.
  • the steering angle sensor 25 is provided so as to generate a signal corresponding to the steering angle and transmit it to the control unit 26.
  • the control unit 26 is provided inside the vehicle body 11.
  • the control unit 26 is a so-called in-vehicle microcomputer provided with a CPU, ROM, RAM, nonvolatile RAM (for example, flash ROM), etc. (not shown), and the CPU executes a program (that is, each routine described later) from the ROM or nonvolatile RAM. ) Is read out and executed, various control operations can be realized. That is, the control unit 26 is configured to perform a parking assist operation based on signals and information received from the distance measuring sensor 21, the imaging unit 22, the vehicle speed sensor 23, the shift position sensor 24, and the steering angle sensor 25. ing. In addition, various data (for example, initial values, look-up tables, maps, etc.) used when executing the program are stored in advance in the ROM or the nonvolatile RAM.
  • FIG. 2 shows an example of a situation in which the vehicle 10 is parked in parallel in the parking space PS, specifically, so-called “garage parking”.
  • the “garage parking” is an aspect of parallel parking, in which a plurality of parallel parking spaces PS or a plurality of parallel parking vehicles PV are arranged in the front-rear direction of each parking space PS or each parking vehicle PV ( That is, it refers to a parking mode in which the longitudinal direction is substantially orthogonal.
  • FIG. 3 shows an example of a situation in which the vehicle 10 is parked in parallel in the parking space PS.
  • the details of the control unit 26 will be described below with reference to FIGS. In FIGS. 2 and 3, the distance measurement sensor 21 and the imaging unit 22 are simplified for convenience of illustration.
  • the control unit 26 as an image processing unit recognizes feature points and feature shapes in the image by processing the image information acquired by the imaging unit 22.
  • the control unit 26 is configured to be able to recognize the three-dimensional shape of each object in the image by SFM processing.
  • SFM is an abbreviation for Structure from Motion.
  • the control unit 26 as an obstacle detection unit is configured to obtain positional relationship information corresponding to the positional relationship between an object such as an obstacle existing around the parking space PS and the vehicle 10 based on information received from the distance measuring sensor 21. To get.
  • a plurality of distance measuring sensors 21 are provided. Therefore, the control unit 26, in the case of an obstacle located at the left front of the plurality of distance measuring sensors 21, for example, the vehicle 10 based on the reception information in the first front sonar SF1 and the second front sonar SF2, As the positional relationship information, the information corresponding to the distance between the object and the vehicle 10 and the azimuth angle of the object from the vehicle 10 can be acquired.
  • the control unit 26 is configured to be able to acquire the relative position of the object with the vehicle 10.
  • the control unit 26 as a parking mode selection unit parks the vehicle 10 in the parking space PS. Are selected from a plurality of mode candidates including parallel parking and parallel parking. Specifically, the control unit 26 determines the likelihood of a mode candidate based on the positional relationship information of the detected obstacle DO and the vehicle stop CS including the acquired wall-shaped three-dimensional object WA, the white line WL as a feature shape, a parked vehicle By integrating the likelihood of the mode candidate based on the recognition result of at least one of the PV headlight HL, the license plate NP of the parked vehicle PV, and the tire TY of the parked vehicle PV, the parking mode It is comprised so that it may select from among aspect candidates.
  • the display 27 is disposed in the passenger compartment of the vehicle 10.
  • the display 27 is electrically connected to the control unit 26 so as to perform display accompanying the parking assist operation under the control of the control unit 26.
  • FIGS. 2 and 3 show the outline of the operation in the parking assistance apparatus 20 with reference to FIGS. 2 and 3.
  • (i) shows the case where the parking lot PL is provided with a white line WL and a car stop CS.
  • (ii) shows the case where the detection obstacle DO containing the wall-shaped three-dimensional object WA exists around the parking space PS in the parking lot PL.
  • (iii) shows a case where a feature shape such as a license plate NP can be recognized in the parked vehicle PV around the parking space PS.
  • the control unit 26 can select the parking mode of the vehicle 10 by processing the image information acquired by the imaging unit 22 and recognizing the white line WL.
  • a car stop CS may be provided instead of the white line WL or together with the white line WL.
  • the control unit 26 can select the parking mode of the vehicle 10 based on the positional relationship information of the car stop CS acquired using the distance measuring sensor 21. Specifically, when the positions of the plurality of car stops CS or the outer shape forming the longitudinal direction of the car stops CS are arranged in a substantially straight line along the traveling direction of the vehicle 10, the selection result of the parking mode of the vehicle 10 Can be garage parking. See (i) in FIG. On the other hand, when the outer shape forming the longitudinal direction of the vehicle stop CS is substantially orthogonal to the traveling direction of the vehicle 10, the parking mode selection result of the vehicle 10 can be parallel parking. See (i) in FIG.
  • a wall-shaped three-dimensional object WA exists between a plurality of adjacent parking spaces PS.
  • the wall-shaped three-dimensional object WA is, for example, a wall or a pillar in an indoor parking lot.
  • the control unit 26 can select the parking mode of the vehicle 10 based on the positional relationship information of the detected obstacle DO acquired using the distance measuring sensor 21.
  • the positional relationship information of the detected obstacle DO may include positional relationship information of the wall-shaped three-dimensional object WA and / or the parked vehicle PV adjacent thereto. Specifically, it is possible to select the parking mode of the vehicle 10 based on the positional relationship between the plurality of detected obstacles DO.
  • the control unit 26 can select the parking mode of the vehicle 10 by processing the image information acquired by the imaging unit 22 and recognizing the feature shape of the parked vehicle PV.
  • the parking mode selection result of the vehicle 10 can be garage parking.
  • the parking mode selection result of the vehicle 10 can be parallel parking. Refer to (iii) in FIG.
  • the selection result of the parking mode of the vehicle 10 can be garage parking.
  • the pair of tires TY are arranged so as to be substantially orthogonal to the traveling direction of the vehicle 10
  • the parking mode selection result of the vehicle 10 can be parallel parking. Refer to (iii) in FIG.
  • the selection result of the parking mode of the vehicle 10 can be garage parking.
  • the selection of the parking mode of the vehicle 10 is selected. The result can be parallel parking. Refer to (iii) in FIG.
  • the parking mode of the vehicle 10 can be selected based on the recognition results of the white line WL, the vehicle stop CS, the detected obstacle DO, the headlight HL, the tire TY, and the license plate NP.
  • the recognition results of these feature shapes do not necessarily correspond to the same parking mode. That is, for example, it may be difficult to recognize some feature shapes, or there may be a contradiction between the parking mode based on the recognition result of some feature shapes and the parking mode based on the recognition result of other feature shapes. obtain.
  • the white line WL for defining the parking space PS may become thin due to wear or the like.
  • a new white line WL for parking in a garage may be formed on an old white line WL for parallel parking.
  • normal parking by the white line WL may occur due to some circumstances, such as when temporary parking of a number exceeding the maximum capacity is expected due to a temporary event.
  • a parking mode different from the mode may be set. In these cases, it is difficult to select an appropriate mode candidate depending on the recognition result of the white line WL.
  • an elastic material such as a sponge may be attached to the wall-shaped three-dimensional object WA.
  • the parked vehicle PV parked close to the wall-shaped three-dimensional object WA may be covered with an object (for example, snow, a cover, etc.) having a low exploration wave reflectance. In these cases, the detection obstacle DO by the distance measuring sensor 21 may not be detected well.
  • the shape and position of the license plate NP in the parked vehicle PV are almost constant according to laws and regulations relating to automobiles.
  • the position of the tire TY may vary depending on the size of the parked vehicle PV, the position of the parked vehicle PV in the parking space PS, the steering state during parking, and the like.
  • the headlight HL has various shapes and positions depending on the vehicle type, and may be stored inside the vehicle body or shielded by vehicle body parts or the like during parking. For this reason, it is possible for the time being that the selection of the parking mode based on the recognition result of the license plate NP is most likely among various feature shapes in the parked vehicle PV.
  • the license plate NP is usually provided at the center in the vehicle width direction.
  • the front number plate NP is provided at a position slightly shifted from the center in the vehicle width direction to the right side, and to the left side when the light vehicle PV2 is viewed from the front.
  • the parked vehicle PV and the corresponding license plate NP are recognized on the side of the vehicle 10, and the license plate NP is slightly shifted to the left from the center in the vehicle width direction of the parked vehicle PV in the image.
  • the parked vehicle PV is a light vehicle PV2 parked in the garage in the back without the recognition of the headlight HL.
  • the position of the license plate NP on the front side in the parked vehicle PV may be special. Furthermore, depending on the lighting conditions of the parking lot PL, it may be difficult to recognize various feature shapes in the parked vehicle PV in the first place. In these cases, depending on the recognition result of various feature shapes in the parked vehicle PV, it is difficult to select an appropriate mode candidate.
  • the control unit 26 uses the likelihood of the parking mode based on the recognition result of the vehicle stop CS and the detected obstacle DO using the distance measuring sensor 21 and the imaging unit 22.
  • the likelihood of the parking mode based on other recognition results is integrated. Further, the control unit 26 selects the most probable parking mode candidate based on the integrated likelihood.
  • the control unit 26 After the selection of the parking mode is completed, the control unit 26 performs a parking support operation to the parking space PS of the recognized parking target, for example, a guidance operation by the display 27, an automatic steering operation, or the like. At this time, the control unit 26 can perform a favorable parking assist operation based on the recognition result using the distance measuring sensor 21 and the imaging unit 22. Specifically, for example, based on the recognition result of the license plate NP, the control unit 26 can cause the display 27 to display a warning that the recognized parking space PS of the parking target is dedicated to a light vehicle. It is. Alternatively, for example, the control unit 26 can estimate an area where the vehicle 10 can travel in the parking space PS based on the recognition result of the tire TY.
  • the CPU activates the surrounding structure recognition routine shown in FIG. 4 when a predetermined activation condition is satisfied.
  • the activation condition of the surrounding structure recognition routine includes, for example, that a predetermined time has elapsed after the system activation switch of the vehicle 10 is turned “ON” and that a predetermined activation timing of this routine has arrived.
  • the CPU executes the processes of S41 to S49 in order, and then ends this routine once.
  • the CPU acquires received information from the distance measuring sensor 21. Based on this received information, the CPU extracts a distance point in S42.
  • the distance point is a point in a predetermined spatial coordinate corresponding to the current reception information.
  • Each distance point has corresponding positional relationship information.
  • the positional relationship information is acquired based on information received by the plurality of distance measuring sensors 21. Therefore, in this specific example, the distance point can be a point in the three-dimensional map corresponding to the space around the vehicle 10.
  • the CPU recognizes the outer shape of the object existing around the vehicle 10 by connecting the distance points. Further, the CPU stores the recognition result in S43 in the nonvolatile RAM. See S44.
  • the CPU acquires image information from the imaging unit 22. Based on this image information, the CPU extracts feature points in S46. As described above, in the present embodiment, a plurality of imaging units 22 are provided. The control unit 26 can recognize the three-dimensional shape of each object in the image by the SFM process. Therefore, the feature point can be a point in the above three-dimensional map. Based on the feature points extracted in this way, the CPU recognizes the feature shape in S47. Subsequently, the CPU stores the recognition result in S47 in the nonvolatile RAM. See S48.
  • the CPU performs object recognition and feature shape recognition using the distance measuring sensor 21 in S41 to S44.
  • the CPU performs object recognition and feature shape recognition using the imaging unit 22.
  • the CPU integrates the recognition result using the distance measuring sensor 21 and the recognition result using the imaging unit 22 into three-dimensional objects and feature shapes in the space around the vehicle 10. Recognize. This three-dimensional recognition is called “structuring”.
  • the recognition result of the structured object and feature shape is stored in the nonvolatile RAM. Note that, as described above, integrating a plurality of types of recognition results may be referred to as “fusion”.
  • the CPU activates a surrounding structure recognition routine at predetermined time intervals while the vehicle 10 is traveling. Thereby, the three-dimensional information of the structured feature shape is stored in the nonvolatile RAM in time series.
  • the CPU activates the parking mode selection routine shown in FIGS. 5A to 5C when a predetermined activation condition is satisfied.
  • the activation condition of the parking mode selection routine includes, for example, that the storage amount of the recognition result in the non-volatile RAM has reached a predetermined amount, and the vehicle speed has reached less than the predetermined speed.
  • the CPU initializes the parallel parking likelihood LPP and the parallel parking likelihood LDP. Specifically, in S500, the CPU sets parallel parking likelihood LPP and parallel parking likelihood LDP to initial values LPP0 and LDP0, respectively. In this specific example, the initial values LPP0 and LDP0 are both 0.5.
  • the CPU determines whether or not the license plate NP is recognized, that is, whether or not the recognition result of the license plate NP is stored in the nonvolatile RAM.
  • the CPU advances the process to S512, and executes the process of S513 or S514 according to the determination result in S512.
  • the CPU skips the processing of S512 to S514.
  • the CPU sets the parallel parking likelihood LPP (NP) and the parallel parking likelihood LDP (NP) based on the recognition result of the license plate NP based on the lookup table or the map.
  • the lookup table or map used in S513 and S514 defines a correspondence relationship between at least one parameter corresponding to the recognition result of the license plate NP and a value corresponding to the parameter.
  • the parameters include, for example, the number of license plates NP recognized, the angle between the longitudinal direction of the license plates NP and the traveling direction of the vehicle 10, the arrangement direction of the plurality of license plates NP, the degree of distortion from the rectangle of each license plate NP, Etc.
  • the value corresponding to the parameter is a number greater than 0 and less than or equal to 1.
  • LPP (NP) and LDP (NP) are set so that LPP (NP)> LDP (NP).
  • LPP (NP) and LDP (NP) are set so that LPP (NP) ⁇ LDP (NP).
  • the CPU sets the parallel parking likelihood LPP (TY) and the parallel parking likelihood LDP (TY) based on the recognition result of the tire TY based on the lookup table or the map.
  • the lookup table or map used in S523 and S524 defines a correspondence relationship between at least one parameter corresponding to the tire TY recognition result and a value corresponding to the parameter.
  • the parameters include, for example, the number of recognized tires TY, the angle between the arrangement direction of the plurality of tires TY and the traveling direction of the vehicle 10, the oblateness in the elliptical shape that is the recognition result of each tire TY, and the recognition result of each tire TY.
  • the value corresponding to the parameter is a number greater than 0 and less than or equal to 1.
  • LPP (TY) and LDP (TY) are set so that LPP (TY)> LDP (TY).
  • LPP (TY) and LDP (TY) are set so that LPP (TY) ⁇ LDP (TY).
  • the CPU sets the parallel parking likelihood LPP (HL) and the parallel parking likelihood LDP (HL) based on the recognition result of the headlight HL based on the lookup table or the map.
  • the look-up table or map used in S533 and S534 defines a correspondence relationship between at least one parameter corresponding to the recognition result of the headlight HL and a value corresponding to the parameter.
  • the parameters are, for example, the number of headlights HL recognized, the angle formed by the arrangement direction of the plurality of headlights HL and the traveling direction of the vehicle 10, and the like.
  • the value corresponding to the parameter is a number greater than 0 and less than or equal to 1.
  • LPP (HL) and LDP (HL) are set so that LPP (HL)> LDP (HL).
  • LPP (HL) and LDP (HL) are set so that LPP (HL) ⁇ LDP (HL).
  • S531 NO
  • S533 NO
  • the CPU executes the processing of S541.
  • the CPU determines whether or not the vehicle stop CS is recognized.
  • the CPU advances the process to S542, and executes the process of S543 or S544 according to the determination result in S542.
  • the CPU skips the processing of S542 to S544.
  • the CPU sets the parallel parking likelihood LPP (CS) and the parallel parking likelihood LDP (CS) based on the recognition result of the car stop CS based on the lookup table or the map.
  • the lookup table or map used in S543 and S544 defines a correspondence relationship between at least one parameter corresponding to the recognition result of the car stop CS and a value corresponding to the parameter.
  • the parameters include, for example, the number of recognitions of the car stops CS, the angle between the arrangement direction of the plurality of car stops CS and the traveling direction of the vehicle 10, the distance from each vehicle stop CS to the vehicle 10, and the like.
  • the value corresponding to the parameter is a number greater than 0 and less than or equal to 1.
  • LPP (CS) and LDP (CS) are set so that LPP (CS)> LDP (CS).
  • LPP (CS) and LDP (CS) are set so that LPP (CS) ⁇ LDP (CS).
  • S541 NO, or after the processing of S543 or S544, the CPU executes the processing of S551.
  • the CPU determines whether a detected obstacle DO, that is, a three-dimensional obstacle other than the car stop CS is recognized.
  • the CPU advances the process to S552, and executes the process of S553 or S554 depending on the determination result in S552.
  • the CPU skips the processes of S552 to S554.
  • the CPU sets the parallel parking likelihood LPP (DO) and the parallel parking likelihood LDP (DO) based on the recognition result of the detected obstacle DO based on the lookup table or the map.
  • the lookup table or map used in S553 and S554 defines a correspondence relationship between at least one parameter corresponding to the recognition result of the detected obstacle DO and a value corresponding to the parameter.
  • the parameters are, for example, the size and shape of the space around the detected obstacle DO, the distance of the detected obstacle DO from the vehicle 10, and the like.
  • the value corresponding to the parameter is a number greater than 0 and less than or equal to 1.
  • LPP (DO) and LDP (DO) are set so that LPP (DO)> LDP (DO).
  • LPP (DO) and LDP (DO) are set so that LPP (DO) ⁇ LDP (DO).
  • S551 NO, or after the processing of S553 or S554, the CPU executes the processing of S561.
  • the CPU determines whether or not the white line WL is recognized.
  • the CPU advances the process to S562 and executes the process of S563 or S564 according to the determination result in S562.
  • the CPU skips the processing of S562 to S564.
  • the CPU sets the parallel parking likelihood LPP (WL) and the parallel parking likelihood LDP (WL) based on the recognition result of the white line WL based on the lookup table or the map.
  • the lookup table or map used in S563 and S654 defines a correspondence relationship between at least one parameter corresponding to the recognition result of the white line WL and a value corresponding to the parameter.
  • the parameters are, for example, the number of white lines WL, contrast, direction, length, and the like.
  • the value corresponding to the parameter is a number greater than 0 and less than or equal to 1.
  • LPP (WL) and LDP (WL) are set so that LPP (WL)> LDP (WL).
  • LPP (WL) and LDP (WL) are set so that LPP (WL) ⁇ LDP (WL).
  • S570 CPU calculates final parallel parking likelihood LPP based on initial value LPP0 of parallel parking likelihood LPP, parallel parking likelihood LPP (NP) based on each recognition result, and the like. Further, the CPU calculates a final parallel parking likelihood LDP based on the initial value LDP0 of the parallel parking likelihood LDP, the parallel parking likelihood LDP (NP) based on each recognition result, and the like.
  • the final parallel parking likelihood LPP is calculated as follows.
  • the final parallel parking likelihood LDP is also calculated in the same manner as described above.
  • the CPU compares the parallel parking likelihood LPP and the parallel parking likelihood LDP.
  • the CPU sets the current parking mode selection result as parallel parking (S580).
  • the CPU sets the current parking mode selection result as parallel parking (ie, garage parking). See S585.
  • the vehicle 10 is not limited to a four-wheeled vehicle.
  • the vehicle 10 may be a three-wheeled vehicle or a six-wheeled or eight-wheeled vehicle such as a cargo truck.
  • the type of the vehicle 10 may be an automobile including only an internal combustion engine, an electric vehicle or a fuel cell vehicle not including an internal combustion engine, or a hybrid vehicle.
  • the number of door panels 17 is not particularly limited.
  • the arrangement and the number of the distance measuring sensors 21 are not limited to the above specific example. That is, for example, when the third front sonar SF3 is disposed at the center position in the vehicle width direction, the fourth front sonar SF4 is omitted. Similarly, when the third rear sonar SR3 is arranged at the center position in the vehicle width direction, the fourth rear sonar SR4 is omitted. The third side sonar SS3 and the fourth side sonar SS4 may be omitted.
  • the ranging sensor 21 is not limited to an ultrasonic sensor. That is, for example, the distance measuring sensor 21 may be a laser radar sensor or a millimeter wave radar sensor.
  • the arrangement and number of the imaging units 22 are not limited to the above example. That is, for example, the left camera CL and the right camera CR may be arranged at positions different from the door mirror 18. Alternatively, the left camera CL and the right camera CR can be omitted.
  • the parking mode selection operation can be performed only by the front camera CF, or by only the left camera CL and the right camera CR.
  • control unit 26 is configured to be activated by the CPU reading a program from the ROM or the like.
  • the present disclosure is not limited to such a configuration. That is, for example, the control unit 26 may be a digital circuit configured to be able to operate as described above, for example, an ASIC such as a gate array.
  • ASIC is an abbreviation of APPLICATION SPECIFIC INTEGRATED CIRCUIT.
  • the storage location of the recognition result may be a storage medium (for example, RAM and / or magnetic storage medium) other than the nonvolatile RAM.
  • the place where the parking space PS is provided is not limited to the parking lot PL. That is, for example, the parking space PS can be provided in a parking available zone on a road, a temporary parking zone set in a park, or the like.
  • the car stop CS may be recognized as a feature shape in the image based on the image information. At least one of the recognition of the white line WL, the vehicle stop CS, the detected obstacle DO, the headlight HL, the tire TY, and the license plate NP may be omitted. Recognition of other features different from the white line WL, the car stop CS, the detected obstacle DO, the headlight HL, the tire TY, and the license plate NP may also be used.
  • parallel parking there are two types of parking modes: parallel parking and parallel parking.
  • parallel parking can be further subdivided into “garage parking” as shown in FIG. 2 and “oblique parking” as shown in FIG.
  • (I) in FIG. 6 shows the case where the white line WL and the car stop CS are provided in the parking space PS in the parking lot PL for oblique parking.
  • (ii) shows the case where the detection obstruction DO including the wall-shaped three-dimensional object WA exists around the parking space PS in the parking lot PL for oblique parking.
  • (iii) shows a case where a feature shape such as a license plate NP can be recognized by the parked vehicle PV around the parking space PS in the oblique parking lot PL.
  • the processing in this modification can be performed satisfactorily, for example, by partially modifying the routines of FIGS. 5A to 5C.
  • initial values LPP0 and LDP0 of parallel parking likelihood LPP and parallel parking likelihood LDP are set to 0.33, respectively.
  • S512 NO
  • the CPU executes a determination process of “whether or not parking is in the garage”. In the case of garage parking, the CPU advances the process to S514, and in the case of diagonal parking, the CPU performs S514. Skip the process. The same applies to S522, S532, S542, S552, and S562.
  • the CPU determines whether either LPP or LDP is greater than 0.33 instead of the processing of S575.
  • LPP> 0.33 the CPU sets the current parking mode selection result as parallel parking.
  • LDP> 0.33 the CPU determines that the current parking mode selection result is garage parking.
  • both LPP and LDP are 0.33 or less the CPU sets the current parking mode selection result to diagonal parking.
  • the final parallel parking likelihood LPP and parallel parking likelihood LDP calculation method that is, an integration method such as parallel parking likelihood LPP (NP) based on each recognition result is not limited to the above specific example.
  • modified examples are not limited to the above examples. A plurality of modifications may be combined with each other. Furthermore, all or a part of the above-described embodiment and all or a part of the modified examples may be combined with each other.

Abstract

駐車支援装置(20)は、車両(10)に搭載されることで、当該車両の駐車スペース(PS)への駐車を支援するように構成されている。この駐車支援装置は、車両の周囲の画像に対応する画像情報を取得する撮像部(22)と、撮像部により取得された画像情報を処理することで画像中の特徴形状を認識する画像処理部と、駐車スペースの周囲に存在する障害物と車両との位置関係に対応する位置関係情報を取得する障害物検知部と、画像処理部により認識された特徴形状と障害物検知部により取得された位置関係情報とに基づいて、駐車スペースへの車両の駐車態様を、並列駐車及び縦列駐車を含む複数の態様候補のうちから選択する駐車態様選択部とを備えている。

Description

駐車支援装置 関連出願への相互参照
 本出願は、2016年12月19日に出願された日本特許出願番号2016-245728号に基づくもので、ここにその記載内容が参照により組み入れられる。
 本開示は、駐車支援装置に関する。
 特開2012-1081号公報に記載の装置は、車両に取り付けたカメラで車両の周囲の画像を撮像し、撮像した画像に基づいて白線を検出し、検出した白線により駐車枠のサイズを算出し、この駐車枠が並列駐車することができる駐車枠であるか又は縦列駐車することができる駐車枠であるかを判定する。
 駐車枠を規定するための、白線等の仕切線が、良好には検出できない場合がある。例えば、白線が摩耗等により薄くなった場合、薄くなった古い白線の上に新たな白線が形成されていて且つ両者の駐車態様が異なる場合、白線ではなくロープが地面に敷設してある場合、そもそも白線等が設けられていない場合、等である。あるいは、予め明確に設けられた仕切線に基づく駐車態様とは異なる駐車態様が、臨時に設定される場合があり得る。これらのような場合、特開2012-1081号公報に記載の装置においては、駐車態様の良好な判定ができない。
 本開示の1つの観点に係る駐車支援装置は、車両に搭載されることで、当該車両の駐車スペースへの駐車を支援するように構成されている。
 この駐車支援装置は、
 前記車両の周囲の画像に対応する画像情報を取得するように設けられた、撮像部と、
 前記撮像部により取得された前記画像情報を処理することで、前記画像中の特徴形状を認識するように設けられた、画像処理部と、
 前記駐車スペースの周囲に存在する障害物と前記車両との位置関係に対応する位置関係情報を取得するように設けられた、障害物検知部と、
 前記画像処理部により認識された前記特徴形状と、前記障害物検知部により取得された前記位置関係情報とに基づいて、前記駐車スペースへの前記車両の駐車態様を、並列駐車及び縦列駐車を含む複数の態様候補のうちから選択するように設けられた、駐車態様選択部と、
 を備えている。
 なお、請求の範囲欄における各手段に付された括弧付きの参照符号は、同手段と後述する実施形態に記載の具体的手段との対応関係の一例を示すものである。
実施形態に係る駐車支援装置を搭載した車両の概略構成図である。 並列駐車が選択される状況の例を示す概略図である。 縦列駐車が選択される状況の例を示す概略図である。 図1に示された駐車支援装置の一動作例を示すフローチャートである。 図1に示された駐車支援装置の一動作例を示すフローチャートである。 図1に示された駐車支援装置の一動作例を示すフローチャートである。 図1に示された駐車支援装置の一動作例を示すフローチャートである。 斜め並列駐車が選択される状況の例を示す概略図である。
 以下、実施形態を、図面に基づいて説明する。なお、実施形態に対して適用可能な各種の変更については、変形例として、一連の実施形態の説明の後に、まとめて説明する。
 (構成)
 図1を参照すると、車両10は、いわゆる四輪自動車であって、平面視にて略矩形状の車体11を備えている。以下、車両中心線Lと直交し、車両10の車幅を規定する方向を、「車幅方向」と称する。車幅方向は、図1における左右方向となる。また、車両中心線Lと平行な方向における一方(即ち図1における上方向)を「前方向」と称し、他方(即ち図1における下方向)を「後方向」と称する。車両10及び車体11における前方向側を「前側」と称し、反対側を「後側」と称する。また、車両10及び車体11の、図1における右側を単に「右側」と称し、図1における左側を単に「左側」と称する。
 車体11における前側の端部である前面部12には、フロントバンパー13が装着されている。車体11における後側の端部である後面部14には、リアバンパー15が装着されている。車体11における側面部16には、ドアパネル17が設けられている。図1に示す具体例においては、左右にそれぞれ2枚ずつ、合計4枚のドアパネル17が設けられている。前側のドアパネル17には、ドアミラー18が装着されている。
 車両10には、駐車支援装置20が搭載されている。駐車支援装置20は、車両10の駐車スペースPSへの駐車を支援するように構成されている。駐車スペースPSについては図2等参照。具体的には、駐車支援装置20は、測距センサ21と、撮像部22と、車速センサ23と、シフトポジションセンサ24と、舵角センサ25と、制御部26と、ディスプレイ27とを備えている。以下、駐車支援装置20を構成する各部の詳細について説明する。なお、図示の簡略化のため、駐車支援装置20を構成する各部の間の電気接続関係は、図1においては省略されている。
 測距センサ21は、探査波WSを車両10の外側に向けて発信するとともに、検知障害物DOによる探査波WSの反射波を含み車両10と検知障害物DOとの距離に応じた強度を有する受信波WRを受信するように設けられている。具体的には、本実施形態においては、測距センサ21は、いわゆる超音波センサであって、超音波である探査波WSを発信するとともに、超音波を含む受信波WRを受信可能に構成されている。測距センサ21は、制御部26に電気接続されている。即ち、測距センサ21は、制御部26の制御下で探査波WSを発信するとともに、受信波WRの受信結果に対応する信号(以下「受信情報」と称する)を発生して制御部26に送信するようになっている。
 本実施形態においては、複数の測距センサ21が、車体11に装着されている。即ち、フロントバンパー13には、測距センサ21としての、第一フロントソナーSF1、第二フロントソナーSF2、第三フロントソナーSF3、及び第四フロントソナーSF4が装着されている。同様に、リアバンパー15には、測距センサ21としての、第一リアソナーSR1、第二リアソナーSR2、第三リアソナーSR3、及び第四リアソナーSR4が装着されている。また、車体11の側面部16には、測距センサ21としての、第一サイドソナーSS1、第二サイドソナーSS2、第三サイドソナーSS3、及び第四サイドソナーSS4が装着されている。
 第一フロントソナーSF1は、車体11の左前角部に配置されている。第二フロントソナーSF2は、車体11の右前角部に配置されている。第一フロントソナーSF1と第二フロントソナーSF2とは、車両中心線Lを挟んで対称に設けられている。第三フロントソナーSF3は、第一フロントソナーSF1と車両中心線Lとの間に配置されている。第四フロントソナーSF4は、第二フロントソナーSF2と車両中心線Lとの間に配置されている。第三フロントソナーSF3と第四フロントソナーSF4とは、車両中心線Lを挟んで対称に設けられている。
 第一リアソナーSR1は、車体11の左後角部に配置されている。第二リアソナーSR2は、車体11の右後角部に配置されている。第一リアソナーSR1と第二リアソナーSR2とは、車両中心線Lを挟んで対称に設けられている。第三リアソナーSR3は、第一リアソナーSR1と車両中心線Lとの間に配置されている。第四リアソナーSR4は、第二リアソナーSR2と車両中心線Lとの間に配置されている。第三リアソナーSR3と第四リアソナーSR4とは、車両中心線Lを挟んで対称に設けられている。
 第一サイドソナーSS1は、車両10の前後方向について、左側のドアミラー18と第一フロントソナーSF1との間に配置されている。第二サイドソナーSS2は、車両10の前後方向について、右側のドアミラー18と第二フロントソナーSF2との間に配置されている。第一サイドソナーSS1と第二サイドソナーSS2とは、車両中心線Lを挟んで対称に設けられている。第三サイドソナーSS3は、車両10の前後方向について、左前側のドアパネル17と第一リアソナーSR1との間に配置されている。第四サイドソナーSS4は、車両10の前後方向について、右前側のドアパネル17と第二リアソナーSR2との間に配置されている。第三サイドソナーSS3と第四サイドソナーSS4とは、車両中心線Lを挟んで対称に設けられている。
 本実施形態においては、撮像部22は、電荷結合素子等のイメージセンサを備えたカメラであって、車両10の周囲の画像に対応する画像情報を取得するように設けられている。電荷結合素子はCCDとも称される。撮像部22は、制御部26に電気接続されている。即ち、撮像部22は、制御部26の制御下で画像情報を取得するとともに、取得した画像情報を制御部26に送信するようになっている。
 本実施形態においては、車両10には、複数の撮像部22、即ちフロントカメラCF、リアカメラCB、左側カメラCL、及び右側カメラCRが搭載されている。フロントカメラCFは、車両10の前方の画像に対応する画像情報を取得するように、車体11の前面部12に装着されている。リアカメラCBは、車両10の後方の画像に対応する画像情報を取得するように、車体11の後面部14に装着されている。左側カメラCLは、車両10の左側方の画像に対応する画像情報を取得するように、左側のドアミラー18に装着されている。右側カメラCRは、車両10の右側方の画像に対応する画像情報を取得するように、右側のドアミラー18に装着されている。
 車速センサ23、シフトポジションセンサ24、及び舵角センサ25は、制御部26に電気接続されている。車速センサ23は、車両10の走行速度に対応する信号を発生して、制御部26に送信するように設けられている。車両10の走行速度を、以下単に「車速」と称する。シフトポジションセンサ24は、シフトポジションに対応する信号を発生して、制御部26に送信するように設けられている。舵角センサ25は、操舵角に対応する信号を発生して、制御部26に送信するように設けられている。
 制御部26は、車体11の内部に設けられている。制御部26は、図示しないCPU、ROM、RAM、不揮発性RAM(例えばフラッシュROM)、等を備えた、いわゆる車載マイクロコンピュータであって、CPUがROM又は不揮発性RAMからプログラム(即ち後述の各ルーチン)を読み出して実行することで各種の制御動作を実現可能に構成されている。即ち、制御部26は、測距センサ21、撮像部22、車速センサ23、シフトポジションセンサ24、及び舵角センサ25から受信した信号及び情報に基づいて、駐車支援動作を実行するように構成されている。また、ROM又は不揮発性RAMには、プログラムの実行の際に用いられる各種のデータ(例えば、初期値、ルックアップテーブル、マップ等)が予め格納されている。
 図2は、車両10を駐車スペースPSに並列駐車、具体的にはいわゆる「車庫入れ駐車」する状況の例を示す。「車庫入れ駐車」とは、並列駐車の一態様であって、並列する複数の駐車スペースPS又は並列する複数の駐車車両PVの配列方向と、各駐車スペースPS又は各駐車車両PVの前後方向(即ち長手方向)とが、略直交するような駐車態様をいう。図3は、車両10を駐車スペースPSに縦列駐車する状況の例を示す。以下、図1~図3を用いて、制御部26の詳細について説明する。なお、図2及び図3においては、図示の都合上、測距センサ21及び撮像部22の図示が簡略化されている。
 画像処理部としての制御部26は、撮像部22により取得された画像情報を処理することで、画像中の特徴点及び特徴形状を認識するようになっている。本実施形態においては、制御部26は、SFM処理により、画像中の各物体の三次元形状を認識可能に構成されている。SFMはStructure from Motionの略である。
 障害物検知部としての制御部26は、駐車スペースPSの周囲に存在する障害物等の物体と車両10との位置関係に対応する位置関係情報を、測距センサ21からの受信情報に基づいて取得するようになっている。本実施形態においては、測距センサ21は、複数設けられている。故に、制御部26は、複数の測距センサ21、例えば、車両10の左前方に位置する障害物の場合は第一フロントソナーSF1及び第二フロントソナーSF2における受信情報に基づき、物体と車両10との位置関係情報として、物体と車両10との距離、及び物体の車両10からの方位角に対応する情報を取得可能に構成されている。換言すれば、制御部26は、物体の車両10との相対位置を取得可能に構成されている。
 駐車態様選択部としての制御部26は、測距センサ21を用いて取得した位置関係情報と、撮像部22を用いて認識した特徴形状とに基づいて、駐車スペースPSへの車両10の駐車態様を、並列駐車及び縦列駐車を含む複数の態様候補のうちから選択するようになっている。具体的には、制御部26は、取得された壁状立体物WAを含む検知障害物DO及び車止めCSの位置関係情報に基づく態様候補の尤度と、特徴形状としての、白線WL、駐車車両PVのヘッドライトHL、駐車車両PVのナンバープレートNP、及び駐車車両PVのタイヤTYのうちの少なくともいずれか一つの認識結果に基づく態様候補の尤度とを統合することで、駐車態様を複数の態様候補のうちから選択するように構成されている。
 ディスプレイ27は、車両10における車室内に配置されている。ディスプレイ27は、制御部26の制御下で駐車支援動作に伴う表示を行うように、制御部26に電気接続されている。
 (動作概要)
 以下、図2及び図3を用いて、駐車支援装置20における動作の概要について説明する。各図中、(i)は、駐車場PLに白線WL及び車止めCSが設けられている場合を示す。また、(ii)は、駐車場PL内の駐車スペースPSの周囲に、壁状立体物WAを含む検知障害物DOが存在する場合を示す。さらに、(iii)は、駐車スペースPSの周囲の駐車車両PVにて、ナンバープレートNP等の特徴形状が認識可能な場合を示す。
 図2及び図3における(i)に示すように、隣接する複数の駐車スペースPSを区画する白線WLが駐車場PLに設けられている場合がある。この場合、制御部26は、撮像部22により取得した画像情報を処理して白線WLを認識することで、車両10の駐車態様を選択することが可能である。
 また、白線WLに代えて、あるいは白線WLとともに、車止めCSが設けられている場合がある。この場合、制御部26は、測距センサ21を用いて取得した車止めCSの位置関係情報に基づいて、車両10の駐車態様を選択することが可能である。具体的には、複数の車止めCSの位置、又は車止めCSの長手方向を形成する外形形状が、車両10の進行方向に沿って略一直線状に並んでいる場合、車両10の駐車態様の選択結果が車庫入れ駐車となり得る。図2における(i)参照。これに対し、車止めCSの長手方向を形成する外形形状が、車両10の進行方向と略直交している場合、車両10の駐車態様の選択結果が縦列駐車となり得る。図3における(i)参照。
 図2及び図3における(ii)に示すように、隣接する複数の駐車スペースPSの間に壁状立体物WAが存在する場合がある。壁状立体物WAは、例えば、屋内駐車場における壁又は柱等である。また、現在使用中の駐車スペースPSに隣接して、車両10を駐車可能な空きの駐車スペースPSが存在する場合がある。この場合、制御部26は、測距センサ21を用いて取得した検知障害物DOの位置関係情報に基づいて、車両10の駐車態様を選択することが可能である。この場合の、検知障害物DOの位置関係情報には、壁状立体物WA及び/又はこれに隣接する駐車車両PVの位置関係情報が含まれ得る。具体的には、複数の検知障害物DO同士の位置関係等に基づいて、車両10の駐車態様を選択することが可能である。
 図2及び図3における(iii)に示すように、現在使用中の駐車スペースPSに隣接して、車両10を駐車可能な空きの駐車スペースPSが存在する場合がある。この場合、現在使用中の駐車スペースPSに駐車された駐車車両PVにおける、ナンバープレートNP等の特徴形状が認識され得る。制御部26は、撮像部22により取得した画像情報を処理して、駐車車両PVにおける特徴形状を認識することで、車両10の駐車態様を選択することが可能である。
 具体的には、例えば、ナンバープレートNPの長手方向と車両10の進行方向とのなす角が小さい(例えば0~15度)場合、車両10の駐車態様の選択結果が車庫入れ駐車となり得る。図2における(iii)参照。これに対し、ナンバープレートNPの長手方向と車両10の進行方向とのなす角が大きい(例えば75~90度)場合、車両10の駐車態様の選択結果が縦列駐車となり得る。図3における(iii)参照。
 また、複数のタイヤTYが車両10の進行方向に沿って略一直線状に並んでいる場合、車両10の駐車態様の選択結果が車庫入れ駐車となり得る。図2における(iii)参照。これに対し、一対のタイヤTYが車両10の進行方向と略直交するように並んでいる場合、車両10の駐車態様の選択結果が縦列駐車となり得る。図3における(iii)参照。
 また、一対のヘッドライトHLが、車両10の進行方向に沿って略一直線状に並んでいる場合、車両10の駐車態様の選択結果が車庫入れ駐車となり得る。図2における(iii)参照。これに対し、一対のヘッドライトHLが、車両10の前方にて進行方向と略直交する方向に並んでいる場合、あるいは、ヘッドライトHLが前方に全く認識されない場合、車両10の駐車態様の選択結果が縦列駐車となり得る。図3における(iii)参照。
 本実施形態においては、上記のように、白線WL、車止めCS、検知障害物DO、ヘッドライトHL、タイヤTY、及びナンバープレートNPの認識結果に基づいて、車両10の駐車態様を選択することが可能である。但し、これらの特徴形状の認識結果がすべて同一の駐車態様に対応するとは限らない。即ち、例えば、一部の特徴形状の認識が困難であったり、一部の特徴形状の認識結果に基づく駐車態様と他の特徴形状の認識結果に基づく駐車態様とが矛盾したりする場合があり得る。
 具体的には、駐車スペースPSを規定するための白線WLが、摩耗等により薄くなる場合があり得る。また、縦列駐車用の古い白線WLの上に、車庫入れ駐車用の新しい白線WLが形成される場合があり得る。あるいは、明確な白線WLが設けられていても、何らかの事情、例えば、臨時イベント開催により通常時の最大収容数を超える台数の駐車が一時的に見込まれる場合等により、当該白線WLによる通常の駐車態様とは異なる駐車態様が設定される場合があり得る。これらの場合、白線WLの認識結果によっては、適確な態様候補の選択が困難となる。
 白線WLではなくロープが地面に敷設された駐車場PLが多数存在する。このような駐車場PLにおいては、ロープの画像認識は困難であり、車止めCSが設けられない場合も多い。また、駐車場PLにそもそも白線WLが設けられない場合があり得る。具体的には、例えば、大規模な屋外イベント開催時に、イベント会場に近接する空き地、例えば、工場又はショッピング施設の建設予定地、工事中の自動車専用道路、等が、臨時駐車場として使用される場合があり得る。これらの場合、白線WL及び車止めCSの認識結果によっては、適確な態様候補の選択が困難となる。
 駐車時の車体11の外傷発生を抑制するために、壁状立体物WAにスポンジ等の弾性物が貼付される場合がある。また、壁状立体物WAに近接して駐車された駐車車両PVが、探査波の反射率が低い物体(例えば、雪、カバー、等)によって覆われている場合があり得る。これらの場合、測距センサ21による検知障害物DOの検知が良好には行われないことがあり得る。
 駐車車両PVにおける、ナンバープレートNPの形状及び位置は、自動車に関する法令により、ほぼ一定となる。これに対し、タイヤTYの位置は、駐車車両PVのサイズ、駐車スペースPS内の駐車車両PVの位置、駐車時の操舵状態、等により変動し得る。また、ヘッドライトHLは、車種によって形状及び位置が様々であり、駐車時に車体内部に格納されたり車体部品等で遮蔽されたりする場合もあり得る。このため、駐車車両PVにおける各種の特徴形状のうち、ナンバープレートNPの認識結果に基づく駐車態様の選択が、最も確からしいということが一応可能である。
 例えば、図2における(iii)を参照すると、普通自動車PV1においては、ナンバープレートNPは、通常、車幅方向における中央部に設けられている。これに対し、軽自動車PV2においては、前側のナンバープレートNPは、車幅方向における中央部から右側、当該軽自動車PV2を正面視した場合は向かって左側に、若干ずれた位置に設けられていることが多い。故に、駐車車両PV及びこれに対応するナンバープレートNPが車両10の側方に認識され、且つ、ナンバープレートNPが画像中にて当該駐車車両PVの車幅方向における中央部から若干左側にずれた位置に存在すると認識された場合、ヘッドライトHLの認識がなくても、当該駐車車両PVはバックで車庫入れ駐車した軽自動車PV2である可能性が高くなる。
 しかしながら、駐車車両PVにおけるフロント側のナンバープレートNPの位置が特殊である場合があり得る。さらに、駐車場PLの照明状態等によっては、駐車車両PVにおける各種の特徴形状の認識がそもそも困難である場合もあり得る。これらの場合、駐車車両PVにおける各種の特徴形状の認識結果によっては、適確な態様候補の選択が困難となる。
 以上の事情を考慮し、本実施形態においては、制御部26は、測距センサ21を用いた車止めCS及び検知障害物DOの認識結果に基づく駐車態様の尤度と、撮像部22を用いたその他の認識結果に基づく駐車態様の尤度とを統合する。また、制御部26は、統合した尤度に基づいて、最も確からしい駐車態様の候補を選択する。
 駐車態様の選択が終了した後は、制御部26は、認識した駐車目標の駐車スペースPSへの駐車支援動作、例えば、ディスプレイ27による誘導動作、又は自動操縦動作等を実行する。このとき、制御部26は、測距センサ21及び撮像部22を用いた認識結果に基づいて、良好な駐車支援動作を行うことが可能である。具体的には、例えば、制御部26は、ナンバープレートNPの認識結果に基づいて、認識した駐車目標の駐車スペースPSが軽自動車専用であることについての警告を、ディスプレイ27に表示させることが可能である。あるいは、例えば、制御部26は、タイヤTYの認識結果に基づいて、駐車スペースPSにおける、車両10が進行可能な領域を推定することが可能である。
 (動作の具体例)
 以下、本実施形態の構成による動作の具体例について、フローチャートを用いて説明する。明細書中の以下の説明、及び図示したフローチャートにおいて、「ステップ」を単に「S」と略記する。また、明細書中の以下の説明において、制御部26のCPUを、単に「CPU」と略称する。制御部26の不揮発性RAM等についても同様である。
 CPUは、所定の起動条件が成立した場合に、図4に示した周囲構造認識ルーチンを起動する。この周囲構造認識ルーチンの起動条件は、例えば、車両10のシステム起動スイッチが「オン」されてから所定時間経過後であり、且つ本ルーチンの所定の起動タイミングが到来したこと等を含む。図4に示した周囲構造認識ルーチンにおいて、CPUは、S41~S49の処理を順に実行した後、本ルーチンを一旦終了する。
 S41にて、CPUは、測距センサ21から受信情報を取得する。この受信情報に基づいて、CPUは、S42にて、距離点を抽出する。距離点は、今回の受信情報に対応する、所定の空間座標中の点である。各距離点は、対応する位置関係情報を有している。上記の通り、本実施形態においては、位置関係情報は、複数の測距センサ21による受信情報に基づいて取得される。故に、本具体例においては、距離点は、車両10の周囲の空間に対応する三次元マップ中の点とすることができる。続いて、CPUは、S43にて、車両10の周囲に存在する物体の外形形状を、距離点を繋ぎ合わせることによって認識する。さらに、CPUは、S43における認識結果を、不揮発性RAMに格納する。S44参照。
 S45にて、CPUは、撮像部22から画像情報を取得する。この画像情報に基づいて、CPUは、S46にて、特徴点を抽出する。上記の通り、本実施形態においては、複数の撮像部22が設けられている。また、制御部26は、SFM処理により、画像中の各物体の三次元形状を認識可能である。故に、特徴点は、上記の三次元マップ中の点とすることができる。このようにして抽出した特徴点に基づいて、CPUは、S47にて、特徴形状を認識する。続いて、CPUは、S47における認識結果を、不揮発性RAMに格納する。S48参照。
 上記のように、CPUは、S41~S44にて、測距センサ21を用いた物体認識及び特徴形状認識を行う。次に、CPUは、S45~48にて、撮像部22を用いた物体認識及び特徴形状認識を行う。その後、CPUは、S49にて、測距センサ21を用いた認識結果と、撮像部22を用いた認識結果とを統合することで、車両10の周囲の空間における物体及び特徴形状を、三次元的に認識する。この三次元的認識を「構造化」と称する。構造化された、物体及び特徴形状の認識結果は、不揮発性RAMに格納される。なお、上記のように、複数種類の認識結果を統合することを、「フュージョン」と称することがある。
 CPUは、車両10の走行中に所定の時間間隔で周囲構造認識ルーチンを起動する。これにより、構造化した特徴形状の三次元情報が、時系列的に不揮発性RAMに格納される。
 CPUは、所定の起動条件が成立した場合に、図5A~図5Cに示した駐車態様選択ルーチンを起動する。この駐車態様選択ルーチンの起動条件は、例えば、不揮発性RAMにおける上記の認識結果の格納量が所定量に達し、且つ車速が所定速度未満に達したことを含む。
 駐車態様選択ルーチンが起動されると、まず、S500にて、CPUは、縦列駐車尤度LPP及び並列駐車尤度LDPを初期化する。具体的には、S500にて、CPUは、縦列駐車尤度LPP及び並列駐車尤度LDPを、それぞれ、初期値LPP0及びLDP0に設定する。本具体例においては、初期値LPP0及びLDP0は、ともに0.5である。
 次に、S511にて、CPUは、ナンバープレートNPが認識されているか否か、即ち、ナンバープレートNPの認識結果が不揮発性RAMに格納されているか否かを判定する。ナンバープレートNPが認識されている場合(即ちS511=YES)、CPUは、処理をS512に進行させ、S512における判定結果に応じてS513又はS514の処理を実行する。一方、ナンバープレートNPが認識されていない場合(即ちS511=NO)、CPUは、S512~S514の処理をスキップする。
 S512にて、CPUは、今回のナンバープレートNPの認識結果に基づいて駐車態様を選択した場合に、その選択結果が縦列駐車となるか否かを判定する。縦列駐車の場合(即ちS512=YES)、CPUは、処理をS513に進行させる。一方、並列駐車の場合(即ちS512=NO)、CPUは、処理をS514に進行させる。
 S513及びS514にて、CPUは、ナンバープレートNPの認識結果に基づく縦列駐車尤度LPP(NP)及び並列駐車尤度LDP(NP)を、ルックアップテーブル又はマップに基づいて設定する。S513及びS514にて用いられるルックアップテーブル又はマップは、ナンバープレートNPの認識結果に対応するパラメータの少なくとも1個と、当該パラメータに対応する値との対応関係を規定する。当該パラメータは、例えば、ナンバープレートNPの認識数、ナンバープレートNPの長手方向と車両10の進行方向とのなす角、複数のナンバープレートNPの配列方向、各ナンバープレートNPの長方形からの歪度合、等である。当該パラメータに対応する値は、0より大きく1以下の数である。S513の場合、LPP(NP)>LDP(NP)となるように、LPP(NP)及びLDP(NP)が設定される。一方、S514の場合、LPP(NP)<LDP(NP)となるように、LPP(NP)及びLDP(NP)が設定される。
 S511=NOの場合、あるいはS513又はS514の処理の後、CPUは、S521の処理を実行する。S521にて、CPUは、タイヤTYが認識されているか否かを判定する。タイヤTYが認識されている場合(即ちS521=YES)、CPUは、処理をS522に進行させ、S522における判定結果に応じてS523又はS524の処理を実行する。一方、タイヤTYが認識されていない場合(即ちS521=NO)、CPUは、S522~S524の処理をスキップする。
 S522にて、CPUは、今回のタイヤTYの認識結果に基づいて駐車態様を選択した場合に、その選択結果が縦列駐車となるか否かを判定する。縦列駐車の場合(即ちS522=YES)、CPUは、処理をS523に進行させる。一方、並列駐車の場合(即ちS522=NO)、CPUは、処理をS524に進行させる。
 S523及びS524にて、CPUは、タイヤTYの認識結果に基づく縦列駐車尤度LPP(TY)及び並列駐車尤度LDP(TY)を、ルックアップテーブル又はマップに基づいて設定する。S523及びS524にて用いられるルックアップテーブル又はマップは、タイヤTYの認識結果に対応するパラメータの少なくとも1個と、当該パラメータに対応する値との対応関係を規定する。当該パラメータは、例えば、タイヤTYの認識数、複数のタイヤTYの配列方向と車両10の進行方向とのなす角、各タイヤTYの認識結果である楕円形状における扁平率、各タイヤTYの認識結果である楕円形状における長径と車両10の進行方向とのなす角、等である。当該パラメータに対応する値は、0より大きく1以下の数である。S523の場合、LPP(TY)>LDP(TY)となるように、LPP(TY)及びLDP(TY)が設定される。一方、S524の場合、LPP(TY)<LDP(TY)となるように、LPP(TY)及びLDP(TY)が設定される。
 S521=NOの場合、あるいはS523又はS524の処理の後、CPUは、S531の処理を実行する。S531にて、CPUは、ヘッドライトHLが認識されているか否かを判定する。ヘッドライトHLが認識されている場合(即ちS531=YES)、CPUは、処理をS532に進行させ、S532における判定結果に応じてS533又はS534の処理を実行する。一方、ヘッドライトHLが認識されていない場合(即ちS531=NO)、CPUは、S532~S534の処理をスキップする。
 S532にて、CPUは、今回のヘッドライトHLの認識結果に基づいて駐車態様を選択した場合に、その選択結果が縦列駐車となるか否かを判定する。縦列駐車の場合(即ちS532=YES)、CPUは、処理をS533に進行させる。一方、並列駐車の場合(即ちS532=NO)、CPUは、処理をS534に進行させる。
 S533及びS534にて、CPUは、ヘッドライトHLの認識結果に基づく縦列駐車尤度LPP(HL)及び並列駐車尤度LDP(HL)を、ルックアップテーブル又はマップに基づいて設定する。S533及びS534にて用いられるルックアップテーブル又はマップは、ヘッドライトHLの認識結果に対応するパラメータの少なくとも1個と、当該パラメータに対応する値との対応関係を規定する。当該パラメータは、例えば、ヘッドライトHLの認識数、複数のヘッドライトHLの配列方向と車両10の進行方向とのなす角、等である。当該パラメータに対応する値は、0より大きく1以下の数である。S533の場合、LPP(HL)>LDP(HL)となるように、LPP(HL)及びLDP(HL)が設定される。一方、S534の場合、LPP(HL)<LDP(HL)となるように、LPP(HL)及びLDP(HL)が設定される。
 S531=NOの場合、あるいはS533又はS534の処理の後、CPUは、S541の処理を実行する。S541にて、CPUは、車止めCSが認識されているか否かを判定する。車止めCSが認識されている場合(即ちS541=YES)、CPUは、処理をS542に進行させ、S542における判定結果に応じてS543又はS544の処理を実行する。一方、車止めCSが認識されていない場合(即ちS541=NO)、CPUは、S542~S544の処理をスキップする。
 S542にて、CPUは、今回の車止めCSの認識結果に基づいて駐車態様を選択した場合に、その選択結果が縦列駐車となるか否かを判定する。縦列駐車の場合(即ちS542=YES)、CPUは、処理をS543に進行させる。一方、並列駐車の場合(即ちS542=NO)、CPUは、処理をS544に進行させる。
 S543及びS544にて、CPUは、車止めCSの認識結果に基づく縦列駐車尤度LPP(CS)及び並列駐車尤度LDP(CS)を、ルックアップテーブル又はマップに基づいて設定する。S543及びS544にて用いられるルックアップテーブル又はマップは、車止めCSの認識結果に対応するパラメータの少なくとも1個と、当該パラメータに対応する値との対応関係を規定する。当該パラメータは、例えば、車止めCSの認識数、複数の車止めCSの配列方向と車両10の進行方向とのなす角、各車止めCSの車両10からの距離、等である。当該パラメータに対応する値は、0より大きく1以下の数である。S543の場合、LPP(CS)>LDP(CS)となるように、LPP(CS)及びLDP(CS)が設定される。一方、S544の場合、LPP(CS)<LDP(CS)となるように、LPP(CS)及びLDP(CS)が設定される。
 S541=NOの場合、あるいはS543又はS544の処理の後、CPUは、S551の処理を実行する。S551にて、CPUは、検知障害物DO、即ち車止めCS以外の立体障害物が認識されているか否かを判定する。検知障害物DOが認識されている場合(即ちS551=YES)、CPUは、処理をS552に進行させ、S552における判定結果に応じてS553又はS554の処理を実行する。一方、車止めCS以外の立体障害物が検知障害物DOとして認識されていない場合(即ちS551=NO)、CPUは、S552~S554の処理をスキップする。
 S552にて、CPUは、今回の検知障害物DOの認識結果に基づいて駐車態様を選択した場合に、その選択結果が縦列駐車となるか否かを判定する。縦列駐車の場合(即ちS552=YES)、CPUは、処理をS553に進行させる。一方、並列駐車の場合(即ちS552=NO)、CPUは、処理をS554に進行させる。
 S553及びS544にて、CPUは、検知障害物DOの認識結果に基づく縦列駐車尤度LPP(DO)及び並列駐車尤度LDP(DO)を、ルックアップテーブル又はマップに基づいて設定する。S553及びS554にて用いられるルックアップテーブル又はマップは、検知障害物DOの認識結果に対応するパラメータの少なくとも1個と、当該パラメータに対応する値との対応関係を規定する。当該パラメータは、例えば、検知障害物DOの周囲の空間のサイズ及び形状、検知障害物DOの車両10からの距離、等である。当該パラメータに対応する値は、0より大きく1以下の数である。S553の場合、LPP(DO)>LDP(DO)となるように、LPP(DO)及びLDP(DO)が設定される。一方、S554の場合、LPP(DO)<LDP(DO)となるように、LPP(DO)及びLDP(DO)が設定される。
 S551=NOの場合、あるいはS553又はS554の処理の後、CPUは、S561の処理を実行する。S561にて、CPUは、白線WLが認識されているか否かを判定する。白線WLが認識されている場合(即ちS561=YES)、CPUは、処理をS562に進行させ、S562における判定結果に応じてS563又はS564の処理を実行する。一方、白線WLが認識されていない場合(即ちS561=NO)、CPUは、S562~S564の処理をスキップする。
 S562にて、CPUは、今回の白線WLの認識結果に基づいて駐車態様を選択した場合に、その選択結果が縦列駐車となるか否かを判定する。縦列駐車の場合(即ちS562=YES)、CPUは、処理をS563に進行させる。一方、並列駐車の場合(即ちS562=NO)、CPUは、処理をS564に進行させる。
 S563及びS564にて、CPUは、白線WLの認識結果に基づく縦列駐車尤度LPP(WL)及び並列駐車尤度LDP(WL)を、ルックアップテーブル又はマップに基づいて設定する。S563及びS654にて用いられるルックアップテーブル又はマップは、白線WLの認識結果に対応するパラメータの少なくとも1個と、当該パラメータに対応する値との対応関係を規定する。当該パラメータは、例えば、白線WLの本数、コントラスト、方向、長さ、等である。当該パラメータに対応する値は、0より大きく1以下の数である。S563の場合、LPP(WL)>LDP(WL)となるように、LPP(WL)及びLDP(WL)が設定される。一方、S564の場合、LPP(WL)<LDP(WL)となるように、LPP(WL)及びLDP(WL)が設定される。
 S561=NOの場合、あるいはS563又はS564の処理の後、CPUは、S570の処理を実行する。S570にて、CPUは、縦列駐車尤度LPPの初期値LPP0と、各認識結果に基づく縦列駐車尤度LPP(NP)等とに基づいて、最終的な縦列駐車尤度LPPを算出する。また、CPUは、並列駐車尤度LDPの初期値LDP0と、各認識結果に基づく並列駐車尤度LDP(NP)等とに基づいて、最終的な並列駐車尤度LDPを算出する。
 具体的には、本具体例においては、最終的な縦列駐車尤度LPPは、以下のようにして算出される。
Figure JPOXMLDOC01-appb-M000001
 
Figure JPOXMLDOC01-appb-M000002
 
Figure JPOXMLDOC01-appb-M000003
 
Figure JPOXMLDOC01-appb-M000004
 
Figure JPOXMLDOC01-appb-M000005
 
Figure JPOXMLDOC01-appb-M000006
 
 最終的な並列駐車尤度LDPも、上記と同様にして算出される。
 次に、CPUは、S575にて、縦列駐車尤度LPPと並列駐車尤度LDPとを比較する。LPP>LDPの場合(即ちS575=YES)、CPUは、今回の駐車態様の選択結果を縦列駐車とする(S580)。一方、LPP<LDPの場合(即ちS575=NO)、CPUは、今回の駐車態様の選択結果を並列駐車(即ち車庫入れ駐車)とする。S585参照。
 (変形例)
 本開示は上記実施形態に限定されるものではなく、上記実施形態に対しては適宜変更が可能である。以下、代表的な変形例について説明する。以下の変形例の説明においては、上記実施形態と異なる部分についてのみ説明する。また、上記実施形態と変形例とにおいて、互いに同一又は均等である部分には、同一符号が付されている。したがって、以下の変形例の説明において、上記実施形態と同一の符号を有する構成要素に関しては、技術的矛盾又は特段の追加説明なき限り、上記実施形態における説明が適宜援用され得る。
 本開示は、上記実施形態にて示された具体的な装置構成に限定されない。即ち、例えば、車両10は、四輪自動車に限定されない。具体的には、車両10は、三輪自動車であってもよいし、貨物トラック等の六輪又は八輪自動車でもよい。また、車両10の種類は、内燃機関のみを備えた自動車であってもよいし、内燃機関を備えない電気自動車又は燃料電池車であってもよいし、ハイブリッド自動車であってもよい。ドアパネル17の数も、特段の限定はない。
 測距センサ21が超音波センサである場合の、測距センサ21の配置及び個数は、上記の具体例に限定されない。即ち、例えば、第三フロントソナーSF3が車幅方向における中央位置に配置される場合、第四フロントソナーSF4は省略される。同様に、第三リアソナーSR3が車幅方向における中央位置に配置される場合、第四リアソナーSR4は省略される。第三サイドソナーSS3及び第四サイドソナーSS4は、省略され得る。
 測距センサ21は、超音波センサに限定されない。即ち、例えば、測距センサ21は、レーザレーダセンサ、又はミリ波レーダセンサであってもよい。
 撮像部22の配置及び個数は、上記の例に限定されない。即ち、例えば、左側カメラCL及び右側カメラCRは、ドアミラー18とは異なる位置に配置されてもよい。あるいは、左側カメラCL及び右側カメラCRは、省略され得る。駐車支援装置20により可能な複数の駐車支援動作のうちの、駐車態様選択動作については、フロントカメラCFのみによっても可能であるし、左側カメラCL及び右側カメラCRのみによっても可能である。
 上記実施形態においては、制御部26は、CPUがROM等からプログラムを読み出して起動する構成であった。しかしながら、本開示は、かかる構成に限定されない。即ち、例えば、制御部26は、上記のような動作を可能に構成されたデジタル回路、例えばゲートアレイ等のASICであってもよい。ASICはAPPLICATION SPECIFIC INTEGRATED CIRCUITの略である。
 本開示は、上記実施形態にて示された具体的な動作例及び処理態様に限定されない。例えば、認識結果の格納場所は、不揮発性RAM以外の記憶媒体(例えばRAM及び/又は磁気記憶媒体)であってもよい。
 駐車スペースPSが設けられる場所は、駐車場PLに限定されない。即ち、例えば、駐車スペースPSは、道路における駐車可能地帯、公園等に設定される仮設駐車地帯、等に設けられ得る。
 物体及び特徴形状の認識対象及び認識方法も、上記の具体例に限定されない。例えば、車止めCSは、画像情報に基づいて、画像中の特徴形状として認識されてもよい。白線WL、車止めCS、検知障害物DO、ヘッドライトHL、タイヤTY、及びナンバープレートNPの認識のうちの少なくとも1つは、省略され得る。白線WL、車止めCS、検知障害物DO、ヘッドライトHL、タイヤTY、及びナンバープレートNPとは異なる他の特徴形状の認識も用いられ得る。
 上記具体例においては、駐車態様の候補は、縦列駐車と並列駐車との2種類であった。しかしながら、本開示は、かかる態様に限定されない。即ち、例えば、並列駐車は、図2に示されているような「車庫入れ駐車」と、図6に示されているような「斜め駐車」とに、さらに細分化され得る。
 図6における(i)は、斜め駐車の駐車場PLに駐車スペースPSに白線WL及び車止めCSが設けられている場合を示す。また、(ii)は、斜め駐車の駐車場PL内の、駐車スペースPSの周囲に、壁状立体物WAを含む検知障害物DOが存在する場合を示す。さらに、(iii)は、斜め駐車の駐車場PLにおいて、駐車スペースPSの周囲の駐車車両PVにてナンバープレートNP等の特徴形状が認識可能な場合を示す。
 本変形例における処理は、例えば、図5A~図5Cのルーチンを一部改変することによって、良好に行われ得る。具体的には、例えば、S500において、縦列駐車尤度LPP及び並列駐車尤度LDPの初期値LPP0及びLDP0を、それぞれ、0.33に設定する。また、CPUは、S512=NOの場合に、「車庫入れ駐車か否か」の判定処理を実行し、車庫入れ駐車の場合にCPUは処理をS514に進行させ、斜め駐車の場合にCPUはS514の処理をスキップする。S522、S532、S542、S552、及びS562についても同様である。
 その後、CPUは、S575の処理に代えて、LPP及びLDPのいずれかが0.33より大きいか否かを判定する。LPP>0.33の場合、CPUは、今回の駐車態様の選択結果を縦列駐車とする。一方、LDP>0.33の場合、CPUは、今回の駐車態様の選択結果を車庫入れ駐車とする。また、LPP及びLDPのいずれもが0.33以下である場合、CPUは、今回の駐車態様の選択結果を斜め駐車とする。
 最終的な縦列駐車尤度LPP及び並列駐車尤度LDPの算出方法、即ち、各認識結果に基づく縦列駐車尤度LPP(NP)等の統合方法も、上記具体例に限定されない。
 変形例も、上記の例示に限定されない。また、複数の変形例が、互いに組み合わされ得る。さらに、上記実施形態の全部又は一部と、変形例の全部又は一部とが、互いに組み合わされ得る。

Claims (3)

  1.  車両(10)に搭載されることで当該車両の駐車スペース(PS)への駐車を支援するように構成された、駐車支援装置(20)であって、
     前記車両の周囲の画像に対応する画像情報を取得するように設けられた、撮像部(22)と、
     前記撮像部により取得された前記画像情報を処理することで、前記画像中の特徴形状を認識するように設けられた、画像処理部(S46、S47)と、
     前記駐車スペースの周囲に存在する障害物と前記車両との位置関係に対応する位置関係情報を取得するように設けられた、障害物検知部(S42、S43)と、
     前記画像処理部により認識された前記特徴形状と、前記障害物検知部により取得された前記位置関係情報とに基づいて、前記駐車スペースへの前記車両の駐車態様を、並列駐車及び縦列駐車を含む複数の態様候補のうちから選択するように設けられた、駐車態様選択部(S575、S580、S585)と、
     を備えた、駐車支援装置。
  2.  前記駐車態様選択部は、前記障害物検知部により取得された前記位置関係情報に基づく前記態様候補の尤度と、前記特徴形状としての、白線、駐車車両のタイヤ、前記駐車車両のナンバープレートのうちの少なくともいずれか一つの認識結果に基づく前記態様候補の尤度とを統合することで、前記駐車態様を複数の前記態様候補のうちから選択するように構成された、請求項1に記載の駐車支援装置。
  3.  探査波を前記車両の外側に向けて発信するとともに、前記障害物による前記探査波の反射波を含み前記車両と前記障害物との距離に応じた強度を有する受信波を受信するように設けられた、測距センサ(21)をさらに備え、
     前記障害物検知部は、前記測距センサによる前記受信波の受信結果に基づいて、前記位置関係情報を取得するように設けられた、
     請求項1又は2に記載の駐車支援装置。
PCT/JP2017/040494 2016-12-19 2017-11-09 駐車支援装置 WO2018116686A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE112017006366.3T DE112017006366T5 (de) 2016-12-19 2017-11-09 Parkunterstützungsvorrichtung
US16/442,799 US10885356B2 (en) 2016-12-19 2019-06-17 Parking assisting apparatus and control unit

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016245728A JP6673181B2 (ja) 2016-12-19 2016-12-19 駐車支援装置およびその制御部
JP2016-245728 2016-12-19

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/442,799 Continuation US10885356B2 (en) 2016-12-19 2019-06-17 Parking assisting apparatus and control unit

Publications (1)

Publication Number Publication Date
WO2018116686A1 true WO2018116686A1 (ja) 2018-06-28

Family

ID=62627290

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/040494 WO2018116686A1 (ja) 2016-12-19 2017-11-09 駐車支援装置

Country Status (4)

Country Link
US (1) US10885356B2 (ja)
JP (1) JP6673181B2 (ja)
DE (1) DE112017006366T5 (ja)
WO (1) WO2018116686A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113165643A (zh) * 2018-12-04 2021-07-23 株式会社电装 停车辅助装置

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113330731A (zh) 2019-01-23 2021-08-31 索尼半导体解决方案公司 车载相机
KR20200130883A (ko) * 2019-04-26 2020-11-23 현대모비스 주식회사 주차 지원 장치 및 방법
KR20210008259A (ko) * 2019-07-12 2021-01-21 현대자동차주식회사 주차 제어 장치, 그를 포함한 시스템 및 그 방법
DE102019216363A1 (de) * 2019-10-24 2021-04-29 Robert Bosch Gmbh Verfahren zum Bereitstellen eines Signals zur Ansteuerung eines zumindest teilautomatisierten Fahrzeugs
JP7467202B2 (ja) * 2020-03-31 2024-04-15 本田技研工業株式会社 駐車支援システム
GB2617838B (en) * 2022-04-19 2024-04-10 Aptiv Tech Ltd Method of determining parking area layout

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63191987A (ja) * 1987-02-04 1988-08-09 Daihatsu Motor Co Ltd 車庫入れ・縦列駐車ガイド装置
JPH10269497A (ja) * 1997-03-25 1998-10-09 Nissan Motor Co Ltd 自動駐車装置および駐車誘導装置
JP2002243857A (ja) * 2001-02-14 2002-08-28 Nissan Motor Co Ltd 周囲物体認識装置
JP2006193014A (ja) * 2005-01-12 2006-07-27 Toyota Motor Corp 駐車支援装置
JP2012001081A (ja) * 2010-06-16 2012-01-05 Nissan Motor Co Ltd 駐車支援システム
JP2016101778A (ja) * 2014-11-27 2016-06-02 パナソニックIpマネジメント株式会社 駐車支援装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007290433A (ja) 2006-04-21 2007-11-08 Denso Corp 駐車支援システム
JP4613881B2 (ja) 2006-05-31 2011-01-19 アイシン・エィ・ダブリュ株式会社 駐車案内装置
JP5126069B2 (ja) 2006-12-28 2013-01-23 株式会社豊田自動織機 駐車支援装置、駐車支援装置部品、駐車支援方法、駐車支援プログラム、車両走行パラメータの算出方法及び算出プログラム、車両走行パラメータ算出装置並びに車両走行パラメータ算出装置部品
JP2010202018A (ja) 2009-03-03 2010-09-16 Alpine Electronics Inc 運転支援装置、駐車向き提示方法、駐車向き提示プログラム
JP2014031104A (ja) 2012-08-03 2014-02-20 Denso Corp 駐車状態検出装置、図形コード配置方法、および駐車場
JP6473571B2 (ja) * 2014-03-24 2019-02-20 アルパイン株式会社 Ttc計測装置およびttc計測プログラム
KR102267562B1 (ko) * 2015-04-16 2021-06-22 한국전자통신연구원 무인자동주차 기능 지원을 위한 장애물 및 주차구획 인식 장치 및 그 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63191987A (ja) * 1987-02-04 1988-08-09 Daihatsu Motor Co Ltd 車庫入れ・縦列駐車ガイド装置
JPH10269497A (ja) * 1997-03-25 1998-10-09 Nissan Motor Co Ltd 自動駐車装置および駐車誘導装置
JP2002243857A (ja) * 2001-02-14 2002-08-28 Nissan Motor Co Ltd 周囲物体認識装置
JP2006193014A (ja) * 2005-01-12 2006-07-27 Toyota Motor Corp 駐車支援装置
JP2012001081A (ja) * 2010-06-16 2012-01-05 Nissan Motor Co Ltd 駐車支援システム
JP2016101778A (ja) * 2014-11-27 2016-06-02 パナソニックIpマネジメント株式会社 駐車支援装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113165643A (zh) * 2018-12-04 2021-07-23 株式会社电装 停车辅助装置
CN113165643B (zh) * 2018-12-04 2024-02-13 株式会社电装 停车辅助装置

Also Published As

Publication number Publication date
DE112017006366T5 (de) 2019-09-26
JP6673181B2 (ja) 2020-03-25
JP2018099935A (ja) 2018-06-28
US20190303691A1 (en) 2019-10-03
US10885356B2 (en) 2021-01-05

Similar Documents

Publication Publication Date Title
WO2018116686A1 (ja) 駐車支援装置
EP3867118B1 (en) Lidar-based trailer tracking
US10220820B2 (en) Vehicle and method for controlling the same
CN110573905B (zh) 障碍物检知装置
US10733420B2 (en) Systems and methods for free space inference to break apart clustered objects in vehicle perception systems
US20190056231A1 (en) Method and apparatus for participative map anomaly detection and correction
US11433886B2 (en) System, vehicle and method for adapting a driving condition of a vehicle upon detecting an event in an environment of the vehicle
US20180074200A1 (en) Systems and methods for determining the velocity of lidar points
CN102673560A (zh) 识别拐弯机动的方法和驾驶员辅助系统
US11699250B1 (en) System and method for low visibility driving
WO2019187716A1 (ja) 駐車支援装置
WO2019151156A1 (ja) 物体検知装置および駐車支援装置
JP6579144B2 (ja) 障害物検知装置
CN113264042A (zh) 隐藏危险情况警示
US11205343B2 (en) Methods and systems for interpretating traffic signals and negotiating signalized intersections
JP2018130994A (ja) 駐車支援装置
US20210370919A1 (en) Information processing device and information processing method
JP2019096161A (ja) 車両制御装置、車両制御方法、およびプログラム
CN113581166A (zh) 运输工具辅助或控制系统及其作为领航器件的应用
CN110794824A (zh) 超声波信号三角测量
US20230227027A1 (en) Vehicle and control method thereof
US20230228592A1 (en) System and Method for Updating High-Definition Maps for Autonomous Driving
EP4004668B1 (en) A method for forming a travelling path for a vehicle
US20240116526A1 (en) Methods and systems for detecting blind spots
KR20210100777A (ko) 차량의 위치를 결정하는 장치 및 그의 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17883256

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17883256

Country of ref document: EP

Kind code of ref document: A1