WO2019008760A1 - 駐車支援方法及び駐車支援装置 - Google Patents

駐車支援方法及び駐車支援装置 Download PDF

Info

Publication number
WO2019008760A1
WO2019008760A1 PCT/JP2017/025007 JP2017025007W WO2019008760A1 WO 2019008760 A1 WO2019008760 A1 WO 2019008760A1 JP 2017025007 W JP2017025007 W JP 2017025007W WO 2019008760 A1 WO2019008760 A1 WO 2019008760A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
parking
turning
parking space
moving body
Prior art date
Application number
PCT/JP2017/025007
Other languages
English (en)
French (fr)
Inventor
康啓 鈴木
佐藤 行
田中 大介
康裕 櫻井
僚大 山中
隼也 小林
Original Assignee
日産自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社 filed Critical 日産自動車株式会社
Priority to CN201780091854.7A priority Critical patent/CN110730735B/zh
Priority to US16/625,490 priority patent/US10926701B2/en
Priority to KR1020207003268A priority patent/KR102145747B1/ko
Priority to EP21157808.3A priority patent/EP3842294B1/en
Priority to MX2019015110A priority patent/MX2019015110A/es
Priority to JP2019528318A priority patent/JP6801785B2/ja
Priority to MYPI2019007912A priority patent/MY181311A/en
Priority to BR112020000272-0A priority patent/BR112020000272B1/pt
Priority to PCT/JP2017/025007 priority patent/WO2019008760A1/ja
Priority to CA3069117A priority patent/CA3069117C/en
Priority to EP17916473.6A priority patent/EP3650284B1/en
Priority to RU2020105657A priority patent/RU2729330C1/ru
Publication of WO2019008760A1 publication Critical patent/WO2019008760A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/06Automatic manoeuvring for parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/22
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/02Control of vehicle driving stability
    • B60W30/045Improving turning performance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/056Detecting movement of traffic to be counted or controlled with provision for distinguishing direction of travel
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/141Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces
    • G08G1/143Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces inside the vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/02Control of vehicle driving stability
    • B60Y2300/045Improving turning performance, e.g. agility of a vehicle in a curve
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/06Automatic manoeuvring for parking

Definitions

  • the present invention relates to a parking assistance method and a parking assistance device.
  • Patent Document 1 an invention for supporting parking of an occupant is known (Patent Document 1).
  • the invention described in Patent Document 1 searches for a vacant parking space while traveling, and when a vacant parking space is detected, an image showing the vacant parking space is displayed on the display.
  • the present invention has been made in view of the above problems, and an object thereof is to provide a parking assistance method and a parking assistance apparatus capable of suppressing giving erroneous information to a passenger.
  • a parking assistance method displays an assistance image indicating a vacant parking space at a position of a vacant parking space in an ambient image of an area including a mobile body viewed from above.
  • the parking support method determines whether the moving body is turning or not, and when it is determined that the moving body is turning, the display of the support image is prohibited.
  • FIG. 1 is an overall configuration diagram of a parking assistance device according to an embodiment of the present invention.
  • FIG. 2 is a configuration diagram of part of the parking assistance device according to the embodiment of the present invention.
  • FIG. 3 is a traveling scene for explaining an operation example of the parking assistance device according to the embodiment of the present invention.
  • FIG. 4 is a diagram for explaining an operation example of the parking assistance device according to the embodiment of the present invention.
  • FIG. 5 is a traveling scene for explaining another operation example of the parking assistance device according to the embodiment of the present invention.
  • FIG. 6 is a diagram for explaining another operation example of the parking assistance device according to the embodiment of the present invention.
  • FIG. 7 is a traveling scene for explaining still another operation example of the parking assistance device according to the embodiment of the present invention.
  • FIG. 1 is an overall configuration diagram of a parking assistance device according to an embodiment of the present invention.
  • FIG. 2 is a configuration diagram of part of the parking assistance device according to the embodiment of the present invention.
  • FIG. 3 is a traveling scene
  • FIG. 8A is a flowchart for explaining an operation example of the parking assistance device according to the embodiment of the present invention.
  • FIG. 8B is a flowchart for explaining an operation example of the parking assistance device according to the embodiment of the present invention.
  • FIG. 9 is a view for explaining still another operation example of the parking assistance device according to the embodiment of the present invention.
  • the parking assistance device according to the present embodiment is applied to a vehicle capable of switching between automatic driving and manual driving, but is not limited to this.
  • the parking assistance device according to the present embodiment is applicable to various mobile bodies, and, for example, industrial vehicles (for example, trucks), planes, aircraft, underwater vehicles (for example, seabed explorers, submarines), inverted stands
  • the invention is also applicable to pendulum type machines, cleaning robots and the like.
  • the automatic driving in this embodiment refers to, for example, a state in which at least one actuator among actuators such as a brake, an accelerator, and a steering is controlled without the driver's operation. Therefore, as long as at least one actuator is controlled, the other actuators may be operated by the operation of the driver.
  • the manual driving in the present embodiment means, for example, a state where the driver is operating an operation necessary for traveling such as a brake, an accelerator, a steering, and the like.
  • the parking assistance device includes a controller 1, cameras 2a to 2d, steering angle sensor 3, steering wheel angle sensor 4, wheel speed sensor 6, space recognition sensor 7, input interface 8, display unit 9, vehicle A control ECU 10 and an actuator 11 are provided.
  • the cameras 2a to 2d each have an imaging device such as a charge-coupled device (CCD) or a complementary metal oxide semiconductor (CMOS), and images the periphery of the vehicle.
  • the camera 2a is mounted in front of the host vehicle and captures an image of the front of the host vehicle.
  • the camera 2b is mounted behind the host vehicle and captures an image of the rear of the host vehicle.
  • the camera 2c is mounted on the left side of the host vehicle and captures an image of the left side of the host vehicle.
  • the camera 2d is mounted on the right side of the host vehicle, and images the right side of the host vehicle. Each camera is installed below the roof of the host vehicle.
  • each camera Since each camera is installed below the roof of the own vehicle, it is difficult to display an image actually taken from the information of the own vehicle.
  • the tire of the host vehicle since the tire of the host vehicle is stored in the tire house, it is difficult to image the outer circular surface (the side surface when the tire is a cylinder) of the host vehicle. That is, since it is difficult to image the tires of the host vehicle and the host vehicle, it is difficult to obtain an actual image of the host vehicle and the tire. Therefore, instead of the actual image of the host vehicle, a host vehicle icon (image imitating the host vehicle) described later is used.
  • the steering angle sensor 3 detects the steering angle of the host vehicle when the host vehicle parks in the vacant parking space (or until parking). When detecting the steering angle of the host vehicle, the steering angle sensor 3 may directly detect the direction of the tire of the host vehicle, or may detect the steering angle from the angle of steering of the host vehicle. The steering angle sensor 3 outputs the detected steering angle to the controller 1. In addition, the timing which detects a steering angle does not necessarily need to be detected all the time until it parks, and should just be calculated by the timing set beforehand.
  • the steering wheel angle sensor 4 detects a steering wheel angle (steering angle) of the host vehicle, and outputs the detected steering wheel angle to the controller 1.
  • the wheel speed sensor 6 detects the speed of the vehicle and outputs the detected speed to the controller 1.
  • the space recognition sensor 7 is a sensor for detecting an object present around the host vehicle, and is, for example, a laser range finder.
  • the laser range finder irradiates an infrared laser toward the object, and measures the distance to the object by the intensity of the reflected light.
  • the laser range finder acquires the measured distance as point cloud information, and outputs the point cloud information to the sensor information processing unit 104.
  • the objects present around the host vehicle are stationary objects including other vehicles, motorcycles, bicycles, moving objects including pedestrians, and parked vehicles.
  • the space recognition sensor 7 is not limited to the laser range finder.
  • the space recognition sensor 7 may be, for example, a clearance sonar using ultrasonic waves, a monocular camera, or a stereo camera having a pair of cameras as long as it can detect the distance to the object and the presence or absence of the object.
  • the input interface 8 is a device that receives an input by an occupant of the host vehicle.
  • the input interface 8 is, for example, a touch panel provided in the display unit 9.
  • the input interface 8 may be a joystick or an operation switch, or may be a voice input device.
  • the controller 1 is a circuit that processes data acquired from various sensors, and is a general-purpose microcomputer including, for example, a CPU (central processing unit), a memory, and an input / output unit.
  • a computer program for causing a microcomputer to function as the controller 1 is installed in the microcomputer and executed.
  • the microcomputer functions as the controller 1.
  • the controller 1 includes, as a plurality of information processing circuits, a peripheral image generation unit 101, an image display circuit 102, an icon storage unit 103, a sensor information processing unit 104, a parking assistance calculation unit 105, and a turn determination unit 106.
  • the image display circuit 102 includes a support image generation unit 1021, a display switching control unit 1022, and an image combining unit 1023.
  • the peripheral image generation unit 101 (surrounding image generation circuit) sets a virtual view point and a projection plane determined in advance based on the images of the surroundings of the host vehicle taken by the four cameras 2a to 2d. As seen from below (direction of the vehicle), an image (overhead image) is generated.
  • a method of generating a bird's-eye view image is a known technique, so a detailed description will be omitted.
  • the peripheral image generation unit 101 receives an image captured by a camera provided in a parking lot outside the host vehicle, a camera of another vehicle, by wireless communication, and generates an overhead image (surrounding image). May be In the present embodiment, it is not necessary to use an image (vehicle icon) imitating the own vehicle by using the image captured from the upper part of the own vehicle.
  • the sensor information processing unit 104 uses the information acquired from the space recognition sensor 7 to estimate a travel path on which the host vehicle travels. In addition, the sensor information processing unit 104 estimates a parking area (parking frame) existing in the vicinity of the estimated runway. The sensor information processing unit 104 estimates a range in which the host vehicle can travel based on the estimated travel route and parking frame. Also, the sensor information processing unit 104 may detect the parking frame using the white line of the road surface.
  • the turning determination unit 106 determines, using the steering wheel angle acquired from the steering wheel angle sensor 4, whether or not the host vehicle is turning.
  • the turning determination unit 106 outputs the determination result to the display switching control unit 1022.
  • the support image generation unit 1021 generates a support image for supporting parking.
  • the support image may be stored in advance in the icon storage unit 103.
  • the support image generation unit 1021 may read the support image from the icon storage unit 103.
  • the support image generation unit 1021 outputs the generated support image to the display switching control unit 1022.
  • the display switching control unit 1022 switches whether to output the support image acquired from the support image generation unit 1021 to the image combining unit 1023 in accordance with the determination result by the turning determination unit 106. For example, when the steering wheel angle is ⁇ 180 degrees or more, the display switching control unit 1022 outputs the support image to the image combining unit 1023. Details will be described later.
  • the image combining unit 1023 superimposes the icon (image imitating the own vehicle) acquired from the icon storage unit 103 on the overhead image generated by the surrounding image generating unit 101 to generate a combined image.
  • the image combining unit 1023 acquires a support image from the display switching control unit 1022
  • the image combining unit 1023 superimposes the support image on the overhead image.
  • the image combining unit 1023 outputs the combined image to the display unit 9.
  • the parking support calculation unit 105 is based on the information input to the input interface 8, the data obtained by the sensor information processing unit 104, the steering angle detected by the steering angle sensor 3, and the speed detected by the wheel speed sensor 6. Control signal of the vehicle.
  • the parking support operation unit 105 outputs the calculated control signal to the vehicle control ECU 10.
  • the vehicle control ECU 10 automatically controls driving of the actuator 11 in driving / braking and steering of the own vehicle based on the control signal and the like acquired from the parking assist computing unit 105.
  • the display unit 9 is a device for displaying various information to the occupant, and is, for example, a display for navigation provided in a vehicle compartment.
  • the parking assistance calculation unit 105 includes a target parking frame setting unit 1051, a parking start position setting unit 1052, a self position estimation unit 1053, a parking path generation unit 1054, and a parking path tracking control unit 1055. And a target speed generation unit 1056.
  • the target parking frame setting unit 1051 sets the parking position, which the occupant has input to the input interface 8, as a target parking position.
  • the target parking frame setting unit 1051 outputs the set target parking position to the parking start position setting unit 1052 and the parking path generation unit 1054.
  • the parking start position setting unit 1052 determines a suitable parking method for parking at the target parking position, and sets a parking start position suitable for the determined parking method.
  • the parking method is, for example, parallel parking or parallel parking.
  • the parking start position setting unit 1052 outputs the set parking start position to the parking path generation unit 1054.
  • Self position estimation unit 1053 estimates the current position of the host vehicle based on detection data of wheel speed sensor 6 and steering angle sensor 3 and the like.
  • a dead reckoning method for estimating the position and attitude of the host vehicle based on the relationship between the travel distance at the center of the rear wheel axle and the front wheel steering angle. The dead reckoning method is useful when considering traveling in a limited section such as a parking operation.
  • the self-position estimation unit 1053 may calculate the relative positional relationship between the detection data detected by the space recognition sensor 7 and the vehicle, the white line on the road surface photographed by the cameras 2a to 2d, the object recognition result and the vehicle It is also possible to estimate the self position by the relative positional relationship of Further, the self position estimation unit 1053 may estimate the absolute position of the host vehicle, that is, the position of the host vehicle with respect to a predetermined reference point, using a position detection sensor.
  • the position detection sensor is a device mounted on the host vehicle and measuring an absolute position of the host vehicle such as GPS (Global Positioning System) or odometry.
  • Self position estimation unit 1053 outputs the estimated self position to parking path tracking control unit 1055.
  • the parking path generation unit 1054 generates a parking path from the parking start position set by the parking start position setting unit 1052 to the target parking position. For example, the parking path generation unit 1054 generates a parking path such that the number of turns and the amount of steering can be minimized so as not to give a sense of discomfort to the occupant.
  • the parking path generation unit 1054 outputs the generated parking path to the parking path following control unit 1055 and the target speed generation unit 1056.
  • the parking path following control unit 1055 performs automatic parking control along the parking path based on the parking path generated by the parking path generation unit 1054 and the self position estimated by the self position estimation portion 1053. Generate control signals of For example, the parking path tracking control unit 1055 generates control signals related to the steering angle and the shift position. The parking path tracking control unit 1055 outputs the generated control signal to the vehicle control ECU 10.
  • the target speed generation unit 1056 generates a control signal for performing automatic parking control along the parking path generated by the parking path generation unit 1054. For example, the target speed generation unit 1056 generates a control signal related to the speed (accelerator amount or brake amount). The target speed generation unit 1056 outputs the generated control signal to the vehicle control ECU 10.
  • the vehicle control ECU 10 controls the actuator 11 based on the control signal generated by the parking path tracking control unit 1055 and the target speed generation unit 1056 to realize automatic parking control.
  • the scene shown in FIG. 3 is a scene for searching for the vacant parking space 23 when the vehicle 22 travels in the parking lot.
  • the road markings 30, 31, 32, 33 shown in FIG. 3 are road markings provided on the road surface.
  • the road markings 30, 31, 33 are road markings that indicate that straight travel is possible.
  • the road marking 32 is a road marking that indicates that a right turn is possible.
  • the other vehicle 21 shown in FIG. 3 is a parked vehicle.
  • the time when the host vehicle 22 is traveling in the parking lot is when traveling on a road adjacent to the vacant parking space.
  • the vacant parking space it is parked, which is different from when traveling in the parking lot.
  • the time when traveling on the vacant parking space may be included.
  • traveling in the parking lot if the road adjacent to the vacant parking space is narrow, the vehicle may travel on the vacant parking space, for example, when moving away from another vehicle.
  • FIG. 4 shows a bird's-eye view image 20 in which the host vehicle 22 is viewed from the upper side in the scene shown in FIG.
  • the turning determination unit 106 determines whether the host vehicle 22 is turning. For example, the turning determination unit 106 determines that the host vehicle 22 is turning when the steering wheel angle is ⁇ 180 degrees or more. On the other hand, when the steering wheel angle is less than ⁇ 180 degrees, the turning determination unit 106 determines that the host vehicle 22 is not turning. In the present embodiment, when the vehicle 22 is not turning, the vehicle 22 is traveling straight.
  • the image combining unit 1023 displays support images 24 and 25 (first support image) in the vacant parking space 23.
  • the image combining unit 1023 displays the support images 24 and 25 (first support image) in the free parking space 23.
  • the support images 24 and 25 are images indicating that the parking space is an empty parking space.
  • the support image 25 is an image in which the parking space is a vacant parking space and shows a recommended parking space.
  • the recommended parking space is, for example, a space that is easy to park.
  • the recommended parking space may be a space having a short parking time or a space having a short parking path.
  • the recommended parking space may be a space where the parking path is not steep, a space where backward parking can be performed, or a space where it is easy to leave the house.
  • the support image 24 is an image showing that the parking space is merely available.
  • the assistance images 24 and 25 are displayed on the vacant parking space 23 while the vehicle 22 is traveling straight, whereby the occupant can easily grasp that the vacant parking space 23 is vacant. .
  • This allows the occupant to take action to park in the desired vacant parking space. For example, if automatic parking control is possible as in the present embodiment, when an occupant touches the support image 25 (recommended parking space), parking control to the target parking position is automatically performed.
  • the scene shown in FIG. 5 is a scene in which the vehicle 22 has advanced slightly from the scene shown in FIG. In the scene shown in FIG. 5, it is assumed that the vehicle 22 is turning to the right and the steering wheel angle is 180 degrees or more in the clockwise direction.
  • FIG. 6 An overhead image 20 in the scene shown in FIG. 5 is shown in FIG. As shown in FIG. 6, when the sensor information processing unit 104 detects the vacant parking space 23 around the host vehicle 22, the turning determination unit 106 determines whether the host vehicle 22 is turning.
  • the image combining unit 1023 does not display the support image 24 or the support image 25 shown in FIG. .
  • the image combining unit 1023 prohibits the display of the support image 24 and the support image 25.
  • the reason is that the sensor information processing unit 104 may erroneously detect the state of the vacant parking space 23 when the vehicle 22 is turning.
  • the erroneous detection of the state of the vacant parking space 23 means, for example, detecting a space which is not the vacant parking space 23 as a vacant parking space.
  • the movement of the camera located far from the center of the turning is faster than the movement of the camera located near the center of the turning. This may reduce the accuracy of the camera located far from the center of turning. Thereby, the camera located far from the center of turning may erroneously detect the state of the vacant parking space 23.
  • the closer to the host vehicle 22 (including the parking space) the faster the movement on the image becomes, which makes it difficult to detect an object using an image, so sensor information
  • the state of the vacant parking space 23 may be erroneously detected.
  • the resolution is worse as the object is farther from the host vehicle 22, so it is difficult to detect an object far from the host vehicle 22. Furthermore, the host vehicle moves on the image by turning It is difficult to detect an object far from 22. Therefore, when the host vehicle 22 is turning, the image combining unit 1023 prohibits the display of the support image 24 and the support image 25.
  • the image combining unit 1023 displays the support images 24 and 25 in the free parking space 23, first, the image combining unit 1023 recognizes the free parking space 23 of the overhead image 20. Next, the image combining unit 1023 displays the support images 24 and 25 in the recognized free parking space 23.
  • the image combining unit 1023 performs such processing, if the vehicle 22 moves, the vacant parking space 23 of the overhead image 20 recognized by the image combining unit 1023 also moves.
  • the recognized vacant parking space 23 moves.
  • a time lag occurs when the image combining unit 1023 recognizes the vacant parking space 23 and when displaying the assistance images 24 and 25 in the recognized vacant parking space 23. Due to this time lag, there is a possibility that the position of the vacant parking space 23 and the positions of the support images 24 and 25 may be shifted.
  • the host vehicle 22 is turning, the accuracy of the camera located far from the center of turning may decrease, and this display deviation may increase.
  • the image combining unit 1023 appropriately selects the support images 24 and 25. It will be difficult to display in any position.
  • the accuracy of the camera located far from the center of turning is lowered, which may cause the road markings 31 and 32 shown in FIG. 5 to be erroneously detected as parking frames. .
  • the sensor information processing unit 104 may erroneously detect the state of the vacant parking space 23. Therefore, the image combining unit 1023 supports the vacant parking space 23 The display of the images 24 and 25 is prohibited. Thus, the image combining unit 1023 can suppress giving erroneous information to the occupant.
  • display prohibition of the support images 24 and 25 has been described, but the present invention is not limited to this.
  • the image combining unit 1023 may prohibit the display of the parking frame 27 shown in FIG.
  • the scene shown in FIG. 7 is a scene showing a state immediately after the host vehicle 22 switches from turning to going straight.
  • the image combining unit 1023 prohibits the display of the support images 24 and 25 with respect to the vacant parking space 28 present behind the host vehicle 22.
  • the vacant parking space 28 is a vacant parking space detected while the host vehicle 22 is turning, so there is a possibility of false detection.
  • the image combining unit 1023 displays the support images 24 and 25 for the free parking space 29 detected while the host vehicle 22 travels straight.
  • the free parking space may include a free parking space that matches the parking conditions previously entered by the occupant.
  • an empty parking space that meets the parking conditions entered by the occupant is simply referred to as a parking target.
  • the type of vacant parking space can be classified according to whether or not a predetermined condition is satisfied. For example, if the condition of being vacant is satisfied, it becomes a vacant parking space. If the recommended conditions are met, it will be a recommended parking space. If the occupant satisfies the parking condition input in advance, the parking target is obtained.
  • the image combining unit 1023 displays a support image on the parking target, but the support image displayed at this time is preferably a support image different from the support image 24 or the support image 25 .
  • the support image displayed on the parking target may be the support image 24 or the support image 25.
  • the image combining unit 1023 prohibits displaying the support images 24 and 25 in the vacant parking space, but the present invention is not limited to this.
  • the image combining unit 1023 may prohibit the display of the support images 24 and 25 in accordance with the type of vacant parking space. In other words, the image combining unit 1023 may display the support images 24 and 25 in accordance with the type of empty parking space. For example, if the parking target and a simple vacant parking space are detected while the host vehicle 22 is turning, the image combining unit 1023 prohibits the display of the assistance image for the parking target and the assistance image for the simple vacant parking space 24 may be displayed.
  • the image combining unit 1023 can suppress giving erroneous information to the passenger by prohibiting the display of the support image only for the parking target.
  • the image combining unit 1023 prohibits the display of the support image only for the parking target, and the recommended parking space
  • the support image 25 may be displayed, and the support image 24 may be displayed for a simple empty parking space.
  • step S101 the sensor information processing unit 104 searches for a vacant parking space based on the information acquired from the space recognition sensor 7.
  • the process proceeds to step S103, and when the sensor information processing unit 104 detects an empty parking space around the host vehicle 22 (Yes in step S103), the process proceeds to step S105.
  • step S103 when the sensor information processing unit 104 does not detect an empty parking space around the host vehicle 22 (No in step S103), the process stands by.
  • step S105 the turning determination unit 106 determines whether the host vehicle 22 is turning. For example, the turning determination unit 106 determines that the host vehicle 22 is turning when the steering wheel angle is ⁇ 180 degrees or more. If the turning determination unit 106 determines that the host vehicle 22 is turning (Yes in step S105), the process proceeds to step S107, and the image combining unit 1023 displays the support images 24 and 25 in the free parking space 23. do not do. The reason is that the sensor information processing unit 104 may erroneously detect the state of the empty parking space 23 when the host vehicle 22 is turning.
  • step S105 when the turning determination unit 106 determines that the host vehicle 22 is traveling straight (No in step S105), the process proceeds to step S109, and the image combining unit 1023 determines as shown in FIG. , 25 is displayed on the vacant parking space 23.
  • the image combining unit 1023 determines as shown in FIG. , 25 is displayed on the vacant parking space 23.
  • step S115 when the occupant selects a desired vacant parking space via the input interface 8 (Yes in step S115), the process proceeds to step S117. On the other hand, when there is no input by the occupant, the process returns to step S103.
  • step S117 the target parking frame setting unit 1051 sets the vacant parking space selected by the occupant as the target parking position.
  • the parking start position setting unit 1052 determines a parking method, and sets a parking start position suitable for the determined parking method. In this flowchart, the parking method is described as backward parking. Thereafter, the process proceeds to step S119, and the parking path generation unit 1054 generates a parking path from the parking start position set in step S117 to the target parking position. Next, the process proceeds to step S121, and the vehicle control ECU 10 starts automatic parking control.
  • step S123 the self-position estimation unit 1053 determines whether or not the host vehicle 22 has reached a position where the shift position is to be switched. If the host vehicle 22 has reached the position to switch the shift position (Yes in step S123), the process proceeds to step S125, and the vehicle control ECU 10 performs shift switching control. Thereafter, the vehicle control ECU 10 continues automatic parking control, and the process proceeds to step S127. On the other hand, when the vehicle 22 has not reached the position where the shift position is to be switched (No in step S123), the process waits. In step S127, the self position estimation unit 1053 determines whether or not the host vehicle 22 has reached the target parking position. If the vehicle 22 has reached the target parking position (Yes in step S127), the process proceeds to step S129, and the vehicle control ECU 10 performs control such as setting the shift position to parking, and the automatic parking control ends Do.
  • the turning determination unit 106 determines whether the host vehicle 22 is turning.
  • the image combining unit 1023 displays the support images 24 and 25 in the vacant parking space 23 in the overhead image 20, as shown in FIG. Prohibit that.
  • the assistance images 24 and 25 are displayed at the position of the vacant parking space. Since the support image can be given to the occupant in a situation where the erroneous information is less likely to be given to the occupant, the occupant can accurately grasp the parking situation.
  • the image combining unit 1023 supports the support image 24 with respect to the empty parking space 28 existing behind the host vehicle 22 immediately after switching. , Prohibit the display of 25.
  • the parking assistance device can suppress giving erroneous information to the occupant.
  • the turning determination unit 106 determines that the subject vehicle 22 is turning when the turning angle of the subject vehicle 22 is equal to or greater than a predetermined value.
  • the parking assistance apparatus can suppress giving erroneous information to the occupant by the image combining unit 1023 prohibiting the display of the support images 24 and 25.
  • the turning angle of the host vehicle 22 may be a steering wheel angle or a steering angle.
  • the image combining unit 1023 prohibits displaying the support images 24 and 25 in the vacant parking space 23.
  • the combining unit 1023 may display the support image 26 (second support image) at a fixed position different from the vacant parking space 23.
  • the support image 26 is an image indicating that the vacant parking space 23 has been detected around the host vehicle 22. Since the support image 26 is not an image showing the empty parking space 23 itself, the support image 26 is displayed at a position different from the empty parking space 23. Since the support image 26 is displayed at a position different from the vacant parking space 23, the passenger can easily grasp the presence of the vacant parking space 23 by confirming the assistance image 26.
  • the image combining unit 1023 erases the support image 26 when the host vehicle 22 switches from turning to going straight.
  • the image combining unit 1023 displays the assistance images 24 and 25 in the vacant parking space. Therefore, when the host vehicle 22 is traveling straight, the support image 26 is not necessary. Therefore, the image combining unit 1023 erases the support image 26 when the host vehicle 22 switches from turning to going straight.
  • the assistance image 26 shown in FIG. 9 was represented by square shape and the assistance images 24 and 25 shown in FIG. 4 were represented by round shape, it is not limited to this.
  • the support image 26 and the support images 24 and 25 may be any shape that can be distinguished.
  • the image combining unit 1023 may thin the color of the support image 26 (eg, gray) instead of deleting the support image 26.
  • the turning determination unit 106 may determine whether or not the host vehicle 22 is turning according to the steering wheel angle and the speed. For example, when the steering wheel angle is ⁇ 180 degrees or more and the speed of the host vehicle 22 is 3 km / h or more, the turning determination unit 106 may determine that the host vehicle 22 is turning. As described above, the image combining unit 1023 prohibits the display of the support images 24 and 25 when the steering wheel angle of the host vehicle 22 is equal to or greater than a predetermined value and the speed of the host vehicle 22 is equal to or greater than a predetermined value (second predetermined value). As a result, the parking assistance apparatus can suppress giving erroneous information to the occupant.
  • the turning determination unit 106 may determine that the vehicle 22 is not turning. Further, when the steering wheel angle is less than ⁇ 180 degrees, the turning determination unit 106 may determine that the host vehicle 22 is not turning regardless of the speed of the host vehicle 22.
  • the numerical values of ⁇ 180 degrees and 3 km / h are merely examples, and the present invention is not limited to this and can be changed as appropriate.
  • the operation mode when the sensor information processing unit 104 searches for a vacant parking space may be a manual operation by an occupant or an automatic operation.
  • Reference Signs List 1 controller 2a to 2d camera 3 steering angle sensor 4 steering wheel angle sensor 6 wheel speed sensor 7 space recognition sensor 8 input interface 9 display unit 11 actuator 101 peripheral image generation unit 102 image display circuit 103 icon storage unit 104 sensor information processing unit 105 parking Support calculation unit 106 Rotation determination unit 1021 Support image generation unit 1022 Display switching control unit 1023 Image composition unit

Abstract

駐車支援装置は、移動体の周囲を上方から見た周囲画像を生成する周囲画像生成回路(101)と、周囲画像における空き駐車スペースの位置に、空き駐車スペースであることを示す支援画像を表示する画像表示回路(102)と、移動体が旋回中か否かを判定する旋回判定回路(106)と、を備える。画像表示回路(102)は、旋回判定回路(106)によって移動体が旋回中であると判定された場合、支援画像の表示を禁止する。

Description

駐車支援方法及び駐車支援装置
 本発明は、駐車支援方法及び駐車支援装置に関する。
 従来より、乗員の駐車を支援する発明が知られている(特許文献1)。特許文献1に記載された発明は、走行中に空き駐車スペースを探索し、空き駐車スペースを検出した場合、空き駐車スペースを示す画像をディスプレイに表示する。
特開2008ー96362号公報
 しかしながら、自車両が旋回中において、自車両の周囲における空き駐車スペースの状態を誤検出してしまい、自車両の乗員に対して、誤った情報を与えてしまうおそれがある。特許文献1に記載された発明は、この点について何ら考慮していない。
 本発明は、上記問題に鑑みて成されたものであり、その目的は、誤った情報を乗員に与えることを抑制することができる駐車支援方法及び駐車支援装置を提供することである。
 本発明の一態様に係る駐車支援方法は、移動体を含む領域を上方から見た周囲画像における空き駐車スペースの位置に、空き駐車スペースであることを示す支援画像を表示する。駐車支援方法は、移動体が旋回中であるか否か判定し、移動体が旋回中であると判定した場合、支援画像の表示を禁止する。
 本発明によれば、誤った情報を乗員に与えることを抑制することができる。
図1は、本発明の実施形態に係る駐車支援装置の全体構成図である。 図2は、本発明の実施形態に係る駐車支援装置の一部の構成図である。 図3は、本発明の実施形態に係る駐車支援装置の動作例を説明するための走行シーンである。 図4は、本発明の実施形態に係る駐車支援装置の動作例を説明する図である。 図5は、本発明の実施形態に係る駐車支援装置の他の動作例を説明するための走行シーンである。 図6は、本発明の実施形態に係る駐車支援装置の他の動作例を説明する図である。 図7は、本発明の実施形態に係る駐車支援装置のさらに他の動作例を説明するための走行シーンである。 図8Aは、本発明の実施形態に係る駐車支援装置の一動作例を説明するフローチャートである。 図8Bは、本発明の実施形態に係る駐車支援装置の一動作例を説明するフローチャートである。 図9は、本発明の実施形態に係る駐車支援装置のさらに他の動作例を説明する図である。
 以下、本発明の実施形態について、図面を参照して説明する。図面の記載において同一部分には同一符号を付して説明を省略する。本実施形態に係る駐車支援装置は、自動運転と手動運転とを切り替えることが可能な車両に適用されるが、これに限定されない。本実施形態に係る駐車支援装置は、様々な移動体に適用可能であり、例えば、工業用車両(例えば、トラック)、飛行機、飛行体、水中移動体(例えば、海底探査機、潜水艦)、倒立振り子型機械、お掃除ロボットなどにも適用可能である。なお、本実施形態における自動運転とは、例えば、ブレーキ、アクセル、ステアリングなどのアクチュエータの内、少なくとも一つのアクチュエータを運転者の操作なしに制御している状態のことを指す。そのため、少なくとも一つのアクチュエータが制御されている状態であれば、その他のアクチュエータが運転者の操作により作動していたとしても構わない。また、本実施形態における手動運転とは、例えば、ブレーキ、アクセル、ステアリングなど走行のために必要な操作を運転者が操作している状態のことを指す。
(駐車支援装置の構成)
 図1を参照して、本実施形態に係る駐車支援装置の構成を説明する。駐車支援装置は、コントローラ1と、カメラ2a~2dと、舵角センサ3と、ハンドル角センサ4と、車輪速センサ6と、空間認識センサ7と、入力インターフェース8と、表示部9と、車両制御ECU10と、アクチュエータ11とを備える。
 カメラ2a~2dは、CCD(charge-coupled device)やCMOS(complementary metal oxide semiconductor)などの撮像素子を有し、自車両の周囲を撮像する。カメラ2aは、自車両の前方に搭載され、自車両の前方を撮像する。カメラ2bは、自車両の後方に搭載され、自車両の後方を撮像する。カメラ2cは、自車両の左側に搭載され、自車両の左側を撮像する。カメラ2dは、自車両の右側に搭載され、自車両の右側を撮像する。各カメラは、自車両のルーフより下方に設置される。
 各カメラは、自車両のルーフより下方に設置されるため、実際に自車両の情報から撮像した画像を表示することは困難である。また、自車両のタイヤがタイヤハウス内に格納されているため、自車両のタイヤの外円面(タイヤを円柱とした場合の側面)を撮像することは困難である。すなわち、自車両及び自車両のタイヤを撮像が難しいため、実際の自車両及びタイヤの画像を得ることが難しい。そこで、実際の自車両の画像の代わりに後述の自車両アイコン(自車両を模した画像)を使用する。
 舵角センサ3は、自車両が空き駐車スペースに駐車する際に(もしくは、駐車するまでの間)、自車両の舵角を検出する。舵角センサ3は、自車両の舵角を検出する場合、自車両のタイヤの向きを直接検出してもよく、自車両のステアリングの角度から舵角を検出するようにしてもよい。舵角センサ3は、検出した舵角をコントローラ1に出力する。なお、舵角を検出するタイミングは、駐車するまでの間、必ずしもずっと検出する必要はなく、予め設定したタイミングで算出されればよい。
 ハンドル角センサ4は、自車両のハンドル角(ステアリングの角度)を検出し、検出したハンドル角をコントローラ1に出力する。車輪速センサ6は、自車両の速度を検出し、検出した速度をコントローラ1に出力する。
 空間認識センサ7は、自車両の周囲に存在する物体を検出するためのセンサであり、例えば、レーザレンジファインダである。レーザレンジファインダは、対象物に向けて赤外線レーザを照射し、その反射光の強度により対象物までの距離を測定する。レーザレンジファインダは、測定した距離をポイントクラウド情報として取得し、ポイントクラウド情報をセンサ情報処理部104に出力する。自車両の周囲に存在する物体とは、他車両、バイク、自転車、歩行者を含む移動物体、及び駐車車両を含む静止物体である。なお、空間認識センサ7は、レーザレンジファインダに限定されない。空間認識センサ7は、対象物までの距離、対象物の有無を検出できればよく、例えば、超音波を利用するクリアランスソナーでもよく、単眼カメラでもよく、一対のカメラを有するステレオカメラでもよい。
 入力インターフェース8は、自車両の乗員による入力を受け付ける装置である。入力インターフェース8は、例えば、表示部9に設けられるタッチパネルである。なお、入力インターフェース8は、ジョイスティックや操作スイッチでもよく、音声入力装置でもよい。
 コントローラ1は、各種センサから取得したデータを処理する回路であり、例えばCPU(中央処理装置)、メモリ、及び入出力部を備える汎用のマイクロコンピュータである。マイクロコンピュータをコントローラ1として機能させるためのコンピュータプログラムを、マイクロコンピュータにインストールして実行する。これにより、マイクロコンピュータは、コントローラ1として機能する。なお、ここでは、ソフトウェアによってコントローラ1を実現する例を示すが、もちろん、以下に示す各情報処理を実行するための専用のハードウェアを用意して、コントローラ1を構成することも可能である。コントローラ1は、複数の情報処理回路として、周辺画像生成部101と、画像表示回路102と、アイコン記憶部103と、センサ情報処理部104と、駐車支援演算部105と、旋回判定部106と、を備える。また、画像表示回路102は、支援画像生成部1021と、表示切替制御部1022と、画像合成部1023と、を備える。
 周辺画像生成部101(周囲画像生成回路)は、4台のカメラ2a~2dで撮像された自車両の周囲の画像に基づき、予め定めた仮想視点、投影面を設定し、自車両の上方から下方(車両の方向)を見たように画像(俯瞰画像)を生成する。俯瞰画像の生成方法は既知の技術であるので、詳細な説明を省略する。なお、本実施形態においては、必ずしも俯瞰画像である必要はなく、鳥瞰画像など、自車両の周囲を表示する画像(周囲画像)であればよい。なお、周辺画像生成部101は、自車両の外、駐車場に設けられたカメラ、他車両のカメラ、で撮像された画像を無線通信により受け取って、俯瞰画像(周囲画像)を生成するようにしてもよい。なお、本実施形態においては、自車両の上部から撮像された画像を用いることにより、必ずしも自車両を模した画像(車両アイコン)を用いる必要はない。
 センサ情報処理部104は、空間認識センサ7から取得した情報を用いて、自車両が走行する走路を推定する。また、センサ情報処理部104は、推定した走路の近傍に存在する駐車領域(駐車枠)を推定する。センサ情報処理部104は、推定した走路や駐車枠に基づいて自車両が走行可能な範囲を推定する。また、センサ情報処理部104は、路面の白線を用いて駐車枠を検出してもよい。
 旋回判定部106(旋回判定回路)は、ハンドル角センサ4から取得したハンドル角を用いて、自車両が旋回しているか否かを判定する。旋回判定部106は、判定結果を表示切替制御部1022に出力する。
 支援画像生成部1021は、駐車を支援するための支援画像を生成する。なお、支援画像は、予めアイコン記憶部103に記憶されていてもよい。支援画像が、アイコン記憶部103に記憶されている場合、支援画像生成部1021は、支援画像をアイコン記憶部103から読み出せばよい。支援画像生成部1021は、生成した支援画像を表示切替制御部1022に出力する。
 表示切替制御部1022は、旋回判定部106による判定結果に応じて、支援画像生成部1021から取得した支援画像を画像合成部1023に出力するか否かを切り替える。例えば、表示切替制御部1022は、ハンドル角が±180度以上である場合、支援画像を画像合成部1023に出力する。詳細は、後述する。
 画像合成部1023は、周辺画像生成部101によって生成された俯瞰画像に対し、アイコン記憶部103から取得したアイコン(自車両を模した画像)を重畳して、合成画像を生成する。また、画像合成部1023は、表示切替制御部1022から支援画像を取得した場合、この支援画像を俯瞰画像に重畳する。画像合成部1023は、合成した画像を表示部9に出力する。
 駐車支援演算部105は、入力インターフェース8に入力された情報と、センサ情報処理部104が得たデータと、舵角センサ3が検出する舵角と、車輪速センサ6が検出する速度とに基づいて、自車両の制御信号を算出する。駐車支援演算部105は、算出した制御信号を車両制御ECU10に出力する。
 車両制御ECU10は、駐車支援演算部105から取得した制御信号などに基づいて、自車両の駆動・制動、操舵におけるアクチュエータ11の駆動を自動制御する。
 表示部9は、乗員に対し様々な情報を表示する装置であり、例えば、車室内に設けられるナビゲーション用のディスプレイである。
 次に、図2を参照して、駐車支援演算部105の詳細について説明する。図2に示すように、駐車支援演算部105は、目標駐車枠設定部1051と、駐車開始位置設定部1052と、自己位置推定部1053と、駐車経路生成部1054と、駐車経路追従制御部1055と、目標速度生成部1056とを備える。
 目標駐車枠設定部1051は、乗員が入力インターフェース8に入力した駐車位置を、目標駐車位置として設定する。目標駐車枠設定部1051は、設定した目標駐車位置を駐車開始位置設定部1052及び駐車経路生成部1054に出力する。
 駐車開始位置設定部1052は、目標駐車位置に駐車するための適した駐車方式を決定し、決定した駐車方式に適した駐車開始位置を設定する。駐車方式とは、例えば縦列駐車や並列駐車などである。駐車開始位置設定部1052は、設定した駐車開始位置を駐車経路生成部1054に出力する。
 自己位置推定部1053は、車輪速センサ6及び舵角センサ3の検出データ等に基づいて、自車両の現在位置を推定する。極低速、且つ前輪操舵車においては、後輪車軸中心の走行距離と前輪操舵角との関係に基づいて、自車両の位置、及び姿勢を推定するデッドレコニング手法を用いるのが一般的である。デッドレコニング手法は、駐車動作等の限られた区間の走行を考える場合において有用である。その他の例として、自己位置推定部1053は、空間認識センサ7で検出される検出データと自車両との相対位置関係、カメラ2a~2dにより撮影される路面の白線や物体認識結果と自車両との相対位置関係、などにより自己位置を推定することも可能である。また、自己位置推定部1053は、位置検出センサを用いて、自車両の絶対位置、すなわち、所定の基準点に対する自車両の位置を推定してもよい。位置検出センサは、自車両に搭載され、GPS(グローバル・ポジショニング・システム)やオドメトリなど自車両の絶対位置を計測する装置である。自己位置推定部1053は、推定した自己位置を駐車経路追従制御部1055に出力する。
 駐車経路生成部1054は、駐車開始位置設定部1052によって設定された駐車開始位置から目標駐車位置までの駐車経路を生成する。駐車経路生成部1054は、例えば、乗員に違和感を与えないように、切り返し回数や操舵量がもっとも少なくなるような駐車経路を生成する。駐車経路生成部1054は、生成した駐車経路を駐車経路追従制御部1055及び目標速度生成部1056に出力する。
 駐車経路追従制御部1055は、駐車経路生成部1054によって生成された駐車経路と、自己位置推定部1053によって推定された自己位置とに基づいて、駐車経路に沿って自動的な駐車制御を行うための制御信号を生成する。例えば、駐車経路追従制御部1055は、操舵角やシフト位置に関する制御信号を生成する。駐車経路追従制御部1055は、生成した制御信号を車両制御ECU10に出力する。
 目標速度生成部1056は、駐車経路生成部1054によって生成された駐車経路に沿って自動的な駐車制御を行うための制御信号を生成する。例えば、目標速度生成部1056は、速度(アクセル量やブレーキ量)に関する制御信号を生成する。目標速度生成部1056は、生成した制御信号を車両制御ECU10に出力する。
 車両制御ECU10は、駐車経路追従制御部1055と目標速度生成部1056とによって生成された制御信号に基づいてアクチュエータ11を制御して、自動的な駐車制御を実現する。
(駐車支援装置の動作例)
 次に、図3~図4を参照して、駐車支援装置の一動作例を説明する。
 図3に示すシーンは、自車両22が駐車場内を走行している時、空き駐車スペース23を探索するシーンである。図3に示す路面標示30、31、32、33は、路面に設けられた路面標示である。路面標示30、31、33は、直進が可能であることを示す路面標示である。路面標示32は、右折が可能であることを示す路面標示である。図3に示す他車両21は、駐車車両である。なお、本実施形態における、自車両22が駐車場内を走行している時とは、空き駐車スペースに隣接する道路を走行している時のことである。これに対して、空き駐車スペースに駐車している時は、駐車中であり、駐車場内を走行している時とは異なる。加えて、本実施形態における、自車両22が駐車場内を走行している時に、空き駐車スペースの上を走行している時を含むようにしてもよい。駐車場内を走行している時、空き駐車スペースに隣接する道路が狭い場合、他車両と離合する場合等、空き駐車スペース上を走行する場合がある。
 図3に示すシーンにおける、自車両22を上方から見下ろした俯瞰画像20を図4に示す。図4に示すように、センサ情報処理部104が、自車両22の周囲において、空き駐車スペース23を検出した場合、旋回判定部106は、自車両22が旋回中か否かを判定する。例えば、旋回判定部106は、ハンドル角が±180度以上のとき、自車両22は旋回中であると判定する。一方、旋回判定部106は、ハンドル角が±180度未満のとき、自車両22は旋回中ではないと判定する。なお、本実施形態において、自車両22が旋回中ではない場合、自車両22は直進中である。
 図4に示すように、旋回判定部106が、自車両22は旋回中ではないと判定したとき、つまり、旋回判定部106が、自車両22は直進中であると判定したとき、画像合成部1023は、支援画像24、25(第1支援画像)を空き駐車スペース23に表示する。また、旋回判定部106が、自車両22は旋回中から直進中に切り替わったと判定したとき、画像合成部1023は、支援画像24、25(第1支援画像)を空き駐車スペース23に表示する。支援画像24、25は、駐車スペースが空き駐車スペースであることを示す画像である。さらに、支援画像25は、駐車スペースが空き駐車スペースであり、かつ推奨駐車スペースを示す画像である。推奨駐車スペースとは、例えば、駐車しやすいスペースである。また、推奨駐車スペースは、駐車時間が短いスペースでもよく、駐車経路が短いスペースでもよい。また、推奨駐車スペースは、駐車経路が急でないスペースでもよく、後退駐車できるスペースでもよく、出庫しやすいスペースでもよい。支援画像24は、駐車スペースが単に空いていることを示す画像である。
 このように、自車両22が直進中において、支援画像24、25が、空き駐車スペース23に表示されることによって、乗員は、空き駐車スペース23が空いていることを容易に把握することができる。これにより、乗員は、所望の空き駐車スペースに駐車するための行動を取ることが可能になる。例えば、本実施形態にように自動的な駐車制御が可能であれば、乗員が支援画像25(推奨駐車スペース)をタッチすると、自動的に目標駐車位置までの駐車制御が行われる。
 次に、図5~図6を参照して、駐車支援装置の他の動作例を説明する。
 図5に示すシーンは、図3に示すシーンから自車両22が少し進んだシーンである。図5に示すシーンでは、自車両22は右方向に旋回しており、ハンドル角は、時計回り方向に180度以上であるとする。
 図5に示すシーンにおける俯瞰画像20を図6に示す。図6に示すように、センサ情報処理部104が、自車両22の周囲において、空き駐車スペース23を検出した場合、旋回判定部106は、自車両22が旋回中か否かを判定する。
 図6に示すように、旋回判定部106が、自車両22は旋回中であると判定したとき、画像合成部1023は、図4に示す支援画像24や支援画像25を俯瞰画像20に表示しない。換言すれば、自車両22が旋回中であるとき、画像合成部1023は、支援画像24や支援画像25を表示することを禁止する。理由は、自車両22が旋回中であるとき、センサ情報処理部104は、空き駐車スペース23の状態を誤検出するおそれがあるからである。空き駐車スペース23の状態の誤検出とは、例えば、空き駐車スペース23ではない空間を空き駐車スペースとして検出することである。自車両22が旋回中であるとき、例えば、旋回の中心から遠くに位置するカメラの動きは、旋回の中心から近くに位置するカメラの動きと比較して、早くなる。これにより、旋回の中心から遠くに位置するカメラの精度が低下する場合がある。これにより、旋回の中心から遠くに位置するカメラは、空き駐車スペース23の状態を誤検出する場合がある。また、自車両22が旋回中であるとき、自車両22に近い物体(駐車スペースを含む)ほど、画像上の動きが早くなり、画像を用いて物体を検出することが難しくなるため、センサ情報処理部104としてカメラを用いる場合は、空き駐車スペース23の状態を誤検出するおそれがあるからである。また、センサ情報処理部104としてカメラを用いる場合、自車両22に遠い物体ほど解像度が悪くなるため、自車両22に遠い物体を検出することは難しく、さらには旋回中により画像上で動く自車両22に遠い物体を検出することは難しい。そのため、自車両22が旋回中であるとき、画像合成部1023は、支援画像24や支援画像25を表示することを禁止する。
 また、旋回の中心から遠くに位置するカメラの精度が低下することにより、支援画像24、25を表示したときのずれが大きくなることも考えられる。画像合成部1023が、支援画像24、25を空き駐車スペース23に表示するとき、まず画像合成部1023は、俯瞰画像20の空き駐車スペース23を認識する。次に、画像合成部1023は、認識した空き駐車スペース23に支援画像24、25を表示する。画像合成部1023がこのような処理を行うときに、自車両22が移動すると、画像合成部1023が認識した俯瞰画像20の空き駐車スペース23も移動してしまう。つまり、画像合成部1023が空き駐車スペース23を認識し、認識した空き駐車スペース23に支援画像24、25を表示しようとする次の瞬間には、認識した空き駐車スペース23は移動してしまう。このように、画像合成部1023が空き駐車スペース23を認識したときと、認識した空き駐車スペース23に支援画像24、25を表示するときには、タイムラグが発生する。このタイムラグにより、空き駐車スペース23の位置と、支援画像24、25の位置がずれてしまうおそれがある。自車両22が旋回中であるとき、旋回の中心から遠くに位置するカメラの精度が低下することにより、この表示ずれが大きくなる場合があり、画像合成部1023は、支援画像24、25を適切な位置に表示することが難しくなる。また、自車両22が旋回中であるとき、旋回の中心から遠くに位置するカメラの精度が低下することにより、図5に示す路面標示31と路面標示32を駐車枠として誤検出するおそれがある。
 以上説明したように、自車両22が旋回中であるとき、センサ情報処理部104は、空き駐車スペース23の状態を誤検出するおそれがあるため、画像合成部1023は、空き駐車スペース23に支援画像24、25を表示することを禁止する。これにより、画像合成部1023は、誤った情報を乗員に与えることを抑制することができる。なお、図6に示す例では、支援画像24、25の表示禁止について説明したが、これに限定されない。例えば、自車両22が旋回中であるとき、画像合成部1023は、図6に示す駐車枠27の表示を禁止してもよい。
 次に、図7を参照して、駐車支援装置の他の動作例を説明する。
 図7に示すシーンは、自車両22が旋回中から直進中に切り替わった直後を示すシーンである。自車両22が旋回中から直進中に切り替わった直後において、自車両22の後方に存在する空き駐車スペース28に対し、画像合成部1023は、支援画像24、25を表示することを禁止する。空き駐車スペース28は、自車両22が旋回中に検出した空き駐車スペースであるため、誤検出の可能性があるからである。一方、自車両22が直進中に検出した空き駐車スペース29に対しては、画像合成部1023は、支援画像24、25を表示する。
 上述の動作例では、空き駐車スペースの種類として、推奨駐車スペースと、単に空いている駐車スペースの2つを取り上げて説明したが、空き駐車スペースの種類は、これに限定されない。空き駐車スペースは、乗員が予め入力した駐車条件に合致する空き駐車スペースを含んでもよい。乗員が予め入力した駐車条件に合致する空き駐車スペースを、以下では、単に駐車目標という。空き駐車スペースの種類は、所定条件を満たすか否かに応じて分類できる。例えば、空いているという条件を満たせば、空き駐車スペースとなる。推奨される条件を満たせば、推奨駐車スペースとなる。乗員が予め入力した駐車条件を満たせば、駐車目標となる。自車両22が駐車目標を検出した場合、画像合成部1023は、駐車目標に支援画像を表示するが、このときに表示される支援画像は、支援画像24や支援画像25と異なる支援画像が好ましい。もちろん、駐車目標に表示される支援画像は、支援画像24でもよく支援画像25でもよい。
 上述の動作例では、自車両22が旋回中であるとき、画像合成部1023は、空き駐車スペースに支援画像24、25を表示することを禁止したが、これに限定されない。画像合成部1023は、空き駐車スペースの種類に応じて支援画像24、25を表示することを禁止してもよい。換言すれば、画像合成部1023は、空き駐車スペースの種類に応じて支援画像24、25を表示してもよい。例えば、自車両22が旋回中に駐車目標と、単なる空き駐車スペースを検出した場合、画像合成部1023は、駐車目標に対して支援画像の表示を禁止し、単なる空き駐車スペースに対して支援画像24を表示してもよい。駐車目標は、乗員にとって好ましい駐車スペースであるため、画像合成部1023は、駐車目標のみに対して支援画像の表示を禁止することにより、誤った情報を乗員に与えることを抑制することができる。また、自車両22が旋回中に駐車目標と、推奨駐車スペースと、単なる空き駐車スペースを検出した場合、画像合成部1023は、駐車目標のみに対して支援画像の表示を禁止し、推奨駐車スペースに対して支援画像25を表示し、単なる空き駐車スペースに対して支援画像24を表示してもよい。
 次に、図8A及び図8Bのフローチャートを参照して、駐車支援装置の一動作例を説明する。
 ステップS101において、センサ情報処理部104は、空間認識センサ7から取得した情報に基づいて、空き駐車スペースを探索する。処理はステップS103に進み、センサ情報処理部104が、自車両22の周囲において、空き駐車スペースを検出した場合(ステップS103でYes)、処理はステップS105に進む。一方、ステップS103において、センサ情報処理部104が、自車両22の周囲において、空き駐車スペースを検出しない場合(ステップS103でNo)、処理は待機する。
 ステップS105において、旋回判定部106は、自車両22が旋回中か否かを判定する。例えば、旋回判定部106は、ハンドル角が±180度以上のとき、自車両22は旋回中であると判定する。旋回判定部106が、自車両22は旋回中であると判定した場合(ステップS105でYes)、処理はステップS107に進み、画像合成部1023は、支援画像24、25を空き駐車スペース23に表示しない。その理由は、自車両22が旋回中であるとき、センサ情報処理部104は、空き駐車スペース23の状態を誤検出するおそれがあるからである。
 一方、旋回判定部106が、自車両22は直進中であると判定した場合(ステップS105でNo)、処理はステップS109に進み、画像合成部1023は、図4に示すように、支援画像24、25を空き駐車スペース23に表示する。これにより、乗員は、空き駐車スペース23が空いていることを容易に把握することができる。
 処理はステップS115に進み、乗員が入力インターフェース8を介して、所望の空き駐車スペースを選択した場合(ステップS115でYes)、処理はステップS117に進む。一方、乗員の入力がない場合、処理はステップS103に戻る。
 ステップS117において、目標駐車枠設定部1051は、乗員が選択した空き駐車スペースを目標駐車位置として設定する。また、駐車開始位置設定部1052は、駐車方式を決定し、決定した駐車方式に適した駐車開始位置を設定する。なお、このフローチャートでは、駐車方式を後退駐車として説明する。その後、処理は、ステップS119に進み、駐車経路生成部1054は、ステップS117で設定された駐車開始位置から目標駐車位置までの駐車経路を生成する。次に処理は、ステップS121に進み、車両制御ECU10は、自動的な駐車制御を開始する。
 次に処理は、ステップS123に進み、自己位置推定部1053は、自車両22がシフト位置を切替える位置に到達したか否かを判定する。自車両22がシフト位置を切替える位置に到達した場合(ステップS123でYes)、処理は、ステップS125に進み、車両制御ECU10は、シフト切替制御を実施する。その後、車両制御ECU10は、自動的な駐車制御を継続し、処理はステップS127に進む。一方、自車両22がシフト位置を切替える位置に到達していない場合(ステップS123でNo)、処理は、待機する。ステップS127において、自己位置推定部1053は、自車両22が目標駐車位置に到達したか否かを判定する。自車両22が目標駐車位置に到達した場合(ステップS127でYes)、処理はステップS129に進み、車両制御ECU10は、シフト位置をパーキングにするなどの制御を実施し、自動的な駐車制御は終了する。
(作用効果)
 以上説明したように、本実施形態に係る駐車支援装置によれば、以下の作用効果が得られる。
 センサ情報処理部104が、自車両22の周囲に空き駐車スペース23を検出したとき、旋回判定部106は、自車両22が旋回中か否かを判定する。旋回判定部106が、自車両22は旋回中であると判定した場合、画像合成部1023は、図6に示すように、俯瞰画像20における空き駐車スペース23に、支援画像24、25を表示することを禁止する。これにより、センサ情報処理部104が、空き駐車スペース23の状態を誤検出したとしても、駐車支援装置は、誤った情報を乗員に与えることを抑制することができる。
 自車両22が旋回中から直進中に切り替わった場合、空き駐車スペースの位置に、支援画像24、25を表示する。誤った情報を乗員に与える可能性が低い状況で、乗員に支援画像を与えることができるため、乗員は、駐車状況を正確に把握することができるようになる。
 また、図7に示すように、自車両22が旋回中から直進中に切り替わった場合、画像合成部1023は、切り替わり直後における自車両22の後方に存在する空き駐車スペース28に対し、支援画像24、25の表示を禁止する。これにより、センサ情報処理部104が、空き駐車スペース28の状態を誤検出したとしても、駐車支援装置は、誤った情報を乗員に与えることを抑制することができる。
 また、旋回判定部106は、自車両22の旋回角度が所定値以上のとき、自車両22は旋回中であると判定する。自車両22の旋回角度が所定値以上の場合、画像合成部1023が支援画像24、25の表示を禁止することにより、駐車支援装置は、誤った情報を乗員に与えることを抑制することができる。なお、自車両22の旋回角度は、ハンドル角を用いてもよく、舵角を用いてもよい。
(その他の実施形態)
 上記のように、本発明の実施形態を記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
 本実施形態では、自車両22が旋回中であるとき、画像合成部1023は、空き駐車スペース23に支援画像24、25を表示することを禁止したが、例えば、図9に示すように、画像合成部1023は、空き駐車スペース23とは異なる一定の位置に支援画像26(第2支援画像)を表示してもよい。支援画像26は、自車両22の周囲において、空き駐車スペース23が検出されたことを示す画像である。支援画像26は、空き駐車スペース23そのものを示す画像ではないため、支援画像26は、空き駐車スペース23とは異なる位置に表示される。支援画像26が、空き駐車スペース23とは異なる位置に表示されることによって、乗員は、支援画像26を確認することにより、空き駐車スペース23の存在を容易に把握することができる。
 また、画像合成部1023は、自車両22が旋回中から直進中に切り替わったとき、支援画像26を消去する。すでに説明したように、自車両22が直進中であるときに空き駐車スペースが検出された場合、画像合成部1023は、空き駐車スペースに支援画像24、25を表示する。このため、自車両22が直進中であるとき、支援画像26は不要となる。よって、画像合成部1023は、自車両22が旋回中から直進中に切り替わったとき、支援画像26を消去する。なお、図9に示す支援画像26を四角形状で表し、図4に示す支援画像24、25を丸い形状で表したが、これに限定されない。支援画像26と支援画像24、25は、区別される形状であれば足りる。なお、画像合成部1023は、支援画像26を消去する代わりに、支援画像26の色を薄くしてもよい(例えば、グレー)。
 また、旋回判定部106は、ハンドル角と速度とに応じて、自車両22が旋回中であるか否かを判定してもよい。例えば、旋回判定部106は、ハンドル角が±180度以上であり、かつ自車両22の速度が3km/h以上の場合、自車両22が旋回中であると判定してもよい。このように、自車両22のハンドル角が所定値以上、かつ自車両22の速度が所定値(第2所定値)以上の場合に、画像合成部1023が支援画像24、25の表示を禁止することにより、駐車支援装置は、誤った情報を乗員に与えることを抑制することができる。また、旋回判定部106は、ハンドル角が±180度以上であっても、自車両22の速度が3km/h未満の場合は、自車両22は旋回中ではないと判定してもよい。また、旋回判定部106は、ハンドル角が±180度未満であるとき、自車両22の速度に関わらず、自車両22は旋回中ではないと判定してもよい。なお、±180度、3km/hという数値は、あくまで一例であり、これに限定されず、適宜変更可能である。
 なお、本実施形態において、センサ情報処理部104が空き駐車スペースを探索する際の運転モードは、乗員による手動運転でもよく、自動運転でもよい。
1 コントローラ
2a~2d カメラ
3 舵角センサ
4 ハンドル角センサ
6 車輪速センサ
7 空間認識センサ
8 入力インターフェース
9 表示部
11 アクチュエータ
101 周辺画像生成部
102 画像表示回路
103 アイコン記憶部
104 センサ情報処理部
105 駐車支援演算部
106 旋回判定部
1021 支援画像生成部
1022 表示切替制御部
1023 画像合成部

Claims (9)

  1.  移動体の周囲において所定条件を満たす空き駐車スペースを探索し、前記移動体を含む領域を上方から見た周囲画像における前記空き駐車スペースの位置に、前記空き駐車スペースであることを示す第1支援画像を表示する駐車支援装置の駐車支援方法において、
     前記移動体が旋回中であるか否か判定し、
     前記移動体が旋回中であると判定した場合、前記第1支援画像の表示を禁止する
    ことを特徴とする駐車支援方法。
  2.  前記移動体が旋回中から直進中に切り替わった場合、前記空き駐車スペースの位置に、前記第1支援画像の表示する
    ことを特徴とする請求項1に記載の駐車支援方法。
  3.  前記移動体が旋回中から直進中に切り替わった場合、切り替わり直後における前記移動体の後方に存在する前記空き駐車スペースに対し、前記第1支援画像の表示を禁止する
    ことを特徴とする請求項1または2に記載の駐車支援方法。
  4.  前記移動体の旋回角度を検出し、
     前記移動体の旋回角度が所定値以上になった場合に、前記第1支援画像の表示を禁止する
    ことを特徴とする請求項1~3のいずれか1項に記載の駐車支援方法。
  5.  前記移動体の旋回角度および、前記移動体の速度を検出し、
     前記移動体の旋回角度が所定値以上、且つ前記移動体の速度が第2所定値以上の場合に、前記第1支援画像の表示を禁止する
    ことを特徴とする請求項1~4のいずれか1項に記載の駐車支援方法。
  6.  前記移動体が旋回中に、前記空き駐車スペースを検出した場合、前記周囲画像における前記空き駐車スペースの位置とは異なる一定の位置に、前記空き駐車スペースを検出したことを示す第2支援画像を表示する
    ことを特徴とする請求項1~5のいずれか1項に記載の駐車支援方法。
  7.  前記第2支援画像を表示している時に、前記移動体が直進中となった場合、前記第2支援画像を消去する
    ことを特徴とする請求項6に記載の駐車支援方法。
  8.  移動体の周囲において所定条件を満たす空き駐車スペースを探索するために、前記移動体が駐車場内を走行している場合において、前記移動体を含む領域を上方から見た周囲画像における前記空き駐車スペースの位置に、前記空き駐車スペースであることを示す第1支援画像を表示する駐車支援装置の駐車支援方法において、
     前記移動体が旋回中であるか否か判定し、
     前記移動体が旋回中であると判定した場合、前記第1支援画像の表示を禁止する
    ことを特徴とする駐車支援方法。
  9.  移動体の周囲を上方から見た周囲画像を生成する周囲画像生成回路と、
     前記周囲画像における空き駐車スペースの位置に、前記空き駐車スペースであることを示す第1支援画像を表示する画像表示回路と、
     前記移動体が旋回中か否かを判定する旋回判定回路と、を備え、
     前記画像表示回路は、前記旋回判定回路によって前記移動体が旋回中であると判定された場合、前記第1支援画像の表示を禁止する
    ことを特徴とする駐車支援装置。
PCT/JP2017/025007 2017-07-07 2017-07-07 駐車支援方法及び駐車支援装置 WO2019008760A1 (ja)

Priority Applications (12)

Application Number Priority Date Filing Date Title
CN201780091854.7A CN110730735B (zh) 2017-07-07 2017-07-07 泊车辅助方法及泊车辅助装置
US16/625,490 US10926701B2 (en) 2017-07-07 2017-07-07 Parking assistance method and parking assistance device
KR1020207003268A KR102145747B1 (ko) 2017-07-07 2017-07-07 주차 지원 방법 및 주차 지원 장치
EP21157808.3A EP3842294B1 (en) 2017-07-07 2017-07-07 Parking assistance method and parking assistance device
MX2019015110A MX2019015110A (es) 2017-07-07 2017-07-07 Metodo de asistencia al estacionamiento y dispositivo de asistencia al estacionamiento.
JP2019528318A JP6801785B2 (ja) 2017-07-07 2017-07-07 駐車支援方法及び駐車支援装置
MYPI2019007912A MY181311A (en) 2017-07-07 2017-07-07 Parking assistance method and parking assistance device
BR112020000272-0A BR112020000272B1 (pt) 2017-07-07 2017-07-07 Método de assistência a estacionamento e dispositivo de assistência a estacionamento
PCT/JP2017/025007 WO2019008760A1 (ja) 2017-07-07 2017-07-07 駐車支援方法及び駐車支援装置
CA3069117A CA3069117C (en) 2017-07-07 2017-07-07 Parking assistance method and parking assistance device
EP17916473.6A EP3650284B1 (en) 2017-07-07 2017-07-07 Parking assistance method and parking assistance device
RU2020105657A RU2729330C1 (ru) 2017-07-07 2017-07-07 Способ помощи при парковке и устройство помощи при парковке

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/025007 WO2019008760A1 (ja) 2017-07-07 2017-07-07 駐車支援方法及び駐車支援装置

Publications (1)

Publication Number Publication Date
WO2019008760A1 true WO2019008760A1 (ja) 2019-01-10

Family

ID=64950740

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/025007 WO2019008760A1 (ja) 2017-07-07 2017-07-07 駐車支援方法及び駐車支援装置

Country Status (10)

Country Link
US (1) US10926701B2 (ja)
EP (2) EP3650284B1 (ja)
JP (1) JP6801785B2 (ja)
KR (1) KR102145747B1 (ja)
CN (1) CN110730735B (ja)
BR (1) BR112020000272B1 (ja)
CA (1) CA3069117C (ja)
MX (1) MX2019015110A (ja)
RU (1) RU2729330C1 (ja)
WO (1) WO2019008760A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11410557B2 (en) * 2018-03-22 2022-08-09 Hitachi Astemo, Ltd. Parking assistance device

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102077573B1 (ko) * 2018-01-31 2020-02-17 엘지전자 주식회사 자동 주차 시스템 및 차량
DE102018202526B4 (de) * 2018-02-20 2019-09-26 Audi Ag Verfahren zum Betreiben einer Fahrerassistenzeinrichtung eines Kraftfahrzeugs mithilfe einer Navigationszielvorgabevorrichtung, Steuereinrichtung, Navigationszielvorgabevorrichtung, und Kraftfahrzeug
JP7218172B2 (ja) * 2018-12-25 2023-02-06 フォルシアクラリオン・エレクトロニクス株式会社 車載処理装置、及び車載処理装置の制御方法
KR20210030751A (ko) * 2019-09-10 2021-03-18 현대자동차주식회사 주차공간의 탑뷰 이미지 제공 장치 및 그 방법
JP2021180382A (ja) * 2020-05-12 2021-11-18 フォルシアクラリオン・エレクトロニクス株式会社 画像処理装置及び画像処理方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007176244A (ja) * 2005-12-27 2007-07-12 Aisin Seiki Co Ltd 駐車支援装置
JP2008096362A (ja) 2006-10-13 2008-04-24 Denso Corp 車載用ナビゲーション装置
JP2012001144A (ja) * 2010-06-18 2012-01-05 Aisin Seiki Co Ltd 駐車支援装置
JP2014125195A (ja) * 2012-12-27 2014-07-07 Nissan Motor Co Ltd 駐車支援装置、駐車支援システム及び駐車支援方法
JP2017024596A (ja) * 2015-07-23 2017-02-02 Kyb株式会社 駐車誘導装置
WO2017068701A1 (ja) * 2015-10-22 2017-04-27 日産自動車株式会社 駐車スペース検出方法および装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3879958B2 (ja) * 1999-01-26 2007-02-14 マツダ株式会社 車両の周囲情報報知装置
JP3584194B2 (ja) 2000-02-22 2004-11-04 株式会社ホンダエレシス 白線検出方法および白線検出装置
JP2003219411A (ja) * 2002-01-17 2003-07-31 Clarion Co Ltd 車両周囲監視方法および車両周囲監視装置
JP4665721B2 (ja) * 2005-11-04 2011-04-06 株式会社デンソー 駐車支援システム
WO2011155464A1 (ja) * 2010-06-09 2011-12-15 日産自動車株式会社 駐車モード選択装置及び方法
MY164070A (en) * 2010-06-11 2017-11-15 Nissan Motor Parking assist apparatus and method
KR101482171B1 (ko) * 2013-09-05 2015-01-13 현대모비스(주) 어라운드뷰 정차모드 제어방법
CN107089227B (zh) * 2013-10-04 2019-11-19 本田技研工业株式会社 停车辅助装置
JP6523018B2 (ja) * 2015-03-31 2019-05-29 株式会社デンソーテン 駐車支援装置、及び駐車支援システム
RU2703478C1 (ru) 2015-10-22 2019-10-17 Ниссан Мотор Ко., Лтд. Способ и устройство помощи при парковке
CN108140312B (zh) * 2015-10-22 2020-09-29 日产自动车株式会社 停车辅助方法及停车辅助装置
JP6859216B2 (ja) * 2017-07-03 2021-04-14 トヨタ自動車株式会社 車両周辺表示装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007176244A (ja) * 2005-12-27 2007-07-12 Aisin Seiki Co Ltd 駐車支援装置
JP2008096362A (ja) 2006-10-13 2008-04-24 Denso Corp 車載用ナビゲーション装置
JP2012001144A (ja) * 2010-06-18 2012-01-05 Aisin Seiki Co Ltd 駐車支援装置
JP2014125195A (ja) * 2012-12-27 2014-07-07 Nissan Motor Co Ltd 駐車支援装置、駐車支援システム及び駐車支援方法
JP2017024596A (ja) * 2015-07-23 2017-02-02 Kyb株式会社 駐車誘導装置
WO2017068701A1 (ja) * 2015-10-22 2017-04-27 日産自動車株式会社 駐車スペース検出方法および装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3650284A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11410557B2 (en) * 2018-03-22 2022-08-09 Hitachi Astemo, Ltd. Parking assistance device

Also Published As

Publication number Publication date
EP3842294B1 (en) 2022-06-29
BR112020000272B1 (pt) 2023-03-21
RU2729330C1 (ru) 2020-08-06
EP3842294A1 (en) 2021-06-30
EP3650284B1 (en) 2021-04-28
KR102145747B1 (ko) 2020-08-20
CN110730735A (zh) 2020-01-24
KR20200024913A (ko) 2020-03-09
US10926701B2 (en) 2021-02-23
JPWO2019008760A1 (ja) 2020-04-09
EP3650284A4 (en) 2020-05-27
EP3650284A1 (en) 2020-05-13
BR112020000272A2 (pt) 2020-07-14
US20200369204A1 (en) 2020-11-26
CA3069117C (en) 2020-08-18
CN110730735B (zh) 2020-09-22
MX2019015110A (es) 2020-02-05
JP6801785B2 (ja) 2020-12-16
CA3069117A1 (en) 2019-01-10

Similar Documents

Publication Publication Date Title
JP6801787B2 (ja) 駐車支援方法及び駐車支援装置
JP6801785B2 (ja) 駐車支援方法及び駐車支援装置
CA3001287C (en) Display assistance device and display assistance method
JP6743593B2 (ja) 駐車支援装置
JP2017154711A (ja) 駐車支援装置
JP2016084094A (ja) 駐車支援装置
KR102205144B1 (ko) 주차 지원 방법 및 주차 지원 장치
JP2021119074A (ja) 駐車支援方法及び駐車支援装置
JP7059525B2 (ja) 駐車支援方法及び駐車支援装置
JP2018169268A (ja) 経路生成装置、経路生成方法、及び経路生成プログラム
JP2023051395A (ja) 駐車支援装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17916473

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019528318

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 3069117

Country of ref document: CA

NENP Non-entry into the national phase

Ref country code: DE

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112020000272

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 20207003268

Country of ref document: KR

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2017916473

Country of ref document: EP

Effective date: 20200207

ENP Entry into the national phase

Ref document number: 112020000272

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20200106