WO2020179271A1 - 表示制御装置、駐車支援装置、および表示制御方法 - Google Patents
表示制御装置、駐車支援装置、および表示制御方法 Download PDFInfo
- Publication number
- WO2020179271A1 WO2020179271A1 PCT/JP2020/002345 JP2020002345W WO2020179271A1 WO 2020179271 A1 WO2020179271 A1 WO 2020179271A1 JP 2020002345 W JP2020002345 W JP 2020002345W WO 2020179271 A1 WO2020179271 A1 WO 2020179271A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- vehicle
- parked
- image
- parking
- space
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000001514 detection method Methods 0.000 claims description 152
- 230000002093 peripheral effect Effects 0.000 claims description 66
- 239000003086 colorant Substances 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 15
- 230000005540 biological transmission Effects 0.000 description 12
- 238000012986 modification Methods 0.000 description 9
- 230000004048 modification Effects 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 3
- 240000004050 Pentaglottis sempervirens Species 0.000 description 2
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 2
- 239000000470 constituent Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R99/00—Subject matter not provided for in other groups of this subclass
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/06—Automatic manoeuvring for parking
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
Definitions
- the present disclosure relates to a display control device, a parking assistance device, and a display control method.
- Patent Document 1 a parked vehicle and an empty parking space are detected by using an ultrasonic sonar mounted on the vehicle, and the positional relationship between the own vehicle, the parked vehicle, and the empty parking space is described before the automatic parking is executed.
- a device for displaying a map image indicating the above is disclosed.
- An object of one aspect of the present disclosure is to provide a display control device, a parking assistance device, and a display control method that allow an occupant of a vehicle to easily recognize an empty parking space in which automatic parking is performed.
- a display control device includes a vehicle that performs automatic parking, a generation unit that generates a peripheral image indicating a positional relationship between a vehicle and a vacant parking space in which the vehicle can be parked, and the vehicle performs automatic parking.
- An output unit that outputs the peripheral image to a display device mounted on the vehicle before execution, and the peripheral image displayed on the display device is a vehicle image showing the vehicle, and a plurality of vehicle images.
- the automatic parking execution space image showing an automatic parking execution space is a parking space in which the vehicle is automatically parked, the peripheral image displayed on the display device, It further includes a parked vehicle image showing another vehicle.
- a parking assistance apparatus includes a travel control unit that controls travel of a vehicle and automatically parks the vehicle in an empty parking space in which the vehicle can be parked, the vehicle, and the empty parking space.
- the display device has a generation unit that generates a peripheral image showing a positional relationship and an output unit that outputs the peripheral image to a display device mounted on the vehicle before the vehicle executes automatic parking.
- the surrounding image displayed on the display device further includes a parked vehicle image showing another vehicle parked.
- a display control method is a display control method performed by a device mounted on a vehicle that performs automatic parking, and shows a positional relationship between the vehicle and an empty parking space in which the vehicle can be parked.
- the image includes an own vehicle image showing the vehicle, and an automatic parking execution space image showing an automatic parking execution space, which is a parking space in which the vehicle is automatically parked among a plurality of the empty parking spaces, and the display.
- the peripheral image displayed on the device further includes a parked vehicle image showing another vehicle parked.
- a vehicle occupant can easily recognize an empty parking space where automatic parking is performed.
- the schematic diagram which shows an example of the positional relationship of the vehicle which concerns on Embodiment 1 of this indication, a parking vehicle, and an empty parking space.
- a schematic diagram for explaining a positioning coordinate calculation method according to Embodiment 1 of the present disclosure Schematic diagram showing an example of a peripheral image according to the first embodiment of the present disclosure.
- a schematic diagram for explaining a horizontal angle calculation method according to a second embodiment of the present disclosure A schematic diagram for explaining a target range determination method according to Embodiment 2 of the present disclosure
- a schematic diagram for explaining a horizontal angle calculation method according to a third embodiment of the present disclosure Schematic diagram showing an example of a peripheral image according to the third embodiment of the present disclosure. The figure which shows an example of the hardware constitutions of the computer contained in the parking assistance apparatus which concerns on Embodiments 1-3 of this indication.
- FIG. 1 is a schematic diagram showing an example of a positional relationship among a vehicle, a parked vehicle, and an empty parking space.
- FIG. 1 shows a state in which each of a vehicle, a parked vehicle, and an empty parking space is viewed from directly above.
- parked vehicle refers to another vehicle that is parked.
- the “vacant parking space” refers to a parking space in which no other vehicle is parked.
- the vehicle 1 shown in FIG. 1 is a vehicle that executes automatic parking (for example, a passenger car).
- automated parking may be automatic parking performed without requiring all driving operations by the occupants of the vehicle, or without requiring some driving operations by the occupants of the vehicle.
- Automatic parking may be performed.
- a parking assist device mounted on the vehicle controls acceleration / deceleration, braking, and steering of the vehicle without requiring acceleration / deceleration, braking, and steering operations (in other words,). This is an operation of guiding a vehicle to an empty parking space and parking the vehicle by fully automatic driving).
- a parking assist device mounted on the vehicle controls steering without requiring steering operation, and controls acceleration / deceleration and braking based on the operation of the occupant of the vehicle to vacate the vehicle. This is an operation of guiding to a parking space and parking.
- the vehicle 1 includes an ultrasonic sonar 2 that transmits a transmission wave TP and receives a reflected wave (not shown) of the transmission wave TP.
- the vehicle 1 travels in the traveling direction A while operating the ultrasonic sonar 2, passes in front of the parked vehicles V1 to V3 that are parked in parallel, and stops at the position shown in FIG.
- the parking spaces BS1 and BS2 are detected as empty parking spaces, respectively.
- Parking spaces BS1 and BS2 are parking spaces in which one vehicle can be parked in parallel.
- the conventional device when the vehicle 1 determines the parking space BS1 as the space for automatic parking, the conventional device simply changes the directions of the parking spaces BS1 and BS2 viewed from the vehicle 1 before starting the automatic parking.
- the image shown, or, for example, in the device of Patent Document 1, an image showing the positional relationship between the parked vehicles V1 to V3, the parking spaces BS1, BS2, and the vehicle 1 shown in FIG. 1 is displayed.
- the occupant of the vehicle 1 cannot recognize whether the vehicle is parked in the parking space BS1 or BS2 even by looking at the above image. Further, the occupant of the vehicle 1 may erroneously recognize that the vehicle 1 is parked in the parking space BS2 closer to the vehicle 1.
- the present disclosure is intended to enable an occupant of the vehicle 1 to easily recognize an empty parking space where automatic parking is performed.
- FIG. 2 is a block diagram showing a configuration example of the parking support device 100 of the present embodiment.
- the parking assistance device 100 shown in FIG. 2 is mounted on the vehicle 1 shown in FIG.
- the parking assist device 100 is electrically connected to the ultrasonic sonar 2, the rear camera 3, the wheel speed sensor 4, the display device 5, and the actuator group 6 mounted on the vehicle 1.
- the ultrasonic sonar 2 is provided, for example, on the side part of the vehicle 1 as shown in FIG.
- the ultrasonic sonar 2 transmits a transmission wave TP from the side of the vehicle 1 and receives a reflected wave (not shown) of the transmission wave TP. Then, the ultrasonic sonar 2 outputs the received signal of the reflected wave to the parking assistance device 100.
- FIG. 1 illustrates the case where the ultrasonic sonar 2 is provided only on the left side of the vehicle 1, the ultrasonic sonar 2 may be provided on the right side of the vehicle 1. Further, a plurality of ultrasonic sonars 2 may be provided on the left side or the right side of the vehicle 1.
- the rear camera 3 is fixedly provided, for example, as shown in FIG. 1, at the rear end portion of the vehicle 1 in the vehicle length direction and at the center portion of the vehicle 1 in the vehicle width direction.
- the rear camera 3 photographs the rear of the vehicle 1 and outputs an image obtained by the photographing (hereinafter, referred to as a captured image) to the parking support device 100.
- FIG. 1 illustrates the case where only the rear camera 3 is provided in the vehicle 1, the camera may be provided in the front, left, or right of the vehicle 1. Further, a plurality of cameras may be provided in front of, behind, left of, or right of the vehicle 1.
- the wheel speed sensor 4 detects the rotation speed of each wheel of the vehicle 1 as a pulse signal and outputs the pulse signal to the parking support device 100.
- the vehicle 1 detects an accelerator position sensor that detects the position of the accelerator pedal, a shift position sensor that detects the position of the shift lever, and a steering angle.
- Various sensors such as a steering angle sensor and a vehicle position sensor that detects the position of the vehicle 1 may be provided. These sensors are electrically connected to the parking assistance device 100 and output signals indicating the detection result to the parking assistance device 100.
- the display device 5 is provided in the vehicle interior of the vehicle 1 and displays a peripheral image (details will be described later) showing the vehicle 1 and the periphery of the vehicle 1.
- the actuator group 6 is an actuator group that executes acceleration, deceleration, braking, steering, etc. of the vehicle 1.
- the actuator group 6 includes various actuators such as a motor actuator that executes acceleration and deceleration, a brake actuator that executes braking, and a steering actuator that executes steering.
- the parking assistance device 100 is a device that detects an empty parking space and automatically parks the vehicle 1 in the empty parking space.
- the parking assistance device 100 has, for example, a CPU (Central Processing Unit) 501, a ROM (Read Only Memory) 502 storing a computer program, and a RAM (Random Access Memory) 503 as hardware.
- the CPU 501, ROM 502, and RAM 503 are connected.
- the functions of the respective parts (see FIG. 2) of the parking assistance device 100 and the display control device 200 described below are realized by the CPU 501 executing a computer program read from the ROM 502. Further, this computer program may be recorded in a predetermined recording medium and provided to the user or the like.
- the parking support device 100 includes a sonar control unit 11, a detection unit 12, a determination unit 13, a travel control unit 14, and a display control device 200.
- the sonar control unit 11 controls the operation of the ultrasonic sonar 2. For example, the sonar control unit 11 outputs to the ultrasonic sonar 2 a control signal indicating instructions such as a transmission voltage gain of the transmission wave TP, a reception signal gain of the reflection wave, and a transmission timing of the transmission wave TP. The ultrasonic sonar 2 performs transmission/reception operation based on the content of the control signal.
- FIG. 3 is a view from directly above of a vehicle 1 equipped with a parking support device 100 searching for an empty parking space in a parking lot.
- FIG. 3 shows a case where the vehicle 1 searches for an empty parking space while slowly moving in the traveling direction A in front of the parked vehicles V0 to V3 that are parked in parallel.
- parking spaces BS1 and BS2 are parking spaces in which one vehicle can be parked in parallel, which are detected as empty parking spaces.
- the detection unit 12 will be described.
- the detection unit 12 detects the black circle point p shown in FIG. 3 based on the received signal received from the ultrasonic sonar 2.
- the point p detected by the detection unit 12 will be referred to as a “detection point p”.
- the detection unit 12 detects the speed of the transmission wave TP and the transmission of the transmission wave TP to the reception of the reflected wave.
- the distance is calculated based on time and the position separated from the ultrasonic sonar 2 by the distance is detected as the detection point p. As shown in FIG. 3, a plurality of detection points p are detected.
- the detection unit 12 determines the position of the detection point p (hereinafter referred to as the detection point position) and the distance between the detection point p and the ultrasonic sonar 2 (hereinafter referred to as the detection point distance) for each detection point p. Are associated and stored.
- the detection unit 12 detects (recognizes) a group of a plurality of detection points p.
- an aggregate of a plurality of detection points p will be referred to as a “detection point group”.
- the detection unit 12 includes a first detection point group from detection points p1 to p2, a second detection point group from detection points p3 to p4, and detection points p5 to p6.
- Each of the third detection point groups is detected.
- recess shapes (hereinafter, simply referred to as “dents”) D1 and D2 are formed by the detection point group.
- the depression D1 is formed between the parked vehicle V0 and the parked vehicle V1.
- the depression D2 is formed between the parked vehicle V1 and the parking space BS1.
- the detection point p1 included in the depression D1 is the detection point that is the rearmost in the vehicle length direction among the detection points included in the first detection point group.
- the detection point p2 included in the depression D2 is the detection point that is the rearmost in the vehicle length direction among the detection points included in the first detection point group.
- the detection unit 12 calculates the traveling distance of the vehicle 1 from the time when the detection point p is detected, based on the pulse signal received from the wheel speed sensor 4. Then, the detection unit 12 causes the rear camera 3 to detect the detection point p based on the mileage and the distance between the ultrasonic sonar 2 and the rear camera 3 in the vehicle length direction (a value known to the detection unit 12). A moving distance from the time when the vehicle passes through to the current time (hereinafter, referred to as rear camera moving distance) is calculated. Then, the detection unit 12 stores the rear camera movement distance in association with the detection point position and the detection point distance described above. The rear camera movement distance is stored for each detection point p and is updated according to the traveling of the vehicle 1.
- the detection unit 12 has been described above.
- the determination unit 13 calculates the width w of the parking space BS1 based on, for example, the detection point p2 that is the end of the first detection point group and the detection point p3 that is the end of the second detection point group.
- the determination unit 13 also determines whether or not the calculated width w is equal to or larger than the first threshold.
- the first threshold value is, for example, a total value of a vehicle width of one vehicle and a predetermined interval (for example, an interval at which a door can be opened and closed) between vehicles parked in parallel.
- the determination unit 13 determines that the parking space BS1 is an empty parking space and a parking space for parallel parking.
- the determination unit 13 determines that the parking space BS2 is also an empty parking space and is a parking space for parallel parking by the method described above.
- the determination unit 13 automatically parks one of them in the parking space (hereinafter, automatic parking execution). It is decided to be a space).
- the determination unit 13 detects the dents D1 and D2 in the first detection point group, and calculates the distance d between the dents D1 and the dent D2 (hereinafter referred to as the dent interval) d.
- the dent interval the distance between the dents D1 and the dent D2 (hereinafter referred to as the dent interval) d.
- the determination unit 13 also determines whether or not the calculated depression interval d is less than the first threshold value. When the recess interval d is less than the first threshold value, the determination unit 13 determines that the parked vehicle V1 parked in parallel exists between the recess D1 and the recess D2.
- the determination unit 13 determines that there are parked vehicles V2 and V3 that are parked in parallel by the method described above.
- the determination unit 13 determines that there is an object (for example, a wall) other than the parked vehicles parked in parallel.
- the determination unit 13 has been described above.
- Each process of the detection unit 12 and the determination unit 13 described above is repeatedly performed, for example, while the vehicle 1 is traveling along the traveling direction A in FIG. Further, the detection unit 12 and the determination unit 13 store the results of each process.
- the travel control unit 14 controls the actuator group 6 so that the vehicle 1 automatically parks in the automatic parking execution space determined by the determination unit 13. By this control, the vehicle 1 performs automatic parking in the automatic parking execution space.
- the parking space BS1 is determined as the automatic parking execution space among the parking spaces BS1 and BS2 detected as empty parking spaces by the determination unit 13 will be described as an example.
- the display control device 200 is a device that controls the display of images on the display device 5. Specifically, when the automatic parking execution space is determined, the display control device 200 generates a peripheral image showing the vehicle 1 and its surroundings before the automatic parking in the automatic parking execution space is executed. , The peripheral image thereof is output to the display device 5.
- the peripheral image is an image showing at least the positional relationship between the vehicle 1 and the automatic parking execution space, but when a parked vehicle is detected, the image showing the positional relationship between the vehicle 1, the parked vehicle, and the automatic parking execution space. It may be.
- a case where a parked vehicle is detected will be described.
- the display control device 200 has a storage unit 15, a generation unit 16, and an output unit 17.
- the storage unit 15 stores a generation image used for generating a peripheral image.
- the generation images are, for example, a parked vehicle image showing a parked vehicle, an automatic parking execution space image showing an automatic parking execution space, and an own vehicle image showing the vehicle 1.
- the generation unit 16 generates a peripheral image based on the generation image read from the storage unit 15. The details of this generation processing will be described later.
- the output unit 17 outputs the peripheral image generated by the generation unit 16 to the display device 5. As a result, the peripheral image is displayed on the display device 5. This display example will be described later.
- the display control device 200 has been described above.
- FIG. 2 illustrates the case where the display control device 200 is included in the parking assistance device 100
- the display control device 200 and the parking assistance device 100 may be separate bodies.
- the display control device 200 receives the information indicating the processing result by the detection unit 12 and the determination unit 13 from the parking assistance device 100, and performs each processing of the generation unit 16 described above based on the information.
- FIG. 4 is a flowchart showing an operation example of the display control device 200.
- the parked vehicles V1 to V3 shown in FIG. 3 are detected, the parking spaces BS1 and BS2 are detected as empty parking spaces, the automatic parking execution space is determined as the parking space BS1, and the automatic parking is executed. Started before being done.
- the vehicle 1 is, for example, stopped before the parked vehicle V3.
- the generation unit 16 calculates the positioning coordinates for each detected parked vehicle (step S1).
- the positioning coordinates are the coordinates used to determine the position where the parked vehicle image is displayed on the surrounding image.
- the calculation method of the positioning coordinates will be described with reference to FIG.
- a case of calculating the positioning coordinates corresponding to the parked vehicle V1 will be described as an example.
- the horizontal direction in the drawing will be described as an x-axis
- the vertical direction in the drawing will be described as a y-axis.
- the generation unit 16 determines the value obtained by subtracting 1/2 of the dwell interval d (d/2 in the figure) from the x coordinate of the detection point p2 as the x coordinate of the positioning coordinate.
- the generation unit 16 calculates the x coordinate of the positioning coordinate based on the distance L1 detected when the ultrasonic sonar 2 is located at the x coordinate of the positioning coordinate.
- the generation unit 16 calculates the x coordinate and the y coordinate of the positioning coordinate B.
- the generation unit 16 also calculates the positioning coordinates corresponding to each of the parked vehicles V2 and V3.
- the method of calculating the positioning coordinates is not limited to the method described above.
- the x coordinate and the y coordinate of the detection point may be determined as the positioning coordinates.
- the generation unit 16 reads the parked vehicle image, the own vehicle image, and the automatic parking execution space image from the storage unit 15 and generates a peripheral image including these images (step S2).
- FIG. 6 is a schematic view showing an example of a peripheral image.
- the parked vehicle images I1, I2, I3 and the own vehicle image I4 are overhead images showing the shape of the vehicle seen from directly above.
- the shapes and colors of the parked vehicle images I1, I2, I3 are all the same.
- the shape and color of the own vehicle image I4 are different from the shapes and colors of the parked vehicle images I1, I2, and I3.
- the shape and color of the vehicle shown in each of the parked vehicle images I1, I2, I3, and the own vehicle image I4 may differ from the shape and color of the actual parked vehicles V1 to V3 and the vehicle 1 viewed from directly above. Good.
- the automatic parking execution space image I5 is a rectangular image.
- the automatic parking execution space image I5 may have a predetermined color or pattern.
- the automatic parking execution space I5 has the same size as each of the parked vehicle images I1, I2, I3 and the own vehicle image I4.
- the generation unit 16 matches the positioning coordinates corresponding to the parked vehicle V1 with the vehicle longitudinal direction end portion of the vehicle shown by the parked vehicle image I1 and the vehicle width direction central portion of the vehicle shown by the parked vehicle image I1.
- the parked vehicle image I1 is arranged so as to do so. Further, at this time, the generation unit 16 arranges the parked vehicle image I1 along the vertical direction of the peripheral image (vertical direction in the drawing).
- the generation unit 16 arranges the parked vehicle image I2 corresponding to the parked vehicle V2 and the parked vehicle image I3 corresponding to the parked vehicle V3.
- the generation unit 16 also calculates the current position of the rear camera 3 based on the rear camera movement distance stored in association with a predetermined detection point p (for example, the detection point p1). Then, the generation unit 16 is the calculated current position of the rear camera 3 and the rear end portion in the vehicle length direction of the vehicle indicated by the own vehicle image I4 and the central portion in the vehicle width direction of the vehicle indicated by the own vehicle image I4.
- the own vehicle image I4 is arranged so as to match with.
- the generation unit 16 determines the automatic parking execution space image I5 between the parked vehicle V1 and the parked vehicle V2. To place.
- the automatic parking execution space image I5 is not arranged at the position of the parking space BS2 that is not the automatic parking execution space.
- the generation unit 16 generates the peripheral image of FIG. 6 showing the positional relationship among the parked vehicles V1 to V3, the vehicle 1, and the parking space BS1 which is the automatic parking execution space.
- the output unit 17 outputs the peripheral image generated by the generation unit 16 to the display device 5 (step S3).
- the display device 5 displays the peripheral image received from the output unit 17.
- the peripheral image in which the automatic parking execution space is clearly displayed is displayed. You can easily recognize which parking space the automatic parking will take place.
- the parked vehicle image is displayed based on the positioning coordinates calculated using the detection point p, so that the occupant of the vehicle 1 can park the parked vehicle and the automatic parking.
- the position of each execution space can be grasped more accurately.
- an empty parking space and a parked vehicle may be detected based on the image captured by the rear camera 3 (which may be a side camera or a front camera), and the positioning coordinates may be calculated.
- the generation unit 16 converts the captured image into the bird's-eye view image, and then sets the coordinates of the front end portion of the parked vehicle in the vehicle length direction and the center portion in the vehicle width direction on the bird's-eye view image to the positioning coordinates. You may decide on.
- the method of using the detection point p based on the measurement result of the ultrasonic sonar 2 as described in the first embodiment can reduce the cost. Can be done.
- the generation unit 16 is in the periphery.
- An object image showing an object may be arranged in the image. It is preferable that at least one of the shape, color, and pattern of the object image is different from the automatic parking execution space image, for example.
- FIG. 7 is a flowchart showing an operation example of the display control device 200 of the present embodiment.
- FIG. 8 is a schematic diagram for explaining step S12 (horizontal angle calculation method) shown in FIG. 7.
- FIG. 9 is a schematic diagram for explaining steps S13 to S15 (target range determination method) shown in FIG. 7.
- the flow shown in FIG. 7 is performed, for example, in parallel with the search for an empty parking space.
- a case where the color of the parked vehicle image I1 displayed corresponding to the parked vehicle V1 is determined based on the color of the parked vehicle V1 illustrated in FIG. 3 will be described as an example.
- the generation unit 16 determines a detection point of interest (step S11).
- the generation unit 16 determines the detection point p7 as the detection point of interest.
- the detection points p7 and p8 are separated from each other by about half the vehicle width of the parked vehicle V1 in the vehicle width direction of the parked vehicle V1 with reference to the detection point p9 located closest to the front of the vehicle in the group of detection points p7 to p8. It is a detection point.
- the generation unit 16 determines the horizontal angle based on the coordinates of the detection point of interest, the rear camera movement distance (second threshold value), and the detection point distance of interest. Calculate (step S12).
- the generation unit 16 determines the detection point p7 to be the detection point of interest, at the time when the rear camera movement distance after the mounting position of the rear camera 3 passes in front of the detection point p7 reaches the second threshold value L2.
- the horizontal angle ⁇ is calculated based on the coordinates of the detection point p7, the second threshold value L2, and the focus detection point distance L3.
- the target detection point distance L3 is, for example, the detection point distance when the detection point p7 is detected (the distance between the detection point p7 and the ultrasonic sonar 2), and the ultrasonic sonar 2 in the vehicle width direction of the vehicle 1. It is the total value with the distance to the rear camera 3.
- the generation unit 16 determines the horizontal range (details will be described later) in the captured image captured by the rear camera 3 based on the horizontal angle (step S13).
- the generation unit 16 determines the vertical range (details will be described later) in the captured image captured by the rear camera 3 based on the horizontal angle and the target detection point distance (step S14).
- the generation unit 16 determines the color detection range (details will be described later) based on the horizontal range and the vertical range (step S15).
- the image v1 shown in FIG. 9 is an image of the parked vehicle V1 in the captured image.
- the generation unit 16 determines the horizontal range r1 in the image v1.
- the generation unit 16 determines the vertical range r2 in the image v1 in step S14.
- the generation unit 16 determines the rectangular color detection range C based on the horizontal range r1 and the vertical range r2.
- the image v1 captured by the rear camera 3 does not reflect the front of the parked vehicle V1 (for example, the front of the parked vehicle V1 is viewed from an oblique direction), but for convenience of explanation, 9 illustrates the case where the image v1 is an image of the front of the parked vehicle V1.
- the generation unit 16 stores color information indicating the color of each pixel included in the color detection range (step S16).
- the generation unit 16 recognizes the color of each pixel of the image v1 within the color detection range C shown in FIG. 9 and stores the color information indicating the recognized color.
- the generation unit 16 determines whether or not all the detection points p included in the detection point groups p7 to p8 have been determined as the focus detection points (step S17).
- step S17 NO
- the flow returns to step S11.
- the color detection range is determined based on all the detection points p included in the detection point groups p7 to p8, and the color information is stored for each color detection range.
- step S17 When all the detection points p included in the detection point groups p7 to p8 are determined to be the detection points of interest (step S17: YES), the generation unit 16 creates a histogram based on the color information of all the color detection ranges. (Step S18).
- the generation unit 16 determines the color of the parked vehicle V1 based on the histogram (step S19).
- the generation unit 16 when generating the peripheral image in step S2 of FIG. 4, the generation unit 16 imparts the determined color of the parked vehicle V1 to the parked vehicle image I1.
- the colors of the parked vehicle images I2 and I3 corresponding to the parked vehicles V2 and V3 are also determined by the series of processes described above.
- the parked vehicle image included in the peripheral image is displayed in a color based on the actually captured image, so that the occupant of the vehicle 1 is a parked vehicle. And the position of each automatic parking space can be more easily grasped.
- the color information detected in all color detection ranges is likely to be a body color
- the color information may be weighted to create a histogram.
- the determination point is determined based on the detection points (for example, detection points p7 and p8) of the end portion of the parked vehicle in the vehicle width direction.
- the histogram may be created by weighting the color information of the color detection range.
- the color of the parked vehicle can be determined more accurately.
- each detection point p included in the detection point groups p7 to p8 is determined as the detection point of interest has been described as an example, but the present invention is not limited to this, and for example, the detection shown in FIG. 3 is shown.
- Each detection point p included in the point groups p1 to p2 may be determined as the detection point of interest.
- the color of the parked vehicle may be determined by performing image processing on the entire captured image of the rear camera 3 (which may be a side camera or a front camera).
- the color of the parked vehicle V1 may be determined by performing image processing on the entire image v1 shown in FIG.
- the method of performing color determination based on the color detection range as described in the second embodiment can reduce the cost. ..
- FIG. 10 is a flowchart showing an operation example of the display control device 200 of the present embodiment.
- FIG. 11 is a schematic diagram for explaining steps S22 and S24 (horizontal angle calculation method) shown in FIG.
- the flow shown in FIG. 10 is performed, for example, in parallel with the search for an empty parking space. Further, in the following, a case where a parked vehicle image is generated from the captured image of the parked vehicle V1 illustrated in FIG. 3 will be described as an example.
- the generation unit 16 determines the first attention detection point (step S21).
- the generation unit 16 determines the detection point p7 as the first focused detection point.
- the generation unit 16 calculates the first horizontal angle based on the coordinates of the first focus detection point, the rear camera movement distance (second threshold value), and the first focus detection point distance (step S22).
- the generation unit 16 determines the detection point p7 as the first detection point of interest
- the rear camera movement distance after the mounting position of the rear camera 3 passes in front of the detection point p7 reaches the second threshold value L2.
- the first horizontal angle ⁇ 1 is calculated based on the coordinates of the detection point p7, the second threshold value L2, and the first focus detection point distance L3.
- the generation unit 16 determines the second attention detection point (step S23).
- the generation unit 16 determines the detection point p8 as the second detection point of interest.
- the generation unit 16 calculates the second horizontal angle based on the coordinates of the second focus detection point, the rear camera movement distance (second threshold value), and the second focus detection point distance (step S24).
- the generation unit 16 determines the detection point p8 as the second focus detection point
- the rear camera movement distance after the mounting position of the rear camera 3 passes in front of the detection point p8 reaches the second threshold value L2.
- the second horizontal angle ⁇ 2 is calculated based on the coordinates of the detection point p8, the second threshold value L2, and the second focus detection point distance L4.
- the second focus detection point distance L4 is, for example, the detection point distance (distance between the detection point p8 and the ultrasonic sonar 2) when the detection point p8 is detected and the ultrasonic sonar in the vehicle width direction of the vehicle 1. 2 is the total value of the distance between the rear camera 3 and the rear camera 3.
- the generation unit 16 determines the horizontal range in the captured image captured by the rear camera 3 based on the first horizontal angle and the second horizontal angle (step S25).
- the generation unit 16 determines the vertical range in the captured image captured by the rear camera 3 based on the first horizontal angle, the second horizontal angle, the first focus detection point distance, and the second focus detection point distance. It is determined (step S26).
- the generation unit 16 determines the cutout range based on the horizontal range and the vertical range (step S27).
- the cutout range is the range used when cutting out the image of the part corresponding to the parked vehicle from the photographed image.
- the generation unit 16 cuts out an image from the captured image based on the cutout range (step S28).
- the cut-out image is hereinafter referred to as “cut-out image”.
- the cutout image is, for example, an image showing the front of the parked vehicle V1.
- the generation unit 16 corrects the cutout image (step S29).
- the generation unit 16 corrects the distortion or the like of the cutout image.
- the generation unit 16 may adjust the size of the cutout image to be the same size as the previously prepared automatic parking execution space image.
- the corrected cut-out image is used for generating a peripheral image (step S2 in FIG. 4) as a parked vehicle image showing the parked vehicle V1.
- FIG. 12 is a schematic diagram showing an example of the peripheral image.
- the parked vehicle images I6, I7, and I8 shown in FIG. 12 are images generated by the above-described processing, respectively, and are images showing the front of the parked vehicles V1, V2, and V3 shown in FIG. Further, the own vehicle image I9 and the automatic parking execution space image I10 shown in FIG. 12 are images prepared in advance.
- the own vehicle image I9 is an image showing the shape of the vehicle 1 as viewed from the side.
- the automatic parking execution space image I10 is an image showing the parking space BS1 of FIG. 3 determined as the automatic parking execution space.
- the automatic parking execution space image I10 is a rectangular image.
- the automatic parking execution space image I10 may have a predetermined color or pattern.
- FIG. 12 illustrates the case where the own vehicle image I9 showing the lateral shape of the vehicle 1 is used
- the own vehicle image I4 (see FIG. 6) showing the shape of the upper surface of the vehicle 1 may be used. ..
- the parked vehicle images I6, I7, I8, the own vehicle image I9, and the automatic parking execution space image I10 shown in FIG. 12 are positioned by the method described in the first embodiment.
- the peripheral image in which the automatic parking execution space is clearly displayed is displayed. You can easily recognize which parking space the automatic parking will take place.
- the parked vehicle image included in the peripheral image is displayed in a shape and color based on the actually captured image, so that the occupant of the vehicle 1 executes the parked vehicle and automatic parking.
- the position of each space can be grasped more easily.
- the generated parked vehicle image is an image showing the front of the parked vehicle has been described as an example, but the present invention is not limited to this.
- the generated parked vehicle image may be an image showing the shape of the parked vehicle based on the viewpoint of the occupant of the vehicle 1 (for example, the shape of the parked vehicle seen from an oblique direction).
- the area of the parked vehicle may be determined and the area may be cut out by performing image processing on the entire captured image of the rear camera 3 (may be a side camera or a front camera).
- the method of cutting out the parked vehicle image based on the cutout range as described in the third embodiment can reduce the cost. ..
- the display control device of the present disclosure includes a generation unit that generates a peripheral image showing a positional relationship between a vehicle that executes automatic parking and an empty parking space in which the vehicle can park, and before the vehicle executes automatic parking.
- the peripheral image displayed on the display device includes an output unit that outputs the peripheral image to a display device mounted on the vehicle, and the peripheral image displayed on the display device includes an own vehicle image showing the vehicle and a plurality of empty parking spaces.
- the peripheral image displayed on the display device includes an automatic parking execution space image showing an automatic parking execution space which is a parking space in which the vehicle is automatically parked, and the peripheral image displayed on the display device indicates another parked vehicle. Further includes a parked vehicle image.
- the parked vehicle image is displayed using at least one of a shape and a color based on an image of the other vehicle taken by a camera mounted on the vehicle.
- the other parked vehicle and the vacant parking space are based on a plurality of detection points detected based on the reflected wave received by the ultrasonic sonar mounted on the vehicle. , Detected.
- the parked vehicle image is arranged on the peripheral image based on the positioning coordinates calculated based on the plurality of detection points.
- the parking support device of the present disclosure shows a positional relationship between a travel control unit that controls the traveling of a vehicle and automatically parks the vehicle in an empty parking space in which the vehicle can be parked, the vehicle, and the empty parking space. It has a generation unit that generates a peripheral image and an output unit that outputs the peripheral image to a display device mounted on the vehicle before the vehicle executes automatic parking, and is displayed on the display device.
- the peripheral image includes an own vehicle image showing the vehicle and an automatic parking execution space image showing an automatic parking execution space which is a parking space in which the vehicle is automatically parked among the plurality of empty parking spaces.
- the peripheral image displayed on the display device further includes a parked vehicle image showing another parked vehicle.
- the display control method of the present disclosure is a display control method performed by a device mounted on a vehicle for automatic parking, and generates a peripheral image showing a positional relationship between the vehicle and an empty parking space in which the vehicle can be parked.
- the peripheral image displayed on the display device has the step of outputting the peripheral image to the display device mounted on the vehicle before the vehicle executes automatic parking.
- the display device includes an image of the own vehicle showing a vehicle and an image of an automatic parking execution space showing an automatic parking execution space which is a parking space in which the vehicle is automatically parked among a plurality of the empty parking spaces.
- the surrounding image further includes a parked vehicle image showing another vehicle parked.
- the display control device, parking support device, and display control method of the present disclosure are useful for vehicles that perform automatic parking.
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
車両の乗員が、自動駐車が行われる空き駐車スペースを容易に認識できる表示制御装置、駐車支援装置、および表示制御方法。表示制御装置(200)は、自動駐車を実行する車両と、車両が駐車可能な空き駐車スペースとの位置関係を示す周辺画像を生成する生成部(16)と、車両が自動駐車を実行する前に、周辺画像を車両に搭載された表示装置(5)へ出力する出力部(17)と、を有する。表示装置(5)に表示される周辺画像は、車両を示す自車両画像と、複数の空き駐車スペースのうち、車両が自動駐車される駐車スペースである自動駐車実行スペースを示す自動駐車実行スペース画像と、を含む。
Description
本開示は、表示制御装置、駐車支援装置、および表示制御方法に関する。
例えば、特許文献1には、車両に搭載された超音波ソナーを用いて駐車車両および空き駐車スペースを検出し、自動駐車の実行前に、自車両、駐車車両、および空き駐車スペースそれぞれの位置関係を示す地図画像を表示する装置が開示されている。
上述した装置では、複数の空き駐車スペースが検出された場合、それらを示す地図画像が表示されるが、車両の乗員はどの空き駐車スペースに駐車が行われるのかを認識できないという課題がある。
本開示の一態様の目的は、車両の乗員が、自動駐車が行われる空き駐車スペースを容易に認識できる表示制御装置、駐車支援装置、および表示制御方法を提供することである。
本開示の一態様に係る表示制御装置は、自動駐車を実行する車両と、前記車両が駐車可能な空き駐車スペースとの位置関係を示す周辺画像を生成する生成部と、前記車両が自動駐車を実行する前に、前記周辺画像を前記車両に搭載された表示装置へ出力する出力部と、を有し、前記表示装置に表示される前記周辺画像は、前記車両を示す自車両画像と、複数の前記空き駐車スペースのうち、前記車両が自動駐車される駐車スペースである自動駐車実行スペースを示す自動駐車実行スペース画像と、を含み、前記表示装置に表示される前記周辺画像は、駐車中の他車両を示す駐車車両画像をさらに含む。
本開示の一態様に係る駐車支援装置は、車両の走行を制御し、前記車両が駐車可能な空き駐車スペースに前記車両を自動駐車させる走行制御部と、前記車両と、前記空き駐車スペースとの位置関係を示す周辺画像を生成する生成部と、前記車両が自動駐車を実行する前に、前記周辺画像を前記車両に搭載された表示装置へ出力する出力部と、を有し、前記表示装置に表示される前記周辺画像は、前記車両を示す自車両画像と、複数の前記空き駐車スペースのうち、前記車両が自動駐車される駐車スペースである自動駐車実行スペースを示す自動駐車実行スペース画像と、を含み、前記表示装置に表示される前記周辺画像は、駐車中の他車両を示す駐車車両画像をさらに含む。
本開示の一態様に係る表示制御方法は、自動駐車を行う車両に搭載される装置が行う表示制御方法であって、前記車両と、前記車両が駐車可能な空き駐車スペースとの位置関係を示す周辺画像を生成するステップと、前記車両が自動駐車を実行する前に、前記周辺画像を前記車両に搭載された表示装置へ出力するステップと、を有し、前記表示装置に表示される前記周辺画像は、前記車両を示す自車両画像と、複数の前記空き駐車スペースのうち、前記車両が自動駐車される駐車スペースである自動駐車実行スペースを示す自動駐車実行スペース画像と、を含み、前記表示装置に表示される前記周辺画像は、駐車中の他車両を示す駐車車両画像をさらに含む。
本開示によれば、車両の乗員が、自動駐車が行われる空き駐車スペースを容易に認識できる。
本開示に至った知見について、図1を用いて説明する。図1は、車両、駐車車両、および空き駐車スペースの位置関係の一例を示す模式図である。図1は、車両、駐車車両、および空き駐車スペースのそれぞれを真上から見た状態を示している。本明細書において、「駐車車両」とは、駐車中の他車両をいう。また、「空き駐車スペース」とは、他車両が駐車していない駐車スペースをいう。
図1に示す車両1は、自動駐車を実行する車両(例えば、乗用車)である。
本明細書において、「自動駐車」は、車両の乗員による全ての運転操作を必要とすることなく行われる自動駐車でもよいし、または、車両の乗員による一部の運転操作を必要とすることなく行われる自動駐車でもよい。前者は、例えば、車両に搭載された駐車支援装置が、加減速、制動、および操舵の操作を必要とすることなく、車両の加減速、制動、および操舵を制御することにより(換言すれば、完全自動運転により)、車両を空き駐車スペースへ誘導し、駐車させる動作である。後者は、例えば、車両に搭載された駐車支援装置が、操舵の操作を必要とすることなく操舵を制御し、車両の乗員の操作に基づいて加減速および制動を制御することにより、車両を空き駐車スペースへ誘導し、駐車させる動作である。
車両1は、送信波TPを送信し、その反射波(図示略)を受信する超音波ソナー2を備えている。
例えば、車両1が、超音波ソナー2を動作させながら進行方向Aへ徐行し、並列駐車している駐車車両V1~V3の前方を通過し、図1に示した位置に停車したとする。この場合、駐車スペースBS1、BS2がそれぞれ空き駐車スペースとして検出される。駐車スペースBS1、BS2は、それぞれ、車両1台が並列駐車可能な駐車スペースである。
ここで、例えば、車両1が、自動駐車を行うスペースを駐車スペースBS1に決定した場合、従来の装置では、自動駐車の開始前に、単に車両1から見た駐車スペースBS1、BS2それぞれの方向を示す画像、または、例えば、特許文献1の装置では、図1に示した駐車車両V1~V3、駐車スペースBS1、BS2、および車両1のそれぞれの位置関係を示す画像が表示される。
しかしながら、車両1の乗員は、上記画像を見ても、駐車スペースBS1、BS2のどちらに駐車されるのかを認識することができない。また、車両1の乗員は、車両1に近い方の駐車スペースBS2に車両1が駐車されると誤認識するおそれがある。
本開示は、車両1の乗員が、自動駐車が行われる空き駐車スペースを容易に認識できるようにすることを目的とする。
以上、本開示に至った知見について説明した。
以下、本開示の各実施の形態について、図面を参照しながら説明する。なお、各図において共通する構成要素については同一の符号を付し、それらの説明は適宜省略する。
(実施の形態1)
本実施の形態に係る駐車支援装置100の構成について、図2を用いて説明する。図2は、本実施の形態の駐車支援装置100の構成例を示すブロック図である。
本実施の形態に係る駐車支援装置100の構成について、図2を用いて説明する。図2は、本実施の形態の駐車支援装置100の構成例を示すブロック図である。
図2に示す駐車支援装置100は、図1に示した車両1に搭載される。また、駐車支援装置100は、車両1に搭載された超音波ソナー2、リアカメラ3、車輪速センサ4、表示装置5、およびアクチュエータ群6と電気的に接続される。
超音波ソナー2は、例えば、図1に示したように、車両1の側方部に設けられる。超音波ソナー2は、車両1の側方から送信波TPを送信し、送信波TPの反射波(図示略)を受信する。そして、超音波ソナー2は、反射波の受信信号を駐車支援装置100へ出力する。
なお、図1では、超音波ソナー2が車両1の左側方にのみ設けられる場合を例示したが、超音波ソナー2は、車両1の右側方にも設けられてもよい。また、超音波ソナー2は、車両1の左側方または右側方において、複数個設けられてもよい。
リアカメラ3は、例えば、図1に示したように、車両1の車長方向の後端部かつ車両1の車幅方向の中央部に固定的に設けられる。リアカメラ3は、車両1の後方を撮影し、撮影により得られた画像(以下、撮影画像という)を駐車支援装置100へ出力する。
なお、図1では、リアカメラ3のみが車両1に設けられる場合を例示したが、カメラは、車両1の前方、左方、または右方にも設けられてもよい。また、カメラは、車両1の前方、後方、左方、または右方において、複数個設けられてもよい。
車輪速センサ4は、車両1の各車輪の回転速度をパルス信号として検出し、そのパルス信号を駐車支援装置100へ出力する。
なお、図2では、車輪速センサ4のみを図示したが、車両1には、例えば、アクセルペダルの位置を検出するアクセルポジションセンサ、シフトレバーの位置を検出するシフトポジションセンサ、舵角を検出する舵角センサ、車両1の位置を検出する自車位置センサ等の各種センサが設けられてもよい。これらのセンサは、駐車支援装置100と電気的に接続され、検出結果を示す信号を駐車支援装置100へ出力する。
表示装置5は、車両1の車室内に設けられ、車両1および車両1の周辺を示す周辺画像(詳細は後述)を表示する。
アクチュエータ群6は、車両1の加速、減速、制動、操舵等を実行するアクチュエータ群である。アクチュエータ群6は、例えば、加速および減速を実行するモータアクチュエータ、制動を実行するブレーキアクチュエータ、操舵を実行するステアリングアクチュエータ等の各種アクチュエータを含む。
駐車支援装置100は、空き駐車スペースを検出し、その空き駐車スペースに車両1を自動駐車させる装置である。
駐車支援装置100は、図13に示すように、ハードウェアとして、例えば、CPU(Central Processing Unit)501、コンピュータプログラムを格納したROM(Read Only Memory)502、RAM(Random Access Memory)503を有する。CPU501、ROM502、およびRAM503は、接続されている。
以下に説明する駐車支援装置100および表示制御装置200の各部(図2参照)の機能は、CPU501がROM502から読み出したコンピュータプログラムを実行することにより実現される。また、このコンピュータプログラムは、所定の記録媒体に記録されて、ユーザ等に提供されてもよい。
駐車支援装置100は、ソナー制御部11、検知部12、判定部13、走行制御部14、および表示制御装置200を有する。
ソナー制御部11は、超音波ソナー2の動作を制御する。例えば、ソナー制御部11は、送信波TPの送波電圧ゲイン、反射波の受波信号ゲイン、送信波TPの送信タイミング等の指示を示す制御信号を超音波ソナー2へ出力する。超音波ソナー2は、その制御信号の内容に基づいて、送受信の動作を行う。
以下、検知部12および判定部13を説明するにあたり、適宜図3を参照する。図3は、駐車支援装置100を搭載した車両1が、駐車場において空き駐車スペースを探索する様子を真上から見た図である。例として、図3は、車両1が、並列駐車している駐車車両V0~V3の前方を進行方向Aへ徐行しながら、空き駐車スペースを探索する場合を示している。図3において、駐車スペースBS1、BS2は、空き駐車スペースとして検出される、車両1台が並列駐車可能な駐車スペースである。
まず、検知部12について説明する。
検知部12は、超音波ソナー2から受け取った受信信号に基づいて、図3に示す黒丸の点pを検知する。以下、検知部12により検知された点pを「検知点p」という。
検知点pの検知処理は公知であるため、その詳細な説明は省略するが、例えば、検知部12は、送信波TPの速度と、送信波TPを送信してから反射波を受信するまでの時間とに基づいて距離を算出し、超音波ソナー2からその距離分離れた位置を検知点pとして検知する。検知点pは、図3に示すように、複数検知される。
また、検知部12は、検知点p毎に、検知点pの位置(以下、検知点位置という)と、検知点pと超音波ソナー2との間の距離(以下、検知点距離という)とを対応付けて記憶する。
また、検知部12は、複数の検知点pの集合体を検知(認識)する。以下、複数の検知点pの集合体を「検知点群」という。例えば図3の場合、検知部12は、検知点p1から検知点p2までの第1検知点群、検知点p3から検知点p4までの第2検知点群、検知点p5から検知点p6までの第3検知点群をそれぞれ検知する。
図3に示すように、検知点群により窪み形状(以下、単に「窪み」という)D1、D2が形成される。窪みD1は、駐車車両V0と駐車車両V1との間に形成されている。窪みD2は、駐車車両V1と駐車スペースBS1との間に形成されている。窪みD1に含まれる検知点p1は、第1検知点群に含まれる検知点のうち、車長方向において最も後方にある検知点である。また、窪みD2に含まれる検知点p2は、第1検知点群に含まれる検知点のうち、車長方向において最も後方にある検知点である。
また、検知部12は、車輪速センサ4から受け取ったパルス信号に基づいて、検知点pを検知した時点からの車両1の走行距離を算出する。そして、検知部12は、その走行距離と、車長方向における超音波ソナー2とリアカメラ3との間の距離(検知部12にとって既知の値)とに基づいて、リアカメラ3が検知点pを通過した時点から現在時刻までの移動距離(以下、リアカメラ移動距離という)を算出する。そして、検知部12は、リアカメラ移動距離を、上述した検知点位置および検知点距離と対応付けて記憶する。リアカメラ移動距離は、検知点p毎に記憶され、車両1の走行に応じて更新される。
以上、検知部12について説明した。
次に、判定部13について説明する。
判定部13は、例えば、第1検知点群の端部である検知点p2と、第2検知点群の端部である検知点p3とに基づいて、駐車スペースBS1の幅wを算出する。
また、判定部13は、算出された幅wが第1閾値以上であるか否かを判定する。第1閾値は、例えば、車両1台分の車幅と、並列駐車した車両同士の所定間隔(例えば、ドアの開閉が可能な間隔)との合計値である。
幅wが第1閾値未満である場合、判定部13は、駐車スペースBS1が、空き駐車スペースであり、かつ、並列駐車用の駐車スペースであると判定する。
なお、判定部13は、上述した方法により、駐車スペースBS2も、空き駐車スペースであり、かつ、並列駐車用の駐車スペースであると判定する。
このように、複数の駐車スペースBS1、BS2が空き駐車スペースとして検出された場合、判定部13は、それらのうちのいずれか1つを、車両1を自動駐車させる駐車スペース(以下、自動駐車実行スペースという)に決定する。
また、判定部13は、第1検知点群において窪みD1、D2を検出し、窪みD1と窪みD2との間の距離(以下、窪み間隔という)dを算出する。窪みD1、D2の検出方法および窪み間隔dの算出方法としては、例えば、公知の方法(例えば、特開2018-52462号公報に開示されている方法)を用いることができるため、ここでの説明は省略する。
また、判定部13は、算出された窪み間隔dが第1閾値未満であるか否かを判定する。窪み間隔dが第1閾値未満である場合、判定部13は、窪みD1と窪みD2との間に、並列駐車している駐車車両V1が存在すると判定する。
なお、判定部13は、上述した方法により、並列駐車している駐車車両V2、V3が存在すると判定する。
一方、窪み間隔dが第1閾値未満ではない場合、判定部13は、並列駐車している駐車車両以外の物体(例えば、壁等)が存在すると判定する。
以上、判定部13について説明した。
上述した検知部12および判定部13の各処理は、例えば図3において車両1が進行方向Aに沿って走行している間、繰り返し行われる。また、検知部12および判定部13は、各処理の結果を記憶する。
走行制御部14は、判定部13により決定された自動駐車実行スペースに車両1が自動駐車するように、アクチュエータ群6を制御する。この制御により、車両1は、自動駐車実行スペースに自動駐車を行う。
以下の説明では、判定部13により、空き駐車スペースとして検出された駐車スペースBS1、BS2のうち、駐車スペースBS1が自動駐車実行スペースに決定された場合を例に挙げて説明する。
次に、表示制御装置200について説明する。
表示制御装置200は、表示装置5における画像の表示を制御する装置である。具体的には、表示制御装置200は、自動駐車実行スペースが決定された場合において、その自動駐車実行スペースへの自動駐車が実行される前に、車両1およびその周辺を示す周辺画像を生成し、その周辺画像を表示装置5へ出力する。
周辺画像は、少なくとも車両1と自動駐車実行スペースとの位置関係を示す画像であるが、駐車車両が検出された場合、車両1と、駐車車両と、自動駐車実行スペースとの位置関係を示す画像であってもよい。以下では例として、駐車車両が検出された場合を例に挙げて説明する。
図2に示すように、表示制御装置200は、記憶部15、生成部16、および出力部17を有する。
記憶部15は、周辺画像の生成に用いられる生成用画像を記憶する。生成用画像は、例えば、駐車車両を示す駐車車両画像、自動駐車実行スペースを示す自動駐車実行スペース画像、および、車両1を示す自車両画像である。
生成部16は、記憶部15から読み出した生成用画像に基づいて、周辺画像を生成する。この生成処理の詳細については、後述する。
出力部17は、生成部16により生成された周辺画像を表示装置5へ出力する。これにより、表示装置5には周辺画像が表示される。この表示例については、後述する。
以上、表示制御装置200について説明した。
なお、図2では、表示制御装置200が駐車支援装置100に含まれる場合を例示したが、表示制御装置200と駐車支援装置100とは別体であってもよい。その場合、表示制御装置200は、駐車支援装置100から、検知部12および判定部13による処理結果を示す情報を受け取り、その情報に基づいて上述した生成部16の各処理を行う。
次に、表示制御装置200の動作について、図4を用いて説明する。図4は、表示制御装置200の動作例を示すフローチャートである。以下のフローは、例えば、図3に示した駐車車両V1~V3が検出され、空き駐車スペースとして駐車スペースBS1、BS2が検出され、自動駐車実行スペースが駐車スペースBS1に決定され、自動駐車が実行される前に開始される。このとき、車両1は、例えば、駐車車両V3の前に停車しているとする。
まず、生成部16は、検出された駐車車両毎に、位置決め用座標を算出する(ステップS1)。
位置決め用座標とは、周辺画像上における駐車車両画像を表示する位置を決定するために用いられる座標である。
ここで、図5を用いて、位置決め座標の算出方法について説明する。ここでは、駐車車両V1に対応する位置決め用座標を算出する場合を例に挙げて説明する。また、ここでは、図中の左右方向をx軸、図中の上下方向をy軸として説明する。
生成部16は、検知点p2のx座標から窪み間隔dの1/2(図中のd/2)を差し引いた値を、位置決め用座標のx座標に決定する。
また、生成部16は、超音波ソナー2が上記位置決め用座標のx座標に位置したときに検出された距離L1に基づいて、位置決め用座標のx座標を算出する。
このようにして、生成部16は、位置決め用座標Bのx座標およびy座標を算出する。
また、上述した方法により、生成部16は、駐車車両V2、V3それぞれに対応する位置決め用座標も算出する。
なお、位置決め用座標の算出方法は、上述した方法に限定されない。例えば、第1検知点群のうち、窪み間隔dの1/2に相当するx座標を持つ検知点がある場合、その検知点のx座標およびy座標を位置決め用座標に決定してもよい。
以上、位置決め座標の算出方法について説明した。以下、図4の説明に戻る。
次に、生成部16は、記憶部15から、駐車車両画像、自車両画像、および自動駐車実行スペース画像を読み出し、それらの画像を含む周辺画像を生成する(ステップS2)。
ここで、図6を用いて、周辺画像の生成方法について説明する。図6は、周辺画像の一例を示す模式図である。
図6に示すように、駐車車両画像I1、I2、I3および自車両画像I4は、車両を真上から見た形状を示す俯瞰画像である。例えば、駐車車両画像I1、I2、I3の形状および色は、全て同じである。また、例えば、自車両画像I4の形状および色は、駐車車両画像I1、I2、I3の形状および色と異なっている。なお、駐車車両画像I1、I2、I3および自車両画像I4それぞれに示される車両の形状および色は、実際の駐車車両V1~V3および車両1を真上から見た形状および色と異なっていてもよい。
また、図6に示すように、自動駐車実行スペース画像I5は、矩形状の画像である。自動駐車実行スペース画像I5は、所定の色または模様が付されていてもよい。また、自動駐車実行スペースI5は、駐車車両画像I1、I2、I3および自車両画像I4それぞれと同じ大きさである。
生成部16は、駐車車両V1に対応する位置決め用座標と、駐車車両画像I1が示す車両の車長方向の先端部であって駐車車両画像I1が示す車両の車幅方向の中央部とが一致するように、駐車車両画像I1を配置する。また、このとき、生成部16は、駐車車両画像I1を周辺画像の垂直方向(図中の上下方向)に沿って配置する。
上記同様に、生成部16は、駐車車両V2に対応する駐車車両画像I2、および、駐車車両V3に対応する駐車車両画像I3を配置する。
また、生成部16は、所定の検知点p(例えば、検知点p1)に対応付けられて記憶されているリアカメラ移動距離に基づいて、リアカメラ3の現在位置を算出する。そして、生成部16は、算出されたリアカメラ3の現在位置と、自車両画像I4が示す車両の車長方向の後端部であって自車両画像I4が示す車両の車幅方向の中央部とが一致するように、自車両画像I4を配置する。
また、生成部16は、駐車車両V1と駐車車両V2との間の駐車スペースBS1が自動駐車実行スペースに決定されたことから、駐車車両V1と駐車車両V2との間に自動駐車実行スペース画像I5を配置する。なお、自動駐車実行スペースではない駐車スペースBS2の位置には、自動駐車実行スペース画像I5は、配置されない。
このようにして、生成部16は、駐車車両V1~V3、車両1、および自動駐車実行スペースである駐車スペースBS1それぞれの位置関係を示す図6の周辺画像を生成する。
以上、周辺画像の生成方法について説明した。以下、図4の説明に戻る。
次に、出力部17は、生成部16により生成された周辺画像を表示装置5へ出力する(ステップS3)。
表示装置5は、出力部17から受け取った周辺画像を表示する。
以上、表示制御装置200の動作について説明した。
ここまで詳述したように、本実施の形態によれば、複数の空き駐車スペースが検出された場合でも、自動駐車実行スペースが明示された周辺画像が表示されるので、車両1の乗員は、どの駐車スペースに自動駐車が行われるのかを容易に認識できる。
また、本実施の形態によれば、周辺画像において、駐車車両画像は、検知点pを用いて算出された位置決め用座標に基づいて表示されるので、車両1の乗員は、駐車車両および自動駐車実行スペースそれぞれの位置をより正確に把握することができる。
なお、上述した実施の形態1は、その趣旨を逸脱しない範囲において種々の変形が可能である。以下、変形例について説明する。
[変形例1]
実施の形態1では、検知点pに基づいて、空き駐車スペースおよび駐車車両が検出され、また、位置決め用座標が算出される場合を例に挙げて説明したが、これに限定されない。
実施の形態1では、検知点pに基づいて、空き駐車スペースおよび駐車車両が検出され、また、位置決め用座標が算出される場合を例に挙げて説明したが、これに限定されない。
例えば、リアカメラ3(サイドカメラまたはフロントカメラでもよい)の撮影画像に基づいて、空き駐車スペースおよび駐車車両が検出され、また、位置決め用座標が算出されてもよい。その場合、例えば、生成部16は、撮影画像を俯瞰画像に変換した後、その俯瞰画像上の駐車車両の車長方向の前端部であって車幅方向の中央部の座標を、位置決め用座標に決定してもよい。
なお、上述したように撮影画像を用いる方法ではコストがかかるため、実施の形態1で説明したように超音波ソナー2の測定結果に基づく検知点pを用いる方法の方が、コストを低減することができる。
[変形例2]
実施の形態1において、判定部13が窪み間に駐車車両以外の物体(例えば、壁等)が存在すると判定した場合(窪み間隔dが第1閾値未満ではない場合)、生成部16は、周辺画像において、物体を示す物体画像を配置してもよい。物体画像は、例えば形状、色、および模様のうち少なくとも1つが自動駐車実行スペース画像と異なることが好ましい。
実施の形態1において、判定部13が窪み間に駐車車両以外の物体(例えば、壁等)が存在すると判定した場合(窪み間隔dが第1閾値未満ではない場合)、生成部16は、周辺画像において、物体を示す物体画像を配置してもよい。物体画像は、例えば形状、色、および模様のうち少なくとも1つが自動駐車実行スペース画像と異なることが好ましい。
(実施の形態2)
実施の形態1では、駐車車両画像の色が全て同じである場合を例に挙げて説明したが、本実施の形態では、駐車車両画像を実際の駐車車両の色で表示する場合について説明する。
実施の形態1では、駐車車両画像の色が全て同じである場合を例に挙げて説明したが、本実施の形態では、駐車車両画像を実際の駐車車両の色で表示する場合について説明する。
図7~図9を用いて、本実施の形態の表示制御装置200の動作例について説明する。図7は、本実施の形態の表示制御装置200の動作例を示すフローチャートである。図8は、図7に示すステップS12(水平角度算出方法)の説明に供する模式図である。図9は、図7に示すステップS13~S15(対象範囲決定方法)の説明に供する模式図である。
図7に示すフローは、例えば、空き駐車スペースの探索と並行して行われる。また、以下では、図3に示した駐車車両V1の色に基づいて、駐車車両V1に対応して表示される駐車車両画像I1の色を決定する場合を例に挙げて説明する。
まず、生成部16は、着目検知点を決定する(ステップS11)。
例えば、生成部16は、図8に示す検知点p7が検知された場合、その検知点p7を着目検知点に決定する。なお、検知点p7、p8は、検知点群p7~p8のうち最も車両前方側にある検知点p9を基準として、駐車車両V1の車幅方向に、駐車車両V1の車幅の半分程度離れた検知点である。
次に、生成部16は、リアカメラ移動距離が第2閾値に到達した時点で、着目検知点の座標、リアカメラ移動距離(第2閾値)、および着目検知点距離に基づいて、水平角度を算出する(ステップS12)。
例えば、生成部16は、検知点p7を着目検知点に決定した場合、リアカメラ3の搭載位置が検知点p7の前方を通過した後のリアカメラ移動距離が第2閾値L2に到達した時点で、検知点p7の座標、第2閾値L2、および着目検知点距離L3に基づいて、水平角度θの算出を行う。
着目検知点距離L3は、例えば、検知点p7が検出されたときの検知点距離(検知点p7と超音波ソナー2との間の距離)と、車両1の車幅方向における超音波ソナー2とリアカメラ3との間の距離との合計値である。
次に、生成部16は、水平角度に基づいて、リアカメラ3により撮影された撮影画像における水平方向範囲(詳細は後述)を決定する(ステップS13)。
次に、生成部16は、水平角度および着目検知点距離に基づいて、リアカメラ3により撮影された撮影画像における垂直方向範囲(詳細は後述)を決定する(ステップS14)。
次に、生成部16は、水平方向範囲および垂直方向範囲に基づいて、色検出範囲(詳細は後述)を決定する(ステップS15)。
ここで、図9を用いて、着目検知点が検知点p7である場合の水平方向範囲、垂直方向範囲、および色検出範囲の例について説明する。
図9に示す画像v1は、撮影画像における駐車車両V1の画像である。生成部16は、ステップS13において、画像v1における水平方向範囲r1を決定する。次に、生成部16は、ステップS14において、画像v1における垂直方向範囲r2を決定する。次に、生成部16は、ステップS15において、水平方向範囲r1および垂直方向範囲r2に基づいて、矩形状の色検出範囲Cを決定する。
なお、リアカメラ3により撮影された画像v1は、駐車車両V1の真正面を映したものとはならない(例えば、駐車車両V1の正面を斜め方向から映したものとなる)が、説明の便宜上、図9では、画像v1が駐車車両V1の真正面の画像である場合を例示している。
以上、水平方向範囲、垂直方向範囲、および色検出範囲の例について説明した。以下、図7の説明に戻る。
次に、生成部16は、色検出範囲に含まれる各画素の色を示す色情報を記憶する(ステップS16)。
例えば、生成部16は、図9に示した色検出範囲C内の画像v1の各画素の色を認識し、認識した色を示す色情報を記憶する。
次に、生成部16は、検知点群p7~p8に含まれる全ての検知点pが着目検知点に決定されたか否かを判定する(ステップS17)。
検知点群p7~p8に含まれる全ての検知点pが着目検知点に決定されていない場合(ステップS17:NO)、フローは、ステップS11へ戻る。
このようにステップS11~S16を繰り返すことにより、検知点群p7~p8に含まれる全ての検知点pに基づいて色検出範囲が決定され、色検出範囲毎に色情報が記憶される。
検知点群p7~p8に含まれる全ての検知点pが着目検知点に決定された場合(ステップS17:YES)、生成部16は、全ての色検出範囲の色情報に基づいて、ヒストグラムを作成する(ステップS18)。
次に、生成部16は、ヒストグラムに基づいて、駐車車両V1の色を決定する(ステップS19)。
その後、図4のステップS2において周辺画像を生成する際に、生成部16は、決定された駐車車両V1の色を、駐車車両画像I1に付与する。
なお、上述した一連の処理により、駐車車両V2、V3それぞれに対応する駐車車両画像I2、I3の色も決定される。
ここまで詳述したように、本実施の形態によれば、周辺画像に含まれる駐車車両画像が実際に撮影された撮影画像に基づいた色で表示されるので、車両1の乗員は、駐車車両および自動駐車実行スペースそれぞれの位置をより容易に把握することができる。
なお、上述した実施の形態2は、その趣旨を逸脱しない範囲において種々の変形が可能である。以下、変形例について説明する。
[変形例3]
例えば、全ての色検出範囲で検出された色情報はボディカラーである可能性が高いため、その色情報に重み付けをして、ヒストグラムを作成してもよい。
例えば、全ての色検出範囲で検出された色情報はボディカラーである可能性が高いため、その色情報に重み付けをして、ヒストグラムを作成してもよい。
また、例えば、駐車車両の車幅方向の端部はボディカラーである可能性が高いため、駐車車両の車幅方向の端部の検知点(例えば、検知点p7、p8)を基に決定された色検出範囲の色情報に重み付けをして、ヒストグラムを作成してもよい。
このような色情報の重み付けにより、より正確に駐車車両の色を判定することができる。
[変形例4]
実施の形態2では、検知点群p7~p8に含まれる各検知点pを着目検知点に決定する場合を例に挙げて説明したが、これに限定されず、例えば、図3に示した検知点群p1~p2に含まれる各検知点pを着目検知点に決定してもよい。
実施の形態2では、検知点群p7~p8に含まれる各検知点pを着目検知点に決定する場合を例に挙げて説明したが、これに限定されず、例えば、図3に示した検知点群p1~p2に含まれる各検知点pを着目検知点に決定してもよい。
[変形例5]
実施の形態2では、色検出範囲に基づいて、駐車車両の色を判定する場合を例に挙げて説明したが、これに限定されない。
実施の形態2では、色検出範囲に基づいて、駐車車両の色を判定する場合を例に挙げて説明したが、これに限定されない。
例えば、リアカメラ3(サイドカメラまたはフロントカメラでもよい)の撮影画像全体に対して画像処理を行うことにより、駐車車両の色を判定してもよい。例えば、図9に示した画像v1全体に対して画像処理を行い、駐車車両V1の色を判定してもよい。
ただし、撮影画像全体に対して画像処理を行う場合ではコストがかかるため、実施の形態2で説明したように色検出範囲に基づいて色判定を行う方法の方が、コストを低減することができる。
(実施の形態3)
実施の形態1、2では、予め用意された駐車車両画像を用いて周辺画像を生成する場合を例に挙げて説明したが、本実施の形態では、リアカメラ3(サイドカメラまたはフロントカメラでもよい)により実際に撮影された駐車車両の画像を用いて駐車車両画像を生成し、その駐車車両画像を用いて周辺画像を生成する場合について説明する。
実施の形態1、2では、予め用意された駐車車両画像を用いて周辺画像を生成する場合を例に挙げて説明したが、本実施の形態では、リアカメラ3(サイドカメラまたはフロントカメラでもよい)により実際に撮影された駐車車両の画像を用いて駐車車両画像を生成し、その駐車車両画像を用いて周辺画像を生成する場合について説明する。
図10、図11を用いて、本実施の形態の表示制御装置200の動作例について説明する。図10は、本実施の形態の表示制御装置200の動作例を示すフローチャートである。図11は、図10に示すステップS22、S24(水平角度算出方法)の説明に供する模式図である。
図10に示すフローは、例えば、空き駐車スペースの探索と並行して行われる。また、以下では、図3に示した駐車車両V1の撮影画像から駐車車両画像を生成する場合を例に挙げて説明する。
まず、生成部16は、第1着目検知点を決定する(ステップS21)。
例えば、生成部16は、図11に示す検知点p7が検知された場合、その検知点p7を第1着目検知点に決定する。
次に、生成部16は、第1着目検知点の座標、リアカメラ移動距離(第2閾値)、および第1着目検知点距離に基づいて、第1水平角度を算出する(ステップS22)。
例えば、生成部16は、検知点p7を第1着目検知点に決定した場合、リアカメラ3の搭載位置が検知点p7の前方を通過した後のリアカメラ移動距離が第2閾値L2に到達した時点で、検知点p7の座標、第2閾値L2、および第1着目検知点距離L3に基づいて、第1水平角度θ1の算出を行う。
次に、生成部16は、第2着目検知点を決定する(ステップS23)。
例えば、生成部16は、図11に示す検知点p8が検知された場合、その検知点p8を第2着目検知点に決定する。
次に、生成部16は、第2着目検知点の座標、リアカメラ移動距離(第2閾値)、および第2着目検知点距離に基づいて、第2水平角度を算出する(ステップS24)。
例えば、生成部16は、検知点p8を第2着目検知点に決定した場合、リアカメラ3の搭載位置が検知点p8の前方を通過した後のリアカメラ移動距離が第2閾値L2に到達した時点で、検知点p8の座標、第2閾値L2、および第2着目検知点距離L4に基づいて、第2水平角度θ2の算出を行う。
第2着目検知点距離L4は、例えば、検知点p8が検出されたときの検知点距離(検知点p8と超音波ソナー2との間の距離)と、車両1の車幅方向における超音波ソナー2とリアカメラ3との間の距離との合計値である。
次に、生成部16は、第1水平角度および第2水平角度に基づいて、リアカメラ3により撮影された撮影画像における水平方向範囲を決定する(ステップS25)。
次に、生成部16は、第1水平角度、第2水平角度、第1着目検知点距離、および第2着目検知点距離に基づいて、リアカメラ3により撮影された撮影画像における垂直方向範囲を決定する(ステップS26)。
次に、生成部16は、水平方向範囲および垂直方向範囲に基づいて、切り出し範囲を決定する(ステップS27)。
切り出し範囲は、撮影画像から駐車車両に相当する部分の画像の切り出す際に用いられる範囲である。
次に、生成部16は、切り出し範囲に基づいて、撮影画像から画像を切り出す(ステップS28)。切り出された画像を以下「切り出し画像」という。切り出し画像は、例えば駐車車両V1の正面を示す画像である。
次に、生成部16は、切り出し画像を補正する(ステップS29)。
例えば、生成部16は、切り出し画像の歪み等を補正する。また、生成部16は、切り出し画像の大きさを、予め用意された自動駐車実行スペース画像と同じ大きさに調整してもよい。
補正後の切り出し画像は、駐車車両V1を示す駐車車両画像として、周辺画像の生成(図4のステップS2)に用いられる。
なお、上述した処理により、駐車車両V2、V3それぞれを示す駐車車両画像も生成される。
ここで、図12を用いて、上述した処理により生成された駐車車両画像を含む周辺画像の一例について説明する。図12は、周辺画像の一例を示す模式図である。
図12に示す駐車車両画像I6、I7、I8は、それぞれ、上述した処理により生成された画像であり、図3に示した駐車車両V1、V2、V3の正面を示す画像である。また、図12に示す自車両画像I9および自動駐車実行スペース画像I10は、予め用意された画像である。自車両画像I9は、車両1を側方から見た形状を示す画像である。自動駐車実行スペース画像I10は、自動駐車実行スペースに決定された図3の駐車スペースBS1を示す画像である。
また、図12に示すように、自動駐車実行スペース画像I10は、矩形状の画像である。自動駐車実行スペース画像I10は、所定の色または模様が付されていてもよい。
なお、図12では、車両1の側方の形状を示す自車両画像I9を用いた場合を例示したが、車両1の上面の形状を示す自車両画像I4(図6参照)を用いてもよい。
図12に示した駐車車両画像I6、I7、I8、自車両画像I9、および自動駐車実行スペース画像I10は、実施の形態1で説明した方法により、位置決めされる。
ここまで詳述したように、本実施の形態によれば、複数の空き駐車スペースが検出された場合でも、自動駐車実行スペースが明示された周辺画像が表示されるので、車両1の乗員は、どの駐車スペースに自動駐車が行われるのかを容易に認識できる。
また、本実施の形態によれば、周辺画像に含まれる駐車車両画像が実際に撮影された撮影画像に基づいた形状および色で表示されるので、車両1の乗員は、駐車車両および自動駐車実行スペースそれぞれの位置をより容易に把握することができる。
なお、上述した実施の形態3は、その趣旨を逸脱しない範囲において種々の変形が可能である。以下、変形例について説明する。
[変形例6]
実施の形態3では、生成される駐車車両画像が駐車車両の正面を示す画像である場合を例に挙げて説明したが、これに限定されない。例えば、生成される駐車車両画像は、車両1の乗員の視点に基づく駐車車両の形状(例えば、駐車車両を斜めから見た形状)を示す画像であってもよい。
実施の形態3では、生成される駐車車両画像が駐車車両の正面を示す画像である場合を例に挙げて説明したが、これに限定されない。例えば、生成される駐車車両画像は、車両1の乗員の視点に基づく駐車車両の形状(例えば、駐車車両を斜めから見た形状)を示す画像であってもよい。
[変形例7]
実施の形態3では、切り出し範囲に基づいて、撮影画像から駐車車両画像を切り出す場合を例に挙げて説明したが、これに限定されない。
実施の形態3では、切り出し範囲に基づいて、撮影画像から駐車車両画像を切り出す場合を例に挙げて説明したが、これに限定されない。
例えば、リアカメラ3(サイドカメラまたはフロントカメラでもよい)の撮影画像全体に対して画像処理を行うことにより、駐車車両の領域を判定し、その領域を切り出してもよい。
ただし、撮影画像全体に対して画像処理を行う場合ではコストがかかるため、実施の形態3で説明したように切り出し範囲に基づいて駐車車両画像を切り出す方法の方が、コストを低減することができる。
以上、実施の形態1~3およびそれらの変形例について説明した。なお、各変形例は、適宜組み合わせて実現されてもよい。
<本開示のまとめ>
本開示のまとめは、以下のとおりである。
本開示のまとめは、以下のとおりである。
本開示の表示制御装置は、自動駐車を実行する車両と、前記車両が駐車可能な空き駐車スペースとの位置関係を示す周辺画像を生成する生成部と、前記車両が自動駐車を実行する前に、前記周辺画像を前記車両に搭載された表示装置へ出力する出力部と、を有し、前記表示装置に表示される前記周辺画像は、前記車両を示す自車両画像と、複数の前記空き駐車スペースのうち、前記車両が自動駐車される駐車スペースである自動駐車実行スペースを示す自動駐車実行スペース画像と、を含み、前記表示装置に表示される前記周辺画像は、駐車中の他車両を示す駐車車両画像をさらに含む。
また、本開示の表示制御装置において、前記駐車車両画像は、前記車両に搭載されたカメラが撮影した前記他車両の画像に基づいた形状および色のうち少なくとも一方を用いて表示される。
また、本開示の表示制御装置において、前記駐車中の他車両および前記空き駐車スペースは、前記車両に搭載された超音波ソナーが受信した反射波に基づいて検知された複数の検知点に基づいて、検出される。
また、本開示の表示制御装置において、前記駐車車両画像は、前記複数の検知点に基づいて算出された位置決め用座標に基づいて、前記周辺画像上に配置される。
本開示の駐車支援装置は、車両の走行を制御し、前記車両が駐車可能な空き駐車スペースに前記車両を自動駐車させる走行制御部と、前記車両と、前記空き駐車スペースとの位置関係を示す周辺画像を生成する生成部と、前記車両が自動駐車を実行する前に、前記周辺画像を前記車両に搭載された表示装置へ出力する出力部と、を有し、前記表示装置に表示される前記周辺画像は、前記車両を示す自車両画像と、複数の前記空き駐車スペースのうち、前記車両が自動駐車される駐車スペースである自動駐車実行スペースを示す自動駐車実行スペース画像と、を含み、前記表示装置に表示される前記周辺画像は、駐車中の他車両を示す駐車車両画像をさらに含む。
本開示の表示制御方法は、自動駐車を行う車両に搭載される装置が行う表示制御方法であって、前記車両と、前記車両が駐車可能な空き駐車スペースとの位置関係を示す周辺画像を生成するステップと、前記車両が自動駐車を実行する前に、前記周辺画像を前記車両に搭載された表示装置へ出力するステップと、を有し、前記表示装置に表示される前記周辺画像は、前記車両を示す自車両画像と、複数の前記空き駐車スペースのうち、前記車両が自動駐車される駐車スペースである自動駐車実行スペースを示す自動駐車実行スペース画像と、を含み、前記表示装置に表示される前記周辺画像は、駐車中の他車両を示す駐車車両画像をさらに含む。
2019年3月7日出願の特願2019-041492の日本出願に含まれる明細書、図面および要約書の開示内容は、すべて本願に援用される。
本開示の表示制御装置、駐車支援装置、および表示制御方法は、自動駐車を行う車両に有用である。
1 車両
2 超音波ソナー
3 リアカメラ
4 車輪速センサ
5 表示装置
6 アクチュエータ群
11 ソナー制御部
12 検知部
13 判定部
14 走行制御部
15 記憶部
16 生成部
17 出力部
100 駐車支援装置
200 表示制御装置
2 超音波ソナー
3 リアカメラ
4 車輪速センサ
5 表示装置
6 アクチュエータ群
11 ソナー制御部
12 検知部
13 判定部
14 走行制御部
15 記憶部
16 生成部
17 出力部
100 駐車支援装置
200 表示制御装置
Claims (6)
- 自動駐車を実行する車両と、前記車両が駐車可能な空き駐車スペースとの位置関係を示す周辺画像を生成する生成部と、
前記車両が自動駐車を実行する前に、前記周辺画像を前記車両に搭載された表示装置へ出力する出力部と、を有し、
前記表示装置に表示される前記周辺画像は、
前記車両を示す自車両画像と、
複数の前記空き駐車スペースのうち、前記車両が自動駐車される駐車スペースである自動駐車実行スペースを示す自動駐車実行スペース画像と、を含み、
前記表示装置に表示される前記周辺画像は、
駐車中の他車両を示す駐車車両画像をさらに含む、
表示制御装置。 - 前記駐車車両画像は、
前記車両に搭載されたカメラが撮影した前記他車両の画像に基づいた形状および色のうち少なくとも一方を用いて表示される、
請求項1に記載の表示制御装置。 - 前記駐車中の他車両および前記空き駐車スペースは、
前記車両に搭載された超音波ソナーが受信した反射波に基づいて検知された複数の検知点に基づいて、検出される、
請求項1に記載の表示制御装置。 - 前記駐車車両画像は、
前記複数の検知点に基づいて算出された位置決め用座標に基づいて、前記周辺画像上に配置される、
請求項3に記載の表示制御装置。 - 車両の走行を制御し、前記車両が駐車可能な空き駐車スペースに前記車両を自動駐車させる走行制御部と、
前記車両と、前記空き駐車スペースとの位置関係を示す周辺画像を生成する生成部と、
前記車両が自動駐車を実行する前に、前記周辺画像を前記車両に搭載された表示装置へ出力する出力部と、を有し、
前記表示装置に表示される前記周辺画像は、
前記車両を示す自車両画像と、
複数の前記空き駐車スペースのうち、前記車両が自動駐車される駐車スペースである自動駐車実行スペースを示す自動駐車実行スペース画像と、を含み、
前記表示装置に表示される前記周辺画像は、
駐車中の他車両を示す駐車車両画像をさらに含む、
駐車支援装置。 - 自動駐車を行う車両に搭載される装置が行う表示制御方法であって、
前記車両と、前記車両が駐車可能な空き駐車スペースとの位置関係を示す周辺画像を生成するステップと、
前記車両が自動駐車を実行する前に、前記周辺画像を前記車両に搭載された表示装置へ出力するステップと、を有し、
前記表示装置に表示される前記周辺画像は、
前記車両を示す自車両画像と、
複数の前記空き駐車スペースのうち、前記車両が自動駐車される駐車スペースである自動駐車実行スペースを示す自動駐車実行スペース画像と、を含み、
前記表示装置に表示される前記周辺画像は、
駐車中の他車両を示す駐車車両画像をさらに含む、
表示制御方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019-041492 | 2019-03-07 | ||
JP2019041492A JP2020142690A (ja) | 2019-03-07 | 2019-03-07 | 表示制御装置、駐車支援装置、および表示制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020179271A1 true WO2020179271A1 (ja) | 2020-09-10 |
Family
ID=72336942
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2020/002345 WO2020179271A1 (ja) | 2019-03-07 | 2020-01-23 | 表示制御装置、駐車支援装置、および表示制御方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2020142690A (ja) |
WO (1) | WO2020179271A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023162769A1 (en) * | 2022-02-24 | 2023-08-31 | Sony Group Corporation | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010122747A1 (ja) * | 2009-04-23 | 2010-10-28 | パナソニック株式会社 | 運転支援装置、運転支援方法及びプログラム |
JP2013209015A (ja) * | 2012-03-30 | 2013-10-10 | Panasonic Corp | 駐車支援装置、及び駐車支援方法 |
JP2017159687A (ja) * | 2016-03-07 | 2017-09-14 | 三菱重工業株式会社 | 駐車領域表示システム及びそれを用いた自動駐車システム |
-
2019
- 2019-03-07 JP JP2019041492A patent/JP2020142690A/ja active Pending
-
2020
- 2020-01-23 WO PCT/JP2020/002345 patent/WO2020179271A1/ja active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010122747A1 (ja) * | 2009-04-23 | 2010-10-28 | パナソニック株式会社 | 運転支援装置、運転支援方法及びプログラム |
JP2013209015A (ja) * | 2012-03-30 | 2013-10-10 | Panasonic Corp | 駐車支援装置、及び駐車支援方法 |
JP2017159687A (ja) * | 2016-03-07 | 2017-09-14 | 三菱重工業株式会社 | 駐車領域表示システム及びそれを用いた自動駐車システム |
Also Published As
Publication number | Publication date |
---|---|
JP2020142690A (ja) | 2020-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6724425B2 (ja) | 駐車支援装置 | |
EP3290301B1 (en) | Parking assist device | |
US10632915B2 (en) | Surroundings monitoring apparatus | |
WO2019093176A1 (ja) | 周辺監視装置 | |
JP7323326B2 (ja) | 駐車支援装置、及び駐車支援装置の制御方法 | |
JP2018090108A (ja) | 駐車支援装置及び駐車支援方法 | |
WO2019186799A1 (ja) | 鞍乗型車両用物体検知システムおよび鞍乗型車両 | |
JP2022023870A (ja) | 表示制御装置 | |
WO2020179271A1 (ja) | 表示制御装置、駐車支援装置、および表示制御方法 | |
JP7003755B2 (ja) | 駐車支援装置 | |
JP6579144B2 (ja) | 障害物検知装置 | |
US20230290154A1 (en) | Control device, control method, and computer-readable recording medium | |
US20230158956A1 (en) | Control device, control method, and storage medium | |
JP2021160667A (ja) | 駐車支援装置、駐車支援システム、及び駐車支援方法 | |
JP6977318B2 (ja) | 周辺表示装置 | |
JP2020083048A (ja) | 画像表示装置 | |
JP7249541B2 (ja) | 表示制御装置、駐車支援装置、および表示制御方法 | |
CN114312756A (zh) | 停车辅助系统、停车辅助装置、停车辅助方法以及记录介质 | |
JP2022055835A (ja) | 駐車支援システム、駐車支援方法、及びプログラム | |
JP6953915B2 (ja) | 周辺監視装置 | |
US11999342B2 (en) | Display control device, parking assist apparatus and display control method | |
JP2021062752A (ja) | 駐車支援装置、駐車支援方法、および駐車支援プログラム | |
JP2014100957A (ja) | 駐車支援装置及び制御装置 | |
US20230316916A1 (en) | Control device, control method, and computer-readable recording medium | |
US20230158957A1 (en) | Control device, control method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20766135 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 20766135 Country of ref document: EP Kind code of ref document: A1 |