WO2021199098A1 - 駐車支援装置 - Google Patents

駐車支援装置 Download PDF

Info

Publication number
WO2021199098A1
WO2021199098A1 PCT/JP2020/014426 JP2020014426W WO2021199098A1 WO 2021199098 A1 WO2021199098 A1 WO 2021199098A1 JP 2020014426 W JP2020014426 W JP 2020014426W WO 2021199098 A1 WO2021199098 A1 WO 2021199098A1
Authority
WO
WIPO (PCT)
Prior art keywords
detection
unit
vehicle
notification
parking
Prior art date
Application number
PCT/JP2020/014426
Other languages
English (en)
French (fr)
Inventor
聡史 上田
真一 原瀬
涼太郎 鈴木
井上 悟
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2022512496A priority Critical patent/JP7237242B2/ja
Priority to PCT/JP2020/014426 priority patent/WO2021199098A1/ja
Publication of WO2021199098A1 publication Critical patent/WO2021199098A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking

Definitions

  • This disclosure relates to a parking support device.
  • the area on the left side of the vehicle may be referred to as the "left area”.
  • the area on the right side of the vehicle may be referred to as a "right area”.
  • the left region, the right region, or the left region and the right region may be collectively referred to as a "side region”.
  • one other vehicle parked in the side area or a plurality of other vehicles parked in the side area may be collectively referred to as a "parked vehicle”.
  • the space in which the vehicle can be parked in the lateral area may be referred to as a "parking space".
  • the parking space is the space between two parked vehicles.
  • Patent Document 1 a technique for detecting a parking space by detecting an individual parked vehicle using a distance measuring sensor provided in the vehicle has been developed (see, for example, Patent Document 1).
  • the process of detecting the parking space is executed when the vehicle is traveling at a speed equal to or lower than a predetermined speed (for example, 30 km / h).
  • a predetermined speed for example, 30 km / h.
  • the driver of the vehicle is notified to that effect.
  • the driver inputs an operation of stopping the vehicle and instructing the start of parking by so-called “automatic parking”.
  • the driver stops the vehicle and starts parking by so-called “manual parking”.
  • these procedures may be collectively referred to as "parking start procedure”.
  • the driver is required to keep an eye on when the parking space has been detected when the vehicle is traveling at such speed in preparation for the execution of the parking start procedure. .. That is, in the conventional configuration in which the parking space is notified when the parking space is detected, the timing at which the parking start procedure should be executed when the vehicle is traveling at such a speed (hereinafter referred to as "execution timing"). There was a problem that it was difficult for the driver to predict the arrival time of).
  • the present disclosure has been made to solve the above-mentioned problems, and an object of the present disclosure is to provide a parking support device capable of causing the driver to predict the arrival time of the execution timing of the parking start procedure.
  • the parking space detection unit that detects the parking space for the vehicle and the detection status by the parking space detection unit are temporally determined by using the object detection information by the distance measuring sensor provided in the vehicle. Based on the judgment result of the detection status judgment unit that determines which of the plurality of consecutive detection statuses is the detection status and the detection status judgment unit, the parking space detection unit sequentially changes according to the detection status. It is provided with a notification control unit that executes control for outputting notifications.
  • FIG. It is a block diagram which shows the main part of the parking support system including the parking support device which concerns on Embodiment 1.
  • FIG. It is explanatory drawing which shows the example of the two-circle intersection processing. It is explanatory drawing which shows the example of the 1st detection situation. It is explanatory drawing which shows the example of the 2nd detection situation. It is explanatory drawing which shows the example of the 3rd detection situation. It is explanatory drawing which shows the example of the 4th detection situation. It is explanatory drawing which shows the example of the installation position of the front speaker and the rear speaker. It is explanatory drawing which shows the example of the 1st broadcast image. It is explanatory drawing which shows the example of the 2nd broadcast image.
  • FIG. 1 It is explanatory drawing which shows the example of the 3rd broadcast image. It is explanatory drawing which shows the example of the 4th broadcast image. It is a block diagram which shows the hardware composition of the main part of the parking support device which concerns on Embodiment 1.
  • FIG. It is a block diagram which shows the other hardware configuration of the main part of the parking support device which concerns on Embodiment 1.
  • FIG. It is a block diagram which shows the other hardware configuration of the main part of the parking support device which concerns on Embodiment 1.
  • FIG. It is a flowchart which shows the operation of the object detection device in the parking support system including the parking support device which concerns on Embodiment 1.
  • FIG. It is a flowchart which shows the operation of the parking support device which concerns on Embodiment 1.
  • FIG. It is a flowchart which shows the operation of the parking space detection part in the parking support device which concerns on Embodiment 1.
  • FIG. It is a flowchart which shows the operation of the detection situation determination part in the parking support device which concerns on Embodiment 1.
  • FIG. It is a flowchart which shows the operation of the detection situation determination part in the parking support device which concerns on Embodiment 1.
  • FIG. It is a flowchart which shows the operation of the notification control part in the parking support device which concerns on Embodiment 1.
  • FIG. It is a flowchart which shows the operation of the notification control part in the parking support device which concerns on Embodiment 1.
  • FIG. It is a block diagram which shows the main part of the parking support system including another parking support device which concerns on Embodiment 1.
  • FIG. It is a block diagram which shows the main part of the parking support system including the parking support device which concerns on Embodiment 2.
  • FIG. It is explanatory drawing which shows the example of the plurality of reflection point groups corresponding to a plurality of objects.
  • It is a flowchart which shows the operation of the object detection device in the parking support system including the parking support device which concerns on Embodiment 2.
  • It is a flowchart which shows the operation of the parking support device which concerns on Embodiment 2.
  • FIG. 1 is a block diagram showing a main part of a parking support system including the parking support device according to the first embodiment.
  • a parking support system including the parking support device according to the first embodiment will be described with reference to FIG.
  • the vehicle 1 has a parking support system 2.
  • the parking support system 2 includes a first sensor group 3, a second sensor group 4, a distance measuring sensor 5, and an output device 6. Further, the parking support system 2 includes an object detection device 7, a parking support device 8, and a vehicle control device 9.
  • the first sensors 3 are used for detecting the speed Vr of the vehicle 1.
  • the first sensors 3 include one type of sensor or a plurality of types of sensors. Specifically, for example, the first sensors 3 include a wheel speed sensor and a shift position sensor.
  • the second sensors 4 are used to detect the position of the vehicle 1.
  • the position of the vehicle 1 includes the direction of the vehicle 1.
  • the second sensor class 4 includes one type of sensor or a plurality of types of sensors.
  • the second sensors 4 include a GNSS (Global Navigation Satellite System) receiver, a gyro sensor, and a yaw rate sensor.
  • GNSS Global Navigation Satellite System
  • the distance measuring sensor 5 is composed of a ToF (Time THERf Flight) type distance measuring sensor.
  • the distance measuring sensor 5 is composed of an ultrasonic sensor, a millimeter wave radar, a laser radar, a rider, or an infrared sensor.
  • waves for example, ultrasonic waves, millimeter waves, laser light, or infrared rays
  • explode waves for example, ultrasonic waves, millimeter waves, laser light, or infrared rays
  • the distance measuring sensor 5 is provided on the left side of the vehicle 1. Alternatively, the distance measuring sensor 5 is provided on the right side of the vehicle 1. Alternatively, the distance measuring sensor 5 is provided on each of the left side portion of the vehicle 1 and the right side portion of the vehicle 1.
  • the distance measuring sensor 5 is composed of an ultrasonic sensor. Further, in the first embodiment and the second embodiment, an example in which the distance measuring sensor 5 is provided on the left side portion of the vehicle 1 will be mainly described. Further, in the third embodiment, an example in which the distance measuring sensor 5 is provided on each of the left side portion of the vehicle 1 and the right side portion of the vehicle 1 will be mainly described.
  • the output device 6 includes a speaker (hereinafter, may be referred to as a "first speaker").
  • the first speaker is provided on the dashboard of the vehicle 1, for example.
  • the output device 6 includes another speaker (hereinafter, may be referred to as a "second speaker”).
  • the second speaker includes a speaker (hereinafter referred to as “front speaker”) provided in the front half of the vehicle interior of the vehicle 1.
  • the second speaker includes a speaker (hereinafter referred to as “rear speaker”) provided in the latter half of the vehicle interior of the vehicle 1.
  • the output device 6 includes a display (hereinafter, may be referred to as a "first display").
  • the first indicator is provided, for example, on the dashboard of the vehicle 1.
  • the first display is composed of, for example, a liquid crystal display or an organic EL (Electroluminescence) display.
  • the output device 6 includes an indicator (hereinafter, may be referred to as a "second indicator").
  • the second indicator is provided, for example, on the dashboard of the vehicle 1.
  • the second display uses, for example, an LED (Light Emitting Diode).
  • the first display or the second display may be collectively referred to as "display”.
  • the output device 6 includes a first speaker and a display.
  • the output device 6 includes a second speaker and a display.
  • the object detection device 7 is composed of, for example, an ECU (Electronic Control Unit).
  • the object detection device 7 includes a speed determination unit 11, a distance calculation unit 12, and a position calculation unit 13.
  • the speed determination unit 11 uses the first sensors 3 to determine whether or not the vehicle 1 is traveling at a speed Vr equal to or less than a predetermined speed Vth.
  • the predetermined speed Vth is set, for example, every 30 kilometers per hour.
  • the distance calculation unit 12 calculates the distance value d by ToF using the distance measurement sensor 5 when the vehicle 1 is traveling at a speed Vr equal to or less than a predetermined speed Vth.
  • the distance measuring sensor 5 transmits the exploration wave at a predetermined time interval when the vehicle 1 is traveling at a speed Vr equal to or lower than a predetermined speed Vth. If an object is present in the lateral region (more specifically, the left region), the transmitted exploration wave irradiates the object. The irradiated exploration wave is reflected by such an object.
  • the reflected exploration wave (hereinafter, may be referred to as “reflected wave”) is received by the ranging sensor 5.
  • the distance calculation unit 12 calculates the reciprocating propagation time Tp of the search wave based on the time when the search wave is transmitted by the distance measurement sensor 5 and the time when the reflected wave is received by the distance measurement sensor 5. In addition, information indicating the propagation velocity Vp of the exploration wave in the air is prepared in advance. The distance calculation unit 12 calculates the distance value d by the following equation (1) based on the propagation velocity Vp and the reciprocating propagation time Tp.
  • the distance value d by Tof is calculated. That is, when the vehicle 1 is traveling at a speed Vr equal to or lower than a predetermined speed Vth, a plurality of distance values d are sequentially calculated.
  • the position calculation unit 13 uses the distance value d calculated by the distance calculation unit 12 to determine the position (hereinafter referred to as “reflection point”) at the point where the exploration wave transmitted by the distance measurement sensor 5 is reflected by the object (hereinafter referred to as “reflection point”).
  • reflection position the position at the point where the exploration wave transmitted by the distance measurement sensor 5 is reflected by the object
  • reflection position Pr is calculated.
  • the calculation of the reflection position Pr is, for example, a so-called “two-circle intersection processing” or “synthetic opening processing”.
  • installation position information information indicating the installation position of the distance measuring sensor 5 in the vehicle 1
  • installation position information information indicating the installation position of the distance measuring sensor 5 in the vehicle 1
  • the position calculation unit 13 uses the second sensors 4 to position the vehicle 1 at the time when the exploration wave is transmitted by the distance measurement sensor 5 or the time when the reflected wave is received by the distance measurement sensor 5 (hereinafter, “vehicle position”). ".) Is detected. Hereinafter, such time is referred to as "target time”.
  • the position calculation unit 13 calculates the position (hereinafter referred to as “sensor position”) Ps of the distance measuring sensor 5 at each target time based on the detected vehicle position and the installation position indicated by the installation position information.
  • the position calculation unit 13 selects any two distance values d_1 and d_2 from the plurality of distance values d calculated by the distance calculation unit 12.
  • the position calculation unit 13 calculates the circle C_1 corresponding to the first distance value d_1 and the circle C_2 corresponding to the second distance value d_2 for each of the two selected distance values d_1 and d_2. do.
  • the circle C_1 has a radius corresponding to the corresponding distance value d_1 and has a center corresponding to the corresponding sensor position Ps_1.
  • the circle C_2 has a radius corresponding to the corresponding distance value d_2 and has a center corresponding to the corresponding sensor position Ps_2.
  • the position calculation unit 13 calculates the position of the intersection of the two circles C_1 and C_2. As a result, the corresponding reflection position Pr is calculated.
  • FIG. 2 shows an example of a distance value d_1, a distance value d_1, a sensor position Ps_1, a sensor position Ps_1, a circle C_1, a circle C_2, and a reflection position Pr.
  • the arrow A indicates the traveling direction of the vehicle 1.
  • the x-axis is a virtual axis along the left-right direction of the vehicle 1 (that is, the direction perpendicular to the traveling direction of the vehicle 1).
  • the y-axis is a virtual axis along the front-rear direction of the vehicle 1 (that is, the traveling direction of the vehicle 1).
  • the calculation by the position calculation unit 13 is executed in a two-axis coordinate system based on the x-axis and the y-axis.
  • the reflection position Pr is calculated. That is, when the vehicle 1 is traveling at a speed Vr equal to or lower than a predetermined speed Vth, a plurality of reflection positions Pr corresponding to the plurality of reflection points are sequentially calculated.
  • the object detection device 7 has a function of outputting information indicating the reflection position Pr calculated by the position calculation unit 13 (hereinafter referred to as “reflection position information”) to the parking support device 8.
  • the information output to the parking support device 8 by the object detection device 7 may be collectively referred to as “object detection information”. That is, the object detection information includes the reflection position information.
  • the parking support device 8 is composed of, for example, an ECU.
  • the parking support device 8 includes a parking space detection unit 21, a detection status determination unit 22, and a notification control unit 23.
  • the parking space detection unit 21 acquires the reflection position information included in the object detection information output by the object detection device 7.
  • the parking space detection unit 21 detects the parking space PS for the vehicle 1 by using the acquired reflection position information.
  • detection status a transition of the detection status of the parking space PS by the parking space detection unit 21 (hereinafter, may be simply referred to as “detection status”) will be described.
  • two parked vehicles V_1 and V_2 are parked in the lateral region (more specifically, the left region) by so-called "parallel parking".
  • the vehicle 1 is traveling at a speed Vr equal to or less than a predetermined speed Vth.
  • the ranging sensor 5 transmits exploration waves at predetermined time intervals.
  • a state occurs in which the exploration wave transmitted by the ranging sensor 5 is applied to the parked vehicle V_1.
  • the reflection position information corresponding to the parked vehicle V_1 is output to the parking support device 8 by the object detection device 7. More specifically, the reflection position information indicating the corresponding plurality of reflection position Pr is sequentially output for the plurality of reflection points corresponding to the parked vehicle V_1.
  • the parking space detection unit 21 acquires the output reflection position information.
  • the detection status corresponding to such a state is referred to as "first detection status". That is, the first detection status corresponds to the state when the parking space detection unit 21 has acquired the reflection position information corresponding to the parked vehicle V_1.
  • FIG. 3 shows an example of the first detection situation.
  • the parking space detection unit 21 uses the reflection position information to position the end of the parked vehicle V_1 (hereinafter, "end position"). ”.) Calculate X_1. In the examples shown in FIGS. 3 to 6, the end position X_1 corresponding to the front end of the parked vehicle V_1 is calculated.
  • FIG. 4 shows an example of the second detection situation.
  • the exploration wave transmitted by the ranging sensor 5 is not applied to the parked vehicles V_1 and V_2.
  • a state occurs in which the exploration wave transmitted by the ranging sensor 5 is applied to the parked vehicle V_2.
  • the reflection position information corresponding to the parked vehicle V_2 is output to the parking support device 8 by the object detection device 7. More specifically, the reflection position information indicating the corresponding plurality of reflection position Pr is sequentially output for the plurality of reflection points corresponding to the parked vehicle V_2.
  • the parking space detection unit 21 acquires the output reflection position information.
  • the detection status corresponding to such a state is referred to as "third detection status". That is, the third detection status corresponds to the state when the parking space detection unit 21 has acquired the reflection position information corresponding to the parked vehicle V_2.
  • FIG. 5 shows an example of the third detection situation.
  • the parking space detection unit 21 calculates the position (hereinafter referred to as "end position") X_2 of the end portion of the parked vehicle V_2 by using the acquired reflection position information.
  • the end position X_2 corresponding to the rear end of the parked vehicle V_2 is calculated.
  • the parking space detection unit 21 calculates the interval D between the end positions X_1 and X_2.
  • the parking space detection unit 21 estimates the width Ls of the space S based on the calculated interval D.
  • information indicating the width (more specifically, the total length of the vehicle 1) Lv of the vehicle 1 is prepared in advance.
  • the parking space detection unit 21 determines whether or not the vehicle 1 can be parked in the space S by comparing the width Ls with the width Lv. In other words, the parking space detection unit 21 determines whether or not the space S is the parking space PS.
  • the width Ls is sufficiently larger than the width Lv.
  • the parking space detection unit 21 determines that the vehicle 1 can be parked in the space S. In other words, the parking space detection unit 21 determines that the space S is the parking space PS.
  • FIG. 6 shows an example of the fourth detection situation.
  • the detection status of the parking space PS by the parking space detection unit 21 changes in the order of the first detection status, the second detection status, the third detection status, and the fourth detection status.
  • a plurality of detection situations including a first detection situation, a second detection situation, a third detection situation, and a fourth detection situation) are continuous in time.
  • the parking space detection unit 21 may detect the parking space PS by using the same technology as that described in Patent Document 1.
  • the detection status determination unit 22 determines the detection status of the parking space PS by the parking space detection unit 21. More specifically, the detection status determination unit 22 determines which of the first detection status, the second detection status, the third detection status, and the fourth detection status is the current detection status. ..
  • the detection status determination unit 22 determines whether or not the parking space detection unit 21 is acquiring the reflection position information corresponding to the parked vehicle V_1.
  • the detection status determination unit 22 determines that the current detection status is the first detection status.
  • the detection status determination unit 22 determines whether or not the end position X_1 has been calculated by the parking space detection unit 21. When the end position X_1 has already been calculated, the detection status determination unit 22 determines that the detection status has changed from the first detection status to the second detection status. That is, the detection status determination unit 22 determines that the current detection status is the second detection status.
  • the detection status determination unit 22 determines whether or not the parking space detection unit 21 is acquiring the reflection position information corresponding to the parked vehicle V_2.
  • the parking space detection unit 21 is acquiring the reflection position information corresponding to the parked vehicle V_2
  • the detection status determination unit 22 determines whether or not the end position X_2 has been calculated by the parking space detection unit 21. Next, the detection status determination unit 22 determines whether or not the width Ls has been calculated by the parking space detection unit 21. Next, the detection status determination unit 22 determines whether or not the parking space detection unit 21 has determined that the vehicle 1 can be parked in the space S. When it is determined that such parking is possible, the detection status determination unit 22 determines that the detection status has changed from the third detection status to the fourth detection status. That is, the detection status determination unit 22 determines that the current detection status is the fourth detection status.
  • the notification control unit 23 executes control to output a notification that changes sequentially according to the detection status based on the determination result by the detection status determination unit 22.
  • Such notification is output by the output device 6. That is, such a notification is a notification to the passengers of the vehicle 1 (including the driver of the vehicle 1).
  • a specific example of such notification will be described.
  • the notification control unit 23 executes control to output a notification sound (hereinafter, may be referred to as “first notification sound”) using the first speaker.
  • first notification sound a notification sound
  • second notification sound another sound for notification
  • third notification sound another sound for notification
  • fourth notification sound another sound for notification
  • the sound output from the first speaker changes sequentially as the detection status changes. More specifically, the output sound changes in the order of the first notification sound, the second notification sound, the third notification sound, and the fourth notification sound.
  • the modes of the first notification sound, the second notification sound, the third notification sound, and the fourth notification sound are different from each other.
  • a mode may be referred to as a “first mode”.
  • the first notification sound, the second notification sound, the third notification sound, and the fourth notification sound have different intervals ⁇ . That is, the first notification sound is composed of intermittent sounds at a predetermined interval ⁇ _1.
  • the second notification sound is composed of intermittent sounds with an interval ⁇ _2 smaller than the interval ⁇ _1 ( ⁇ _2 ⁇ _1).
  • the third notification sound is composed of intermittent sounds at intervals ⁇ _3 smaller than the interval ⁇ _2 ( ⁇ _3 ⁇ _2).
  • the heights of the first notification sound, the second notification sound, the third notification sound, and the fourth notification sound are different from each other. That is, the first notification sound is composed of sounds having a predetermined height.
  • the second notification sound is composed of sounds higher than the first notification sound.
  • the third notification sound is composed of sounds higher than the second notification sound.
  • the fourth notification sound is composed of sounds higher than the third notification sound.
  • the volumes of the first notification sound, the second notification sound, the third notification sound, and the fourth notification sound are different from each other. That is, the first notification sound is composed of sounds having a predetermined loudness.
  • the second notification sound is composed of a sound louder than the first notification sound.
  • the third notification sound is composed of a sound louder than the second notification sound.
  • the fourth notification sound is composed of sounds louder than the third notification sound.
  • the second speaker includes a front speaker and a rear speaker.
  • FIG. 7 shows an example of the installation positions of the front speaker and the rear speaker in the vehicle 1.
  • FS indicates a front speaker.
  • RS indicates a rear speaker.
  • the notification control unit 23 executes control to output a notification sound (hereinafter, may be referred to as “pre-notification sound”) using the front speaker. Further, the notification control unit 23 executes control to output a notification sound (hereinafter, may be referred to as “rear notification sound”) using the rear speaker.
  • pre-notification sound a notification sound
  • rear notification sound a notification sound
  • the notification control unit 23 changes the volume of each of the front notification sound and the rear notification sound according to the detection status.
  • the volume of the front notification sound changes sequentially according to the detection status
  • the volume of the rear notification sound changes sequentially according to the detection status. That is, the volume of each of the front notification sound and the rear notification sound corresponds to the first aspect.
  • the volume of the front notification sound is set to a value larger than the volume of the rear notification sound.
  • the volume of the rear notification sound is set to a value smaller than the volume of the front notification sound.
  • the volume of the front notification sound decreases and the volume of the rear notification sound increases.
  • the volume of the front notification sound and the volume of the rear notification sound are set to the same values.
  • the volume of the front notification sound is further reduced, and the volume of the rear notification sound is further increased.
  • the volume of the front notification sound is set to a value smaller than the volume of the rear notification sound.
  • the volume of the rear notification sound is set to a value larger than the volume of the front notification sound.
  • the volume setting corresponds to the positional relationship between the vehicle 1 and the space S. That is, in the first detection situation, the space S is located diagonally forward to the left with respect to the vehicle 1 (or diagonally forward to the right with respect to the vehicle 1). At this time, the volume of the front notification sound is set to a value larger than the volume of the rear notification sound. Next, in the second detection situation, the space S is located to the left of the vehicle 1 (or to the right of the vehicle 1). At this time, the volume of the front notification sound and the volume of the rear notification sound are set to the same values. Next, in the third detection situation, the space S is located diagonally to the left of the vehicle 1 (or diagonally to the right of the vehicle 1). At this time, the volume of the rear notification sound is set to a value larger than the volume of the front notification sound.
  • the notification control unit 23 executes control for displaying the notification image (hereinafter, may be referred to as “first notification image”) I_1 using the first display.
  • the notification control unit 23 executes control for displaying another image for notification (hereinafter, may be referred to as “second notification image”) I_2 using the first display.
  • the notification control unit 23 executes control for displaying another image for notification (hereinafter, may be referred to as “third notification image”) I_3 using the first display.
  • the notification control unit 23 executes control for displaying another image for notification (hereinafter, may be referred to as “fourth notification image”) I_4 using the first display.
  • FIG. 8 shows an example of the first broadcast image I_1.
  • FIG. 9 shows an example of the second broadcast image I_2.
  • FIG. 10 shows an example of the third broadcast image I_3.
  • FIG. 11 shows an example of the fourth broadcast image I_4.
  • each of the first broadcast image I_1, the second broadcast image I_2, the third broadcast image I_3, and the fourth broadcast image I_4 includes the image I_V corresponding to the vehicle 1. Further, each of the first broadcast image I_1, the second broadcast image I_2, the third broadcast image I_3, and the fourth broadcast image I_4 includes the image I_S corresponding to the space S.
  • the first broadcast image I_1 shows the positional relationship between the vehicle 1 and the space S in the first detection situation. More specifically, the first broadcast image I_1 shows the position of the space S with respect to the vehicle 1 in the first detection situation.
  • the second broadcast image I_2 shows the positional relationship between the vehicle 1 and the space S in the second detection situation. More specifically, the second broadcast image I_2 shows the position of the space S with respect to the vehicle 1 in the second detection situation.
  • the third broadcast image I_3 shows the positional relationship between the vehicle 1 and the space S in the third detection situation. More specifically, the third broadcast image I_3 shows the position of the space S with respect to the vehicle 1 in the third detection situation.
  • the fourth broadcast image I_4 shows the positional relationship between the vehicle 1 and the space S in the fourth detection situation. More specifically, the fourth broadcast image I_4 shows the position of the space S with respect to the vehicle 1 in the fourth detection situation.
  • the image I_S corresponding to the space S is represented by a broken line. This indicates that it is undecided whether or not the vehicle 1 can be parked in the space S. In other words, this indicates that it is unclear whether the space S is the parking space PS.
  • the image I_S corresponding to the space S is represented by a solid line. This indicates that it has been determined that the vehicle 1 can be parked in the space S. In other words, this indicates that the space S is the parking space PS.
  • the second display may be an indicator corresponding to the image I_V in each of the first broadcast image I_1, the second broadcast image I_2, the third broadcast image I_3, and the fourth broadcast image I_4 (hereinafter, referred to as "first indicator”. ) Is included. Further, the second display includes an indicator corresponding to the image I_S in the first broadcast image I_1 (hereinafter, may be referred to as a "second indicator”). Further, the second display includes an indicator corresponding to the image I_S in the second broadcast image I_2 (hereinafter, may be referred to as a "third indicator").
  • the second display includes an indicator corresponding to the image I_S in the third broadcast image I_3 (hereinafter, may be referred to as a "fourth indicator”). Further, the second display includes an indicator corresponding to the image I_S in the fourth broadcast image I_4 (hereinafter, may be referred to as a "fifth indicator").
  • the notification control unit 23 executes control to light the first indicator and the second indicator.
  • the notification control unit 23 executes control to turn on the first indicator and the third indicator.
  • the notification control unit 23 executes control to turn on the first indicator and the fourth indicator.
  • the notification control unit 23 executes control to turn on the first indicator and the fifth indicator.
  • the main part of the parking support device 8 is configured.
  • the driver of the vehicle 1 stops the vehicle 1.
  • the driver of the vehicle 1 uses an operation input device (not shown) to input an operation for instructing the start of parking of the vehicle 1 by automatic parking. That is, the driver of the vehicle 1 executes the parking start procedure.
  • the vehicle control device 9 executes control for parking the vehicle 1 in the parking space PS by operating the vehicle 1.
  • the vehicle control device 9 is composed of, for example, an ECU.
  • the processes executed by the speed determination unit 11 may be collectively referred to as "speed determination processing”.
  • the processes executed by the distance calculation unit 12 may be collectively referred to as “distance calculation processing”.
  • the processing executed by the position calculation unit 13 may be collectively referred to as “position calculation processing”.
  • the processes executed by the parking space detection unit 21 may be collectively referred to as “parking space detection process”.
  • the processes executed by the detection status determination unit 22 may be collectively referred to as “detection status determination processing”.
  • the processing and control executed by the notification control unit 23 may be collectively referred to as "notification control”.
  • parking space detection unit 21 may be collectively referred to as “parking space detection function”.
  • detection status determination unit 22 may be collectively referred to as “detection status determination function”.
  • notification control unit 23 may be collectively referred to as “notification control function”.
  • the code of "F1” may be used for the parking space detection function. Further, the code of "F2” may be used for the detection status determination function. In addition, the code of "F3" may be used for the notification control function.
  • the parking support device 8 has a processor 31 and a memory 32.
  • the memory 32 stores programs corresponding to a plurality of functions (including a parking space detection function, a detection status determination function, and a notification control function) F1 to F3.
  • the processor 31 reads and executes the program stored in the memory 32. As a result, a plurality of functions F1 to F3 are realized.
  • the parking support device 8 has a processing circuit 33.
  • the processing circuit 33 executes processing corresponding to a plurality of functions F1 to F3. As a result, a plurality of functions F1 to F3 are realized.
  • the parking support device 8 has a processor 31, a memory 32, and a processing circuit 33.
  • the memory 32 stores programs corresponding to some of the plurality of functions F1 to F3.
  • the processor 31 reads and executes the program stored in the memory 32. As a result, some of these functions are realized.
  • the processing circuit 33 executes processing corresponding to the remaining functions of the plurality of functions F1 to F3. As a result, such a residual function is realized.
  • the processor 31 is composed of one or more processors.
  • processors for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a microprocessor, a microprocessor, or a DSP (Digital Signal Processor) is used.
  • CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • microprocessor a microprocessor
  • DSP Digital Signal Processor
  • the memory 32 is composed of one or more non-volatile memories.
  • the memory 32 is composed of one or more non-volatile memories and one or more volatile memories. That is, the memory 32 is composed of one or more memories.
  • the individual memory uses, for example, a semiconductor memory or a magnetic disk. More specifically, each volatile memory uses, for example, a RAM (Random Access Memory).
  • the individual non-volatile memory is, for example, a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically Erasable Programmory) drive, or a hard drive using a hard drive, a hard drive, or a hard drive. Is.
  • the processing circuit 33 is composed of one or more digital circuits. Alternatively, the processing circuit 33 is composed of one or more digital circuits and one or more analog circuits. That is, the processing circuit 33 is composed of one or more processing circuits.
  • the individual processing circuits are, for example, ASIC (Application Special Integrated Circuit), PLD (Programmable Logic Device), FPGA (Field Programmable Gate Array), FPGA (Field Program Is.
  • the processor 31 when the processor 31 is composed of a plurality of processors, the correspondence between the plurality of functions F1 to F3 and the plurality of processors is arbitrary. That is, each of the plurality of processors may read and execute a program corresponding to one or more corresponding functions among the plurality of functions F1 to F3.
  • the processor 31 may include a dedicated processor corresponding to each function F1 to F3.
  • each of the plurality of memories may store a program corresponding to one or more corresponding functions among the plurality of functions F1 to F3.
  • the memory 32 may include a dedicated memory corresponding to the individual functions F1 to F3.
  • the processing circuit 33 when the processing circuit 33 is composed of a plurality of processing circuits, the correspondence between the plurality of functions F1 to F3 and the plurality of processing circuits is arbitrary. That is, each of the plurality of processing circuits may execute processing corresponding to one or more corresponding functions among the plurality of functions F1 to F3.
  • the processing circuit 33 may include a dedicated processing circuit corresponding to the individual functions F1 to F3.
  • the process shown in FIG. 15 is repeatedly executed when a predetermined condition is satisfied (for example, when the state of the ignition power supply in the vehicle 1 is on).
  • the speed determination unit 11 executes the speed determination process (step ST1).
  • the distance calculation unit 12 starts the distance calculation process (step ST3), and the position calculation unit 13 Starts the position calculation process (step ST4).
  • step ST5 executes the speed determination process.
  • step ST6 “NO” executes the speed determination process.
  • step ST7 ends the distance calculation process.
  • step ST8 ends the position calculation process.
  • the process shown in FIG. 16 is executed in parallel with the distance calculation process and the position calculation process. That is, the process shown in FIG. 16 is executed during the period from the time when step ST2 “YES” is determined to the time when step ST6 “NO” is determined.
  • the parking space detection unit 21 executes the parking space detection process (step ST11). Further, the detection status determination unit 22 executes the detection status determination process (step ST12). In addition, the notification control unit 23 executes notification control (step ST13).
  • step ST11 the operation of the parking space detection unit 21 will be described with reference to the flowchart shown in FIG. That is, the process executed in step ST11 will be described.
  • the parking space detection unit 21 acquires the reflection position information corresponding to the parked vehicle V_1 (step ST21). As a result, the reflection position information indicating the corresponding plurality of reflection position Pr is sequentially acquired for the plurality of reflection points corresponding to the parked vehicle V_1.
  • the parking space detection unit 21 calculates the end position X_1 of the parked vehicle V_1 using the reflection position information acquired in step ST21 (step ST22).
  • the parking space detection unit 21 acquires the reflection position information corresponding to the parked vehicle V_2 (step ST23).
  • the reflection position information indicating the corresponding plurality of reflection position Pr is sequentially acquired for the plurality of reflection points corresponding to the parked vehicle V_2.
  • the parking space detection unit 21 calculates the end position X_2 of the parked vehicle V_2 using the reflection position information acquired in step ST23 (step ST24).
  • the parking space detection unit 21 calculates the distance D between the end position X_1 calculated in step ST22 and the end position X_2 calculated in step ST24 (step ST25). As a result, the width Ls of the space S is estimated.
  • the parking space detection unit 21 determines whether or not the vehicle 1 can be parked in the space S based on the width Ls estimated in step ST25 (step ST26).
  • step ST12 the operation of the detection status determination unit 22 will be described with reference to the flowchart shown in FIG. That is, the process executed in step ST12 will be described.
  • the detection status determination unit 22 determines whether or not the parking space detection unit 21 is acquiring the reflection position information corresponding to the parked vehicle V_1 (step ST31). That is, the detection status determination unit 22 determines whether or not the parking space detection unit 21 is executing the process of step ST21.
  • the detection status determination unit 22 determines that the current detection status is the first detection status. (Step ST32).
  • the detection status determination unit 22 determines whether or not the end position X_1 has been calculated (step ST33). That is, the detection status determination unit 22 determines whether or not the process of step ST22 has been executed.
  • the detection status determination unit 22 determines that the detection status has changed from the first detection status to the second detection status (step ST34). That is, the detection status determination unit 22 determines that the current detection status is the second detection status.
  • the detection status determination unit 22 determines whether or not the parking space detection unit 21 is acquiring the reflection position information corresponding to the parked vehicle V_2 (step ST35). That is, the detection status determination unit 22 determines whether or not the parking space detection unit 21 is executing the process of step ST23.
  • the detection status determination unit 22 changes the detection status from the second detection status to the third detection status. It is determined that the operation has been performed (step ST36). That is, the detection status determination unit 22 determines that the current detection status is the third detection status.
  • the detection status determination unit 22 determines whether or not the end position X_2 has been calculated (step ST37). That is, the detection status determination unit 22 determines whether or not the process of step ST24 has been executed.
  • the detection status determination unit 22 determines whether or not the width Ls of the space S has been estimated (step ST38). That is, the detection status determination unit 22 determines whether or not the process of step ST25 has been executed.
  • the detection status determination unit 22 determines whether or not it is determined in step ST26 that the vehicle 1 can be parked (step ST39).
  • the detection status determination unit 22 determines that the detection status has changed from the third detection status to the fourth detection status (step ST40). That is, the detection status determination unit 22 determines that the current detection status is the fourth detection status.
  • step ST13 the operation of the notification control unit 23 will be described with reference to the flowchart shown in FIG. That is, the processing and control executed in step ST13 will be described.
  • the notification control unit 23 sets the third. 1 Start the control to output the notification corresponding to the detection status (step ST52).
  • step ST53 “YES”) determines that the current detection status is the second detection status
  • step ST34 determines that the process of step ST34 is executed
  • the notification control unit 23 sets the third. 2 Start the control to output the notification corresponding to the detection status (step ST54). At this time, the notification control unit 23 ends the control for outputting the notification corresponding to the first detection status.
  • step ST55 “YES” the detection status determination unit 22 determines that the current detection status is the third detection status
  • step ST56 the notification control unit 23 uses the third detection status unit 23. 3
  • step ST56 the notification control unit 23 ends the control for outputting the notification corresponding to the second detection status.
  • the notification control unit 23 sets the third detection status. 4 Start the control to output the notification corresponding to the detection status (step ST58). At this time, the notification control unit 23 ends the control for outputting the notification corresponding to the third detection status. The control for outputting the notification corresponding to the fourth detection status ends when a predetermined condition is satisfied (for example, when the parking start procedure is executed).
  • a notification that changes sequentially according to the detection status is output.
  • the driver of the vehicle 1 can recognize which of the first detection status, the second detection status, the third detection status, and the fourth detection status is the current detection status.
  • the driver of the vehicle 1 can recognize the transition of the detection status.
  • the driver of the vehicle 1 can predict the arrival time of the execution timing of the parking start procedure.
  • the object detection device 7 may calculate the distance between the corresponding sensor position Ps and the corresponding reflection position Pr for each reflection point.
  • the object detection information may include information indicating a distance value VD corresponding to the calculated distance (hereinafter referred to as "distance information").
  • the notification control unit 23 may have different modes of the first notification sound, the second notification sound, the third notification sound, and the fourth notification sound according to the distance value VD included in the object detection information. .. Hereinafter, such a mode may be referred to as a “second mode”.
  • the second aspect is different from the first aspect.
  • the second aspect is height or volume.
  • the second aspect is the interval ⁇ or the volume.
  • the second aspect is the interval ⁇ or the height.
  • the notification control unit 23 increases the interval ⁇ of each of the first notification sound, the second notification sound, the third notification sound, and the fourth notification sound as the distance value VD included in the object detection information becomes larger. In other words, the notification control unit 23 reduces the interval ⁇ of each of the first notification sound, the second notification sound, the third notification sound, and the fourth notification sound as the distance value VD is smaller.
  • the notification control unit 23 lowers each of the first notification sound, the second notification sound, the third notification sound, and the fourth notification sound as the distance value VD included in the object detection information becomes larger. In other words, the notification control unit 23 raises each of the first notification sound, the second notification sound, the third notification sound, and the fourth notification sound as the distance value VD is smaller.
  • the notification control unit 23 reduces the volume of each of the first notification sound, the second notification sound, the third notification sound, and the fourth notification sound as the distance value VD included in the object detection information becomes larger. In other words, the notification control unit 23 increases the volume of each of the first notification sound, the second notification sound, the third notification sound, and the fourth notification sound as the distance value VD is smaller.
  • the parking support device 8 may not normally detect the parking space PS.
  • the driver of the vehicle 1 can recognize the distance between the vehicle 1 and the parked vehicle V. As a result, the driver of the vehicle 1 can recognize whether or not the distance is suitable for detecting the parking space PS.
  • the parking support device 8 may determine the parking mode of the parked vehicles V_1 and V_2 by using the object detection information. That is, the parking support device 8 may determine whether the parked vehicles V_1 and V_2 are parked by so-called "parallel parking" or whether the parked vehicles V_1 and V_2 are parked by parallel parking. .. Various known techniques can be used to determine the parking mode. Detailed description of these techniques will be omitted.
  • the parking space detection unit 21 may have different values of the width Lv used for determining whether or not parking is possible for the space S, depending on the parking form of the parked vehicles V_1 and V_2. That is, when the parking form of the parked vehicles V_1 and V_2 is parallel parking, the width Lv corresponding to the total length of the vehicle 1 is used. On the other hand, when the parking modes of the parked vehicles V_1 and V_2 are parallel parking, the width Lv corresponding to the total width of the vehicle 1 is used.
  • the parking support device 8 may include an object detection device 7. That is, the main part of the parking support device 8 is composed of the speed determination unit 11, the distance calculation unit 12, the position calculation unit 13, the parking space detection unit 21, the detection status determination unit 22, and the notification control unit 23. Is also good.
  • the parking support device 8 is the parking space detection unit 21 that detects the parking space PS for the vehicle 1 by using the object detection information by the distance measuring sensor 5 provided in the vehicle 1.
  • the detection status determination unit 22 that determines which of the plurality of detection statuses that the parking space detection unit 21 detects in succession in time, and the detection status determination unit 22 determine the determination result.
  • the parking space detection unit 21 includes a notification control unit 23 that executes control to output a notification that changes sequentially according to the detection status.
  • the driver of the vehicle 1 can recognize the current detection status and can recognize the transition of the detection status.
  • the driver of the vehicle 1 can predict the arrival time of the execution timing of the parking start procedure.
  • the notification is based on sound, and the first mode of sound changes sequentially according to the detection status by the parking space detection unit 21.
  • the driver of the vehicle 1 can aurally recognize the current detection status and can aurally recognize the transition of the detection status.
  • the second mode of sound differs depending on the distance value VD included in the object detection information.
  • the driver of the vehicle 1 can recognize the distance between the vehicle 1 and the parked vehicle V.
  • the driver of the vehicle 1 can recognize whether or not the distance is suitable for detecting the parking space PS.
  • the sound is output by the front speaker provided in the vehicle 1 and is output by the rear speaker provided in the vehicle 1, and the first aspect corresponds to each of the front speaker and the rear speaker.
  • the volume to be used As a result, the sense of presence of the notification can be improved. Further, the driving vehicle of the vehicle 1 can audibly recognize the positional relationship between the vehicle 1 and the space S.
  • the notification is by the display.
  • the driver of the vehicle 1 can visually recognize the current detection status and visually recognize the transition of the detection status.
  • FIG. 21 is a block diagram showing a main part of the parking support system including the parking support device according to the second embodiment.
  • a parking support system including the parking support device according to the second embodiment will be described with reference to FIG. 21.
  • the same blocks as those shown in FIG. 1 are designated by the same reference numerals, and the description thereof will be omitted.
  • the parking support system 2a includes the first sensors 3, the second sensors 4, the distance measuring sensor 5, and the output device 6. Further, the parking support system 2a includes an object detection device 7a, a parking support device 8a, and a vehicle control device 9.
  • the object detection device 7a includes a speed determination unit 11, a distance calculation unit 12, and a position calculation unit 13. In addition to this, the object detection device 7a includes a grouping unit 14 and a width calculation unit 15.
  • the grouping unit 14 acquires information indicating the reflection position Pr calculated by the position calculation unit 13 (that is, reflection position information).
  • the grouping unit 14 groups a plurality of reflection points for each corresponding object by using the acquired reflection position information.
  • the grouping unit 14 calculates the distance ⁇ L between the two reflection points for each of the two reflection points adjacent to each other among the plurality of reflection points.
  • the grouping unit 14 includes the two reflection points in the same group.
  • the grouping unit 14 includes the two reflection points in different groups.
  • a group corresponding to each object is set for a plurality of objects (including parked vehicles V_1 and V_2) existing in the lateral region (more specifically, the left region).
  • a group may be referred to as a “reflection point group”.
  • the width calculation unit 15 calculates the width Lo of the object corresponding to each reflection point group.
  • a specific example of the calculation method of the width Lo will be described with reference to FIG. 22.
  • the object O_1 is a traffic cone.
  • the object O_2 is a person.
  • the object O_3 is a parked vehicle V_1.
  • the object O_4 is a parked vehicle V_2.
  • the reflection point group G_1 corresponding to the object O_1 includes three reflection points.
  • the distances ⁇ L_1_1 and ⁇ L_1_2 are calculated by the grouping unit 14 for the three reflection points.
  • the width calculation unit 15 calculates the width Lo_1 of the object O_1 by calculating the total value of the distances ⁇ L_1_1 and ⁇ L_1_2.
  • the reflection point group G_2 corresponding to the object O_2 includes three reflection points. For the three reflection points, the distances ⁇ L_2_1 and ⁇ L_2_2 are calculated by the grouping unit 14.
  • the width calculation unit 15 calculates the width Lo_2 of the object O_2 by calculating the total value of the distances ⁇ L_2_1 and ⁇ L_2.
  • the reflection point group G_3 corresponding to the object O_3 includes five reflection points.
  • the distances ⁇ L_3_1 to ⁇ L_3_4 are calculated by the grouping unit 14 for the five reflection points.
  • the width calculation unit 15 calculates the width Lo_3 of the object O_3 by calculating the total value of the distances ⁇ L_3_1 to ⁇ L_3_4.
  • the reflection point group corresponding to the object O_4 includes five reflection points.
  • the distances ⁇ L_1 to ⁇ L_4___ are calculated by the grouping unit 14 for the five reflection points.
  • the width calculation unit 15 calculates the width Lo_4 of the object O_4 by calculating the total value of the distances ⁇ L_1 to ⁇ L_4___.
  • the object detection device 7a outputs the object detection information to the parking support device 8a.
  • the object detection information includes the reflection position information.
  • the object detection information includes information indicating the width Lo calculated by the width calculation unit 15 (hereinafter referred to as “width information”).
  • the parking support device 8a includes a parking space detection unit 21, a detection status determination unit 22, and a notification control unit 23. In addition to this, the parking support device 8a includes a noise determination unit 24.
  • the noise determination unit 24 acquires width information included in the object detection information output by the object detection device 7a.
  • the noise determination unit 24 determines whether or not the width Lo of each object O is equal to or less than a predetermined threshold value Lth by using the acquired width information.
  • the noise determination unit 24 determines that the object O corresponding to the width Lo equal to or less than the threshold value Lth is the noise in the notification.
  • the noise determination unit 24 excludes the object O from the notification target. That is, the noise determination unit 24 excludes the object O from the targets of the detection status determination process and the notification control.
  • the threshold value Lth is set to a value that can distinguish between the parked vehicle V and an object smaller than the parked vehicle V (for example, a person, a road cone, or a pole). Therefore, in the example shown in FIG. 22, it is determined that the width Lo_1 of the object O_1 is equal to or less than the threshold value Lth. Further, it is determined that the width Lo_2 of the object O_2 is equal to or less than the threshold value Lth. Further, it is determined that the width Lo_3 of the object O_3 is larger than the threshold value Lth. Further, it is determined that the width Lo_4 of the object O_4 is larger than the threshold value Lth.
  • the reflection position information corresponding to the objects O_1 and O_2 is acquired before the reflection position information corresponding to the parked vehicle V_1 is acquired. If the noise determination unit 24 is not provided, in the detection status determination unit 22, when the parking space detection unit 21 acquires the reflection position information corresponding to the objects O_1 and O_2, the parking space detection unit 21 is the parked vehicle. There is a possibility that it is erroneously determined that the reflection position information corresponding to V_1 is being acquired.
  • the control for outputting the notification corresponding to the first detection status is executed.
  • the noise determination unit 24 it is possible to avoid such a problem. That is, it is possible to prevent the notification from being disturbed by the objects O_1 and O_2 different from the parked vehicles V_1 and V_2.
  • the processes executed by the grouping unit 14 may be collectively referred to as "grouping process”.
  • the processing executed by the width calculation unit 15 may be collectively referred to as “width calculation processing”.
  • the processes executed by the noise determination unit 24 may be collectively referred to as “noise determination processing”.
  • the functions of the noise determination unit 24 may be collectively referred to as a “noise determination function”.
  • the code of "F4" may be used for the noise determination function.
  • the hardware configuration of the main part of the parking support device 8a is the same as that described with reference to FIGS. 12 to 14 in the first embodiment. Therefore, detailed description thereof will be omitted.
  • the parking support device 8a has a plurality of functions (including a parking space detection function, a detection status determination function, a notification control function, and a noise determination function) F1 to F4.
  • Each of the plurality of functions F1 to F4 may be realized by the processor 31 and the memory 32, or may be realized by the processing circuit 33.
  • the processor 31 may include a dedicated processor corresponding to each function F1 to F4.
  • the memory 32 may include a dedicated memory corresponding to the individual functions F1 to F4.
  • the processing circuit 33 may include a dedicated processing circuit corresponding to the individual functions F1 to F4.
  • the process shown in FIG. 23 is executed in parallel with the distance calculation process and the position calculation process. That is, the process shown in FIG. 23 is executed during the period from the time when step ST2 “YES” is determined to the time when step ST6 “NO” is determined. Further, the process shown in FIG. 23 is repeatedly executed during such a period.
  • the grouping unit 14 executes the grouping process (step ST61).
  • the width calculation unit 15 executes the width calculation process (step ST62).
  • FIG. 24 the same reference numerals are given to the same steps as those shown in FIG.
  • the parking space detection unit 21 executes the parking space detection process (step ST11). Further, the detection status determination unit 22 executes the detection status determination process (step ST12). In addition, the notification control unit 23 executes notification control (step ST13). Further, the noise determination unit 24 executes the noise determination process (step ST14).
  • the parking space detection process is the same as that described with reference to FIG. 17 in the first embodiment.
  • the detection status determination process is the same as that described with reference to FIG. 18 in the first embodiment.
  • the notification control is the same as that described with reference to FIG. 19 in the first embodiment. Therefore, detailed description thereof will be omitted.
  • step ST14 the operation of the noise determination unit 24 will be described with reference to the flowchart shown in FIG. That is, the process executed in step ST14 will be described.
  • the noise determination unit 24 acquires width information (step ST71). Next, the noise determination unit 24 determines whether or not the width Lo of the corresponding object O is equal to or less than the threshold value Lth by using the width information acquired in step ST71 (step ST72). When the width Lo is equal to or less than the threshold value Lth (step ST72 “YES”), the noise determination unit 24 excludes the corresponding object O from the notification target (step ST73).
  • the parking support system 2a can employ various modifications similar to those described in the first embodiment.
  • the parking support device 8a may include an object detection device 7a. That is, parking is performed by the speed determination unit 11, the distance calculation unit 12, the position calculation unit 13, the grouping unit 14, the width calculation unit 15, the parking space detection unit 21, the detection status determination unit 22, the notification control unit 23, and the noise determination unit 24.
  • the main part of the support device 8a may be configured.
  • the parking support device 8a includes a noise determination unit 24 that excludes the object O corresponding to the width Lo equal to or less than the threshold value Lth from the notification target. As a result, it is possible to prevent the notification from being disturbed by the object O.
  • FIG. 27 is a block diagram showing a main part of the parking support system including the parking support device according to the third embodiment.
  • a parking support system including the parking support device according to the third embodiment will be described with reference to FIG. 27.
  • the same blocks as those shown in FIG. 21 are designated by the same reference numerals, and the description thereof will be omitted.
  • the parking support system 2b includes the first sensors 3, the second sensors 4, the distance measuring sensor 5, and the output device 6. Further, the parking support system 2b includes an object detection device 7b, a parking support device 8b, and a vehicle control device 9.
  • the object detection device 7b includes a speed determination unit 11, a distance calculation unit 12, a position calculation unit 13, a grouping unit 14, and a width calculation unit 15. In addition to this, the object detection device 7b includes an evaluation value calculation unit 16.
  • the evaluation value calculation unit 16 calculates the distance value VD corresponding to each reflection point.
  • the evaluation value calculation unit 16 executes statistical processing on the plurality of distance value VDs for the plurality of distance value VDs corresponding to the plurality of reflection points included in the individual reflection point groups. As a result, the evaluation value E corresponding to each reflection point group is calculated.
  • the evaluation value E includes the evaluation value E_L corresponding to the reflection point group in the left region. Further, the evaluation value E includes the evaluation value E_R corresponding to the reflection point group in the right region.
  • E_L and E_R a specific example of the calculation method of the evaluation values E_L and E_R will be described with reference to FIG. 28.
  • the parked vehicle V_1_L is parked in the left area
  • the parked vehicle V_1_R is parked in the right area.
  • the grouping unit 14 sets a reflection point group G_L corresponding to the parked vehicle V_1_L. Further, the grouping unit 14 calculates the distances ⁇ L_L_1 to ⁇ L_L_6 corresponding to the reflection point group G_L. That is, the reflection point group G_L includes seven reflection points.
  • the evaluation value calculation unit 16 calculates the six distance values VD_L_1 to VD_L_6 corresponding to the six reflection points for the six reflection points excluding the first reflection point among the seven reflection points. ..
  • the grouping unit 14 sets a reflection point group G_R corresponding to the parked vehicle V_1_R. Further, the grouping unit 14 calculates the distances ⁇ L_R_1 to ⁇ L_R_6 corresponding to the reflection point group G_R. That is, the reflection point group G_R includes seven reflection points.
  • the evaluation value calculation unit 16 calculates the six distance values VD_R_1 to VD_R_6 corresponding to the six reflection points for the six reflection points excluding the first reflection point among the seven reflection points. ..
  • the evaluation value calculation unit 16 selects the minimum value among the distance values VD_L_1 to VD_L_6. The evaluation value calculation unit 16 uses the selected minimum value as the evaluation value E_L. Further, the evaluation value calculation unit 16 selects the minimum value among the distance values VD_R_1 to VD_R_6. The evaluation value calculation unit 16 uses the selected minimum value as the evaluation value E_R.
  • the evaluation value calculation unit 16 calculates the average value of the distance values VD_L_1 to VD_L_6.
  • the evaluation value calculation unit 16 uses the calculated average value as the evaluation value E_L. That is, the evaluation value calculation unit 16 calculates the evaluation value E_L by the following equation (2).
  • E_L (VD_L_1 + VD_L_2 + VD_L_3 + VD_L_4 + VD_L_5 + VD_L_6) / 6 (2)
  • the evaluation value calculation unit 16 calculates the average value of the distance values VD_R_1 to VD_R_6.
  • the evaluation value calculation unit 16 uses the calculated average value as the evaluation value E_R. That is, the evaluation value calculation unit 16 calculates the evaluation value E_R by the following equation (3).
  • E_R (VD_R_1 + VD_R_2 + VD_R_3 + VD_R_4 + VD_R_5 + VD_R_6) / 6 (3)
  • the evaluation value calculation unit 16 calculates the median value of the distance values VD_L_1 to VD_L_6. The evaluation value calculation unit 16 uses the calculated median value as the evaluation value E_L. Further, the evaluation value calculation unit 16 calculates the median value of the distance values VD_R_1 to VD_R_6. The evaluation value calculation unit 16 uses the calculated median value as the evaluation value E_R.
  • the evaluation value calculation unit 16 calculates the weighted average value of the distance values VD_L_1 to VD_L_6.
  • the evaluation value calculation unit 16 uses the calculated weighted average value as the evaluation value E_L. That is, the evaluation value calculation unit 16 calculates the evaluation value E_L by the following equation (4).
  • E_L (VD_L_1 * ⁇ L_L_1 + VD_L_2 * ⁇ L_L_2 + VD_L_3 * ⁇ L_L_3 + VD_L_4 * ⁇ L_L_4 + VD_L_5 * ⁇ L_L_5 + VD_L_6 * ⁇ L_L_6) / ( ⁇ L_L_1 + ⁇ L_L_2 + ⁇ L_L_3 + ⁇ L_L_4 + ⁇ L_L_5 + ⁇ L_L_6) (4)
  • the evaluation value calculation unit 16 calculates the weighted average value of the distance values VD_R_1 to VD_R_6.
  • the evaluation value calculation unit 16 uses the calculated weighted average value as the evaluation value E_R. That is, the evaluation value calculation unit 16 calculates the evaluation value E_L by the following equation (5).
  • E_R (VD_R_1 * ⁇ L_R_1 + VD_R_2 * ⁇ L_R_2 + VD_R_3 * ⁇ L_R_3 + VD_R_4 * ⁇ L_R_4 + VD_R_5 * ⁇ L_R_5 + VD_R_6 * ⁇ L_R_6) / ( ⁇ L_R_1 + ⁇ L_R_2 + ⁇ L_R_3 + ⁇ L_R_4 + ⁇ L_R_5 + ⁇ L_R_6) (5)
  • the evaluation value calculation unit 16 calculates a value obtained by dividing each distance ⁇ L_L by the corresponding distance value VD_L, and calculates the total value of the calculated values.
  • the evaluation value calculation unit 16 uses the calculated total value as the evaluation value E_L. That is, the evaluation value calculation unit 16 calculates the evaluation value E_L by the following equation (6).
  • E_L ( ⁇ L_L_1 / VD_L_1 + ⁇ L_L_2 / VD_L_2 + ⁇ L_L_3 / VD_L_3 + ⁇ L_L_4 / VD_L_4 + ⁇ L_L_5 / VD_L_5 + ⁇ L_L_6 / VD_L_6) (6)
  • the evaluation value calculation unit 16 calculates a value obtained by dividing each distance ⁇ L_R by the corresponding distance value VD_R, and calculates the total value of the calculated values.
  • the evaluation value calculation unit 16 uses the calculated total value as the evaluation value E_R. That is, the evaluation value calculation unit 16 calculates the evaluation value E_R by the following equation (7).
  • E_R ( ⁇ L_R_1 / VD_R_1 + ⁇ L_R_2 / VD_R_2 + ⁇ L_R_3 / VD_R_3 + ⁇ L_R_4 / VD_R_4 + ⁇ L_R_5 / VD_R_5 + ⁇ L_R_6 / VD_R_6) (7)
  • the object detection device 7b outputs the object detection information to the parking support device 8b.
  • the object detection information includes reflection position information and width information.
  • the object detection information includes information indicating the evaluation values E_L and E_R calculated by the evaluation value calculation unit 16 (hereinafter referred to as "evaluation value information").
  • the parking support device 8b includes a parking space detection unit 21, a detection status determination unit 22, a notification control unit 23, and a noise determination unit 24.
  • the parking support device 8b includes a direction setting unit 25.
  • the direction setting unit 25 acquires the evaluation value information included in the object detection information output by the object detection device 7b.
  • the direction setting unit 25 determines the magnitude relationship of the evaluation values E_L and E_R by using the acquired evaluation value information.
  • the direction setting unit 25 sets the left region as the notification target and excludes the right region from the notification target. That is, the direction setting unit 25 sets the left area as the target of the detection status determination process and the notification control, and excludes the right area from the target of the detection status determination process and the notification control.
  • the direction setting unit 25 sets the right region as the notification target and excludes the left region from the notification target. That is, the direction setting unit 25 sets the right region as the target of the detection status determination process and the notification control, and excludes the left region from the target of the detection status determination process and the notification control.
  • the direction setting unit 25 sets the left region as the notification target and excludes the right region from the notification target.
  • the processing executed by the evaluation value calculation unit 16 may be collectively referred to as “evaluation value calculation processing”.
  • the processes executed by the direction setting unit 25 may be collectively referred to as “direction setting process”.
  • the functions of the direction setting unit 25 may be collectively referred to as “direction setting function”.
  • the reference numeral of "F5" may be used for the direction setting function.
  • the hardware configuration of the main part of the parking support device 8b is the same as that described with reference to FIGS. 12 to 14 in the first embodiment. Therefore, detailed description thereof will be omitted.
  • the parking support device 8b has a plurality of functions (including a parking space detection function, a detection status determination function, a notification control function, a noise determination function, and a direction setting function) F1 to F5.
  • Each of the plurality of functions F1 to F5 may be realized by the processor 31 and the memory 32, or may be realized by the processing circuit 33.
  • the processor 31 may include a dedicated processor corresponding to each function F1 to F5.
  • the memory 32 may include a dedicated memory corresponding to the individual functions F1 to F5.
  • the processing circuit 33 may include a dedicated processing circuit corresponding to the individual functions F1 to F5.
  • the grouping unit 14 executes the grouping process (step ST61).
  • the width calculation unit 15 executes the width calculation process (step ST62).
  • the evaluation value calculation unit 16 executes the evaluation value calculation process (step ST63).
  • the parking space detection unit 21 executes the parking space detection process (step ST11). Further, the detection status determination unit 22 executes the detection status determination process (step ST12). In addition, the notification control unit 23 executes notification control (step ST13). Further, the noise determination unit 24 executes the noise determination process (step ST14). Further, the direction setting unit 25 executes the direction setting process (step ST15).
  • the parking space detection process is the same as that described with reference to FIG. 17 in the first embodiment.
  • the detection status determination process is the same as that described with reference to FIG. 18 in the first embodiment.
  • the notification control is the same as that described with reference to FIG. 19 in the first embodiment.
  • the noise determination process is the same as that described with reference to FIG. 25 in the second embodiment. Therefore, detailed description thereof will be omitted.
  • step ST15 the operation of the direction setting unit 25 will be described with reference to the flowchart shown in FIG. That is, the process executed in step ST15 will be described.
  • the direction setting unit 25 acquires the evaluation value information (step ST81).
  • the direction setting unit 25 selectively sets the left region or the right region as the notification target by using the evaluation value information acquired in step ST81 (step ST82). That is, the direction setting unit 25 selectively sets the left region or the right region as the notification target according to the magnitude relationship of the evaluation values E_L and E_R.
  • the parking support device 8b may include an object detection device 7b. That is, the speed determination unit 11, the distance calculation unit 12, the position calculation unit 13, the grouping unit 14, the width calculation unit 15, the evaluation value calculation unit 16, the parking space detection unit 21, the detection status determination unit 22, the notification control unit 23,
  • the main part of the parking support device 8b may be configured by the noise determination unit 24 and the direction setting unit 25.
  • the parking support device 8b sets the direction in which the area corresponding to the smaller distance value VD (evaluation value E) of the left area and the right area is set as the notification target.
  • the unit 25 is provided. As a result, the target of attention by the driver of the vehicle 1 can be narrowed down to either the left region or the right region.
  • the parking support device according to the present disclosure can be used for a vehicle.

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

駐車支援装置(8)は、車両(1)に設けられた測距センサ(5)による物体検知情報を用いて、車両(1)用の駐車スペース(PS)を検知する駐車スペース検知部(21)と、駐車スペース検知部(21)による検知状況が時間的に連続する複数個の検知状況のうちのいずれの検知状況であるかを判断する検知状況判断部(22)と、検知状況判断部(22)による判断結果に基づき、駐車スペース検知部(21)による検知状況に応じてシーケンシャルに変化する報知を出力する制御を実行する報知制御部(23)と、を備える。

Description

駐車支援装置
 本開示は、駐車支援装置に関する。
 以下、車両に対する左方の領域を「左方領域」ということがある。また、車両に対する右方の領域を「右方領域」ということがある。また、左方領域、右方領域、又は左方領域及び右方領域の各々を総称して「側方領域」ということがある。また、側方領域にて駐車中の1台の他車両又は側方領域にて駐車中の複数台の他車両を総称して「駐車車両」ということがある。また、側方領域における車両の駐車が可能なスペースを「駐車スペース」ということがある。通常、駐車スペースは、2台の駐車車両間のスペースである。
 従来、車両に設けられた測距センサを用いて個々の駐車車両を検知することにより、駐車スペースを検知する技術が開発されている(例えば、特許文献1参照。)。
国際公開第2006/015687号
 駐車スペースを検知する処理は、車両が所定速度(例えば30キロメートル毎時)以下の速度にて走行しているときに実行される。駐車スペースが検知されたとき、その旨が車両の運転者に報知される。これに対して、運転者は、車両を停止させて、いわゆる「自動駐車」による駐車の開始を指示する操作を入力する。または、運転者は、車両を停止させて、いわゆる「手動駐車」による駐車を開始する。以下、これらの手続を総称して「駐車開始手続」ということがある。
 運転者は、かかる速度にて車両が走行しているとき、駐車開始手続の実行に備えるべく、駐車スペースが検知された旨の報知がいつなされるかということに注意を向け続けることが求められる。すなわち、駐車スペースが検知されたときにその旨が報知される従来の構成においては、かかる速度にて車両が走行しているとき、駐車開始手続を実行するべきタイミング(以下「実行タイミング」という。)の到来時期を運転者に予測させることが困難であるという問題があった。
 本開示は、上記のような課題を解決するためになされたものであり、駐車開始手続の実行タイミングの到来時期を運転者に予測させることができる駐車支援装置を提供することを目的とする。
 本開示に係る駐車支援装置は、車両に設けられた測距センサによる物体検知情報を用いて、車両用の駐車スペースを検知する駐車スペース検知部と、駐車スペース検知部による検知状況が時間的に連続する複数個の検知状況のうちのいずれの検知状況であるかを判断する検知状況判断部と、検知状況判断部による判断結果に基づき、駐車スペース検知部による検知状況に応じてシーケンシャルに変化する報知を出力する制御を実行する報知制御部と、を備えるものである。
 本開示によれば、上記のように構成したので、駐車開始手続の実行タイミングの到来時期を運転者に予測させることができる。
実施の形態1に係る駐車支援装置を含む駐車支援システムの要部を示すブロック図である。 二円交点処理の例を示す説明図である。 第1検知状況の例を示す説明図である。 第2検知状況の例を示す説明図である。 第3検知状況の例を示す説明図である。 第4検知状況の例を示す説明図である。 前スピーカ及び後スピーカの設置位置の例を示す説明図である。 第1報知画像の例を示す説明図である。 第2報知画像の例を示す説明図である。 第3報知画像の例を示す説明図である。 第4報知画像の例を示す説明図である。 実施の形態1に係る駐車支援装置の要部のハードウェア構成を示すブロック図である。 実施の形態1に係る駐車支援装置の要部の他のハードウェア構成を示すブロック図である。 実施の形態1に係る駐車支援装置の要部の他のハードウェア構成を示すブロック図である。 実施の形態1に係る駐車支援装置を含む駐車支援システムにおける物体検知装置の動作を示すフローチャートである。 実施の形態1に係る駐車支援装置の動作を示すフローチャートである。 実施の形態1に係る駐車支援装置における駐車スペース検知部の動作を示すフローチャートである。 実施の形態1に係る駐車支援装置における検知状況判断部の動作を示すフローチャートである。 実施の形態1に係る駐車支援装置における検知状況判断部の動作を示すフローチャートである。 実施の形態1に係る駐車支援装置における報知制御部の動作を示すフローチャートである。 実施の形態1に係る駐車支援装置における報知制御部の動作を示すフローチャートである。 実施の形態1に係る他の駐車支援装置を含む駐車支援システムの要部を示すブロック図である。 実施の形態2に係る駐車支援装置を含む駐車支援システムの要部を示すブロック図である。 複数個の物体に対応する複数個の反射点群の例を示す説明図である。 実施の形態2に係る駐車支援装置を含む駐車支援システムにおける物体検知装置の動作を示すフローチャートである。 実施の形態2に係る駐車支援装置の動作を示すフローチャートである。 実施の形態2に係る駐車支援装置におけるノイズ判断部の動作を示すフローチャートである。 実施の形態2に係る他の駐車支援装置を含む駐車支援システムの要部を示すブロック図である。 実施の形態3に係る駐車支援装置を含む駐車支援システムの要部を示すブロック図である。 左方領域における反射点群及び右方領域における反射点群の例を示す説明図である。 実施の形態3に係る駐車支援装置を含む駐車支援システムにおける物体検知装置の動作を示すフローチャートである。 実施の形態3に係る駐車支援装置の動作を示すフローチャートである。 実施の形態3に係る駐車支援装置における方向設定部の動作を示すフローチャートである。 実施の形態3に係る他の駐車支援装置を含む駐車支援システムの要部を示すブロック図である。
 以下、この開示をより詳細に説明するために、この開示を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 図1は、実施の形態1に係る駐車支援装置を含む駐車支援システムの要部を示すブロック図である。図1を参照して、実施の形態1に係る駐車支援装置を含む駐車支援システムについて説明する。
 図1に示す如く、車両1は、駐車支援システム2を有している。駐車支援システム2は、第1センサ類3、第2センサ類4、測距センサ5及び出力装置6を含むものである。また、駐車支援システム2は、物体検知装置7、駐車支援装置8及び車両制御装置9を含むものである。
 第1センサ類3は、車両1の速度Vrの検出に用いられるものである。第1センサ類3は、1種類のセンサ又は複数種類のセンサを含むものである。具体的には、例えば、第1センサ類3は、車輪速センサ及びシフトポジションセンサを含むものである。
 第2センサ類4は、車両1の位置の検出に用いられるものである。ここで、車両1の位置は、車両1の向きを含むものである。第2センサ類4は、1種類のセンサ又は複数種類のセンサを含むものである。具体的には、例えば、第2センサ類4は、GNSS(Global Navigation Satellite System)受信機、ジャイロセンサ及びヨーレートセンサを含むものである。
 測距センサ5は、ToF(Time оf Flight)方式の測距センサにより構成されている。具体的には、例えば、測距センサ5は、超音波センサ、ミリ波レーダ、レーザレーダ、ライダ又は赤外線センサにより構成されている。以下、測距センサ5による送信及び受信の対象となる波(例えば超音波、ミリ波、レーザ光又は赤外線)を総称して「探査波」ということがある。
 測距センサ5は、車両1の左側部に設けられている。または、測距センサ5は、車両1の右側部に設けられている。または、測距センサ5は、車両1の左側部及び車両1の右側部の各々に設けられている。
 以下、測距センサ5が超音波センサにより構成されている場合の例を中心に説明する。また、実施の形態1及び実施の形態2においては、車両1の左側部に測距センサ5が設けられている場合の例を中心に説明する。また、実施の形態3においては、車両1の左側部及び車両1の右側部の各々に測距センサ5が設けられている場合の例を中心に説明する。
 出力装置6は、スピーカ(以下「第1スピーカ」ということがある。)を含むものである。第1スピーカは、例えば、車両1のダッシュボードに設けられている。
 または、出力装置6は、他のスピーカ(以下「第2スピーカ」ということがある。)を含むものである。第2スピーカは、車両1の車室内の前半部に設けられたスピーカ(以下「前スピーカ」という。)を含むものである。また、第2スピーカは、車両1の車室内の後半部に設けられたスピーカ(以下「後スピーカ」という。)を含むものである。
 または、出力装置6は、ディスプレイ(以下「第1表示器」ということがある。)を含むものである。第1表示器は、例えば、車両1のダッシュボードに設けられている。第1表示器は、例えば、液晶ディスプレイ又は有機EL(Electro Luminescence)ディスプレイにより構成されている。
 または、出力装置6は、インジケータ(以下「第2表示器」ということがある。)を含むものである。第2表示器は、例えば、車両1のダッシュボードに設けられている。第2表示器は、例えば、LED(Light Emitting Diode)を用いたものである。以下、第1表示器又は第2表示器を総称して「表示器」ということがある。
 または、出力装置6は、第1スピーカ及び表示器を含むものである。または、出力装置6は、第2スピーカ及び表示器を含むものである。
 物体検知装置7は、例えば、ECU(Electronic Control Unit)により構成されている。物体検知装置7は、速度判断部11、距離演算部12及び位置演算部13を含むものである。
 速度判断部11は、第1センサ類3を用いて、車両1が所定速度Vth以下の速度Vrにて走行中であるか否かを判断するものである。所定速度Vthは、例えば、30キロメートル毎時に設定されている。
 距離演算部12は、車両1が所定速度Vth以下の速度Vrにて走行しているとき、測距センサ5を用いて、ToFによる距離値dを演算するものである。
 すなわち、測距センサ5は、車両1が所定速度Vth以下の速度Vrにて走行しているとき、所定の時間間隔にて探査波を送信する。側方領域(より具体的には左方領域)に物体が存在する場合、当該送信された探査波は、かかる物体に照射される。当該照射された探査波は、かかる物体により反射される。当該反射された探査波(以下「反射波」ということがある。)は、測距センサ5により受信される。
 距離演算部12は、測距センサ5により探査波が送信された時刻及び測距センサ5により反射波が受信された時刻に基づき、かかる探査波の往復伝搬時間Tpを演算する。また、空気中の探査波の伝搬速度Vpを示す情報が予め用意されている。距離演算部12は、伝搬速度Vp及び往復伝搬時間Tpに基づき、以下の式(1)により距離値dを演算する。
 d=(Vp×Tp)/2  (1)
 このようにして、Tofによる距離値dが演算される。すなわち、車両1が所定速度Vth以下の速度Vrにて走行しているとき、複数個の距離値dが順次演算される。
 位置演算部13は、距離演算部12により演算された距離値dを用いて、測距センサ5により送信された探査波が物体により反射された地点(以下「反射点」という。)の位置(以下「反射位置」という。)Prを演算するものである。反射位置Prの演算は、例えば、いわゆる「二円交点処理」又は「合成開口処理」によるものである。
 すなわち、車両1における測距センサ5の設置位置を示す情報(以下「設置位置情報」という。)が予め用意されている。位置演算部13は、第2センサ類4を用いて、測距センサ5により探査波が送信された時刻又は測距センサ5により反射波が受信された時刻における車両1の位置(以下「車両位置」という。)を検出する。以下、かかる時刻を「対象時刻」という。位置演算部13は、当該検出された車両位置及び設置位置情報が示す設置位置に基づき、個々の対象時刻における測距センサ5の位置(以下「センサ位置」という。)Psを演算する。
 位置演算部13は、距離演算部12により演算された複数個の距離値dのうちの任意の2個の距離値d_1,d_2を選択する。位置演算部13は、当該選択された各2個の距離値d_1,d_2について、第1の距離値d_1に対応する円C_1を演算するとともに、第2の距離値d_2に対応する円C_2を演算する。円C_1は、対応する距離値d_1に対応する半径を有するものであり、かつ、対応するセンサ位置Ps_1に対応する中心を有するものである。円C_2は、対応する距離値d_2に対応する半径を有するものであり、かつ、対応するセンサ位置Ps_2に対応する中心を有するものである。
 位置演算部13は、2個の円C_1,C_2による交点の位置を演算する。これにより、対応する反射位置Prが演算される。
 図2は、距離値d_1、距離値d_2、センサ位置Ps_1、センサ位置Ps_2、円C_1、円C_2及び反射位置Prの例を示している。図中、矢印Aは、車両1の進行方向を示している。また、x軸は、車両1の左右方向(すなわち車両1の進行方向に対する直行方向)に沿う仮想的な軸である。また、y軸は、車両1の前後方向(すなわち車両1の進行方向)に沿う仮想的な軸である。図2に示す如く、位置演算部13による演算は、x軸及びy軸による2軸の座標系にて実行されるものである。
 このようにして、反射位置Prが演算される。すなわち、車両1が所定速度Vth以下の速度Vrにて走行しているとき、複数個の反射点に対応する複数個の反射位置Prが順次演算される。
 物体検知装置7は、位置演算部13により演算された反射位置Prを示す情報(以下「反射位置情報」という。)を駐車支援装置8に出力する機能を有している。以下、物体検知装置7により駐車支援装置8に出力される情報を総称して「物体検知情報」ということがある。すなわち、物体検知情報は、反射位置情報を含むものである。
 駐車支援装置8は、例えば、ECUにより構成されている。駐車支援装置8は、駐車スペース検知部21、検知状況判断部22及び報知制御部23を含むものである。
 駐車スペース検知部21は、物体検知装置7により出力された物体検知情報に含まれる反射位置情報を取得するものである。駐車スペース検知部21は、当該取得された反射位置情報を用いて、車両1用の駐車スペースPSを検知するものである。
 ここで、図3~図6を参照して、駐車スペース検知部21による駐車スペースPSの検知方法について説明する。また、駐車スペース検知部21による駐車スペースPSの検知状況(以下単に「検知状況」ということがある。)の推移について説明する。
 図3~図6に示す如く、側方領域(より具体的には左方領域)において、いわゆる「縦列駐車」により2台の駐車車両V_1,V_2が駐車中である。駐車車両V_1,V_2間にスペースSが存在する。車両1は、所定速度Vth以下の速度Vrにて走行中である。測距センサ5は、所定の時間間隔にて探査波を送信する。
 第一に、測距センサ5により送信された探査波が駐車車両V_1に照射される状態が発生する。かかる状態においては、駐車車両V_1に対応する反射位置情報が物体検知装置7により駐車支援装置8に出力される。より具体的には、駐車車両V_1に対応する複数個の反射点について、対応する複数個の反射位置Prを示す反射位置情報が順次出力される。駐車スペース検知部21は、当該出力された反射位置情報を取得する。
 以下、かかる状態に対応する検知状況を「第1検知状況」という。すなわち、第1検知状況は、駐車スペース検知部21が駐車車両V_1に対応する反射位置情報を取得しているときの状態に対応するものである。図3は、第1検知状況の例を示している。
 第二に、駐車車両V_1に対応する反射位置情報の取得が完了したとき、駐車スペース検知部21は、これらの反射位置情報を用いて、駐車車両V_1の端部の位置(以下「端部位置」という。)X_1を演算する。図3~図6に示す例においては、駐車車両V_1の前端部に対応する端部位置X_1が演算される。
 これにより、端部位置X_1が演算された状態が発生する。以下、かかる状態に対応する検知状況を「第2検知状況」という。図4は、第2検知状況の例を示している。第2検知状況においては、測距センサ5により送信された探査波が駐車車両V_1,V_2に照射されないものである。
 第三に、測距センサ5により送信された探査波が駐車車両V_2に照射される状態が発生する。かかる状態においては、駐車車両V_2に対応する反射位置情報が物体検知装置7により駐車支援装置8に出力される。より具体的には、駐車車両V_2に対応する複数個の反射点について、対応する複数個の反射位置Prを示す反射位置情報が順次出力される。駐車スペース検知部21は、当該出力された反射位置情報を取得する。
 以下、かかる状態に対応する検知状況を「第3検知状況」という。すなわち、第3検知状況は、駐車スペース検知部21が駐車車両V_2に対応する反射位置情報を取得しているときの状態に対応するものである。図5は、第3検知状況の例を示している。
 第四に、駐車スペース検知部21は、当該取得された反射位置情報を用いて、駐車車両V_2の端部の位置(以下「端部位置」という。)X_2を演算する。図3~図6に示す例においては、駐車車両V_2の後端部に対応する端部位置X_2が演算される。
 次いで、駐車スペース検知部21は、端部位置X_1,X_2間の間隔Dを演算する。駐車スペース検知部21は、当該演算された間隔Dに基づき、スペースSの幅Lsを推定する。ここで、車両1の幅(より具体的には車両1の全長)Lvを示す情報が予め用意されている。駐車スペース検知部21は、幅Lsを幅Lvと比較することにより、スペースSに対する車両1の駐車の可否を判断する。換言すれば、駐車スペース検知部21は、スペースSが駐車スペースPSであるか否かを判断する。
 図3~図6に示す例においては、幅Lsが幅Lvに対して十分に大きい。これにより、駐車スペース検知部21は、スペースSに対する車両1の駐車が可能であると判断する。換言すれば、駐車スペース検知部21は、スペースSが駐車スペースPSであると判断する。
 この結果、スペースSに対する車両1の駐車が可能であると判断された状態が発生する。以下、かかる状態に対応する検知状況を「第4検知状況」という。図6は、第4検知状況の例を示している。
 このように、駐車スペース検知部21による駐車スペースPSの検知状況は、第1検知状況、第2検知状況、第3検知状況、第4検知状況の順に推移する。換言すれば、複数個の検知状況(第1検知状況、第2検知状況、第3検知状況及び第4検知状況を含む。)が時間的に連続するものである。
 なお、駐車スペース検知部21による駐車スペースPSの検知には、公知の種々の技術を用いることができる。これらの技術についての詳細な説明は省略する。例えば、駐車スペース検知部21は、特許文献1に記載された技術と同様の技術を用いて駐車スペースPSを検知するものであっても良い。
 検知状況判断部22は、駐車スペース検知部21による駐車スペースPSの検知状況を判断するものである。より具体的には、検知状況判断部22は、現在の検知状況が第1検知状況、第2検知状況、第3検知状況及び第4検知状況のうちのいずれであるかを判断するものである。
 すなわち、まず、検知状況判断部22は、駐車スペース検知部21が駐車車両V_1に対応する反射位置情報を取得中であるか否かを判断する。駐車スペース検知部21が駐車車両V_1に対応する反射位置情報を取得中である場合、検知状況判断部22は、現在の検知状況が第1検知状況であると判断する。
 次いで、検知状況判断部22は、駐車スペース検知部21により端部位置X_1が演算されたか否かを判断する。端部位置X_1が演算済みである場合、検知状況判断部22は、検知状況が第1検知状況から第2検知状況に推移したと判断する。すなわち、検知状況判断部22は、現在の検知状況が第2検知状況であると判断する。
 次いで、検知状況判断部22は、駐車スペース検知部21が駐車車両V_2に対応する反射位置情報を取得中であるか否かを判断する。駐車スペース検知部21が駐車車両V_2に対応する反射位置情報を取得中である場合、検知状況が第2検知状況から第3検知状況に推移したと判断する。すなわち、検知状況判断部22は、現在の検知状況が第3検知状況であると判断する。
 次いで、検知状況判断部22は、駐車スペース検知部21により端部位置X_2が演算されたか否かを判断する。次いで、検知状況判断部22は、駐車スペース検知部21により幅Lsが演算されたか否かを判断する。次いで、検知状況判断部22は、駐車スペース検知部21によりスペースSに対する車両1の駐車が可能であると判断されたか否かを判断する。かかる駐車が可能であると判断された場合、検知状況判断部22は、検知状況が第3検知状況から第4検知状況に推移したと判断する。すなわち、検知状況判断部22は、現在の検知状況が第4検知状況であると判断する。
 報知制御部23は、検知状況判断部22による判断結果に基づき、検知状況に応じてシーケンシャルに変化する報知を出力する制御を実行するものである。かかる報知は、出力装置6により出力される。すなわち、かかる報知は、車両1の搭乗者(車両1の運転者を含む。)に対する報知である。以下、かかる報知の具体例について説明する。
〈第1スピーカを用いた報知の具体例〉
 第1検知状況において、報知制御部23は、第1スピーカを用いて報知用の音(以下「第1報知音」ということがある。)を出力する制御を実行する。次いで、第2検知状況において、報知制御部23は、第1スピーカを用いて報知用の他の音(以下「第2報知音」ということがある。)を出力する制御を実行する。次いで、第3検知状況において、報知制御部23は、第1スピーカを用いて報知用の他の音(以下「第3報知音」ということがある。)を出力する制御を実行する。次いで、第4検知状況において、報知制御部23は、第1スピーカを用いて報知用の他の音(以下「第4報知音」ということがある。)を出力する制御を実行する。
 これにより、検知状況が推移するにつれて、第1スピーカにより出力される音がシーケンシャルに変化する。より具体的には、当該出力される音が第1報知音、第2報知音、第3報知音、第4報知音の順に変化する。
 ここで、第1報知音、第2報知音、第3報知音及び第4報知音は、その態様が互いに異なるものである。以下、かかる態様を「第1態様」ということがある。
 具体的には、例えば、第1報知音、第2報知音、第3報知音及び第4報知音は、その間隔Δが互いに異なるものである。すなわち、第1報知音は、所定の間隔Δ_1による断続音により構成されている。第2報知音は、かかる間隔Δ_1よりも小さい間隔Δ_2による断続音により構成されている(Δ_2<Δ_1)。第3報知音は、かかる間隔Δ_2よりも小さい間隔Δ_3による断続音により構成されている(Δ_3<Δ_2)。第4報知音は、連続音により構成されている(Δ_4=0)。
 または、例えば、第1報知音、第2報知音、第3報知音及び第4報知音は、その高さが互いに異なるものである。すなわち、第1報知音は、所定の高さを有する音により構成されている。第2報知音は、第1報知音よりも高い音により構成されている。第3報知音は、第2報知音よりも高い音により構成されている。第4報知音は、第3報知音よりも高い音により構成されている。
 または、例えば、第1報知音、第2報知音、第3報知音及び第4報知音は、その音量が互いに異なるものである。すなわち、第1報知音は、所定の大きさを有する音により構成されている。第2報知音は、第1報知音よりも大きい音により構成されている。第3報知音は、第2報知音よりも大きい音により構成されている。第4報知音は、第3報知音よりも大きい音により構成されている。
〈第2スピーカを用いた報知の具体例〉
 上記のとおり、第2スピーカは、前スピーカ及び後スピーカを含むものである。図7は、車両1における前スピーカ及び後スピーカの設置位置の例を示している。図中、FSは、前スピーカを示している。また、RSは、後スピーカを示している。
 報知制御部23は、前スピーカを用いて報知用の音(以下「前報知音」ということがある。)を出力する制御を実行する。また、報知制御部23は、後スピーカを用いて報知用の音(以下「後報知音」ということがある。)を出力する制御を実行する。
 このとき、報知制御部23は、検知状況に応じて前報知音及び後報知音の各々の音量を変化させる。これにより、前報知音の音量が検知状況に応じてシーケンシャルに変化するとともに、後報知音の音量が検知状況に応じてシーケンシャルに変化する。すなわち、前報知音及び後報知音の各々の音量が第1態様に対応するものである。
 第1検知状況においては、前報知音の音量が後報知音の音量に比して大きい値に設定される。換言すれば、後報知音の音量が前報知音の音量に比して小さい値に設定される。次いで、第2検知状況においては、前報知音の音量が低下するとともに、後報知音の音量が上昇する。これにより、前報知音の音量と後報知音の音量とが互いに同等の値に設定される。次いで、第3検知状況においては、前報知音の音量が更に低下するとともに、後報知音の音量が更に上昇する。これにより、前報知音の音量が後報知音の音量に比して小さい値に設定される。換言すれば、後報知音の音量が前報知音の音量に比して大きい値に設定される。
 かかる音量の設定は、車両1とスペースSとの位置関係に対応している。すなわち、第1検知状況において、スペースSは、車両1に対する左斜め前方(又は車両1に対する右斜め前方)に位置している。このとき、前報知音の音量が後報知音の音量に比して大きい値に設定される。次いで、第2検知状況において、スペースSは、車両1に対する左方(又は車両1に対する右方)に位置している。このとき、前報知音の音量と後報知音の音量とが互いに同等の値に設定される。次いで、第3検知状況において、スペースSは、車両1に対する左斜め後方(又は車両1に対する右斜め後方)に位置している。このとき、後報知音の音量が前報知音の音量に比して大きい値に設定される。
〈第1表示器を用いた報知の具体例〉
 第1検知状況において、報知制御部23は、第1表示器を用いて報知用の画像(以下「第1報知画像」ということがある。)I_1を表示する制御を実行する。次いで、第2検知状況において、報知制御部23は、第1表示器を用いて報知用の他の画像(以下「第2報知画像」ということがある。)I_2を表示する制御を実行する。次いで、第3検知状況において、報知制御部23は、第1表示器を用いて報知用の他の画像(以下「第3報知画像」ということがある。)I_3を表示する制御を実行する。次いで、第4検知状況において、報知制御部23は、第1表示器を用いて報知用の他の画像(以下「第4報知画像」ということがある。)I_4を表示する制御を実行する。
 図8は、第1報知画像I_1の例を示している。図9は、第2報知画像I_2の例を示している。図10は、第3報知画像I_3の例を示している。図11は、第4報知画像I_4の例を示している。
 図8~図11に示す如く、第1報知画像I_1、第2報知画像I_2、第3報知画像I_3及び第4報知画像I_4の各々は、車両1に対応する画像I_Vを含むものである。また、第1報知画像I_1、第2報知画像I_2、第3報知画像I_3及び第4報知画像I_4の各々は、スペースSに対応する画像I_Sを含むものである。
 図8に示す如く、第1報知画像I_1は、第1検知状況における車両1とスペースSとの位置関係を示すものである。より具体的には、第1報知画像I_1は、第1検知状況における車両1に対するスペースSの位置を示すものである。
 図9に示す如く、第2報知画像I_2は、第2検知状況における車両1とスペースSとの位置関係を示すものである。より具体的には、第2報知画像I_2は、第2検知状況における車両1に対するスペースSの位置を示すものである。
 図10に示す如く、第3報知画像I_3は、第3検知状況における車両1とスペースSとの位置関係を示すものである。より具体的には、第3報知画像I_3は、第3検知状況における車両1に対するスペースSの位置を示すものである。
 図11に示す如く、第4報知画像I_4は、第4検知状況における車両1とスペースSとの位置関係を示すものである。より具体的には、第4報知画像I_4は、第4検知状況における車両1に対するスペースSの位置を示すものである。
 ここで、第1報知画像I_1、第2報知画像I_2及び第3報知画像I_3の各々においては、スペースSに対応する画像I_Sが破線により表現されている。これは、スペースSに対する車両1の駐車の可否が未判断であることを示している。換言すれば、これは、スペースSが駐車スペースPSであるか否かが不明であることを示している。
 他方、第4報知画像I_4においては、スペースSに対応する画像I_Sが実線により表現されている。これは、スペースSに対する車両1の駐車が可能であると判断されたことを示している。換言すれば、これは、スペースSが駐車スペースPSであることを示している。
〈第2表示器を用いた報知の具体例〉
 第2表示器は、第1報知画像I_1、第2報知画像I_2、第3報知画像I_3及び第4報知画像I_4の各々における画像I_Vに対応するインジケータ(以下「第1インジケータ」ということがある。)を含むものである。また、第2表示器は、第1報知画像I_1における画像I_Sに対応するインジケータ(以下「第2インジケータ」ということがある。)を含むものである。また、第2表示器は、第2報知画像I_2における画像I_Sに対応するインジケータ(以下「第3インジケータ」ということがある。)を含むものである。また、第2表示器は、第3報知画像I_3における画像I_Sに対応するインジケータ(以下「第4インジケータ」ということがある。)を含むものである。また、第2表示器は、第4報知画像I_4における画像I_Sに対応するインジケータ(以下「第5インジケータ」ということがある。)を含むものである。
 第1検知状況において、報知制御部23は、第1インジケータ及び第2インジケータを点灯する制御を実行する。次いで、第2検知状況において、報知制御部23は、第1インジケータ及び第3インジケータを点灯する制御を実行する。次いで、第3検知状況において、報知制御部23は、第1インジケータ及び第4インジケータを点灯する制御を実行する。次いで、第4検知状況において、報知制御部23は、第1インジケータ及び第5インジケータを点灯する制御を実行する。
 このようにして、駐車支援装置8の要部が構成されている。
 第4検知状況に対応する報知が出力されたとき、車両1の運転者は、車両1を停止させる。次いで、車両1の運転者は、操作入力装置(不図示)を用いて、自動駐車による車両1の駐車の開始を指示する操作を入力する。すなわち、車両1の運転者は、駐車開始手続を実行する。これに対して、車両制御装置9は、車両1を操作することにより車両1を駐車スペースPSに駐車させる制御を実行するものである。車両制御装置9は、例えば、ECUにより構成されている。
 車両1を駐車スペースPSに駐車させる制御には、自動駐車に係る公知の種々の技術を用いることができる。これらの技術についての詳細な説明は省略する。
 以下、速度判断部11により実行される処理を総称して「速度判断処理」ということがある。また、距離演算部12により実行される処理を総称して「距離演算処理」ということがある。また、位置演算部13により実行される処理を総称して「位置演算処理」ということがある。また、駐車スペース検知部21により実行される処理を総称して「駐車スペース検知処理」ということがある。また、検知状況判断部22により実行される処理を総称して「検知状況判断処理」ということがある。また、報知制御部23により実行される処理及び制御を総称して「報知制御」ということがある。
 以下、駐車スペース検知部21が有する機能を総称して「駐車スペース検知機能」ということがある。また、検知状況判断部22が有する機能を総称して「検知状況判断機能」ということがある。また、報知制御部23が有する機能を総称して「報知制御機能」ということがある。
 以下、駐車スペース検知機能に「F1」の符号を用いることがある。また、検知状況判断機能に「F2」の符号を用いることがある。また、報知制御機能に「F3」の符号を用いることがある。
 次に、図12~図14を参照して、駐車支援装置8の要部のハードウェア構成について説明する。
 図12に示す如く、駐車支援装置8は、プロセッサ31及びメモリ32を有している。メモリ32には、複数個の機能(駐車スペース検知機能、検知状況判断機能及び報知制御機能を含む。)F1~F3に対応するプログラムが記憶されている。プロセッサ31は、メモリ32に記憶されているプログラムを読み出して実行する。これにより、複数個の機能F1~F3が実現される。
 または、図13に示す如く、駐車支援装置8は、処理回路33を有している。処理回路33は、複数個の機能F1~F3に対応する処理を実行する。これにより、複数個の機能F1~F3が実現される。
 または、図14に示す如く、駐車支援装置8は、プロセッサ31、メモリ32及び処理回路33を有している。メモリ32には、複数個の機能F1~F3のうちの一部の機能に対応するプログラムが記憶されている。プロセッサ31は、メモリ32に記憶されているプログラムを読み出して実行する。これにより、かかる一部の機能が実現される。また、処理回路33は、複数個の機能F1~F3のうちの残余の機能に対応する処理を実行する。これにより、かかる残余の機能が実現される。
 プロセッサ31は、1個以上のプロセッサにより構成されている。個々のプロセッサは、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、マイクロプロセッサ、マイクロコントローラ又はDSP(Digital Signal Processor)を用いたものである。
 メモリ32は、1個以上の不揮発性メモリにより構成されている。または、メモリ32は、1個以上の不揮発性メモリ及び1個以上の揮発性メモリにより構成されている。すなわち、メモリ32は、1個以上のメモリにより構成されている。個々のメモリは、例えば、半導体メモリ又は磁気ディスクを用いたものである。より具体的には、個々の揮発性メモリは、例えば、RAM(Random Access Memory)を用いたものである。また、個々の不揮発性メモリは、例えば、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)、ソリッドステートドライブ又はハードディスクドライブを用いたものである。
 処理回路33は、1個以上のデジタル回路により構成されている。または、処理回路33は、1個以上のデジタル回路及び1個以上のアナログ回路により構成されている。すなわち、処理回路33は、1個以上の処理回路により構成されている。個々の処理回路は、例えば、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)、SoC(System on a Chip)又はシステムLSI(Large Scale Integration)を用いたものである。
 ここで、プロセッサ31が複数個のプロセッサにより構成されているとき、複数個の機能F1~F3と複数個のプロセッサとの対応関係は任意である。すなわち、複数個のプロセッサの各々は、複数個の機能F1~F3のうちの対応する1個以上の機能に対応するプログラムを読み出して実行するものであっても良い。プロセッサ31は、個々の機能F1~F3に対応する専用のプロセッサを含むものであっても良い。
 また、メモリ32が複数個のメモリにより構成されているとき、複数個の機能F1~F3と複数個のメモリとの対応関係は任意である。すなわち、複数個のメモリの各々は、複数個の機能F1~F3のうちの対応する1個以上の機能に対応するプログラムを記憶するものであっても良い。メモリ32は、個々の機能F1~F3に対応する専用のメモリを含むものであっても良い。
 また、処理回路33が複数個の処理回路により構成されているとき、複数個の機能F1~F3と複数個の処理回路との対応関係は任意である。すなわち、複数個の処理回路の各々は、複数個の機能F1~F3のうちの対応する1個以上の機能に対応する処理を実行するものであっても良い。処理回路33は、個々の機能F1~F3に対応する専用の処理回路を含むものであっても良い。
 次に、図15に示すフローチャートを参照して、物体検知装置7の動作について説明する。図15に示す処理は、所定の条件が満たされているとき(例えば車両1におけるイグニッション電源の状態がオン状態であるとき)、繰り返し実行される。
 まず、速度判断部11が速度判断処理を実行する(ステップST1)。車両1が所定速度Vth以下の速度Vrにて走行中であると判断された場合(ステップST2“YES”)、距離演算部12が距離演算処理を開始して(ステップST3)、位置演算部13が位置演算処理を開始する(ステップST4)。
 次いで、速度判断部11が速度判断処理を実行する(ステップST5)。車両1が停止中である場合又は車両1が所定速度Vthを超える速度Vrにて走行中である場合(ステップST6“NO”)、距離演算部12が距離演算処理を終了して(ステップST7)、位置演算部13が位置演算処理を終了する(ステップST8)。
 次に、図16に示すフローチャートを参照して、駐車支援装置8の動作について説明する。図16に示す処理は、距離演算処理及び位置演算処理に対して並行して実行される。すなわち、図16に示す処理は、ステップST2“YES”と判断された時点からステップST6“NO”と判断される時点までの期間に実行される。
 図16に示す如く、駐車スペース検知部21が駐車スペース検知処理を実行する(ステップST11)。また、検知状況判断部22が検知状況判断処理を実行する(ステップST12)。また、報知制御部23が報知制御を実行する(ステップST13)。
 次に、図17に示すフローチャートを参照して、駐車スペース検知部21の動作について説明する。すなわち、ステップST11にて実行される処理について説明する。
 まず、駐車スペース検知部21は、駐車車両V_1に対応する反射位置情報を取得する(ステップST21)。これにより、駐車車両V_1に対応する複数個の反射点について、対応する複数個の反射位置Prを示す反射位置情報が順次取得される。
 次いで、駐車スペース検知部21は、ステップST21にて取得された反射位置情報を用いて、駐車車両V_1の端部位置X_1を演算する(ステップST22)。
 次いで、駐車スペース検知部21は、駐車車両V_2に対応する反射位置情報を取得する(ステップST23)。これにより、駐車車両V_2に対応する複数個の反射点について、対応する複数個の反射位置Prを示す反射位置情報が順次取得される。
 次いで、駐車スペース検知部21は、ステップST23にて取得された反射位置情報を用いて、駐車車両V_2の端部位置X_2を演算する(ステップST24)。
 次いで、駐車スペース検知部21は、ステップST22にて演算された端部位置X_1とステップST24にて演算された端部位置X_2との間隔Dを演算する(ステップST25)。これにより、スペースSの幅Lsが推定される。
 次いで、駐車スペース検知部21は、ステップST25にて推定された幅Lsに基づき、スペースSに対する車両1の駐車の可否を判断する(ステップST26)。
 次に、図18に示すフローチャートを参照して、検知状況判断部22の動作について説明する。すなわち、ステップST12にて実行される処理について説明する。
 まず、検知状況判断部22は、駐車スペース検知部21が駐車車両V_1に対応する反射位置情報を取得中であるか否かを判断する(ステップST31)。すなわち、検知状況判断部22は、駐車スペース検知部21がステップST21の処理を実行中であるか否かを判断する。駐車スペース検知部21が駐車車両V_1に対応する反射位置情報を取得中である場合(ステップST31“YES”)、検知状況判断部22は、現在の検知状況が第1検知状況であると判断する(ステップST32)。
 次いで、検知状況判断部22は、端部位置X_1が演算されたか否かを判断する(ステップST33)。すなわち、検知状況判断部22は、ステップST22の処理が実行されたか否かを判断する。端部位置X_1が演算済みである場合(ステップST33“YES”)、検知状況判断部22は、検知状況が第1検知状況から第2検知状況に推移したと判断する(ステップST34)。すなわち、検知状況判断部22は、現在の検知状況が第2検知状況であると判断する。
 次いで、検知状況判断部22は、駐車スペース検知部21が駐車車両V_2に対応する反射位置情報を取得中であるか否かを判断する(ステップST35)。すなわち、検知状況判断部22は、駐車スペース検知部21がステップST23の処理を実行中であるか否かを判断する。駐車スペース検知部21が駐車車両V_2に対応する反射位置情報を取得中である場合(ステップST35“YES”)、検知状況判断部22は、検知状況が第2検知状況から第3検知状況に推移したと判断する(ステップST36)。すなわち、検知状況判断部22は、現在の検知状況が第3検知状況であると判断する。
 次いで、検知状況判断部22は、端部位置X_2が演算されたか否かを判断する(ステップST37)。すなわち、検知状況判断部22は、ステップST24の処理が実行されたか否かを判断する。端部位置X_2が演算済みである場合(ステップST37“YES”)、検知状況判断部22は、スペースSの幅Lsが推定されたか否かを判定する(ステップST38)。すなわち、検知状況判断部22は、ステップST25の処理が実行されたか否かを判断する。幅Lsが推定済みである場合(ステップST38“YES”)、検知状況判断部22は、ステップST26にて車両1の駐車が可能であると判断されたか否かを判断する(ステップST39)。
 かかる駐車が可能であると判断された場合(ステップST39“YES”)、検知状況判断部22は、検知状況が第3検知状況から第4検知状況に推移したと判断する(ステップST40)。すなわち、検知状況判断部22は、現在の検知状況が第4検知状況であると判断する。
 次に、図19に示すフローチャートを参照して、報知制御部23の動作について説明する。すなわち、ステップST13にて実行される処理及び制御について説明する。
 まず、検知状況判断部22により現在の検知状況が第1検知状況であると判断されたとき(ステップST51“YES”)、すなわちステップST32の処理が実行されたとき、報知制御部23は、第1検知状況に対応する報知を出力する制御を開始する(ステップST52)。
 次いで、検知状況判断部22により現在の検知状況が第2検知状況であると判断されたとき(ステップST53“YES”)、すなわちステップST34の処理が実行されたとき、報知制御部23は、第2検知状況に対応する報知を出力する制御を開始する(ステップST54)。このとき、報知制御部23は、第1検知状況に対応する報知を出力する制御を終了する。
 次いで、検知状況判断部22により現在の検知状況が第3検知状況であると判断されたとき(ステップST55“YES”)、すなわちステップST36の処理が実行されたとき、報知制御部23は、第3検知状況に対応する報知を出力する制御を開始する(ステップST56)。このとき、報知制御部23は、第2検知状況に対応する報知を出力する制御を終了する。
 次いで、検知状況判断部22により現在の検知状況が第4検知状況であると判断されたとき(ステップST57“YES”)、すなわちステップST40の処理が実行されたとき、報知制御部23は、第4検知状況に対応する報知を出力する制御を開始する(ステップST58)。このとき、報知制御部23は、第3検知状況に対応する報知を出力する制御を終了する。第4検知状況に対応する報知を出力する制御は、所定の条件が満たされたとき(例えば駐車開始手続が実行されたとき)に終了する。
 次に、駐車支援装置8を用いることによる効果について説明する。
 駐車支援装置8を用いることにより、検知状況に応じてシーケンシャルに変化する報知が出力される。かかる報知により、車両1の運転者は、現在の検知状況が第1検知状況、第2検知状況、第3検知状況及び第4検知状況のうちのいずれであるかを認識することができる。また、車両1の運転者は、検知状況の推移を認識することができる。この結果、車両1が所定速度Vth以下の速度Vrにて走行しているとき、車両1の運転者は、駐車開始手続の実行タイミングの到来時期を予測することができる。
 次に、駐車支援システム2の変形例について説明する。より具体的には、第1スピーカを用いた報知に係る変形例について説明する。
 物体検知装置7は、個々の反射点について、対応するセンサ位置Psと対応する反射位置Prとの距離を演算するものであっても良い。物体検知情報は、当該演算された距離に対応する距離値VDを示す情報(以下「距離情報」という。)を含むものであっても良い。報知制御部23は、第1報知音、第2報知音、第3報知音及び第4報知音の各々の態様を物体検知情報に含まれる距離値VDに応じて異ならしめるものであっても良い。以下、かかる態様を「第2態様」ということがある。
 ここで、第2態様は、第1態様と異なるものである。具体的には、例えば、第1態様が間隔Δである場合、第2態様は高さ又は音量である。また、例えば、第1態様が高さである場合、第2態様は間隔Δ又は音量である。また、例えば、第1態様が音量である場合、第2態様は間隔Δ又は高さである。
 すなわち、報知制御部23は、物体検知情報に含まれる距離値VDが大きいほど、第1報知音、第2報知音、第3報知音及び第4報知音の各々の間隔Δを大きくする。換言すれば、報知制御部23は、かかる距離値VDが小さいほど、第1報知音、第2報知音、第3報知音及び第4報知音の各々の間隔Δを小さくする。
 または、報知制御部23は、物体検知情報に含まれる距離値VDが大きいほど、第1報知音、第2報知音、第3報知音及び第4報知音の各々を低くする。換言すれば、報知制御部23は、かかる距離値VDが小さいほど、第1報知音、第2報知音、第3報知音及び第4報知音の各々を高くする。
 または、報知制御部23は、物体検知情報に含まれる距離値VDが大きいほど、第1報知音、第2報知音、第3報知音及び第4報知音の各々の音量を小さくする。換言すれば、報知制御部23は、かかる距離値VDが小さいほど、第1報知音、第2報知音、第3報知音及び第4報知音の各々の音量を大きくする。
 車両1と駐車車両V間の距離が大きすぎる場合(例えば当該距離が2メートル以上である場合)、駐車支援装置8により駐車スペースPSが正常に検知されないことがある。これに対して、かかる報知により、車両1の運転者は、車両1と駐車車両V間の距離を認識することができる。この結果、車両1の運転者は、当該距離が駐車スペースPSの検知に適した距離であるか否かを認識することができる。
 次に、駐車支援システム2の他の変形例について説明する。
 駐車支援装置8は、物体検知情報を用いて、駐車車両V_1,V_2の駐車形態を判断するものであっても良い。すなわち、駐車支援装置8は、いわゆる「並列駐車」により駐車車両V_1,V_2が駐車中であるか、又は縦列駐車により駐車車両V_1,V_2が駐車中であるかを判断するものであっても良い。かかる駐車形態の判断には、公知の種々の技術を用いることができる。これらの技術についての詳細な説明は省略する。
 駐車スペース検知部21は、駐車車両V_1,V_2の駐車形態に応じて、スペースSに対する駐車の可否の判断に用いられる幅Lvの値を異ならしめるものであっても良い。すなわち、駐車車両V_1,V_2の駐車形態が縦列駐車である場合、車両1の全長に対応する幅Lvが用いられる。他方、駐車車両V_1,V_2の駐車形態が並列駐車である場合、車両1の全幅に対応する幅Lvが用いられる。
 これにより、駐車車両V_1,V_2の駐車形態にかかわらず、駐車スペースPSの検知を実現することができる。
 次に、駐車支援システム2の他の変形例について説明する。
 図20に示す如く、駐車支援装置8は、物体検知装置7を含むものであっても良い。すなわち、速度判断部11、距離演算部12、位置演算部13、駐車スペース検知部21、検知状況判断部22及び報知制御部23により駐車支援装置8の要部が構成されているものであっても良い。
 以上のように、実施の形態1に係る駐車支援装置8は、車両1に設けられた測距センサ5による物体検知情報を用いて、車両1用の駐車スペースPSを検知する駐車スペース検知部21と、駐車スペース検知部21による検知状況が時間的に連続する複数個の検知状況のうちのいずれの検知状況であるかを判断する検知状況判断部22と、検知状況判断部22による判断結果に基づき、駐車スペース検知部21による検知状況に応じてシーケンシャルに変化する報知を出力する制御を実行する報知制御部23と、を備える。これにより、車両1の運転者は、現在の検知状況を認識することができるとともに、検知状況の推移を認識することができる。この結果、車両1の運転者は、駐車開始手続の実行タイミングの到来時期を予測することができる。
 また、報知は、音によるものであり、駐車スペース検知部21による検知状況に応じて音の第1態様がシーケンシャルに変化するものである。これにより、車両1の運転者は、現在の検知状況を聴覚的に認識することができるとともに、検知状況の推移を聴覚的に認識することができる。
 また、物体検知情報に含まれる距離値VDに応じて音の第2態様が異なる。これにより、車両1の運転者は、車両1と駐車車両V間の距離を認識することができる。この結果、車両1の運転者は、当該距離が駐車スペースPSの検知に適した距離であるか否かを認識することができる。
 また、音は、車両1に設けられた前スピーカにより出力されるとともに、車両1に設けられた後スピーカにより出力されるものであり、第1態様は、前スピーカ及び前記後スピーカの各々に対応する音量である。これにより、報知の臨場感を向上することができる。また、車両1の運転車は、車両1とスペースSとの位置関係を聴覚的に認識することができる。
 また、報知は、表示器によるものである。これにより、車両1の運転者は、現在の検知状況を視覚的に認識することができるとともに、検知状況の推移を視覚的に認識することができる。
実施の形態2.
 図21は、実施の形態2に係る駐車支援装置を含む駐車支援システムの要部を示すブロック図である。図21を参照して、実施の形態2に係る駐車支援装置を含む駐車支援システムについて説明する。なお、図21において、図1に示すブロックと同様のブロックには同一符号を付して説明を省略する。
 図21に示す如く、駐車支援システム2aは、第1センサ類3、第2センサ類4、測距センサ5及び出力装置6を含むものである。また、駐車支援システム2aは、物体検知装置7a、駐車支援装置8a及び車両制御装置9を含むものである。
 物体検知装置7aは、速度判断部11、距離演算部12及び位置演算部13を含むものである。これに加えて、物体検知装置7aは、グループ化部14及び幅演算部15を含むものである。
 グループ化部14は、位置演算部13により演算された反射位置Prを示す情報(すなわち反射位置情報)を取得するものである。グループ化部14は、当該取得された反射位置情報を用いて、複数個の反射点を対応する物体毎にグループ化するものである。
 具体的には、例えば、グループ化部14は、複数個の反射点のうちの互いに隣接する各2個の反射点について、当該2個の反射点間の距離ΔLを演算する。当該演算された距離ΔLが所定値未満である場合、グループ化部14は、当該2個の反射点を同一のグループに含める。他方、当該演算された距離ΔLが所定値以上である場合、グループ化部14は、当該2個の反射点を互いに異なるグループに含める。
 かかるグループ化により、側方領域(より具体的には左方領域)に存在する複数個の物体(駐車車両V_1,V_2を含む。)について、個々の物体に対応するグループが設定される。以下、かかるグループを「反射点群」ということがある。
 幅演算部15は、個々の反射点群に対応する物体の幅Loを演算するものである。以下、図22を参照して、幅Loの演算方法の具体例について説明する。
 図22に示す如く、側方領域(より具体的には左方領域)に4個の物体O_1,O_2,O_3,O_4が存在する。物体O_1は、ロードコーンである。物体O_2は、人である。物体O_3は、駐車車両V_1である。物体O_4は、駐車車両V_2である。
 物体O_1に対応する反射点群G_1は、3個の反射点を含むものである。当該3個の反射点について、グループ化部14により距離ΔL_1_1,ΔL_1_2が演算される。幅演算部15は、距離ΔL_1_1,ΔL_1_2の合計値を演算することにより、物体O_1の幅Lo_1を演算する。
 物体O_2に対応する反射点群G_2は、3個の反射点を含むものである。当該3個の反射点について、グループ化部14により距離ΔL_2_1,ΔL_2_2が演算される。幅演算部15は、距離ΔL_2_1,ΔL_2_2の合計値を演算することにより、物体O_2の幅Lo_2を演算する。
 物体O_3に対応する反射点群G_3は、5個の反射点を含むものである。当該5個の反射点について、グループ化部14により距離ΔL_3_1~ΔL_3_4が演算される。幅演算部15は、距離ΔL_3_1~ΔL_3_4の合計値を演算することにより、物体O_3の幅Lo_3を演算する。
 物体O_4に対応する反射点群は、5個の反射点を含むものである。当該5個の反射点について、グループ化部14により距離ΔL_4_1~ΔL_4_4が演算されている。幅演算部15は、距離ΔL_4_1~ΔL_4_4の合計値を演算することにより、物体O_4の幅Lo_4を演算する。
 物体検知装置7aは、物体検知情報を駐車支援装置8aに出力する。ここで、物体検知情報は、反射位置情報を含むものである。これに加えて、物体検知情報は、幅演算部15により演算された幅Loを示す情報(以下「幅情報」という。)を含むものである。
 駐車支援装置8aは、駐車スペース検知部21、検知状況判断部22及び報知制御部23を含むものである。これに加えて、駐車支援装置8aは、ノイズ判断部24を含むものである。
 ノイズ判断部24は、物体検知装置7aにより出力された物体検知情報に含まれる幅情報を取得するものである。ノイズ判断部24は、当該取得された幅情報を用いて、個々の物体Oの幅Loが所定の閾値Lth以下であるか否かを判断するものである。ノイズ判断部24は、閾値Lth以下の幅Loに対応する物体Oが報知におけるノイズであると判断するものである。これにより、ノイズ判断部24は、かかる物体Oを報知の対象から除外するものである。すなわち、ノイズ判断部24は、かかる物体Oを検知状況判断処理及び報知制御の対象から除外するものである。
 ここで、閾値Lthは、駐車車両Vと駐車車両Vよりも小さい物体(例えば人、ロードコーン又はポール)とを識別可能な値に設定されている。このため、図22に示す例においては、物体O_1の幅Lo_1が閾値Lth以下であると判断される。また、物体O_2の幅Lo_2が閾値Lth以下であると判断される。また、物体O_3の幅Lo_3が閾値Lthよりも大きいと判断される。また、物体O_4の幅Lo_4が閾値Lthよりも大きいと判断される。
 図22に示す例においては、駐車車両V_1に対応する反射位置情報が取得されるよりも先に、物体O_1,O_2に対応する反射位置情報が取得される。仮にノイズ判断部24が設けられていない場合、検知状況判断部22は、駐車スペース検知部21が物体O_1,O_2に対応する反射位置情報を取得しているとき、駐車スペース検知部21が駐車車両V_1に対応する反射位置情報を取得中であると誤判断する可能性がある。
 これにより、現在の検知状況が第1検知状況でないにもかかわらず、現在の検知状況が第1検知状況であると誤判断される。この結果、現在の検知状況が第1検知状況でないにもかかわらずm第1検知状況に対応する報知を出力する制御が実行される。
 これに対して、ノイズ判断部24が設けられていることにより、このような問題が発生するのを回避することができる。すなわち、駐車車両V_1,V_2と異なる物体O_1,O_2により報知が乱れるのを回避することができる。
 以下、グループ化部14により実行される処理を総称して「グループ化処理」ということがある。また、幅演算部15により実行される処理を総称して「幅演算処理」ということがある。また、ノイズ判断部24により実行される処理を総称して「ノイズ判断処理」ということがある。また、ノイズ判断部24が有する機能を総称して「ノイズ判断機能」ということがある。また、ノイズ判断機能に「F4」の符号を用いることがある。
 駐車支援装置8aの要部のハードウェア構成は、実施の形態1にて図12~図14を参照して説明したものと同様である。このため、詳細な説明は省略する。
 すなわち、駐車支援装置8aは、複数個の機能(駐車スペース検知機能、検知状況判断機能、報知制御機能及びノイズ判断機能を含む。)F1~F4を有している。複数個の機能F1~F4の各々は、プロセッサ31及びメモリ32により実現されるものであっても良く、又は処理回路33により実現されるものであっても良い。プロセッサ31は、個々の機能F1~F4に対応する専用のプロセッサを含むものであっても良い。メモリ32は、個々の機能F1~F4に対応する専用のメモリを含むものであっても良い。処理回路33は、個々の機能F1~F4に対応する専用の処理回路を含むものであっても良い。
 物体検知装置7aにおける速度判断部11、距離演算部12及び位置演算部13の動作は、実施の形態1にて図15を参照して説明したものと同様である。このため、詳細な説明は省略する。
 次に、図23に示すフローチャートを参照して、物体検知装置7aにおけるグループ化部14及び幅演算部15の動作について説明する。
 図23に示す処理は、距離演算処理及び位置演算処理に対して並行して実行される。すなわち、図23に示す処理は、ステップST2“YES”と判断された時点からステップST6“NO”と判断される時点までの期間に実行される。また、図23に示す処理は、かかる期間中に繰り返し実行される。
 まず、グループ化部14がグループ化処理を実行する(ステップST61)。次いで、幅演算部15が幅演算処理を実行する(ステップST62)。
 次に、図24に示すフローチャートを参照して、駐車支援装置8aの動作について説明する。なお、図24において、図16に示すステップと同様のステップには同一符号を付している。
 図24に示す如く、駐車スペース検知部21が駐車スペース検知処理を実行する(ステップST11)。また、検知状況判断部22が検知状況判断処理を実行する(ステップST12)。また、報知制御部23が報知制御を実行する(ステップST13)。また、ノイズ判断部24がノイズ判断処理を実行する(ステップST14)。
 駐車スペース検知処理は、実施の形態1にて図17を参照して説明したものと同様である。検知状況判断処理は、実施の形態1にて図18を参照して説明したものと同様である。報知制御は、実施の形態1にて図19を参照して説明したものと同様である。このため、詳細な説明は省略する。
 次に、図25に示すフローチャートを参照して、ノイズ判断部24の動作について説明する。すなわち、ステップST14にて実行される処理について説明する。
 まず、ノイズ判断部24は、幅情報を取得する(ステップST71)。次いで、ノイズ判断部24は、ステップST71にて取得された幅情報を用いて、対応する物体Oの幅Loが閾値Lth以下であるか否かを判断する(ステップST72)。幅Loが閾値Lth以下である場合(ステップST72“YES”)、ノイズ判断部24は、対応する物体Oを報知の対象から除外する(ステップST73)。
 次に、駐車支援システム2aの変形例について説明する。
 駐車支援システム2aは、実施の形態1にて説明したものと同様の種々の変形例を採用することができる。例えば、図26に示す如く、駐車支援装置8aは、物体検知装置7aを含むものであっても良い。すなわち、速度判断部11、距離演算部12、位置演算部13、グループ化部14、幅演算部15、駐車スペース検知部21、検知状況判断部22、報知制御部23及びノイズ判断部24により駐車支援装置8aの要部が構成されているものであっても良い。
 以上のように、実施の形態2に係る駐車支援装置8aは、閾値Lth以下の幅Loに対応する物体Oを報知の対象から除外するノイズ判断部24を備える。これにより、かかる物体Oにより報知が乱れるのを回避することができる。
実施の形態3.
 図27は、実施の形態3に係る駐車支援装置を含む駐車支援システムの要部を示すブロック図である。図27を参照して、実施の形態3に係る駐車支援装置を含む駐車支援システムについて説明する。なお、図27において、図21に示すブロックと同様のブロックには同一符号を付して説明を省略する。
 図27に示す如く、駐車支援システム2bは、第1センサ類3、第2センサ類4、測距センサ5及び出力装置6を含むものである。また、駐車支援システム2bは、物体検知装置7b、駐車支援装置8b及び車両制御装置9を含むものである。
 物体検知装置7bは、速度判断部11、距離演算部12、位置演算部13、グループ化部14及び幅演算部15を含むものである。これに加えて、物体検知装置7bは、評価値演算部16を含むものである。
 評価値演算部16は、個々の反射点に対応する距離値VDを演算するものである。評価値演算部16は、個々の反射点群に含まれる複数個の反射点に対応する複数個の距離値VDについて、当該複数個の距離値VDに対する統計処理を実行するものである。これにより、個々の反射点群に対応する評価値Eが演算される。
 ここで、評価値Eは、左方領域における反射点群に対応する評価値E_Lを含むものである。また、評価値Eは、右方領域における反射点群に対応する評価値E_Rを含むものである。以下、図28を参照して、評価値E_L,E_Rの演算方法の具体例について説明する。
 図28に示す如く、左方領域に駐車車両V_1_Lが駐車しており、かつ、右方領域に駐車車両V_1_Rが駐車している。
 グループ化部14により、駐車車両V_1_Lに対応する反射点群G_Lが設定される。また、グループ化部14により、反射点群G_Lに対応する距離ΔL_L_1~ΔL_L_6が演算される。すなわち、反射点群G_Lは、7個の反射点を含むものである。評価値演算部16は、当該7個の反射点のうちの第1の反射点を除く6個の反射点について、当該6個の反射点に対応する6個の距離値VD_L_1~VD_L_6を演算する。
 グループ化部14により、駐車車両V_1_Rに対応する反射点群G_Rが設定される。また、グループ化部14により、反射点群G_Rに対応する距離ΔL_R_1~ΔL_R_6が演算される。すなわち、反射点群G_Rは、7個の反射点を含むものである。評価値演算部16は、当該7個の反射点のうちの第1の反射点を除く6個の反射点について、当該6個の反射点に対応する6個の距離値VD_R_1~VD_R_6を演算する。
〈評価値E_L,E_Rの演算方法の第1具体例〉
 評価値演算部16は、距離値VD_L_1~VD_L_6のうちの最小値を選択する。評価値演算部16は、当該選択された最小値を評価値E_Lに用いる。また、評価値演算部16は、距離値VD_R_1~VD_R_6のうちの最小値を選択する。評価値演算部16は、当該選択された最小値を評価値E_Rに用いる。
〈評価値E_L,E_Rの演算方法の第2具体例〉
 評価値演算部16は、距離値VD_L_1~VD_L_6の平均値を演算する。評価値演算部16は、当該演算された平均値を評価値E_Lに用いる。すなわち、評価値演算部16は、以下の式(2)により評価値E_Lを演算する。
 E_L=(VD_L_1+VD_L_2+VD_L_3+VD_L_4
    +VD_L_5+VD_L_6)/6              (2)
 また、評価値演算部16は、距離値VD_R_1~VD_R_6の平均値を演算する。評価値演算部16は、当該演算された平均値を評価値E_Rに用いる。すなわち、評価値演算部16は、以下の式(3)により評価値E_Rを演算する。
 E_R=(VD_R_1+VD_R_2+VD_R_3+VD_R_4
    +VD_R_5+VD_R_6)/6              (3)
〈評価値E_L,E_Rの演算方法の第3具体例〉
 評価値演算部16は、距離値VD_L_1~VD_L_6の中央値を演算する。評価値演算部16は、当該演算された中央値を評価値E_Lに用いる。また、評価値演算部16は、距離値VD_R_1~VD_R_6の中央値を演算する。評価値演算部16は、当該演算された中央値を評価値E_Rに用いる。
〈評価値E_L,E_Rの演算方法の第4具体例〉
 評価値演算部16は、距離値VD_L_1~VD_L_6の加重平均値を演算する。評価値演算部16は、当該演算された加重平均値を評価値E_Lに用いる。すなわち、評価値演算部16は、以下の式(4)により評価値E_Lを演算する。
 E_L=(VD_L_1*ΔL_L_1+VD_L_2*ΔL_L_2
    +VD_L_3*ΔL_L_3+VD_L_4*ΔL_L_4
    +VD_L_5*ΔL_L_5+VD_L_6*ΔL_L_6)
    /(ΔL_L_1+ΔL_L_2+ΔL_L_3+ΔL_L_4
    +ΔL_L_5+ΔL_L_6)                (4)
 また、評価値演算部16は、距離値VD_R_1~VD_R_6の加重平均値を演算する。評価値演算部16は、当該演算された加重平均値を評価値E_Rに用いる。すなわち、評価値演算部16は、以下の式(5)により評価値E_Lを演算する。
 E_R=(VD_R_1*ΔL_R_1+VD_R_2*ΔL_R_2
    +VD_R_3*ΔL_R_3+VD_R_4*ΔL_R_4
    +VD_R_5*ΔL_R_5+VD_R_6*ΔL_R_6)
    /(ΔL_R_1+ΔL_R_2+ΔL_R_3+ΔL_R_4
    +ΔL_R_5+ΔL_R_6)                (5)
〈評価値E_L,E_Rの演算方法の第5具体例〉
 評価値演算部16は、個々の距離ΔL_Lを対応する距離値VD_Lにより除してなる値を演算して、当該演算された値の合計値を演算する。評価値演算部16は、当該演算された合計値を評価値E_Lに用いる。すなわち、評価値演算部16は、以下の式(6)により評価値E_Lを演算する。
 E_L=(ΔL_L_1/VD_L_1+ΔL_L_2/VD_L_2
    +ΔL_L_3/VD_L_3+ΔL_L_4/VD_L_4
    +ΔL_L_5/VD_L_5+ΔL_L_6/VD_L_6)  (6)
 また、評価値演算部16は、個々の距離ΔL_Rを対応する距離値VD_Rにより除してなる値を演算して、当該演算された値の合計値を演算する。評価値演算部16は、当該演算された合計値を評価値E_Rに用いる。すなわち、評価値演算部16は、以下の式(7)により評価値E_Rを演算する。
 E_R=(ΔL_R_1/VD_R_1+ΔL_R_2/VD_R_2
    +ΔL_R_3/VD_R_3+ΔL_R_4/VD_R_4
    +ΔL_R_5/VD_R_5+ΔL_R_6/VD_R_6)  (7)
 物体検知装置7bは、物体検知情報を駐車支援装置8bに出力する。ここで、物体検知情報は、反射位置情報及び幅情報を含むものである。これに加えて、物体検知情報は、評価値演算部16により演算された評価値E_L,E_Rを示す情報(以下「評価値情報」という。)を含むものである。
 駐車支援装置8bは、駐車スペース検知部21、検知状況判断部22、報知制御部23及びノイズ判断部24を含むものである。これに加えて、駐車支援装置8bは、方向設定部25を含むものである。
 方向設定部25は、物体検知装置7bにより出力された物体検知情報に含まれる評価値情報を取得するものである。方向設定部25は、当該取得された評価値情報を用いて、評価値E_L,E_Rの大小関係を判断するものである。
 評価値E_Lが評価値E_Rよりも小さい場合、方向設定部25は、左方領域を報知の対象に設定するとともに、右方領域を報知の対象から除外するものである。すなわち、方向設定部25は、左方領域を検知状況判断処理及び報知制御の対象に設定するとともに、右方領域を検知状況判断処理及び報知制御の対象から除外するものである。
 他方、評価値E_Rが評価値E_Lよりも小さい場合、方向設定部25は、右方領域を報知の対象に設定するとともに、左方領域を報知の対象から除外するものである。すなわち、方向設定部25は、右方領域を検知状況判断処理及び報知制御の対象に設定するとともに、左方領域を検知状況判断処理及び報知制御の対象から除外するものである。
 図28に示す例においては、評価値E_Lが評価値E_Rよりも小さくなる。このため、方向設定部25は、左方領域を報知の対象に設定するとともに、右方領域を報知の対象から除外する。
 これにより、左方領域に対応する報知及び右方領域に対応する報知の両方が出力されるのを回避することができる。この結果、例えば、車両1の運転者の注意が左方領域及び右方領域の両方に向けられるのを回避することができる。換言すれば、車両1の運転車が注意を向ける方向を絞ることができる。
 以下、評価値演算部16により実行される処理を総称して「評価値演算処理」ということがある。また、方向設定部25により実行される処理を総称して「方向設定処理」ということがある。また、方向設定部25が有する機能を総称して「方向設定機能」ということがある。また、方向設定機能に「F5」の符号を用いることがある。
 駐車支援装置8bの要部のハードウェア構成は、実施の形態1にて図12~図14を参照して説明したものと同様である。このため、詳細な説明は省略する。
 すなわち、駐車支援装置8bは、複数個の機能(駐車スペース検知機能、検知状況判断機能、報知制御機能、ノイズ判断機能及び方向設定機能を含む。)F1~F5を有している。複数個の機能F1~F5の各々は、プロセッサ31及びメモリ32により実現されるものであっても良く、又は処理回路33により実現されるものであっても良い。プロセッサ31は、個々の機能F1~F5に対応する専用のプロセッサを含むものであっても良い。メモリ32は、個々の機能F1~F5に対応する専用のメモリを含むものであっても良い。処理回路33は、個々の機能F1~F5に対応する専用の処理回路を含むものであっても良い。
 物体検知装置7bにおける速度判断部11、距離演算部12及び位置演算部13の動作は、実施の形態1にて図15を参照して説明したものと同様である。このため、詳細な説明は省略する。
 次に、図29に示すフローチャートを参照して、物体検知装置7bにおけるグループ化部14、幅演算部15及び評価値演算部16の動作について説明する。なお、図29において、図23に示すステップと同様のステップには同一符号を付している。
 まず、グループ化部14がグループ化処理を実行する(ステップST61)。次いで、幅演算部15が幅演算処理を実行する(ステップST62)。次いで、評価値演算部16が評価値演算処理を実行する(ステップST63)。
 次に、図30に示すフローチャートを参照して、駐車支援装置8bの動作について説明する。なお、図30において、図24に示すステップと同様のステップには同一符号を付している。
 図30に示す如く、駐車スペース検知部21が駐車スペース検知処理を実行する(ステップST11)。また、検知状況判断部22が検知状況判断処理を実行する(ステップST12)。また、報知制御部23が報知制御を実行する(ステップST13)。また、ノイズ判断部24がノイズ判断処理を実行する(ステップST14)。また、方向設定部25が方向設定処理を実行する(ステップST15)。
 駐車スペース検知処理は、実施の形態1にて図17を参照して説明したものと同様である。検知状況判断処理は、実施の形態1にて図18を参照して説明したものと同様である。報知制御は、実施の形態1にて図19を参照して説明したものと同様である。ノイズ判断処理は、実施の形態2にて図25を参照して説明したものと同様である。このため、詳細な説明は省略する。
 次に、図31に示すフローチャートを参照して、方向設定部25の動作について説明する。すなわち、ステップST15にて実行される処理について説明する。
 まず、方向設定部25は、評価値情報を取得する(ステップST81)。次いで、方向設定部25は、ステップST81にて取得された評価値情報を用いて、左方領域又は右方領域を選択的に報知の対象に設定する(ステップST82)。すなわち、方向設定部25は、評価値E_L,E_Rの大小関係に応じて、左方領域又は右方領域を選択的に報知の対象に設定する。
 次に、駐車支援システム2bの変形例について説明する。
 駐車支援システム2bは、実施の形態1にて説明したものと同様の種々の変形例を採用することができる。例えば、図32に示す如く、駐車支援装置8bは、物体検知装置7bを含むものであっても良い。すなわち、速度判断部11、距離演算部12、位置演算部13、グループ化部14、幅演算部15、評価値演算部16、駐車スペース検知部21、検知状況判断部22、報知制御部23、ノイズ判断部24及び方向設定部25により駐車支援装置8bの要部が構成されているものであっても良い。
 以上のように、実施の形態3に係る駐車支援装置8bは、左方領域及び右方領域のうちのより小さい距離値VD(評価値E)に対応する領域を報知の対象に設定する方向設定部25を備える。これにより、車両1の運転者による注意の対象を左方領域又は右方領域のうちのいずれかに絞ることができる。
 なお、本願開示はその開示の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
 本開示に係る駐車支援装置は、車両に用いることができる。
 1 車両、2,2a,2b 駐車支援システム、3 第1センサ類、4 第2センサ類、5 測距センサ、6 出力装置、7,7a,7b 物体検知装置、8,8a,8b 駐車支援装置、9 車両制御装置、11 速度判断部、12 距離演算部、13 位置演算部、14 グループ化部、15 幅演算部、16 評価値演算部、21 駐車スペース検知部、22 検知状況判断部、23 報知制御部、24 ノイズ判断部、25 方向設定部、31 プロセッサ、32 メモリ、33 処理回路。

Claims (9)

  1.  車両に設けられた測距センサによる物体検知情報を用いて、前記車両用の駐車スペースを検知する駐車スペース検知部と、
     前記駐車スペース検知部による検知状況が時間的に連続する複数個の検知状況のうちのいずれの検知状況であるかを判断する検知状況判断部と、
     前記検知状況判断部による判断結果に基づき、前記駐車スペース検知部による検知状況に応じてシーケンシャルに変化する報知を出力する制御を実行する報知制御部と、
     を備える駐車支援装置。
  2.  閾値以下の幅に対応する物体を前記報知の対象から除外するノイズ判断部を備えることを特徴とする請求項1記載の駐車支援装置。
  3.  左方領域及び右方領域のうちのより小さい距離値に対応する領域を前記報知の対象に設定する方向設定部を備えることを特徴とする請求項2記載の駐車支援装置。
  4.  前記報知は、音によるものであり、
     前記駐車スペース検知部による検知状況に応じて前記音の第1態様がシーケンシャルに変化するものである
     ことを特徴とする請求項1記載の駐車支援装置。
  5.  前記第1態様は、前記音の音量、前記音の高さ又は前記音の間隔であることを特徴とする請求項4記載の駐車支援装置。
  6.  前記物体検知情報に含まれる距離値に応じて前記音の第2態様が異なることを特徴とする請求項4記載の駐車支援装置。
  7.  前記第2態様は、前記音の音量、前記音の高さ又は前記音の間隔であることを特徴とする請求項6記載の駐車支援装置。
  8.  前記音は、前記車両に設けられた前スピーカにより出力されるとともに、前記車両に設けられた後スピーカにより出力されるものであり、
     前記第1態様は、前記前スピーカ及び前記後スピーカの各々に対応する音量である
     ことを特徴とする請求項4記載の駐車支援装置。
  9.  前記報知は、表示器によるものであることを特徴とする請求項1記載の駐車支援装置。
PCT/JP2020/014426 2020-03-30 2020-03-30 駐車支援装置 WO2021199098A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022512496A JP7237242B2 (ja) 2020-03-30 2020-03-30 駐車支援装置
PCT/JP2020/014426 WO2021199098A1 (ja) 2020-03-30 2020-03-30 駐車支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/014426 WO2021199098A1 (ja) 2020-03-30 2020-03-30 駐車支援装置

Publications (1)

Publication Number Publication Date
WO2021199098A1 true WO2021199098A1 (ja) 2021-10-07

Family

ID=77929900

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/014426 WO2021199098A1 (ja) 2020-03-30 2020-03-30 駐車支援装置

Country Status (2)

Country Link
JP (1) JP7237242B2 (ja)
WO (1) WO2021199098A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008257636A (ja) * 2007-04-09 2008-10-23 Denso Corp 運転支援装置
WO2017060975A1 (ja) * 2015-10-06 2017-04-13 三菱電機株式会社 駐車形態判定装置
WO2019031107A1 (ja) * 2017-08-07 2019-02-14 日立オートモティブシステムズ株式会社 駐車制御装置及び方法
WO2019239725A1 (ja) * 2018-06-14 2019-12-19 日立オートモティブシステムズ株式会社 車両制御装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3917008B2 (ja) 2002-05-30 2007-05-23 株式会社ジェイテクト 自動操舵制御装置
JP5522434B2 (ja) * 2009-09-01 2014-06-18 アイシン精機株式会社 運転支援装置
JP2017073040A (ja) * 2015-10-08 2017-04-13 株式会社東海理化電機製作所 車両用視認装置及び車両用視認制御プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008257636A (ja) * 2007-04-09 2008-10-23 Denso Corp 運転支援装置
WO2017060975A1 (ja) * 2015-10-06 2017-04-13 三菱電機株式会社 駐車形態判定装置
WO2019031107A1 (ja) * 2017-08-07 2019-02-14 日立オートモティブシステムズ株式会社 駐車制御装置及び方法
WO2019239725A1 (ja) * 2018-06-14 2019-12-19 日立オートモティブシステムズ株式会社 車両制御装置

Also Published As

Publication number Publication date
JPWO2021199098A1 (ja) 2021-10-07
JP7237242B2 (ja) 2023-03-10

Similar Documents

Publication Publication Date Title
US8073574B2 (en) Driving assist method and driving assist apparatus for vehicle
US8515641B2 (en) Method and system for assisting the driver of a motor vehicle in identifying suitable parking spaces for the vehicle
US6434486B1 (en) Technique for limiting the range of an object sensing system in a vehicle
US20100302069A1 (en) Object classification method, parking assistance method, and parking assistance system
US7289018B2 (en) Method for distance alert and distance alerting unit
JP6149616B2 (ja) 運転支援装置
US10754335B2 (en) Automated driving system
US20150266490A1 (en) Vehicle sensor diagnosis system and method and a vehicle comprising such a system
US20160146618A1 (en) Method to gain driver's attention for autonomous vehicle
US20040260433A1 (en) Vehicular traveling information alarm system
US10345807B2 (en) Control system for and control method of autonomous driving vehicle
JP6558282B2 (ja) 自動運転システム
JP4442520B2 (ja) 車両用進路推定装置
JP2020077266A (ja) 車両制御装置
JPH1145398A (ja) 自車線物体検出装置及びこれを備えた車両走行制御装置
JP2000293782A (ja) 自動走行制御装置
WO2021199098A1 (ja) 駐車支援装置
JP2007292541A (ja) 車両用物体検知装置
JP7199436B2 (ja) 障害物検知装置及び運転支援装置
JP2006035951A (ja) 運転支援装置
JP3620388B2 (ja) 前車発進報知装置
JP6820132B2 (ja) 運転支援装置
WO2020008536A1 (ja) 障害物検知装置
JPH11118925A (ja) 車間距離警報装置
JP2002274303A (ja) 車両用警報装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20928807

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022512496

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20928807

Country of ref document: EP

Kind code of ref document: A1