WO2014083825A1 - 運転支援装置及び運転支援方法 - Google Patents

運転支援装置及び運転支援方法 Download PDF

Info

Publication number
WO2014083825A1
WO2014083825A1 PCT/JP2013/006883 JP2013006883W WO2014083825A1 WO 2014083825 A1 WO2014083825 A1 WO 2014083825A1 JP 2013006883 W JP2013006883 W JP 2013006883W WO 2014083825 A1 WO2014083825 A1 WO 2014083825A1
Authority
WO
WIPO (PCT)
Prior art keywords
line
parking frame
acceleration
unit
host vehicle
Prior art date
Application number
PCT/JP2013/006883
Other languages
English (en)
French (fr)
Inventor
田中 大介
修 深田
早川 泰久
明 森本
大介 笈木
Original Assignee
日産自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社 filed Critical 日産自動車株式会社
Priority to JP2014549818A priority Critical patent/JP5900651B2/ja
Publication of WO2014083825A1 publication Critical patent/WO2014083825A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/12Limiting control by the driver depending on vehicle state, e.g. interlocking means for the control input for preventing unsafe operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/06Automatic manoeuvring for parking
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/10Accelerator pedal position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • B60W2720/106Longitudinal acceleration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9314Parking operations

Definitions

  • the present invention relates to a driving support technology that supports driving of a vehicle for parking.
  • a safety device As a driving support device that controls the speed of a vehicle, for example, there is a safety device described in Patent Document 1. In this safety device, it is detected from the map data of the navigation device and information on the current position that the vehicle is off the road. When the accelerator device determines that the vehicle traveling speed is increased and the vehicle traveling speed is greater than a predetermined value, the safety device increases the throttle in the deceleration direction regardless of the actual accelerator operation. Control.
  • the accelerator depressing operation may be an accelerator erroneous operation when the host vehicle is at a position off the road based on the map information and the traveling speed of a predetermined value or more is detected. Therefore, the above condition is set as an operation condition for throttle suppression.
  • the throttle control is activated depending on the vehicle speed only by getting off the road and entering the parking lot, and the drivability in the parking lot is deteriorated.
  • the present invention has been made paying attention to the above points, and an object thereof is to improve the accuracy of driving assistance for parking.
  • a line located on a road surface is detected from a captured image captured by an imaging unit.
  • noise information is added to a line estimated to be a line reflected on the road surface based on a radial line centered on the light receiving unit of the imaging unit in the overhead image obtained by overhead conversion of the captured image.
  • a parking frame is extracted based on the line located on the road surface and the noise information, and based on the extracted parking frame, according to the acceleration operation amount of the acceleration operator operated to instruct the driver to accelerate. Reduce the acceleration generated in the vehicle.
  • the present invention it is possible to suppress a line reflected on a road surface from being determined as a line constituting a parking frame. As a result, the reliability of parking frame detection is improved, and the accuracy of driving assistance for parking can be improved.
  • the vehicle includes a braking device that generates a braking force and a driving device that generates a driving force.
  • the braking device includes a brake device 12 provided on the wheel 11, a fluid pressure circuit 13 including a pipe connected to each brake device 12, and a brake controller 14.
  • the brake controller 14 controls the braking force generated by each brake device 12 via the fluid pressure circuit 13 to a value corresponding to the braking force command value.
  • the brake device 12 is not limited to a device that applies a braking force with fluid pressure, and may be an electric brake device or the like.
  • the drive device includes an engine 15 as a drive source and an engine controller 16 that controls torque (drive force) generated by the engine 15.
  • the drive source of the drive device is not limited to the engine 15 and may be an electric motor or a hybrid configuration in which the engine 15 and the motor are combined.
  • the brake controller 14 and the engine controller 16 are configured to receive respective command values of a braking command and a driving command (acceleration command value) from the travel control controller 10 that is a host controller.
  • the brake controller 14 and the engine controller 16 constitute an acceleration / deceleration control device.
  • the vehicle includes an ambient environment recognition sensor 1, a wheel speed sensor 2, a steering angle sensor 3, a shift position sensor 4, a brake operation detection sensor 5, and an accelerator operation detection sensor. 6, a navigation device 7, and a wiper detection sensor 8.
  • the vehicle also includes a travel controller 10.
  • the surrounding environment recognition sensor 1 recognizes obstacles and road surfaces around the host vehicle MM and outputs the recognized surrounding state to the travel controller 10.
  • the ambient environment recognition sensor 1 of the present embodiment is composed of one or two or more cameras capable of capturing an image around the vehicle.
  • the camera 1 is provided, for example, at the position of the side mirror, the front part, the rear part, the roof part, or the like of the vehicle. Each camera 1 captures an image of the surroundings of the vehicle at predetermined imaging interval times and acquires a captured image.
  • cameras as the surrounding environment recognition sensors 1 are respectively arranged at four locations, front, rear, left, and right. Then, as shown in FIG. 4, the area around the vehicle is divided into four parts ARA1 to ARA4, and each area ARA1 to ARA4 is imaged by each camera 1. There may be overlapping portions in the imaging area of each camera 1. Moreover, you may provide the separate camera for imaging a distant vehicle (for example, to 100 m). Note that the captured image does not have to be an image of the entire area captured by the camera 1, and may be an image cut out from a video captured by the camera 1.
  • region ahead of the advancing direction of the own vehicle MM is set as the area
  • a parking frame is detected based on a captured image obtained by capturing an area ARA1 in front of the host vehicle will be described as an example.
  • the parking frame is detected using the captured image of the area ARA2.
  • the wheel speed sensor 2 detects the wheel speed and outputs the detected wheel speed information to the travel controller 10.
  • the wheel speed sensor 2 is constituted by a pulse generator such as a rotary encoder that measures wheel speed pulses, for example.
  • the steering angle sensor 3 detects the steering angle of the steering wheel 20 and outputs the detected steering angle information to the travel controller 10.
  • the steering angle sensor 3 is provided on a steering shaft or the like.
  • the steered wheel turning angle may be detected as steering angle information.
  • the shift position sensor 4 detects shift information of a shift position (drive instruction position, parking instruction position, neutral position, etc.), and outputs a detection signal to the travel control controller 10.
  • the brake operation detection sensor 5 detects whether or not the brake pedal 18 is operated and the operation amount.
  • the detected brake pedal operation amount is output to the travel controller 10.
  • the brake pedal 18 is an operation element for decelerating instructions operated by the driver.
  • the accelerator operation detection sensor 6 detects the operation amount of the accelerator pedal 19.
  • the detected accelerator pedal operation amount is output to the travel controller 10.
  • the accelerator pedal 19 is an operator for acceleration instruction operated by the driver.
  • the navigation device 7 includes a GPS receiver, a map database, a display monitor, and the like, and is a device that performs route search, route guidance, and the like.
  • the navigation device 7 can acquire information such as the type of road on which the host vehicle MM travels and the road width based on the current position of the host vehicle MM obtained through the GPS receiver and the road information stored in the map database. it can.
  • the wiper detection sensor 8 detects the operation of the wiper.
  • the detected wiper operation information is output to the travel controller 10.
  • the information presenting device outputs an alarm or other presenting by voice or image in accordance with a control signal from the travel controller 10.
  • the information presentation device includes, for example, a speaker that provides information to the driver by a buzzer sound or voice, and a display unit that provides information by displaying an image or text.
  • the display unit for example, the display monitor of the navigation device 7 may be used.
  • the traveling control controller 10 is an electronic control unit including a CPU and CPU peripheral components such as a ROM and a RAM.
  • the travel control controller 10 includes a parking driving support unit that performs driving support processing for parking.
  • the parking driving support unit among the processes of the travel controller 10 functionally includes an ambient environment recognition information calculation unit 10A, a vehicle speed calculation unit 10B, a steering angle calculation unit 10C, and a steering angular velocity calculation. 10D, shift position calculation unit 10E, brake pedal operation information calculation unit 10F, accelerator operation amount calculation unit 10G, accelerator operation speed calculation unit 10H, acceleration suppression operation condition determination unit 10I, acceleration suppression amount calculation unit 10J, and target throttle opening
  • the processing of the degree calculation unit 10K is provided. These functions are composed of one or more programs.
  • the surrounding environment recognition information calculation unit 10 ⁇ / b> A recognizes the road surface environment around the vehicle based on the captured image captured by the surrounding environment recognition sensor 1.
  • the own vehicle vehicle speed calculation unit 10 ⁇ / b> B calculates the vehicle speed based on a signal from the wheel speed sensor 2.
  • the steering angle calculation unit 10 ⁇ / b> C calculates a steering angle based on a signal from the steering angle sensor 3.
  • the steering angular velocity calculation unit 10D calculates the steering angular velocity by differentiating the signal from the operation angle sensor.
  • the shift position calculation unit 10E determines the shift position based on the signal from the shift position sensor 4.
  • the brake pedal operation information calculation unit 10 ⁇ / b> F determines a brake operation amount based on a signal from the brake operation detection sensor 5.
  • the accelerator operation amount calculation unit 10G calculates the operation amount of the accelerator pedal 19 based on a signal from the accelerator operation detection sensor 6.
  • the accelerator operation speed calculation unit 10H calculates the operation speed of the accelerator pedal 19 by differentiating the signal from the accelerator operation detection sensor 6.
  • the acceleration suppression operation condition determination unit 10I determines the acceleration suppression operation condition for the braking / driving force control of the vehicle based on the road surface environment information from the surrounding environment recognition information calculation unit 10A.
  • the surrounding environment recognition information calculation unit 10A performs the processing shown in FIG. 5 at every preset sampling time.
  • the ambient environment recognition information calculation unit 10A acquires a captured image captured by the ambient environment recognition sensor 1.
  • a captured image obtained by capturing an area ARA1 in the traveling direction of the host vehicle is used.
  • the captured image acquired in step S10 is overhead converted to acquire an overhead image.
  • the acquisition of the bird's-eye view image is performed by, for example, cutting out a portion of the image that is a preset bird's-eye view area around the vehicle (see FIG. 6) from the acquired captured image, and performing bird's-eye conversion on the cut-out image.
  • An overhead view image as shown in FIG. In the captured image, an object in a distant area appears smaller, so even a parallel line appears as a non-parallel line as shown in FIG. By performing bird's-eye conversion, this is detected as parallel lines on the bird's-eye view image as shown in FIG.
  • an overhead view image may be obtained by performing an overhead conversion of an image of the overhead view area portion that the camera is responsible for.
  • the bird's-eye view image is an image of the road surface environment viewed from a virtual camera assumed to be installed at a position looking down from directly above.
  • the overhead conversion process may employ a known conversion method such as geometric conversion.
  • image coordinate conversion is performed in a direction in which the viewpoint of the image is directed from the top to the bottom.
  • step S30 a line existing on the overhead image is detected.
  • line extraction is performed for the overhead image portion of the road surface in the direction along the traveling direction of the host vehicle (hereinafter, also referred to as a road surface overhead image) in the overhead image acquired in step S20.
  • Perform image processing detects a line existing on the road surface overhead image by performing a known line detection process such as edge processing on the road surface overhead image.
  • a known line detection process such as edge processing on the road surface overhead image.
  • the front of the vehicle is the traveling direction of the vehicle is illustrated.
  • the road surface ahead in the vehicle traveling direction is sequentially displayed in the road surface overhead image sequentially acquired as the host vehicle moves.
  • tracking is performed for a line that extends outside the window area of the image (a line that is estimated to extend in the vehicle traveling direction). That is, a line matching process between different road surface overhead images is performed, and it is determined whether or not the lines between sequentially acquired road surface overhead images are the same line.
  • step S40 an attribute assignment process is performed on the detected line.
  • the attribute assignment process will be described next. For each detected line, it is determined whether it corresponds to the following attribute, and if applicable, the attribute is assigned to the detected line. An assignment determination is performed for each attribute. An example of the attribute to be given is shown below.
  • Radial lines (lines extending radially from the light receiving part 1a of the camera) -Solid object line (line indicating a solid object) -Luminance symmetry (luminance symmetry at both ends in the width direction of the detected line) ⁇ Luminance difference with the road surface ⁇ Left and right luminance difference (Symmetry of luminance on both sides of the detected line in the width direction) ⁇ Fixed object (long) (Generation of end points where lines are broken due to dirt: long breaks) ⁇ Fixed object (short) (Generation of end points where lines are broken due to dirt: short breaks) ⁇ Fixed object (lens) (edge generated by adhering to the range)
  • radial line attribute assignment processing will be described with reference to FIG.
  • the next radial line attribute assignment processing may not be performed.
  • the case where the previous bird's-eye view screen and the current bird's-eye view screen are the same is a case where it can be considered that the real vehicle is stopped when the vehicle is stopped. That is, for example, it is possible to determine whether the bird's-eye view screen processed immediately before and the bird's-eye view screen processed this time are the same based on whether or not the vehicle movement is estimated to be at a substantially stopped speed.
  • the imaging center 1a (light receiving unit 1a) of the camera 1 that captured the image is processed.
  • a radial line L3 as the center is detected (step S41a).
  • whether or not the line is a radial line is determined as follows. That is, as shown in FIG. 11, when the difference between the upper end point of the line on the road surface overhead image and the straight line connecting the imaging center is within a preset radial line determination threshold angle ⁇ , the radial line L3 judge.
  • the imaging error is caused by a vehicle behavior change (pitching or the like).
  • an on-threshold angle for example, ⁇ 5 degrees
  • An off-threshold angle for example, ⁇ 7 degrees
  • the radial line determination threshold angle ⁇ is set to an angle larger than the initial value angle as described above. use. Alternatively, a small value is used as the threshold value of the count n in the continuous collation determination (step S65 described later). For example, an ON threshold angle (for example, ⁇ 7 degrees) and an OFF threshold angle (for example, ⁇ 8 degrees) are set.
  • an ON threshold angle for example, ⁇ 7 degrees
  • an OFF threshold angle for example, ⁇ 8 degrees
  • the road surface state in which reflection is likely to occur include the following.
  • ⁇ ⁇ is low (for example, it can be judged by slip amount). Sunlight is incident on the lens (for example, it can be determined by the brightness of the image).
  • step S41b it is determined whether the line L3 determined to be a radial line is a line detected for the first time in the current road surface overhead image. If the line L3 is detected for the first time this time, the line L3 has a radial line attribute FF.
  • the attribute (1) is assigned (step S41c).
  • n of the radial line attribute FF (n) is counted up each time it is determined as a radial line.
  • step S41d it is determined whether the radial line attribute FF (n) is assigned to the line L3 (step S41d). If it is determined that the value is assigned, the counter value n of the radial line attribute FF (n) is counted up. That is, the attribute of the radial line FF (n + 1) is given to the line (step S41e).
  • step S40 if the line is determined to be a radial line, the attribute of the radial line is always given.
  • step S50 it is determined whether the line has been determined to be a non-radial line in the past. When it is determined that the line is a radial line, the parking frame determination is performed by ignoring the attribute assignment information of the radial line. Alternatively, the attribute of the radial line is set to OFF.
  • step S55 it is determined whether or not the same line has been continuously determined as a radial line for a preset duration or longer.
  • a difference between the positions of the line in the two road surface overhead images in which the line is reflected (at a specific linear position) If it is determined that the line is moving as a display on the road surface along the vehicle movement based on the difference) and the vehicle movement information, a process that does not regard the line as a radial line may be added.
  • step S42a Based on the road surface bird's-eye view image acquired continuously, with regard to a line where at least the upper end or the lower end can be detected among the both ends of the line, it is selected as a point for tracking two points on the line specified with the detected end as a reference. Then (step S42a), the respective movement amounts of the two points accompanying the movement of the vehicle are calculated (step S42b).
  • the amount of movement may be the amount of displacement of the two points between the two overhead images acquired with the movement of the host vehicle.
  • the three-dimensional object is a stationary object such as a stationary vehicle or a wall.
  • the relationship between the movement amounts of the two points to be tracked is, for example, that the movement amount of a point closer to the host vehicle (lower point) is smaller than the movement amount of a relatively far point (upper point), Judged as a line of objects.
  • the line of the three-dimensional object is usually a line of the edge portion of the three-dimensional object.
  • the solid object line between the line to which the attribute FR of the solid object line is added and the light receiving unit 1a of the camera in the road surface overhead image is displayed.
  • a line to which the attribute FR is not added is detected, and among the detected lines, there is a line whose distance from the line to which the attribute FR of the three-dimensional object is added is within a preset separation distance (for example, 1 m). If it is, the priority frame candidate attribute PRR is assigned to the line.
  • the priority frame candidate attribute PRR may be assigned to a line whose separation distance from the three-dimensional object is within a preset separation distance. This process may be performed in step S40, step S50, or the like.
  • step S52 line interpolation processing is performed. This is a process of interpolating the blurring of the line. That is, interpolation processing is performed between a plurality of lines detected along the same virtual straight line, that is, lines that may be the same line. This line interpolation processing will be described with reference to FIG.
  • step S410 it is determined whether the length of the space between two adjacent lines along the same virtual line (also referred to as a break length) is equal to or less than a preset interpolation length (step S410). If the length is less than the interpolation length, a process of interpolating the line and regarding it as one line of the two lines is performed (step S420).
  • the interpolation length is set to a value shorter than the track width at the railroad crossing (including a margin for wheels passing through the track). The interpolation length is set to 20 cm, for example.
  • step S430 it is determined whether the interruption length exceeds a preset maximum interpolation length (for example, 1 m) (step S430). If the maximum interpolation length is exceeded, interpolation processing is not performed. That is, it is processed as another line. On the other hand, whether or not the following interpolation processing is appropriate is determined between the lines whose break length is longer than 20 cm and within the maximum interpolation length. That is, it is determined whether at least one of the two lines constituting the blank is a line having a parking line level FLVL of 1 or more (step S440). If the parking line level FLVL is not 1 or more, no interpolation is performed.
  • a preset maximum interpolation length for example, 1 m
  • a line having a parking line level FLVL of 1 or more, that is, a pair of frame line candidates is detected, a line on the side where both ends of the two lines constituting the blank are known ( Compared with the paired line that makes a pair with the line.
  • the examination line is usually a line detected earlier.
  • the lengths of the study line and the pair line are approximated (step S450), and the discontinuity length between adjacent lines in the longitudinal direction on the pair line side is the discontinuity length on the study line side. If they are approximated (step S460), both lines are interpolated to perform processing that regards the two lines as one line, and information on non-frame line candidates is added to the line (step S460). S470).
  • the lengths of the study line and the pair line can be regarded as substantially the same as the approximate length, for example, when the difference in length between the study line and the pair line is equal to or less than a preset threshold value, the approximation is determined.
  • the case where the interruption length is approximate is a case where the interruption length can be regarded as substantially the same length. For example, when the difference between the interruption lengths is equal to or less than a preset threshold value, the approximation is determined.
  • step S55 a process for determining whether or not the line is a frame candidate line is performed on the line detected in the process of the road surface overhead image acquired continuously.
  • the determination is made based on whether or not a preset parking frame condition as shown below is satisfied.
  • the process for determining whether or not the frame is a candidate for a frame line is performed, for example, on a line located in a parking frame presence determination area (for example, an area within a radius of 10 m centered on the own vehicle) set for the own vehicle. That is, in step S55, when all the following parking frame line conditions are satisfied, it is determined as a parking frame line candidate line.
  • the line is a line estimated to be a straight line.
  • the line width is a preset line range (a range of line thicknesses considered as parking frame lines, for example, 2 cm to 4 cm).
  • a pair of lines in a preset separation range (a range that can be regarded as a pair of parking frames, for example, 1.5 m to 2.5 m).
  • the parallelism between the paired lines is within a preset allowable angle (for example, within 4 degrees).
  • the difference in the line width dimension between the paired lines is not more than a preset value (for example, 8 mm).
  • the length of the line is not more than a preset maximum length (for example, 9 m).
  • the line detected as the line of the parking frame is a line that is estimated to be a line in the direction along the front-rear direction of the vehicle when the vehicle is parked (a line that exists on the side of the vehicle when parked). Since the line width is confirmed, the shape of the end of the line can be detected.
  • the target line has the priority frame candidate attribute PRR, it is determined whether the following parking frame line condition is relaxed or not.
  • the relaxation is determined, for example, by widening the value set below. For example, the determination is made with the allowable angle of the parallelism being within 6 degrees, for example.
  • the preset threshold value is set to a value that can be detected by a predetermined length (for example, 2 m) as the length of the line.
  • the parking line level FLVL is “1 (n)” and the parking line level FLVL is estimated to have been detected, the parking line level FLVL may be changed to 2.
  • the line with the parking line level FLVL of “1 (n)” is changed to the parking line level FLVL2. Also good.
  • the length of the line is equal to or greater than a preset maximum length (for example, 9 m)
  • the parking line level FLVL is forcibly changed to “0” regardless of the level of the parking line level FLVL.
  • step S75 when one of the both ends of the line having the parking line level FLVL of 2 is detected, the process proceeds to step S80, and the parking line level FLVL is changed to 3 in the step S80.
  • the detection of the end may be recognized as the end only when the end shape is a specific shape set in advance. Examples of specific shapes are simple line ends, U-shaped, T-shaped end shapes, and the like.
  • step S85 when both ends of the line having the parking line level FLVL of 3 are detected, the process proceeds to step S90, and the parking line level FLVL is changed to 4 in the step S90. .
  • the acceleration suppression operation condition determination unit 10I performs the process shown in FIG. 13 for each preset sampling time.
  • step S110 the acceleration suppression operation condition determination unit 10I acquires frame line information having a parking line level FLVL of 1 or more as road surface environment recognition information calculated by the surrounding environment recognition information calculation unit 10A.
  • step S120 the presence or absence of a parking frame is determined based on the frame line information acquired in step S110. If there is frame line information with a parking line level FLVL of 3 or more, it is determined that there is a parking frame, and the process proceeds to step S130.
  • step S130 the vehicle speed of the host vehicle MM is acquired from the host vehicle speed calculation unit 10B.
  • step S140 the host vehicle vehicle speed condition is determined based on the host vehicle speed acquired in step S130. For example, when the host vehicle speed is less than a preset value, the process proceeds to step S150. When the host vehicle speed is equal to or greater than the preset value, it is determined that the acceleration suppression operation condition is not established, and the process proceeds to step S190.
  • the preset value is, for example, 15 [km / h].
  • step S150 brake pedal operation information is acquired from the brake pedal operation information calculation unit 10F.
  • step S160 the brake pedal operation is determined based on the brake pedal operation information acquired in step S150. If it is determined that there is no brake pedal operation, the process proceeds to step S170. On the other hand, if it is determined that there is a brake pedal operation, it is determined that the acceleration suppression operation condition is not established, and the process proceeds to step S190.
  • step S170 the accelerator operation amount is acquired from the accelerator operation amount calculation unit 10G.
  • step S180 the accelerator operation amount is determined based on the accelerator operation amount acquired in step S170.
  • step S190 the acceleration suppression operation condition determination result is obtained as an acceleration suppression amount calculation unit. Output to 10J.
  • the preset value is set to an operation amount corresponding to 3% of the accelerator opening of the accelerator pedal 19, for example.
  • step S183 parking frame approach determination information is acquired.
  • the parking frame approach determination is performed based on the steering angle, the angle between the host vehicle MM and the parking frame, and the distance between the host vehicle MM and the parking frame.
  • the steering angle is acquired from the steering angle calculation unit 10C.
  • the angle ⁇ between the host vehicle MM and the parking frame L0 and the distance D between the host vehicle MM and the parking frame L0 are acquired based on the host vehicle surrounding image calculated by the surrounding environment recognition information calculation unit 10A.
  • the angle ⁇ between the host vehicle MM and the parking frame L0 is, for example, as shown in FIG.
  • the distance D between the host vehicle MM and the parking frame L0 is, for example, the distance between the center point of the front end surface of the host vehicle and the center point of the entrance L2 of the parking frame L0 as shown in FIG.
  • the distance D between the host vehicle MM and the parking frame L0 is a negative value after the front end surface of the host vehicle passes through the entrance L2 of the parking frame L0.
  • the distance D between the host vehicle MM and the parking frame L0 may be set to zero after the front end surface of the host vehicle passes through the entrance L2 of the parking frame L0.
  • the position on the own vehicle MM side for specifying the distance D need not be the center point of the front end surface of the own vehicle.
  • the distance between the position set in advance in the host vehicle MM and the position set in advance in the entrance L2 may be D.
  • the steering angle, the angle ⁇ between the host vehicle MM and the parking frame L0, and the distance D between the host vehicle MM and the parking frame L0 are acquired as the parking frame approach determination information.
  • step S186 a parking frame approach determination is performed based on the parking frame approach determination information acquired in step S183. If it is determined that the parking frame has entered, it is determined that the acceleration suppression operation condition is satisfied. On the other hand, when it is not determined that the parking frame has entered, it is determined that the acceleration suppression operation condition is not satisfied. Thereafter, the process proceeds to step S190, and the acceleration suppression operation condition determination result is output to the acceleration suppression amount calculation unit 10J.
  • the determination of the parking frame approach is performed as follows, for example. That is, in step S186, it is determined that the parking frame has entered when all of the following three conditions (ac) are satisfied.
  • the angle ⁇ of the parking frame L0 is equal to or less than a preset setting angle (eg, 40 [deg])
  • c a preset distance (eg, 3 [m]) where the distance D between the host vehicle MM and the parking frame L0 is preset
  • the determination may be performed based on one or more of the above conditions. Moreover, you may determine whether it is approaching to the parking frame L0 by the state of the vehicle speed of the own vehicle MM.
  • the acceleration suppression amount calculation unit 10J performs the processing shown in FIG. 15 at every preset sampling time.
  • step S210 an acceleration suppression operation condition determination result is acquired from the acceleration suppression operation condition determination unit 10I.
  • step S220 acceleration suppression process selection information is acquired.
  • step S220 for example, an accelerator operation amount is acquired from the accelerator operation amount calculation unit 10G, an accelerator operation speed is acquired from the accelerator operation speed calculation unit 10H, and an acceleration suppression operation condition determination result is acquired from the acceleration suppression operation condition determination unit 10I.
  • an acceleration suppression process is selected based on the acceleration suppression process selection information acquired in step S220.
  • step S240 when it is determined that the operating condition of the second acceleration suppression process is established, the process proceeds to step S240.
  • the process proceeds to step S250. Further, when the operating conditions of the second acceleration suppression process and the first acceleration suppression process are not satisfied, the process proceeds to step S260.
  • step S231 it is determined whether or not the second acceleration suppression process is operating during the determination process in the previous control cycle. If the second acceleration suppression process has been activated in the determination in the previous control cycle, the process proceeds to step S233. If the second acceleration suppression process has not been activated in the determination in the previous control cycle, the process proceeds to step S235.
  • step S233 it is determined whether or not the second acceleration suppression process has ended when the second acceleration suppression process has been operating last time. Specifically, if it is determined that the accelerator operation is being performed based on the accelerator operation amount acquired in step S220, it is determined that the second acceleration suppression operation is to be continued, and the process proceeds to step S240. On the other hand, if it is determined that the accelerator operation is not performed, the process proceeds to step S235 to perform the operating condition determination again.
  • step S235 the operating condition of the first acceleration suppression process is determined. For example, when the acceleration suppression operation condition determination result acquired in step S210 determines that the condition is satisfied, the operation condition of the first acceleration suppression process is determined to be satisfied, and the process proceeds to step S237. On the other hand, when the acceleration suppression operation condition determination result determines that the condition is not satisfied, the process proceeds to step S260.
  • step S237 the second acceleration suppression process operating condition is determined. For example, when all of the following conditions (d to f) are satisfied, it is determined that the second acceleration suppression process is to be performed, and the process proceeds to step S240. Otherwise, the process proceeds to step S250.
  • d The acceleration suppression operation condition determination result acquired in step S210 is satisfied.
  • e The accelerator operation amount acquired in step S220 is equal to or greater than a preset operation amount (for example, the accelerator opening is 50 [%]).
  • f Accelerator The operation speed is equal to or higher than a preset operation speed (for example, 200 [% / sec]).
  • step S240 in FIG. 15 the second acceleration suppression amount is calculated based on the information acquired in step S220, and the process proceeds to step S270. To do.
  • the calculation method of the second acceleration suppression amount is implemented as follows, for example. That is, based on the accelerator operation amount acquired in step S220, the acceleration suppression amount is calculated such that the acceleration suppression amount does not become larger than the preset suppression amount, and the process proceeds to step S270. Specifically, as shown in FIG. 17, for an acceleration operation amount less than a preset value, a throttle opening corresponding to the acceleration operation is calculated, and an acceleration operation (accelerator operation) greater than a preset value is performed. On the other hand, the acceleration suppression amount is calculated so that the acceleration throttle opening (acceleration command value) does not exceed 10 [%] regardless of the acceleration operation. In FIG.
  • the solid line indicates the accelerator operation amount and the throttle opening in the normal state, that is, in the state where the suppression is not performed.
  • a one-dot chain line indicates the relationship between the accelerator operation and the throttle opening when the second acceleration suppression is performed. That is, the difference between the solid line and the one-dot chain line in the detected accelerator operation amount becomes the second acceleration suppression amount.
  • step S250 the first acceleration suppression amount is calculated based on the information acquired in step S220, and the process proceeds to step S270.
  • a method for calculating the first acceleration suppression amount will be described.
  • the first acceleration suppression amount is calculated so that the throttle opening is increased according to the accelerator operation amount, and the process proceeds to step S270.
  • the throttle opening acceleration command value
  • the first acceleration suppression amount is an acceleration suppression amount that is smaller than the second acceleration suppression amount relative to the accelerator operation amount and greater in acceleration. Calculate the acceleration suppression amount so that In FIG.
  • the solid line indicates the accelerator operation amount and the throttle opening in the normal state, that is, in the state where the suppression is not performed.
  • a one-dot chain line indicates the relationship between the accelerator operation and the throttle opening when the second acceleration suppression is performed. That is, the difference between the solid line and the two-dot chain line in the detected accelerator operation amount is the first acceleration suppression amount.
  • the second acceleration suppression amount is larger than the first acceleration suppression amount.
  • both the first acceleration suppression amount and the second acceleration suppression amount are accelerators. It is set to increase as the operation amount increases.
  • step S260 an acceleration suppression amount that does not suppress acceleration with respect to the operation of the accelerator is calculated, and the process proceeds to step S270.
  • the acceleration suppression amount for which acceleration suppression is not performed is set to zero.
  • step S270 the acceleration suppression amount calculated in step S202 is output to the target throttle opening calculation unit 10K.
  • the target throttle opening calculation unit 10K performs the process shown in FIG. 19 at every preset sampling time.
  • step S310 an acceleration suppression operation condition determination result is acquired from the acceleration suppression operation condition determination unit 10I.
  • step S320 the accelerator operation amount is acquired from the accelerator operation amount calculation unit 10G.
  • step S330 an acceleration suppression amount is acquired from the acceleration suppression amount calculation unit 10J.
  • step S340 the target throttle opening is calculated based on the acceleration suppression operation condition determination result acquired in step S310, the accelerator operation amount acquired in step S320, and the acceleration suppression amount acquired in step S330.
  • the throttle opening based on the normal accelerator operation amount without acceleration suppression is set as the target throttle opening.
  • the throttle opening based on the acceleration suppression amount is set as the target throttle opening.
  • ⁇ 1 indicates the throttle opening corresponding to the accelerator operation amount
  • indicates the acceleration suppression amount.
  • the target throttle opening ⁇ * calculated in step S340 is output to the engine controller 16.
  • the engine controller 16 controls the engine that is a drive source by controlling the throttle opening so that the acquired target throttle opening ⁇ * is obtained.
  • FIG. 20 An example of a time chart by the processing of this embodiment is shown in FIG.
  • the parking frame approach operation detection processing is performed based on the angle ⁇ (condition b) between the host vehicle MM and the parking frame L0 and the distance D (condition c) between the host vehicle MM and the parking frame L0. It is an example which detects approach operation.
  • a parking frame L0 having a preset certainty (confidence) is detected (t1) and the vehicle speed is equal to or lower than a preset set speed (t2)
  • the parking frame L0 is moved to the parking frame L0. Determine the approach operation.
  • the parking frame determination is performed excluding (the edge line of the three-dimensional object).
  • a nearby structure a surface portion of a three-dimensional object
  • the edge of the reflected object is reflected as a line on the overhead view screen. Since such a line reflected on the road surface is a light beam that always faces the vehicle even when the vehicle moves, it is normally recognized as a radial line centered on the light receiving unit 1a of the camera on the overhead view image.
  • the edge line of a three-dimensional object extending vertically from the road surface is also recognized as a radial line on the overhead image. Based on such a thing, by removing the said radial line from a parking frame candidate, the misrecognition by a reflected line is suppressed and the precision of parking frame determination improves.
  • the edge line of the three-dimensional object is different from the case where the apparent line movement accompanying the movement of the vehicle is the movement of the line drawn on the road surface. This makes it possible to determine whether the line is a solid object.
  • the accuracy of parking frame determination can be improved by interpolating two lines that are halfway and broken in the middle with the same line.
  • a pair of lines Ls divided at the track position are continuous. This is detected as a continuous parting line in a line L5 of the overhead image as shown in FIG.
  • the line L5 is regarded as a single line, thereby avoiding individual lines from being individually handled as parking frame candidate lines.
  • the attribute with the non-candidate of a parking frame is added with respect to this line.
  • FIG. 29 there is a case where a railroad crossing obliquely crosses a track, but there is no problem because a pair of lines is detected as an intermittent line of an approximate length.
  • the example detected as a parking frame by the parking frame determination of this embodiment is shown in FIG.
  • the distance D (condition c) between the host vehicle MM and the parking frame L0 is equal to or smaller than the preset distance (t3), and the angle ⁇ between the host vehicle MM and the parking frame L0.
  • (Condition b) is equal to or less than a preset angle (t4)
  • t4 it is determined that the operation is to enter the parking frame L0, and the acceleration suppression is activated.
  • an acceleration command value (throttle opening) corresponding to the accelerator operation is suppressed.
  • the acceleration operation amount becomes equal to or larger than the preset operation amount in the state where the acceleration suppression is performed (t5), the acceleration command value suppression amount is increased.
  • the actual throttle opening is compared with that before the accelerator operation exceeds the preset operation. Is suppressed small. As a result, acceleration suppression against erroneous operation of the accelerator pedal 19 by the driver is executed more effectively.
  • FIG. 23 shows an example of transition of the throttle opening (acceleration command amount) of the acceleration suppression control according to the operation amount of the accelerator pedal.
  • the accelerator pedal is returned, and the acceleration suppression amount of the first acceleration suppression process is equal to the acceleration suppression amount of the second acceleration suppression process.
  • the process proceeds to the first acceleration suppression process.
  • it is possible to suppress acceleration by detecting an entry operation to the parking frame L0 having a certainty as a parking frame that is equal to or higher than a certainty factor set in advance, that is, detecting that the host vehicle MM enters the parking frame L0. Operating conditions.
  • acceleration suppression is not performed until an entry operation to the parking frame L0 is detected. I can do it. Furthermore, after performing the approach operation to the parking frame L0, it is possible to realize acceleration suppression with a high acceleration suppression effect when the accelerator pedal is erroneously operated by suppressing acceleration.
  • two-stage acceleration suppression is performed when an entry operation to the parking frame L0 is detected and when an acceleration operation is further performed to increase the possibility of an erroneous operation of the accelerator pedal.
  • acceleration suppression with a high acceleration suppression effect when the accelerator pedal is erroneously operated while suppressing a decrease in drivability.
  • the throttle opening is increased according to the acceleration operation amount, but acceleration is suppressed so that the throttle opening is smaller than usual. That is, by increasing the acceleration suppression amount as the acceleration operation amount increases, it becomes possible to perform acceleration suppression with a high acceleration suppression effect with little decrease in drivability. In a state where the acceleration operation is small, the acceleration suppression amount is small, so that the drivability is less decreased.
  • acceleration suppression is performed so that the throttle opening does not increase beyond a preset value (a predetermined amount greater than the acceleration operation amount determined to be the first acceleration state). I do.
  • a preset value a predetermined amount greater than the acceleration operation amount determined to be the first acceleration state.
  • acceleration suppression having a larger suppression amount than the acceleration suppression amount by the first acceleration suppression process is performed as the second acceleration suppression process.
  • the parking frame is determined from the vehicle speed of the host vehicle MM, the steering angle of the host vehicle MM, the angle ⁇ between the host vehicle MM and the parking frame L0, and the distance D between any point of the host vehicle MM and the entrance L2 of the parking frame L0.
  • the angle ⁇ formed by the traveling direction of the host vehicle MM and the parking direction to the parking frame L0 is set to the angle ⁇ between the host vehicle MM and the parking frame L0, so that the operation of entering the detected parking frame L0 is performed. It is possible to detect the progress (the certainty of entering the parking frame). As a result, it is possible to accurately determine that the vehicle is going to be parked in the parking frame L0 based on the detected value, and parking assistance with less reduction in drivability is possible.
  • the parking line level FLVL when the parking line level FLVL is 3 or more, the parking frame is present.
  • the parking line level FLVL may be 2 or more with a parking frame.
  • the start determination of acceleration suppression control is performed by binarization of parking frame approach presence or absence as parking frame approach determination by step S186.
  • the likelihood of entering the parking frame may be determined in a plurality of stages using the approach certainty factor ALVL indicating the certainty of entering the parking frame. And according to the approach certainty factor ALVL and the parking line level FLVL, you may change the content of the said acceleration suppression control.
  • the approach certainty level ALVL when there is a parking frame approach is divided into two stages of “low” and “high”, and a combination of the certainty level ALVL and the parking line level FLVL, as shown in FIG.
  • the total certainty TLVL of the parking assistance is calculated.
  • acceleration suppression is started when the accelerator opening is 50% or more, and a preset amount (the total certainty level TLVL is larger than “high”). Only the accelerator suppression is performed and the accelerator suppression notification process to the driver is performed.
  • the percentage of acceleration suppression execution conditions (accelerator opening) shown in FIG. 25 is an example.
  • acceleration suppression control was illustrated as braking / driving force control based on the detected parking frame.
  • the braking / driving force control based on the detected parking frame is not limited to this.
  • braking / driving force control for performing guidance support to the detected parking frame may be used.
  • the braking / driving force control based on the detected parking frame may be vehicle start control from the detected parking frame.
  • the line is detected based on the bird's-eye view image that has been converted to the bird's-eye view, but the line may be detected directly from the captured image before the bird's-eye view conversion.
  • the surrounding environment recognition information calculation unit 10A constitutes an imaging unit.
  • the acceleration suppression operation condition determination unit 10I, the acceleration suppression amount calculation unit 10J, and the target throttle opening calculation unit 10K constitute a braking / driving force control unit that performs acceleration suppression control.
  • Step S20 constitutes an overhead image acquisition unit.
  • Step S30 constitutes a line detection unit.
  • Step S40 constitutes a radial line detection unit, a solid object line detection unit, and a noise information determination unit.
  • Steps S52 to S90 constitute a parking frame estimation unit.
  • the wiper detection sensor 8 constitutes a road surface estimation unit.
  • the travel controller 10 converts the captured image captured by the imaging unit (camera) into a bird's-eye view image to obtain a bird's-eye view image.
  • the travel controller 10 detects a line located on the road surface from a captured image captured by the imaging unit.
  • the travel controller 10 extracts a radial line centered on the light receiving unit 1a of the imaging unit in the overhead view image.
  • the travel controller 10 adds noise information (radial line attribute FF) indicating that it is not a parking frame candidate to a line corresponding to the extracted radial line among the lines detected by the line detection unit.
  • the traveling controller 10 extracts a parking frame based on the detected line on the road surface and the noise information (radial line attribute FF).
  • the travel controller 10 controls the braking / driving force of the vehicle based on the extracted parking frame. For example, when the traveling controller 10 determines that the extracted parking frame is detected ahead of the traveling direction of the host vehicle, the traveling controller 10 performs acceleration reduction control.
  • a radial line centered on the light receiving unit 1a of the imaging unit is excluded from the candidate lines of the parking frame.
  • the line reflected from the road surface is recognized as the radial line in the overhead view image. For this reason, it can suppress that the line reflected on the road surface is determined as the line which comprises a parking frame by excluding the said line. As a result, the reliability of parking frame detection is improved, and the accuracy of driving assistance for parking can be improved.
  • the travel controller 10 performs acceleration suppression control of the vehicle based on the extracted parking frame. According to this configuration, when entering the parking frame, even if the brake pedal and the accelerator pedal are mistakenly pressed, acceleration of the host vehicle is suppressed. (3) The travel controller 10 excludes a line that has been recognized as a radial line continuously for a preset time from the line candidates that constitute the parking frame. According to this configuration, it is possible to detect a line corresponding to the reflected line more reliably. This improves the reliability of parking frame detection and improves the accuracy of driving support for parking. (4) When the traveling controller 10 estimates that the road surface is easy to reflect, the traveling controller 10 relaxes the determination condition for detecting the radial line. As a result, road reflection lines can be detected more reliably. This improves the reliability of parking frame detection and improves the accuracy of driving support for parking.
  • the travel controller 10 extracts a radial line from the overhead image at every preset time, and the line detected by the line detection unit is extracted as not a radial line by the radial line detection unit, Add non-radial line information to the line. And even if the noise information determination unit adds the noise information, the parking frame determination unit may add the line if the non-radial line information is added before the noise information is added. Parking frame determination processing is performed as a candidate line of the parking frame line. As a result, it is possible to prevent a line that is not a line reflected on the road surface from being mistaken as a line reflected on the road surface. (6) The travel controller 10 detects a line located on the road surface from the overhead image.
  • the travel controller 10 recognizes the environment around the host vehicle based on detection information (image information captured by the camera) of the surrounding environment recognition sensor.
  • the travel controller 10 detects the acceleration operation amount from the state of the acceleration operator (accelerator pedal) operated by the driver to give an acceleration instruction.
  • the travel controller 10 detects the state of the host vehicle MM.
  • the traveling controller 10 detects that the host vehicle MM enters the parking frame L0 based on the surrounding environment and the traveling state of the host vehicle MM.
  • the traveling controller 10 determines that the host vehicle MM enters the parking frame L0, the traveling controller 10 suppresses an acceleration command value (throttle opening) corresponding to the operation amount of the acceleration operator.
  • the travel controller 10 increases the suppression of the acceleration command value when detecting an acceleration operation that is equal to or greater than a preset acceleration operation amount while the acceleration command value is being suppressed.
  • the traveling controller 10 detects an acceleration operation equal to or greater than a preset acceleration operation amount while suppressing the acceleration command value, the travel control controller 10 suppresses the acceleration command value to be equal to or less than a preset upper limit acceleration command value. According to this configuration, even if the driver performs a large acceleration operation, the acceleration command value by the acceleration operation is suppressed so that the acceleration command value does not become larger than a preset value. It is possible to suppress acceleration that is not intended by the driver. As a result, parking in the parking frame L0 can be further supported.
  • the travel controller 10 detects at least one of the operation amount of the acceleration operator and the operation speed of the acceleration operator as the acceleration operation amount. According to this configuration, the operation amount of the accelerator pedal 19 and the operation speed of the accelerator pedal operation are detected as the acceleration operation amount. As a result, it is possible to more accurately distinguish between the erroneous operation of the acceleration operation and the normal operation. As a result, it is possible to realize acceleration suppression with a high acceleration suppression effect with little reduction in drivability.
  • the traveling controller 10 When detecting the parking frame L0, the traveling controller 10 detects the vehicle speed of the host vehicle MM or the steering angle of the host vehicle MM, the angle ⁇ between the host vehicle MM and the parking frame L0, and the entrance of the host vehicle MM and the parking frame L0. Based on the distance D of L2 and at least one information of the positional relationship between the predicted trajectory of the host vehicle MM and the parking frame L0, an approach operation to the parking frame L0 is detected, and the host vehicle MM is detected by the detected approach operation. Detects that the vehicle enters the parking frame L0.
  • the vehicle speed of the host vehicle MM, the steering angle of the host vehicle MM, the angle ⁇ between the host vehicle MM and the parking frame L0, the distance D between the host vehicle MM and the entrance L2 of the parking frame L0, and the prediction of the host vehicle MM By using at least one information of the positional relationship between the track and the parking frame L0, it can be determined whether the host vehicle MM is traveling past the detected parking frame L0 or is about to park in the parking frame L0. Can be distinguished. Thus, it becomes possible to detect the approach operation to the parking frame L0.
  • the travel controller 10 sets the angle ⁇ between the traveling direction of the host vehicle MM and the parking direction to the parking frame L0 as the angle ⁇ between the host vehicle MM and the parking frame L0, and An approach operation to the parking frame L0 is detected based on the angle ⁇ .
  • the angle ⁇ formed between the traveling direction of the host vehicle MM and the parking direction to the parking frame L0 is set to the angle ⁇ between the host vehicle MM and the parking frame L0, whereby the detected parking frame L0 is detected. It is possible to detect the progress of the entry operation. Therefore, it is possible to accurately determine whether or not the host vehicle MM is about to park in the parking frame L0 based on the detected value. As a result, it is possible to realize driving support with little reduction in drivability and high acceleration suppression effect.
  • Step S183 acquires the steering angle, the steering angular velocity, the vehicle speed of the host vehicle MM, the shift position, the parking frame line position, and the entrance position of the parking frame L0.
  • Step S186 of the present embodiment includes the processes of S186A to S186D as shown in FIG.
  • step S186A the predicted vehicle trajectory is calculated. For example, the predicted vehicle trajectory is calculated based on the steering angle, the steering angular velocity, and the shift position acquired in step S180A.
  • the traveling direction of the host vehicle MM is specified at the shift position, and the expected trajectory of the host vehicle MM is obtained based on the direction of the steered wheels specified by the current steering angle and steering angular velocity.
  • step S186B the predicted host vehicle track frame line overlap rate is calculated based on the host vehicle predicted track calculated in step S186A and the parking frame line position acquired in step S180A. For example, as shown in FIG. 31, the ratio of the area S0 occupied by the predicted vehicle trajectory S passing through the parking frame L0 to the area of the target parking frame L0 is calculated as the predicted vehicle trajectory frame line overlap rate. To do.
  • step S186C the host vehicle predicted track parking frame entrance overlap rate is calculated based on the host vehicle predicted track calculated in step S186A and the entrance position of the parking frame L0 acquired in step S180A. For example, as shown in FIG.
  • the ratio of the length of the portion H that overlaps with the host vehicle track in the length of one side of the frame line that becomes the entrance L2 of the parking frame L0 is calculated as the host vehicle expected track parking frame entrance. Calculate as the overlap rate.
  • the predicted trajectory is, for example, a range through which the rear wheel passes. It may be the range through which the front wheels pass.
  • step S186D the host vehicle parking frame approach determination is performed based on the host vehicle predicted track frame line overlap rate calculated in step S186B and the host vehicle predicted track parking frame entrance overlap rate calculated in step S186C. .
  • the host vehicle MM enters the parking frame L0 when the host vehicle predicted track frame line overlap rate is equal to or greater than a preset value and the host vehicle predicted track parking frame entrance overlap rate is equal to or greater than a preset value. to decide. Specifically, it is determined that the host vehicle MM enters the parking frame L0 when the host vehicle predicted track frame line overlap rate is 40% or more and the host vehicle predicted track parking frame entrance overlap rate is 30% or more. .
  • the approach reliability ALVL which shows the probability of approach to a parking frame in two or more steps by the said own vehicle estimated track frame line overlap rate.
  • the likelihood of entering the parking frame may be determined based on the degree of progress of how much the predicted trajectory in the center in the width direction between the left and right rear wheels enters the target parking frame. Other configurations are the same as those in the first embodiment.
  • FIG. 33 An example of a time chart according to the processing of this embodiment is shown in FIG.
  • the travel controller 10 detects an entry operation to the parking frame L0 based on the positional relationship between the predicted trajectory of the host vehicle MM and the parking frame L0.
  • t1 a parking frame L0 having a preset certainty (certainty)
  • t2 a parking frame L0 having a preset certainty (certainty)
  • an acceleration command value (throttle opening) corresponding to the accelerator operation is suppressed. Furthermore, when the acceleration operation amount is equal to or greater than the preset operation amount in the state where the acceleration suppression is performed (t8), the suppression amount of the acceleration command value is increased.
  • the actual throttle opening is compared with that before the accelerator operation exceeds the preset operation. Is suppressed small. As a result, acceleration suppression against erroneous operation of the accelerator pedal 19 by the driver is executed more effectively.
  • the parking operation can be detected more accurately by performing the parking frame approach determination based on the own vehicle predicted track frame line duplication rate and the own vehicle expected track parking frame entrance duplication rate, and more drivability can be detected. It is possible to realize a support system with a small decrease in the amount.
  • the travel controller 10 includes information on the steering angle of the host vehicle MM, the steering angular speed of the host vehicle MM, the vehicle speed of the host vehicle MM, and the shift position of the host vehicle MM, the frame line position of the parking frame L0, and the parking frame. Based on at least one piece of information on the entrance position of L0, the positional relationship between the predicted trajectory of the host vehicle MM and the parking frame L0 is detected, and parking is performed based on the positional relationship between the detected predicted trajectory of the host vehicle MM and the parking frame L0. An entry operation to the frame L0 is detected.
  • the expected trajectory of the host vehicle MM is obtained. I can do it. Then, the positional relationship between the predicted trajectory of the host vehicle MM and the parking frame L0 is detected from the obtained predicted trajectory of the host vehicle MM and at least one information of the frame line position of the parking frame L0 and the entrance position of the parking frame L0. Thereby, the approach operation to the parking frame L0 of the host vehicle MM can be detected with higher accuracy.
  • the travel controller 10 detects an entry operation to the parking frame L0 based on the degree of overlap between the predicted track of the host vehicle MM and the parking frame L0. Accordingly, it can be detected that the host vehicle MM is approaching the parking frame L0 as the degree of overlap is larger, and therefore, the entry operation of the host vehicle MM to the parking frame L0 can be detected with higher accuracy.
  • the travel controller 10 detects an entry operation to the parking frame L0 based on the degree of overlap between the predicted track of the host vehicle MM and the entrance L2 of the parking frame L0. Based on the degree of overlap, it can be detected that the host vehicle MM is moving toward the parking frame L0. As a result, the entry operation of the host vehicle MM into the parking frame L0 can be detected with higher accuracy.
  • Ambient environment recognition sensor (imaging unit) 1a Light receiving unit 8 Wiper detection sensor 10 Travel controller 10A Ambient environment recognition information calculation unit 10B Vehicle speed calculation unit 10C Steering angle calculation unit 10D Steering angular velocity calculation unit 10E Shift position calculation unit 10F Brake pedal operation information calculation unit 10G Accelerator operation amount Calculation unit 10H Acceleration operation speed calculation unit 10I Acceleration suppression operation condition determination unit 10J Acceleration suppression amount calculation unit 10K Target throttle opening calculation unit ALVL Approach reliability FLVL Parking line level TLVL Total reliability ARA1-4 Area FF used as a bird's-eye view image Radial Line attribute FR Three-dimensional object line attribute L0 Parking frame

Abstract

 駐車に対する運転支援の精度を向上させる。走行制御コントローラ(10)は、カメラ(1)が撮像した撮像画像から路面上に位置する線を検出する。また、上記撮像画像を俯瞰変換した俯瞰画像における上記カメラ(1)の受光部(1a)を中心とする放射状の線に基づき路面で反射した線と推定される線にノイズ情報を付加する。そして、上記路面上に位置する線と上記ノイズ情報とに基づき駐車枠を抽出し、その抽出した駐車枠に基づき車両の制駆動力を制御する。

Description

運転支援装置及び運転支援方法
 本発明は、駐車のための車両運転を支援する運転支援の技術に関する。
 乗物の速度を制御する運転支援装置としては、例えば特許文献1に記載の安全装置がある。この安全装置では、ナビゲーション装置の地図データと現在位置の情報から、乗物が道路から外れた位置にあることを検出する。そして、上記安全装置は、乗物の走行速度を増加させる方向のアクセル操作があり且つ乗物の走行速度が所定の値より大きいと判断したときは、アクセルの実際の操作に拘わらずスロットルを減速方向に制御する。
特開2003-137001号公報
 上記特許文献1では、地図情報に基づき自車両が道路から外れた位置にあり且つ所定値以上の走行速度を検出している場合でのアクセル踏込み操作を、アクセル誤操作の可能性があるとしている。そのため、上記条件をスロットル抑制の作動条件としている。
 しかし、上述の作動条件では、道路から外れて駐車場に進入するだけで、車速によってはスロットル抑制が作動してしまい、駐車場内での運転性を悪化させてしまう。
 本発明は、上記のような点に着目してなされたもので、駐車に対する運転支援の精度を向上させることを目的とする。
 上記課題を解決するために、本発明の一態様は、撮像部が撮像した撮像画像から路面上に位置する線を検出する。また、上記撮像画像を俯瞰変換した俯瞰画像における上記撮像部の受光部を中心とする放射状の線に基づき路面で反射した線と推定される線にノイズ情報を付加する。そして、上記路面上に位置する線と上記ノイズ情報とに基づき駐車枠を抽出し、その抽出した駐車枠に基づき、運転者が加速指示するために操作する加速操作子の加速操作量に応じて自車両に発生させる加速度を低減制御する。
 本発明の一態様によれば、路面で反射した線を駐車枠を構成する線と判定されることを抑制出来る。この結果、駐車枠検出の信頼性が向上して、駐車に対する運転支援の精度を向上させることが可能となる。
本発明に基づく実施形態に係る車両の構成を示す概念図である。 本発明に基づく実施形態に係る走行制御コントローラの構成を説明するための図である。 カメラによる撮像の例を示す斜視図である。 車両周囲の撮像領域の例を示す平面図である。 周囲環境認識情報演算部の処理を示す図である。 カメラで撮像した撮像画像のうちの俯瞰変換する部分を示す概念平面図である。 図6の画像を俯瞰画像に変換した状態を示す概念平面図である。 取得する俯瞰画像の連続したフレーム位置を示す図である。 放射状線の検出を説明する図である。 放射状線を説明する図である。 放射状線の判定を説明する図である。 立体物の線の判定を説明する図である。 加速抑制作動条件判断部の処理を説明するための図である。 自車両と駐車枠、自車両と駐車枠との距離を説明する図である。 加速抑制量演算部の処理を説明する図である。 ステップS230の処理の具体例を示す図である。 第2加速抑制量の例を示す図である。 第1加速抑制量の例を説明する図である。 目標スロットル開度演算部の処理を説明する図である。 第1実施形態におけるタイムチャート例を示す図である。 立体物の線の俯瞰画像でのフレーム間の移動例を示す図である。 本実施形態で検出する駐車枠の例を示す図である。 アクセル操作量に応じた加速抑制量の遷移を示す図である。 総合確信度TLVLを求め方を説明する図である。 図24の総合確信度TLVLを使用した駐車支援制御を説明する図である。 踏切関連表示線に対応する線を検出する処理例を説明する図である。 踏切に表示されている踏切関連表示線を示す概要模式図である。 俯瞰画像から検出した踏切関連表示線に対応する線の例示を示す図である。 踏切に表示されている踏切関連表示線を示す他の例の概要模式図である。 本発明に基づく第2実施形態に係るステップS186の処理を説明する図である。 自車両予想軌道枠線重複量を説明する図である。 自車両予想軌道駐車枠入り口重複率を説明する図である。 第2実施形態におけるタイムチャート例を示す図である。
 以下、本発明の実施形態について、図面を参照しながら詳細に説明する。
「第1実施形態」
 (構成)
 車両は、制動力を発生する制動装置、及び駆動力を発生する駆動装置を備える。
 制動装置は、図1に示すように、車輪11に設けられるブレーキ装置12と、その各ブレーキ装置12に接続する配管を含む流体圧回路13と、ブレーキコントローラ14とを備える。ブレーキコントローラ14は、上記流体圧回路13を介して各ブレーキ装置12で発生する制動力を、制動力指令値に応じた値に制御する。ブレーキ装置12は、流体圧で制動力を付与する装置に限定されず、電動ブレーキ装置等であっても良い。
 駆動装置は、図1に示すように、駆動源としてのエンジン15と、エンジン15で発生するトルク(駆動力)を制御するエンジンコントローラ16とを備える。駆動装置の駆動源は、エンジン15に限定されず、電動モータであっても良いし、エンジン15とモータを組み合わせたハイブリッド構成であっても良い。
 上記ブレーキコントローラ14とエンジンコントローラ16は、それぞれ上位コントローラである走行制御コントローラ10からの制動指令、駆動指令(加速指令値)の各指令値を受け付ける構成とする。ブレーキコントローラ14とエンジンコントローラ16は、加減速制御装置を構成する。
 また車両は、図1及び図2に示すように、周囲環境認識センサ1と、車輪速センサ2と、操舵角センサ3と、シフトポジションセンサ4と、ブレーキ操作検出センサ5と、アクセル操作検出センサ6と、ナビゲーション装置7と、ワイパー検出センサ8を備える。また、車両は、走行制御コントローラ10を備える。
 周囲環境認識センサ1は、自車両MM周囲の障害物や路面を認識し、認識した周囲の状態を走行制御コントローラ10に出力する。本実施形態の周囲環境認識センサ1は、車両周囲を撮像可能な1又は2台以上のカメラから構成される。カメラ1は例えばサイドミラーの位置や、車両の前部、後部、屋根部などに設けられる。各カメラ1は、予め設定した撮像間隔時間毎に車両周囲を撮像して撮像画像を取得する。
 本実施形態では、図3に示すように、前後左右の4箇所に周囲環境認識センサ1としてのカメラをそれぞれ配置している。そして、図4に示すように、車両周囲の領域をARA1~ARA4に4分割し、各カメラ1でそれぞれの領域ARA1~ARA4を撮像するようにしている。各カメラ1での撮像領域は重複部分が存在していても良い。また車両遠方(例えば100mまで)を撮像するための個別のカメラを備えていても良い。なお、撮像画像は、カメラ1で撮像した全領域の画像である必要は無く、カメラ1が撮像した映像から切り出した画像であっても良い。
 ここで、本実施形態では、自車両MMの進行方向前方の領域を、駐車枠を検出する情報を取得する領域としている。以下の説明では、例示として、自車両前方の領域ARA1を撮像した撮像画像に基づき駐車枠を検出する場合で説明する。車両後退によって駐車枠に進入する場合には、領域ARA2の撮像画像を使用して駐車枠を検出する。
 車輪速センサ2は、車輪速を検出し、検出した車輪速情報を走行制御コントローラ10に出力する。車輪速センサ2は、例えば車輪速パルスを計測するロータリエンコーダなどのパルス発生器で構成する。
 操舵角センサ3は、ステアリングホイール20の操舵角を検出し、検出した操舵角情報を走行制御コントローラ10に出力する。操舵角センサ3は、ステアリング軸などに設けられる。操向輪の転舵角を操舵角情報として検出しても良い。
 シフトポジションセンサ4は、シフト位置(駆動指示位置、駐車指示位置、ニュートラル位置など)のシフト情報を検出し、検出信号を走行制御コントローラ10に出力する。
 ブレーキ操作検出センサ5は、ブレーキペダル18の操作の有無や操作量を検出する。検出されたブレーキペダル操作量は走行制御コントローラ10に出力される。ブレーキペダル18は、運転者が操作する減速指示用の操作子である。
 アクセル操作検出センサ6は、アクセルペダル19の操作量を検出する。検出されたアクセルペダル操作量は走行制御コントローラ10に出力される。アクセルペダル19は運転者が操作する加速指示用の操作子である
 ナビゲーション装置7は、GPS受信機、地図データベース、および表示モニタ等を備えており、経路探索および経路案内等を行う装置である。ナビゲーション装置7は、GPS受信機を通じて得られる自車両MMの現在位置と地図データベースに格納された道路情報に基づいて、自車両MMが走行する道路の種別や道路幅員等の情報を取得することができる。
 ワイパー検出センサ8は、ワイパーの作動を検出する。検出されたワイパーの作動情報は走行制御コントローラ10に出力される。
 情報呈示装置は、走行制御コントローラ10からの制御信号に応じて警報その他の呈示を音声や画像によって出力する。情報呈示装置は、例えば、ブザー音や音声により運転者への情報提供を行うスピーカと、画像やテキストの表示により情報提供を行う表示ユニットとを備える。表示ユニットは、例えばナビゲーション装置7の表示モニタを流用しても良い。
 走行制御コントローラ10は、CPUと、ROMおよびRAM等のCPU周辺部品とから構成される電子制御ユニットである。その走行制御コントローラ10は、駐車のための運転支援処理を行う駐車運転支援部を備える。走行制御コントローラ10の処理のうち駐車運転支援部は、機能的には、図2に示すように、周囲環境認識情報演算部10A、自車両車速演算部10B、操舵角演算部10C、操舵角速度演算部10D、シフトポジション演算部10E、ブレーキペダル操作情報演算部10F、アクセル操作量演算部10G、アクセル操作速度演算部10H、加速抑制作動条件判断部10I、加速抑制量演算部10J、及び目標スロットル開度演算部10Kの処理を備える。これらの機能は、1又は2以上のプログラムで構成される。
 周囲環境認識情報演算部10Aは、周囲環境認識センサ1が撮像した撮像画像に基づき車両周囲の路面環境を認識する。
 自車両車速演算部10Bは、車輪速センサ2からの信号に基づき車速を演算する。
 操舵角演算部10Cは、操舵角センサ3からの信号に基づき操舵角を演算する。
 操舵角速度演算部10Dは、操作角センサからの信号を微分処理することで操舵角速度を演算する。
 シフトポジション演算部10Eは、シフトポジションセンサ4からの信号に基づき、シフト位置を判定する。
 ブレーキペダル操作情報演算部10Fは、ブレーキ操作検出センサ5からの信号に基づきブレーキ操作量を判定する。
 アクセル操作量演算部10Gは、アクセル操作検出センサ6からの信号に基づきアクセルペダル19の操作量を演算する。
 アクセル操作速度演算部10Hは、アクセル操作検出センサ6からの信号を微分処理することでアクセルペダル19の操作速度を演算する。
 加速抑制作動条件判断部10Iは、周囲環境認識情報演算部10Aからの路面環境情報に基づき、車両の制駆動力制御に対する加速抑制作動条件の判断を行う。
 次に、上記周囲環境認識情報演算部10Aの処理について、図5を参照しながら説明する。周囲環境認識情報演算部10Aは、図5に示す処理を予め設定したサンプリング時間毎に行う。
 周囲環境認識情報演算部10Aは、ステップS10にて、周囲環境認識センサ1が撮像した撮像画像を取得する。本実施形態では、図6に示すように、自車両進行方向の領域ARA1を撮像した撮像画像を使用する。
 次に、ステップS20にて、ステップS10で取得した撮像画像を俯瞰変換して俯瞰画像を取得する。
 なお、俯瞰画像の取得は、例えば、取得した撮像画像から、自車周囲に予め設定した俯瞰エリアとする部分の画像部分を切り出し(図6参照)、その切り出した画像を俯瞰変換して、図7に示すような俯瞰画像を得る。撮像画像では、遠方の領域の物体ほど小さく映ることから、平行な線であっても、図6のように非平行線として映っている。これを俯瞰変換することで、図7に示すように、俯瞰画像上では平行な線として検出される。なお、俯瞰変換は、各カメラが撮像した撮像画像毎に、そのカメラが担当する俯瞰エリア部分の画像を俯瞰変換して俯瞰画像を取得するようにしても良い。
 ここで、俯瞰画像は、真上から見下ろす位置に設置したと仮定した仮想的なカメラから路面環境を見た画像である。俯瞰変換処理は、幾何変換などの公知の変換手法を採用すれば良い。そして、俯瞰変換は、画像の視点を上方から下方に向けた方向に画像の座標変換を行う。
 次に、ステップS30にて、俯瞰画像上に存在する線を検出する。具体的には、ステップS20で取得した俯瞰画像のうち、自車両の進行方向に沿った方向の路面の俯瞰画像部分(以下、路面俯瞰画像とも呼ぶ。)に対して線の抽出を行うための画像処理を行う。画像処理は、路面俯瞰画像に対してエッジ処理等の公知の線検出処理を行って当該路面俯瞰画像上に存在する線を検出する。本実施形態では車両前方を車両の進行方向とした場合を例示している。
 ここで、図8に示すように、自車両の移動に伴い、順次取得する路面俯瞰画像には、車両進行方向前方の路面が順次映り出される。そして、順次取得する路面俯瞰画像の線のうち、画像のウィンドウ領域外に延びる線(車両進行方向に延びていると推定される線)についてはトラッキングを行う。すなわち、異なる路面俯瞰画像間における線の照合処理を行い、順次取得する路面俯瞰画像間における線について、同一の線か否かの判定を行っている。
 次に、ステップS40では、検出した線に対する属性付与処理を行う。
 上記属性付与処理を次に説明する。
 検出した各線に対して、下記のような属性に該当するか判定し、該当する場合には、その属性を検出した線に対して付与する。各属性毎に付与判定を行う。
 付与する属性の一例を次に示す。
 ・放射状線(カメラの受光部1aを中心として放射状に延びる線)
 ・立体物線(立体物を示す線)
 ・輝度対称性(検出した線の幅方向両端部の輝度の対称性)
 ・路面との輝度差
 ・左右輝度差(検出した線の幅方向両端部外側の輝度の対称性)
 ・固着物(長)(汚れによって線が分断された端点発生:分断が長い場合)
 ・固着物(短)(汚れによって線が分断された端点発生:分断が短い場合)
 ・固着物(レンズ)(レンジへの付着物によってエッジ発生)
 ここでは、属性付与処理部の処理として、放射状の線(放射状線とも呼ぶ)及び立体物線の属性処理について説明する。
 まず、放射状線の属性付与の処理について図9を参照しつつ説明する。
 ここで、直前に処理した俯瞰画面と今回処理した俯瞰画面が同じと判定した場合には、次の放射状線の属性付与の処理は実施しないようにしても良い。直前の俯瞰画面と今回の俯瞰画面とが同じ場合とは、車両が停止している場合、実質車両が停止していると見なせる場合である。すなわち、例えば車両移動が実質止まっていると推定される速度か否かで、直前に処理した俯瞰画面と今回処理した俯瞰画面が同じか判定可能である。
 放射状線の属性付与の処理は、まず、俯瞰画像において、現在の路面俯瞰画像上の線のうち、図10に示すように、その画像を撮像したカメラ1の撮像中心1a(受光部1a)を中心とする放射状の線L3を検出する(ステップS41a)。
 このとき、撮像誤差を考慮して、放射状の線か否かは次のように判定する。すなわち、図11のように、路面俯瞰画像上における線の上端点と上記撮像中心とを結ぶ直線との差が予め設定した放射状線判定閾値角θ以内の場合には、上記放射状の線L3と判定する。上記撮像誤差は、車両挙動変化(ピッチングなど)によって発生する。
 ここで、上記対象とする線が初めて検出された線の場合には、放射状線判定閾値角θとしてオン閾値角(例えば±5度)を採用し、既に検出されている線の場合には、放射状線判定閾値角θとして上記オン閾値角よりも広いオフ閾値角(例えば±7度)を採用する。
 また、自車両周囲の路面が反射し易いか否かを判定し、反射が起こり易い路面状態の場合には、放射状線判定閾値角θとして、上述のような初期値の角度よりも大きな角度を使用する。若しくは、連続照合判定(後述のステップS65)のカウントnの閾値として小さな値を使用する。例えば、オン閾値角(例えば±7度)、オフ閾値角(例えば±8度)とする。
 反射が起こり易い路面状態とは、例えば次のようなものが例示出来る。
 ・降雨、降雪などでワイパー作動時(例えばワイパー検出センサ8からの信号で判定できる)。
 ・μが低くなっている(例えばスリップ量で判定出来る)。
 ・太陽光がレンズに入射している(例えば画像の輝度で判定できる)。
 次に、放射状の線と判定した線L3が、今回の路面俯瞰画像で初めて検出した線か判定し(ステップSS41b)、今回初めて検出した線の場合には、当該線L3に放射状線の属性FF(1)の属性を付与する(ステップS41c)。ここで、放射状線属性FF(n)のnは放射状線と判定される度にカウントアップされる。
 一方、放射状線と判定した線L3が、直前の路面俯瞰画像でも検出されていると判定した場合には、その線L3に放射状線属性FF(n)が付与されているか判定し(ステップS41d)、付与されていると判定した場合には、放射状線の属性FF(n)のカウンタ値nをカウントアップする。すなわち当該線に放射状線FF(n+1)の属性を付与する(ステップS41e)。
 ここで、図9に示すステップS41b~S41eの処理を、後述のステップS50で実施しても良い。この場合には、ステップS40では、放射状線と判定されれば、常に放射状線の属性付与し、ステップS50では、過去に非放射状線と判定された線か否かを判定して、過去に非放射状線と判定していた場合には、放射状線の属性付与の情報を無視して駐車枠判定を行う。若しくは放射状線の属性をOFFとする。またステップS55の処理にて、予め設定した継続時間以上、同一の線が連続して放射状線と判定されたか判定することとなる。
 また、連続して放射状線(n)の属性と判定された線L3に対し、その線L3が映っている2枚の路面俯瞰画像での当該線L3の位置間の差分(線状の特定の位置での差分)と、車両運動の情報とに基づき、車両運動に沿ってその線が立体物のエッジとして移動していると判定すると、その線に対し立体物線の属性FRも付与する。
 また、連続して放射状線(n)の属性と判定された線に対し、その線が映っている2枚の路面俯瞰画像での当該線の位置間の差分(線状の特定の位置での差分)と、車両運動の情報とに基づき、車両運動に沿ってその線が路面上の表示として移動していると判定すると、その線に対し放射状線として見なさない処理を追加しても良い。
 次に、立体物線の属性付与処理について図12を参照して説明する。
 連続して取得する路面俯瞰画像に基づき、線の両端部のうち少なくとも上端若しくは下端が検出できた線について、その検出した端部を基準として特定される当該線上の2点をトラッキングする点として選定し(ステップS42a)、車両の移動に伴う当該2点の各移動量を算出する(ステップS42b)。移動量は、自車両の移動に伴い取得した2つの俯瞰画像間での上記2点の変位量を上記各移動量とすればよい。そして、その2点の移動量の関係が車両の移動に伴う立体物に沿った移動と判定し(ステップS42c)、その判定条件を満足した場合には、当該線に対して立体物線の属性FR=1を付与する(ステップS42d)。上記立体物は、静止した車両や壁などの静止物とする。上記トラッキングする2点の移動量の関係が、例えば自車両に近い側の点(下側の点)の移動量が相対的に遠い点(上側の点)の移動量よりも小さい場合に、立体物の線と判定する。立体物の線は、通常は、立体物のエッジ部分の線である。
 ここで、立体物線の属性を付与した線を検出した場合には、路面俯瞰画像において、立体物線の属性FRが付加された線とカメラの受光部1aとの間にある立体物線の属性FRが付加されていない線を検出し、その検出した線のうち、上記立体物の属性FRが付加された線との離隔距離が予め設定した設定離隔距離(例えば1m)以内の線があった場合には、その線に対して優先枠候補の属性PRRを付与する。なお、予め設定した距離内で複数の立体物線が存在するか判定を行い、その複数の立体物線から立体物の存在位置を推定し、その推定した立体物における車両側の位置におけるその推定した立体物との離隔距離が予め設定した設定離隔距離以内の線に対して、優先枠候補の属性PRRを付与することにしても良い。この処理はステップS40やステップS50などで実施すればよい。
 次に図5に示されるステップS50では、駐車枠認定の前処理として、放射状線FF(n)(n:例えばn=3以上)の属性、若しくは立体状線の属性FRが付与されている線を、枠線候補の線から除外する。
 次に、ステップS52では、線の補間処理を行う。これは線のかすれを補間する処理である。すなわち、同一の仮想の直線上に沿って検出された複数の線、つまり同一線の可能性がある線同士の補間処理を行う。
 この線の補間処理を、図26を参照しつつ説明する。
 まず、同一仮想線上に沿って互いに隣り合う2本の線の間の空白の長さ(途切れ長さとも呼ぶ。)が予め設定した補間長さ以下か判定し(ステップS410)、途切れ長さが補間長さ以下の場合には、線の補間を行ってその2本の線の一本の線と見なす処理を行う(ステップS420)。補間長さは、踏切における線路幅(線路を通過する車輪分の余裕代を含む。)よりも短い値に設定する。補間長さは例えば20cmに設定する。
 また、上記途切れ長さが上記補間長さを超える線間について、次のように処理を行う。
 まず上記途切れ長さが予め設定した最大補間長さ(例えば1m)を超えるか判定して(ステップS430)、最大補間長さをこえ場合には、補間処理を行わない。すなわち別の線として処理する。
 一方、途切れ長さが20cmより長く且つ最大補間長さ以内の線間について、次のような補間処理の適否の判断を行う。
 すなわち、上記空白を構成する2本の線の少なくとも一方の線が駐車線レベルFLVLが1以上の線か否かを判定する(ステップS440)。駐車線レベルFLVLが1以上の線でない場合には補間しない。
 次に、駐車線レベルFLVLが1以上の線、つまり対を成す枠線候補の線が検出されている場合には、上記空白を構成する2本の線のうちの両端が分かる側の線(検討線と呼ぶ。)について、その線と対(ペア)をなすペア線との比較を行う。上記検討線は、通常は先に検出された線である。
 そして、検討線とペア線の長さが近似しており(ステップS450)、上記ペア線側の長手方向で隣り合う線と線との間の途切れ長さが、上記検討線側の途切れ長さと近似している場合には(ステップS460)、両方の線の補間を行ってその2本の線の一本の線と見なす処理を行うと共に非枠線候補の情報を当該線に付加する(ステップS470)。検討線とペア線の長さが近似とは実質同じ長さと見なせる場合であって、例えば検討線とペア線との長さの差が予め設定した閾値以下の場合に近似と判定する。上記途切れ長さが近似とは、途切れ長さが実質同じ長さと見なせる場合であって、例えば途切れ長さの差が予め設定した閾値以下の場合に近似と判定する。
 次に、ステップS55では、上記連続して取得する路面俯瞰画像の処理で検出されている線に対して、枠線候補の線か否かの処理を行う。
 ここでは、下記に示すような予め設定した駐車枠条件を満足するか否かで判定する。枠線候補の線か否かの処理は、例えば、自車両に対して予め設定した駐車枠存在判定領域(例えば自車両を中心とした半径10m以内の領域)に位置する線に対して行う。
 すなわち、ステップS55では、下記の駐車枠線条件の全てを満足する場合に駐車枠線候補の線と判定する。駐車枠候補の線と判定した場合には、ステップS60にて、その線の属性情報としての駐車線レベルFLVLに「1(n)」を設定する。なお、駐車線レベルFLVLの初期値は「0」とする。またLVL1(n)のnは、初めて駐車枠線候補と判定された場合にn=1となり、駐車枠線候補と判定される度にカウントアップさせる。逆に一度、駐車線レベルFLVLが「1(n)」と判定された線について、駐車枠線条件を満足しないと判定される度にカウントダウンさせる。
 「駐車枠線条件」
 ・線が直線と推定される線である。
 ・線幅が予め設定した線の範囲(駐車枠の線と見なされる線の太さの範囲、例えば2cm~4cm)である。
 ・予め設定した離隔範囲(駐車枠の対となる線と見なすことができる範囲、例えば1.5m~2.5m))に対となる線が存在する。
 ・対となる線同士の平行度が予め設定した許容角度以内(例えば4度以内)となっている。
 ・対となる線の対応する端部が検出されている場合に、その両方の端点における線の延長方向のズレ量が予め設定したズレ量(例えば50cm)以下である。
 ・対となる線同士の線幅寸法の差が予め設定した値(例えば8mm)以下である。
 ・線の長さが予め設定した最大長(例えば9m)以下である。
 ・非枠線候補の情報を有しない線である。
 ここで、駐車枠の線として検出する線は、車両を駐車した場合における当該車の前後方向に沿った方向の線(駐車時に車両の側方に存在する線)と推定される線である。尚、線幅を確認しているので、線の端部の形状などは検出可能である。
 ここで、対象とする線が優先枠候補の属性PRRを有する場合には、下記の駐車枠線条件の条件を緩和して駐車枠線候補か否かを判定する。緩和とは、例えば下記設定される値を広めにして判定する。例えば上記平行度の許容角度を例えば6度以内などにして判定する。
 次に、ステップS65では、駐車線レベルFLVLが「1(n)」の線について、変数nが予め設定した閾値以上(例えば、サンプリング周期100msecでn=3以上)か否かを判定する。そして、上記線がその条件を満足する場合には、ステップS70にて、上記予め設定した閾値以上の線について、駐車線レベルFLVLを2に設定変更する。予め設定した閾値は、例えば線の長さとして予め設定した長さ(例えば2m)以上検出可能な値に設定する。ここで、カウンタnの大きさで判定する代わりに、線の長さが予め設定した長さ以上まで検出したか否かで判定し、線の長さが予め設定した長さ(例えば2m)以上まで検出できたと推定された線であって駐車線レベルFLVLが「1(n)」の場合に、駐車線レベルFLVLを2に設定変更するようにしても良い。または車両の移動距離が予め設定した設定移動距離の間、同一の直線と判定した場合に、駐車線レベルFLVLが「1(n)」の線を、駐車線レベルFLVL2に設定変更するようにしても良い。
 なお、線の長さが予め設定した最大長さ(例えば9m)以上の場合には、駐車線レベルFLVLのレベルに関係無く、駐車線レベルFLVLを「0」に強制的に変更する。
 次に、ステップS75では、駐車線レベルFLVLが2の線について、その両端部の一方が検出されている場合にはステップS80に移行して、当該ステップS80にて駐車線レベルFLVLを3に変更する。
 ここで、端部の検出は、端部形状が予め設定した特定形状の場合のみ端部と認定するようにしても良い。特定形状の例は、単なる線の端部、U字状、T字状の端部形状などである。
 次に、ステップS85では、駐車線レベルFLVLが3の線について、その両端部がともに検出されている場合には、ステップS90に移行し、当該ステップS90にて駐車線レベルFLVLを4に変更する。
 次に、加速抑制作動条件判断部10Iの処理について、図面を参照しながら説明する。加速抑制作動条件判断部10Iは、図13に示す処理を予め設定したサンプリング時間毎に行う。
 ステップS110では、加速抑制作動条件判断部10Iは、上記周囲環境認識情報演算部10Aで演算した路面環境認識情報として駐車線レベルFLVLが1以上の枠線情報を取得する。
 次にステップS120では、上記ステップS110で取得した枠線情報に基づいて、駐車枠の有無を判断する。駐車線レベルFLVLが3以上の枠線情報がある場合には駐車枠が有ると判断してステップS130に移行する。一方、駐車線レベルFLVLが3以上の枠線情報が無いため、信頼性の高い駐車枠が無いと判断した場合には、加速抑制作動条件非成立と判断してステップS190に移行し、ステップS190において、加速抑制作動条件判断結果(=加速抑制作動条件非成立)を加速度制限値演算部に出力する。
 次にステップS130では、上記自車両車速演算部10Bより自車両MMの車速を取得する。
 次にステップS140では、上記ステップS130で取得した自車両車速に基づいて、自車両車速条件判断を行う。例えば自車両車速が予め設定した値未満の場合にはステップS150に移行し、自車両車速が上記予め設定した値以上の場合には、加速抑制作動条件非成立と判断してステップS190に移行し、ステップS190にて加速抑制作動条件判断結果(=加速抑制作動条件非成立)を加速抑制量演算部10Jに出力する。上記予め設定した値は、例えば15[km/h]とする。
 次にステップS150では、上記ブレーキペダル操作情報演算部10Fから、ブレーキペダル操作情報を取得する。
 次にステップS160では、上記ステップS150で取得したブレーキペダル操作情報に基づいて、ブレーキペダル操作の判断を行う。ブレーキペダル操作がないと判断した場合にはステップS170に移行する。一方、ブレーキペダル操作があると判断した場合には、加速抑制作動条件非成立と判断してステップS190に移行し、ステップS190にて、加速抑制作動条件判断結果(=加速抑制作動条件非成立)を加速抑制量演算部10Jに出力する。
 ステップS170では、上記アクセル操作量演算部10Gから、アクセル操作量を取得する。
 次にステップS180では、上記ステップS170で取得したアクセル操作量に基づいて、アクセル操作量判断を行う。例えばアクセル操作量が予め設定した値以上の場合は加速抑制作動条件成立と判断する。一方、アクセルペダル操作が上記予め設定した値未満の場合には、加速抑制作動条件非成立と判断してステップS190に移行し、ステップS190にて、加速抑制作動条件判断結果を加速抑制量演算部10Jに出力する。ここで、上記予め設定した値は、例えば、アクセルペダル19のアクセル開度の3[%]に相当する操作量に設定する。
 次にステップS183では、駐車枠進入判断情報を取得する。ここで、本実施形態では、操舵角と、自車両MMと駐車枠の角度と、自車両MMと駐車枠の距離と、に基づいて駐車枠進入判断を行う場合とする。
 具体的には、上記ステップS183では、上記操舵角演算部10Cから操舵角を取得する。またステップS183では、上記周囲環境認識情報演算部10Aが演算した自車両周囲画像に基づき、自車両MMと駐車枠L0の角度α、自車両MMと駐車枠L0の距離Dを取得する。ここで、上記自車両MMと駐車枠L0の角度αは、例えば、図14に示すように、車両の中心を通る車両の前後方向の直線(進行方向に延びる直線)Xと、駐車枠L0に駐車が完了した際に車両の前後方向と平行若しくは略平行になる駐車枠L0部分の枠線L1及びその延長線からなる駐車枠L0側の線との交角の絶対値とする。また、上記自車両MMと駐車枠L0の距離Dは、例えば、図14に示すように、自車両前端面の中心点と駐車枠L0の入り口L2の中心点との距離とする。但し、上記自車両MMと駐車枠L0の距離Dは、自車両前端面が駐車枠L0の入り口L2を通過した後は、負の値とする。上記自車両MMと駐車枠L0の距離Dは、自車両前端面が駐車枠L0の入り口L2を通過した後は、ゼロに設定しても良い。
 ここで、上記距離Dを特定するための自車両MM側の位置は、自車両前端面の中心点出ある必要はない。自車両MMに予め設定した位置と、上記入り口L2の予め設定した位置との距離をDとすれば良い。
 このように、ステップS183では、駐車枠進入判断情報として、操舵角、自車両MMと駐車枠L0の角度α、及び自車両MMと駐車枠L0の距離Dを取得する。
 次にステップS186では、上記ステップS183で取得した駐車枠進入判断情報に基づいて、駐車枠進入判断を行う。駐車枠進入と判断した場合には、加速抑制作動条件成立と判断する。一方、駐車枠進入と判断しなかった場合には、加速抑制作動条件非成立と判断する。その後、ステップS190に移行し、加速抑制作動条件判断結果を加速抑制量演算部10Jに出力する。
 上記駐車枠進入の判断は、例えば次のようにして実施する。すなわち、ステップS186では、次の3つの条件(a~c)を全て満足した場合に駐車枠進入と判断する。
 a:上記ステップS183で検出した操舵角が予め設定した設定舵角値(例えば45[deg])以上の値となってから予め設定した設定時間(例えば20[sec])以内
 b:自車両MMと駐車枠L0の角度αが予め設定した設定角度(例えば40[deg])以下
 c:自車両MMと駐車枠L0の距離Dが予め設定した設定距離(例えば3[m])
 ここでは、駐車枠進入判断に複数の条件を使用した場合を例示したが、上記条件の中の1つ以上の条件で判断を行っても良い。また自車両MMの車速の状態によって駐車枠L0への進入か否かを判定しても良い。
 次に、上記加速抑制量演算部10Jの処理について、図面を参照しながら説明する。加速抑制量演算部10Jは、図15に示す処理を予め設定したサンプリング時間毎に行う。
 ステップS210では、上記加速抑制作動条件判断部10Iから加速抑制作動条件判断結果を取得する。
 次にステップS220では、加速抑制処理選択情報を取得する。上記ステップS220は、例えば上記アクセル操作量演算部10Gからアクセル操作量を、上記アクセル操作速度演算部10Hからアクセル操作速度を、上記加速抑制作動条件判断部10Iから加速抑制作動条件判断結果を取得する。
 次にステップS230では、上記ステップS220で取得した加速抑制処理選択情報に基づいて、加速抑制処理を選択する。具体的には、第2加速抑制処理の作動条件が成立したと判断した場合はステップS240に移行する。第2加速抑制処理の作動条件が成立せず且つ第1加速抑制処理の作動条件が成立したと判断した場合にはステップS250に移行する。更に、第2加速抑制処理及び第1加速抑制処理の作動条件がともに成立していない場合には、ステップS260に移行する。
 上記ステップS230の処理、特に第2加速抑制処理の作動条件、第1加速抑制処理の作動条件の判定について図16を参照して説明する。
 まずステップS231において、前回の制御サイクルでの判定処理時に第2加速抑制処理が作動していたか否かを判断する。前回の制御サイクルでの判定で第2加速抑制処理が作動していた場合にはステップS233へ移行する。前回の制御サイクルでの判定で第2加速抑制処理が作動していなかった場合にはステップS235へ移行する。
 ステップS233では、前回第2加速抑制処理が作動していた場合の第2加速抑制処理の作動終了判断を行う。具体的には、上記ステップS220で取得したアクセル操作量に基づいてアクセル操作が行われていると判断した場合は、第2加速抑制の作動を継続すると判定してステップS240へ移行する。一方、アクセル操作が行われていないと判断した場合は、再度作動条件判断を行うためにステップS235に移行する。
 ステップS235では、第1加速抑制処理の作動条件の判断を行う。例えば、上記ステップS210で取得した加速抑制作動条件判断結果が条件成立と判断している場合には、第1加速抑制処理の作動条件成立と判断してステップS237に移行する。一方、加速抑制作動条件判断結果が条件非成立と判断している場合には、ステップS260に移行する。
 ステップS237では、第2加速抑制処理作動条件の判断を行う。例えば、下記条件(d~f)を全て満足する場合には、第2加速抑制処理の作動を行うと判定してステップS240に移行する。それ以外の場合はステップS250に移行する。
 d:上記ステップS210で取得した加速抑制作動条件判断結果が条件成立
 e:上記ステップS220で取得したアクセル操作量が予め設定した設定操作量(例えばアクセル開度が50[%])以上
 f:アクセル操作速度が予め設定した操作速度(例えば200[%/sec])以上
 そして、図15におけるステップS240では、上記ステップS220で取得した情報に基づいて第2加速抑制量を演算し、ステップS270に移行する。
 第2加速抑制量の演算方法は、例えば次のように実施する。すなわち、上記ステップS220で取得したアクセル操作量に基づいて、加速抑制量が予め設定した設定抑制量より大きくならないような加速抑制量を演算し、ステップS270に移行する。具体的には、図17に示すように、予め設定した値未満の加速操作量に対しては加速操作に応じたスロットル開度を演算し、予め設定した値以上の加速操作(アクセル操作)に対しては加速操作に拘わらず加速スロットル開度(加速指令値)が10[%]より大きくならないように加速抑制量を演算する。図17中、実線が、通常時つまり抑制をしていない状態での、アクセル操作量とスロットル開度とを示す。また一点鎖線が、第2加速抑制を実施した場合におけるアクセル操作とスロットル開度の関係を示す。すなわち、検出したアクセル操作量における、実線と一点鎖線との差分が第2加速抑制量となる。
 またステップS250では、上記ステップS220で取得した情報に基づいて第1加速抑制量を演算し、ステップS270に移行する。第1加速抑制量の演算方法について説明する。上記ステップS220で取得したアクセル操作量に基づいて、アクセル操作量に応じてスロットル開度が大きくなるように演算するように第1加速抑制量を演算し、ステップS270に移行する。具体的には、図18に示すように、アクセル操作量が大きくなることに応じてスロットル開度(加速指令値)が大きくなるように演算する。ここで、第1加速抑制量は、アクセル操作量に対して第2加速抑制量より抑制量が小さく加速が大きい加速抑制量、抑制を行っていない通常時より抑制量が大きく加速が小さいスロットル開度になるように加速抑制量を演算する。図18中、実線が、通常時つまり抑制をしていない状態での、アクセル操作量とスロットル開度とを示す。また一点鎖線が、第2加速抑制を実施した場合におけるアクセル操作とスロットル開度の関係を示す。すなわち、検出したアクセル操作量における、実線と二点鎖線との差分が第1加速抑制量となる。
 ここで、図18に示すように、第2加速抑制量は第1加速抑制量よりも大きく、図17及び図18に示すように、第1加速抑制量及び第2加速抑制量は、ともにアクセル操作量が大きいほど大きくなるように設定されている。
 またステップS260では、アクセルの操作に対して加速抑制を行わない加速抑制量を演算し、ステップS270に移行する。本実施形態では、加速抑制を行わない加速抑制量はゼロに設定する。
 ステップS270では、上記ステップS202で演算した加速抑制量を目標スロットル開度演算部10Kに出力する。
 次に、上記目標スロットル開度演算部10Kの処理について、図面を参照しながら説明する。目標スロットル開度演算部10Kは、図19に示す処理を予め設定したサンプリング時間毎に行う。
 まずステップS310では、上記加速抑制作動条件判断部10Iから、加速抑制作動条件判断結果を取得する。
 次にステップS320では、上記アクセル操作量演算部10Gから、アクセル操作量を取得する。
 次にステップS330では、上記加速抑制量演算部10Jから、加速抑制量を取得する。
 次にステップS340では、上記ステップS310で取得した加速抑制作動条件判断結果と、上記ステップS320で取得したアクセル操作量と、上記ステップS330で取得した加速抑制量に基づいて、目標スロットル開度を演算する。例えば、加速抑制作動条件が非成立である場合は、加速抑制を行わない通常通りのアクセル操作量に基づいたスロットル開度を目標スロットル開度とする。一方、加速抑制作動条件が成立している場合は、加速抑制量に基づいたスロットル開度を目標スロットル開度とする。
 例えば下記式によって、目標スロットル開度θを求める。
   θ = θ1-Δθ
 ここで、θ1は、アクセル操作量に応じたスロットル開度を示し、Δθは、加速抑制量を示す。
 次にステップS350では、上記ステップS340で演算された目標スロットル開度θをエンジンコントローラ16に出力する。
 エンジンコントローラ16は、取得した目標スロットル開度θとなるように、スロットル開度を制御する事で、駆動源であるエンジンを制御する。
(動作その他)
 本実施形態の処理によるタイムチャートの例を図20に示す。
 この例は、駐車枠進入操作検出処理が、自車両MMと駐車枠L0の角度α(条件b)、及び自車両MMと駐車枠L0の距離D(条件c)に基づいて駐車枠L0への進入操作を検出する例である。
 この図20に示す例では、予め設定した確からしさ(確信度)を有する駐車枠L0を検出し(t1)且つ車速が予め設定した設定速度以下の状態になると(t2)、駐車枠L0への進入操作の判定を行う。
 ここで上記予め設定した確からしさ(確信度)を有する駐車枠L0を検出する際に、図10に示すような放射状線の属性FF(n)を持つ線、及び立体物線の属性を持つ線(立体物のエッジの線)を除外して、駐車枠判定を行っている。
 このとき、凍結路面や水溜まりなどには、近傍の構造物(立体物の表面部分)が反射して、その反射物のエッジが俯瞰画面上に線として映り込んでいる場合がある。このような路面で反射した線は、車両が移動しても常に車両に向かう光線であることから、俯瞰画像上では、通常、カメラの受光部1aを中心とした放射状線として認識される。また、路面から垂直に延びる立体物のエッジ線も俯瞰画像上では放射状の線として認識される。
 このような事に基づいて、上記放射状の線を駐車枠候補から外すことで、反射線による誤認識が抑制されて、駐車枠判定の精度が向上する。
 同様に立体物のエッジ線についても駐車枠候補から外すことで、立体物の映り込みによる誤認識が抑制されて駐車枠判定の精度が向上する。ここで立体物のエッジ線は、図21に示すように、車両の移動に伴う、見かけ上の線の移動が、路面上に描かれた線の移動の場合とは異なる。これによって立体物の線か否かを判定することが出来る。
 また、線がかすれて途中で途切れている2本の線を同一の線と補間することでも、駐車枠判定の精度が向上する。
 このとき、線間の途切れがかすれによるとは考え難いほど離れていても、対を成す線が共に近似した長さで且つ途切れ長さの間隔も近似している場合には、その途切れ部分を補間して2本の線を同一の線と見なすと共に非枠候補として扱う。
 ここで、踏切においては、図27に示すように、線路位置で分断された一対の線Lsが連続する。これを俯瞰画像の線L5では、図28に示すように、連続した分断線として検出される。この線L5を本実施形態では、一本の線と見なすことで、個々の線を個別に駐車枠の候補線として扱われる事を回避する。なお、この線に対して駐車枠の非候補との属性を付加している。また、図29に示すような、踏切が線路を斜めに横断する場合もあるが、対を成す線は近似の長さの線の断続線として検出されるので問題はない。
 ここで、本実施形態の駐車枠判定で駐車枠として検出される例を図22に示す。
 次に時刻t2の後、図10に示す例では、自車両MMと駐車枠L0の距離D(条件c)が予め設定した距離以下となり(t3)、更に自車両MMと駐車枠L0の角度α(条件b)が予め設定した角度以下になると(t4)、駐車枠L0への進入操作と判定して加速抑制の作動状態となる。
 この加速抑制の作動状態のときに、運転者がアクセル操作を行うと、そのアクセル操作に応じた加速指令値(スロットル開度)を抑制する。更に、この加速抑制を実施している状態で、アクセル操作量が予め設定した操作量以上となると(t5)、加速指令値の抑制量を増大する。本実施形態では、予め設定したスロットル開度以下抑えるように加速抑制を行う結果、図23に示すように、アクセル操作量が予め設定した操作量を越える前に比較して、実際のスロットル開度が小さく抑制される。この結果、運転者によるアクセルペダル19の誤操作に対する加速抑制がより有効に実行されることとなる。
 ここで、図23は、アクセルペダルの操作量に応じた加速抑制御のスロットル開度(加速指示量)の遷移の例を示す。図23に示す例では、加速抑制処理が第2加速抑制処理に移行してもアクセルペダルが戻されて、第1加速抑制処理の加速抑制量と第2加速抑制処理の加速抑制量が等しくなった時点で、第1加速抑制処理に遷移する。
 以上のように、予め設定した確信度以上の駐車枠としての確からしさを有する駐車枠L0への進入操作を検出、つまり自車両MMが駐車枠L0に進入することを検出することを、加速抑制の作動条件とする。この結果、自車両MMが例えば道路から外れて駐車場に進入しても、駐車枠L0への進入操作を検出するまでは加速抑制を行わないので、その分、運転性の低下を抑えることが出来る。更に、駐車枠L0への進入操作をした後は、加速抑制を行うことで、アクセルペダル誤操作時の加速抑制効果の高い加速抑制を実現することが可能となる。
 また、駐車枠L0への進入操作を検出した場合と、その後さらに加速操作が行われてアクセルペダル誤操作の可能性がより高い場合とに分けて、2段階の加速抑制を行う。この結果、運転性の低下を抑えながらアクセルペダル誤操作時の加速抑制効果の高い加速抑制を行うことが可能となる。
 また、駐車枠L0に進入している状態でも、加速操作量に応じてスロットル開度が大きくなるが、通常よりスロットル開度が小さくなるように加速抑制を行う。すなわち、加速操作量が大きくなるにつれて加速抑制量を大きくすることで、運転性の低下が少なく、加速の抑制効果の高い加速抑制を行うことが可能となる。加速操作が小さい状態では加速抑制量が小さいので運転性低下が少なく、加速操作が大きい状態で加速抑制量が大きくなって加速抑制効果が高くなる。
 更に、大きな加速操作を行って、第2加速抑制状態となると、予め設定した値(第1加速状態と判定した加速操作量より大きな所定量)以上にはスロットル開度が大きくならないように加速抑制を行う。この結果、加速操作の誤操作によって運転者の意図しない加速が発生することを抑制でき、事故を回避・軽減する効果の高い加速抑制を行うことが可能となる。なお、第2加速抑制状態となっても、加速操作量が予め設定した値未満まで小さくなれば、第1加速抑制状態となる。
 このように、駐車枠L0に進入している状態で大きな加速操作を行った場合には、第1の加速度抑制処理による加速抑制量よりも抑制量の大きい加速抑制を第2加速抑制処理として行うことによって、運転者の加速操作の誤操作による意図しない加速が発生することを抑制でき、より目的とする駐車位置に駐車させる効果の高い加速抑制を行うことが可能となる。
 また、加速操作量としてアクセルペダル19の操作量とアクセルペダル操作の速度を検出することにより、加速操作の誤操作と通常操作との区別をより精度良く行うことができ、運転性の低下が少なく、加速の抑制効果の高い加速抑制を実現することが可能となる。
 また、自車両MMの車速と、自車両MMの操舵角と、自車両MMと駐車枠L0の角度α、自車両MMのいずれかのポイントと駐車枠L0の入り口L2の距離D、から駐車枠L0への進入操作を検出することによって、運転者が駐車枠L0を通り過ぎる走行をしているのか、駐車枠L0に駐車しようとしているのかを周囲環境認識処理から区別することができ、より運転性の低下の少ない駐車支援が可能となる。
 このとき、自車両MMの進行方向と駐車枠L0への駐車方向とのなす角度αを自車両MMと駐車枠L0の角度αとすることにより、検出している駐車枠L0への侵入操作の進行具合(駐車枠への進入の確信度)を検出することが可能となる。この結果、その検出値によって駐車枠L0に駐車しようとしていることを精度よく判断することができ、より運転性の低下の少ない駐車支援が可能となる。
(変形例)
 (1)上記実施形態では、駐車線レベルFLVLが3以上の場合に駐車枠有りとしている。駐車線レベルFLVLが2以上を駐車枠有りとしても良い。
 (2)また、上記実施形態では、ステップS186で、駐車枠進入判断として、駐車枠進入有りか無しかの2値化で加速抑制制御の開始判定を行っている。これに対し、駐車枠進入有りの場合について、その駐車枠への進入の確からしさを示す進入確信度ALVLを使用して複数段階で駐車枠への進入の確からしさを判定しても良い。そして、その進入確信度ALVLと駐車線レベルFLVLに応じて、上記加速抑制制御の内容を変更しても良い。
 例えば、駐車枠進入有りのときの進入確信度ALVLとして「低」と「高」の2段階に区分し、その確信度ALVLと駐車線レベルFLVLとの組合せで、図24に示すような総合的な駐車支援の総合確信度TLVLを算出する。そして、その駐車支援の総合確信度TLVLに基づき、図25のような駐車支援の制御を行うようにしても良い。
 図25に示す駐車支援の制御は、総合確信度TLVLが「極低」の場合には、アクセル開度が80%以上となると加速抑制を開始して、予め設定した量(小さい量)だけアクセル抑制を行う。また、総合確信度TLVLが「低」の場合には、アクセル開度が80%以上となると加速抑制を開始して、予め設定した量(総合確信度TLVLが「極低」よりも大きな値)だけアクセル抑制を行うと共に運転者へのアクセル抑制の報知処理を行う。また、総合確信度TLVLが「高」の場合には、アクセル開度が50%以上となると加速抑制を開始して、予め設定した量(総合確信度TLVLが「極低」よりも大きな値)だけアクセル抑制を行うと共に運転者へのアクセル抑制の報知処理を行う。また、総合確信度TLVLが「極高」の場合には、アクセル開度が50%以上となると加速抑制を開始して、予め設定した量(総合確信度TLVLが「高」よりも大きな値)だけアクセル抑制を行うと共に運転者へのアクセル抑制の報知処理を行う。図25に示される加速抑制実施条件(アクセル開度)のパーセントは例示である。
 (3)また上記実施形態では、検出した駐車枠に基づく制駆動力制御として、加速抑制制御を例示した。検出した駐車枠に基づく制駆動力制御はこれに限定されない。例えば、検出した駐車枠への誘導支援を行うための制駆動力制御等であっても良い。
 また検出した駐車枠への進入支援のための制駆動力制御に限定されない。検出した駐車枠に基づく制駆動力制御は、検出した駐車枠からの車両の発進制御であっても良い。
 また、上記説明では、俯瞰変換した俯瞰画像に基づき線を検出しているが、俯瞰変換する前の撮像画像から直接、線の検出をしても良い。
 ここで、周囲環境認識情報演算部10Aは撮像部を構成する。加速抑制作動条件判断部10I、加速抑制量演算部10J、及び目標スロットル開度演算部10Kは、加速抑制制御を行う制駆動力制御部を構成する。ステップS20が俯瞰画像取得部を構成する。ステップS30が線検出部を構成する。ステップS40が放射状線検出部、立体物線検出部、ノイズ情報判断部を構成する。ステップS52~S90が駐車枠推定部を構成する。ワイパー検出センサ8は路面推定部を構成する。
(本実施形態の効果)
 本実施形態によれば、次の効果を奏する。
 (1)走行制御コントローラ10は、撮像部(カメラ)が撮像した撮像画像を俯瞰変換して俯瞰画像とする。走行制御コントローラ10は、撮像部が撮像した撮像画像から路面上に位置する線を検出する。走行制御コントローラ10は、上記俯瞰画像において、撮像部の受光部1aを中心とする放射状の線を抽出する。走行制御コントローラ10は、線検出部が検出した線のうち上記抽出した放射状の線に対応する線に対し、駐車枠候補でないことを示すノイズ情報(放射状線の属性FF)を付加する。走行制御コントローラ10は、上記検出した路面上に位置する線と上記ノイズ情報(放射状線の属性FF)に基づき駐車枠を抽出する。走行制御コントローラ10は、抽出した駐車枠に基づき車両の制駆動力を制御する。
 走行制御コントローラ10は、例えば、自車両の進行方向前方に上記抽出した駐車枠を検出したと判定すると、加速低減制御を行う。
 この構成によれば、俯瞰画像において、撮像部の受光部1aを中心とする放射状の線を駐車枠の候補線から除外する。路面から反射した線は、俯瞰画像では上記放射状の線として認識される。このため、当該線を除外することで、路面に反射した線を駐車枠を構成する線と判定されることを抑制出来る。この結果、駐車枠検出の信頼性が向上して、駐車に対する運転支援の精度を向上させることが可能となる。
 (2)走行制御コントローラ10は、抽出した駐車枠に基づき車両の加速抑制制御を行う。
 この構成によれば、駐車枠に進入する際に、仮にブレーキペダルとアクセルペダルを踏み間違えても、自車両の加速が抑制される。
 (3)走行制御コントローラ10は、予め設定した時間以上継続して放射状の線と認定された線を駐車枠を構成する線の候補から除外する。
 この構成によれば、より確実に反射線に対応する線を検出可能となる。これによって、駐車枠検出の信頼性が向上して、駐車に対する運転支援の精度を向上させることが可能となる。
 (4)走行制御コントローラ10は、反射し易い路面と推定すると、放射状線を検出するための判定条件を緩和する。
 これによって、路面反射の線をより確実に検出可能となる。これによって、駐車枠検出の信頼性が向上して、駐車に対する運転支援の精度を向上させることが可能となる。
 (5)走行制御コントローラ10は、予め設定した時間毎に俯瞰画像から放射状の線を抽出し、上記線検出部が検出した線が、放射状線検出部で放射状の線でないとして抽出されると、その線に非放射状線情報を付加する。そして、駐車枠判定部は、ノイズ情報判断部がノイズ情報を付加した線であっても、そのノイズ情報が付加される前に上記非放射状線情報が付加されている場合には、その線を駐車枠線の候補の線として駐車枠判定の処理を行う。
 これによって、路面で反射した線で無い線を路面で反射した線と誤認することを抑制可能となる。
 (6)走行制御コントローラ10は、俯瞰画像から路面上に位置する線を検出する。
 これによって、同一画面上で線検出と反射線の検出を行うので、検出した線と反射したと推定した線の照合に座標変換などが不要となり、当該照合処理等が簡易となる。
 また、俯瞰画像での線の判定の為、他の線との平行性などの判定も簡易となる。
 (7)走行制御コントローラ10は、周囲環境認識センサの検出情報(カメラが撮像した画像情報)に基づき自車両周囲の環境を認識する。走行制御コントローラ10は、運転者が加速指示するために操作する加速操作子(アクセルペダル)の状態から加速操作量を検出する。走行制御コントローラ10は、自車両MMの状態を検出する。走行制御コントローラ10は、周囲環境と自車両MMの走行状態とに基づいて、自車両MMが駐車枠L0に進入することを検出する。走行制御コントローラ10は、自車両MMが駐車枠L0に進入すると判定すると、上記加速操作子の操作量に応じた加速指令値(スロットル開度)を抑制する。走行制御コントローラ10は、加速指令値を抑制しているときに予め設定した設定加速操作量以上の加速操作を検出したら、加速指令値の抑制を増大する。
 この構成によれば、運転者が駐車枠L0への進入操作を行うことで自車両MMの駐車枠L0への進入の検出を加速抑制の作動条件とする。これによって、運転性の低下を抑えながらアクセルペダル誤操作時の加速抑制効果の高い加速抑制を行うことが可能となる。
 また、駐車枠L0に進入する場合と、進入操作後さらに加速操作が行われた場合との2段階に分けて加速抑制を行うことによって、運転性の低下を抑えながらアクセルペダル誤操作時の加速抑制効果がより高い加速抑制を行うことが可能となる。
 (8)走行制御コントローラ10は、加速指令値を抑制しているときに予め設定した設定加速操作量以上の加速操作を検出したら、上記加速指令値を予め設定した上限加速指令値以下に抑える。
 この構成によれば、運転者が大きな加速操作を行っても、その加速操作による加速指令値を、予め設定した値以上には大きくならないように加速抑制を行う、これによって、加速操作の誤操作によって運転者の意図しない加速が発生することを抑制できる。この結果、より駐車枠L0内への駐車を支援可能となる。
 (9)走行制御コントローラ10は、加速操作子の操作量及び当該加速操作子の操作速度の少なくとも一つを加速操作量として検出する。
 この構成によれば、加速操作量として、アクセルペダル19の操作量及びアクセルペダル操作の操作速度を検出する。これによって、加速操作の誤操作と通常操作との区別をより精度良く行うことができる。この結果、運転性の低下が少なく、加速の抑制効果の高い加速抑制を実現することが可能となる。
 (10)走行制御コントローラ10は、駐車枠L0を検出すると、自車両MMの車速または自車両MMの操舵角と、自車両MMと駐車枠L0の角度α、自車両MMと駐車枠L0の入り口L2の距離D、及び自車両MMの予想軌道と駐車枠L0の位置関係のうちの少なくとも1つの情報とに基づき、駐車枠L0への進入操作を検出し、その検出した進入操作によって自車両MMが駐車枠L0に進入することを検出する。
 この構成によれば、自車両MMの車速、自車両MMの操舵角、自車両MMと駐車枠L0の角度α、自車両MMと駐車枠L0の入り口L2の距離D、及び自車両MMの予想軌道と駐車枠L0の位置関係のうちの少なくとも1つの情報を使用することで、自車両MMが、検出した駐車枠L0を通り過ぎる走行をしているのか、駐車枠L0に駐車しようとしているのかを区別することができる。このように、駐車枠L0への進入操作を検出することが可能となる。
 (11)走行制御コントローラ10は、自車両MMの進行方向と駐車枠L0への駐車方向とのなす角度αを自車両MMと駐車枠L0の角度αとし、その自車両MMと駐車枠L0の角度αに基づき駐車枠L0への進入操作を検出する。
 この構成によれば、自車両MMの進行方向と駐車枠L0への駐車方向とのなす角度αを自車両MMと駐車枠L0の角度αとすることにより、検出している駐車枠L0への進入操作の進行具合を検出することが可能となる。従って、その検出値によって、自車両MMが駐車枠L0に駐車しようとしているか否かを精度よく判断することができる。この結果、運転性の低下が少なく、加速の抑制効果の高い運転支援を実現することが可能となる。
「第2実施形態」
 次に、第2実施形態について図面を参照して説明する。ここで、上記第1実施形態と同様な構成には同一の符号を付して説明する。
(構成)
 本実施形態の基本構成は、上記第1実施形態と同様である。ただし、本実施形態は、自車両MMの予想軌道と駐車枠L0の入り口位置、枠範囲に基づいて駐車枠L0への進入判断を行う場合の例である。
 すなわち、上記加速抑制作動条件判断部10IにおけるステップS183及び108Cの処理、特にステップS186の処理が異なる。その他の処理は、上記第1実施形態と同様である。
 次に、その構成の相違点について説明する。
 上記加速抑制作動条件判断部10Iにおいて、上記ステップS183は、操舵角、操舵角速度、自車両MMの車速、シフトポジション、駐車枠線位置、駐車枠L0の入り口位置を取得する。
 次に、本実施例におけるステップS186の処理を、図面を参照しながら説明する。
  本実施形態のステップS186は、図30に示すように、S186A~S186Dの処理からなる。
 ステップS186Aでは、自車両予想軌道を演算する。例えば上記ステップS180Aで取得した操舵角、操舵角速度、シフトポジションに基づいて自車両予想軌道を演算する。ここで、自車両の予想軌道の演算方法は種々存在しており、本実施形態では、特に自車両の予想軌道の演算方法について限定しない。例えばシフトポジションにて自車両MMの進行方向を特定し、現在の操舵角、操舵角速度で特定される操向輪の向きによって、自車両MMの予想軌道を求める。
 ステップS186Bでは、上記ステップS186Aで演算した自車両予想軌道と、上記ステップS180Aで取得した駐車枠線位置に基づいて、自車両予想軌道枠線重複率を演算する。例えば、図31に示すように、対象とする駐車枠L0の面積に対する、当該駐車枠L0内を通過する自車両予想軌道Sが占める面積S0の割合を、自車両予想軌道枠線重複率として演算する。
 ステップS186Cでは、上記ステップS186Aで演算した自車両予想軌道と、上記ステップS180Aで取得した駐車枠L0の入り口位置に基づいて、自車両予想軌道駐車枠入り口重複率を演算する。例えば、図32に示すように、駐車枠L0の入り口L2となる枠線一辺の長さの中で、自車両軌道と重複している部分Hの長さの割合を自車両予想軌道駐車枠入り口重複率として演算する。
 なお上記予測軌道は、例えば後輪が通過する範囲とする。前輪が通過する範囲でも良い。
 ステップS186Dでは、上記ステップS186Bで演算された自車両予想軌道枠線重複率と、上記ステップS186Cで演算された自車両予想軌道駐車枠入り口重複率とに基づいて、自車両駐車枠進入判断を行う。
 例えば、自車両予想軌道枠線重複率が予め設定した値以上であり、かつ、自車両予想軌道駐車枠入り口重複率が予め設定した値以上の場合に、自車両MMが駐車枠L0に進入すると判断する。具体的には自車両予想軌道枠線重複率が40[%]以上、自車両予想軌道駐車枠入り口重複率が30[%]以上の場合に、自車両MMが駐車枠L0に進入すると判断する。ここで、自車両予想軌道枠線重複率と自車両予想軌道駐車枠入り口重複率の何れかのみで自車両駐車枠進入の判断を行う構成としてもよい。
 例えば、駐車枠L0の入り口L2=2.5m、自車両軌道と重複している部分H=2.3mの場合には、自車両予想軌道駐車枠入り口重複率は、2.3÷2.5×100=92パーセントとなる。
 また上記自車両予想軌道枠線重複率によって、駐車枠への進入の確からしさを示す進入確信度ALVLを2以上の段階で設定するようにしても良い。
 また、左右後輪間の幅方向中央部の予測軌跡が対象とする駐車枠にどの程度進入するかの進行度合によって、駐車枠への進入の確からしさを判定しても良い。
 その他の構成は、上記第1実施形態と同様である。
(動作その他について)
 本実施形態の処理によるタイムチャートの例を図33に示す。
 この例は、走行制御コントローラ10が、自車両MMの予測軌道と駐車枠L0との位置関係に基づいて駐車枠L0への進入操作を検出する例である。
 この図33に示す例では、予め設定した確からしさ(確信度)を有する駐車枠L0を検出し(t1)且つ車速が予め設定した設定速度以下の状態になると(t2)、駐車枠L0への進入操作の判定を行う。そして、図33に示す例では、自車両予想軌道枠線重複率が予め設定した値以上となり(t3)、且つ自車両予想軌道駐車枠入り口重複率が予め設定した値以上となったことを検出すると(t7)、駐車枠L0への進入操作と判定して加速抑制の作動状態となる。
 この加速抑制の作動状態のときに、運転者がアクセル操作を行うと、そのアクセル操作に応じた加速指令値(スロットル開度)を抑制する。更に、この加速抑制を実施している状態で、アクセル操作量が予め設定した操作量以上となると(t8)、加速指令値の抑制量を増大する。本実施形態では、予め設定したスロットル開度以下抑えるように加速抑制を行う結果、図11に示すように、アクセル操作量が予め設定した操作量を越える前に比較して、実際のスロットル開度が小さく抑制される。この結果、運転者によるアクセルペダル19の誤操作に対する加速抑制がより有効に実行されることとなる。
 本実施形態では、自車両予想軌道枠線重複率と自車両予想軌道駐車枠入り口重複率に基づいて駐車枠進入判断を行うことにより、より正確に駐車操作を検出することができ、より運転性の低下が少ない支援システムを実現することが可能となる。
(本実施形態の効果)
 本実施形態によれば、第1実施形態による効果に加えて次の効果を奏する。
 (1)走行制御コントローラ10は、自車両MMの操舵角、自車両MMの操舵角速度、自車両MMの車速、及び自車両MMのシフトポジションの情報と、駐車枠L0の枠線位置及び駐車枠L0の入り口位置の少なくとも1つの情報とに基づいて、自車両MMの予想軌道と駐車枠L0の位置関係を検出し、検出した自車両MMの予想軌道と駐車枠L0の位置関係に基づいて駐車枠L0への進入操作を検出する。
 自車両MMの操舵角、自車両MMの操舵角、自車両MMの操舵角速度、自車両MMの車速、及び自車両MMのシフトポジションの情報を使用することで自車両MMの予想軌道を求めることが出来る。そして、求めた自車両MMの予想軌道と駐車枠L0の枠線位置及び駐車枠L0の入り口位置の少なくとも1つの情報とから、自車両MMの予想軌道と駐車枠L0の位置関係を検出する。これによって、より精度良く自車両MMの駐車枠L0への進入操作を検出することができる。
 (2)走行制御コントローラ10は、自車両MMの予想軌道と駐車枠L0との重なり度合に基づき、駐車枠L0への進入操作を検出する。
 これによって、重なり度合が大きいほど、自車両MMが駐車枠L0に向かっていることが検出できるので、より精度良く自車両MMの駐車枠L0への進入操作を検出することができる。
 (3)走行制御コントローラ10は、自車両MMの予想軌道と駐車枠L0の入り口L2との重なり度合に基づき、駐車枠L0への進入操作を検出する。
 重なり度合によって、自車両MMが駐車枠L0に向けて移動していることが検出出来る。この結果、より精度良く自車両MMの駐車枠L0への進入操作を検出することができる。
 以上、本願が優先権を主張する、日本国特許出願2012-259189(2012年11月27日出願)の全内容は、参照により本開示の一部をなす。
 ここでは、限られた数の実施形態を参照しながら説明したが、権利範囲はそれらに限定されるものではなく、上記の開示に基づく各実施形態の改変は当業者にとって自明なことである。
1 周囲環境認識センサ(撮像部)
1a 受光部
8 ワイパー検出センサ
10 走行制御コントローラ
10A 周囲環境認識情報演算部
10B 自車両車速演算部
10C 操舵角演算部
10D 操舵角速度演算部
10E シフトポジション演算部
10F ブレーキペダル操作情報演算部
10G アクセル操作量演算部
10H アクセル操作速度演算部
10I 加速抑制作動条件判断部
10J 加速抑制量演算部
10K 目標スロットル開度演算部
ALVL 進入確信度
FLVL 駐車線レベル
TLVL 総合確信度
ARA1~4 俯瞰画像とする領域
FF 放射状線属性
FR  立体物線の属性
L0 駐車枠

Claims (6)

  1.  運転者が加速指示するために操作する加速操作子の加速操作量を検出する加速操作量検出部と、
     上記加速操作量検出部が検出した加速操作量に応じた加速を自車両に発生させる制駆動力制御部と、
     自車両周囲の路面を撮像して撮像画像を取得する撮像部と、
     上記撮像部が撮像した撮像画像を俯瞰変換して俯瞰画像とする俯瞰画像取得部と、
     上記撮像部が撮像した撮像画像から路面上に位置する線を検出する線検出部と、
     上記俯瞰画像において、上記撮像部の受光部を中心とする放射状の線を抽出する放射状線検出部と、
     上記線検出部が検出した線のうち、上記放射状線検出部が抽出した放射状の線に対応する線に対し、駐車枠候補でないことを示すノイズ情報を付加するノイズ情報判断部と、
     上記線検出部が検出した線と上記ノイズ情報に基づき駐車枠を抽出する駐車枠抽出部と、
     上記駐車枠抽出部が抽出した駐車枠に基づき、上記制駆動力制御部が制御する上記加速を低減させる加速度抑制部と、
     を備えることを特徴とする運転支援装置。
  2.  上記撮像部は、予め設定した時間毎に自車両周囲の画像を撮像し、
     上記放射状線検出部は、予め設定した時間毎に俯瞰画像から放射状の線を抽出し、
     上記駐車枠判定部は、予め設定した時間以上継続して放射状の線と認定された線を駐車枠を構成する線の候補から除外することを特徴とする請求項1に記載した運転支援装置。
  3.  自車両周囲の路面が反射し易い路面か否かを推定する路面推定部と、
     上記路面推定部が反射し易い路面と推定すると、上記放射線検出部における放射状の線と判定する条件を緩和することを特徴とする請求項1又は請求項2に記載した運転支援装置。
  4.  上記放射状線検出部は、予め設定した時間毎に俯瞰画像から放射状の線を抽出し、
     上記線検出部が検出した線が、上記放射状線検出部で放射状の線でないとして抽出されると、その線に非放射状線情報を付加し、
     上記駐車枠判定部は、ノイズ情報判断部がノイズ情報を付加した線であっても、そのノイズ情報が付加される前に上記非放射状線情報が付加されている場合には、その線に対するノイズ情報を無視して駐車枠判定の処理を行うことを特徴とする請求項1~請求項3のいずれか1項に記載した運転支援装置。
  5.  上記線検出部は、俯瞰画像から路面上に位置する線を検出することを特徴とする請求項1~請求項4のいずれか1項に記載した運転支援装置。
  6.  撮像部が撮像した自車両周囲の撮像画像を俯瞰画像に変換し、その俯瞰画像から駐車枠候補となる線を検出する際に、俯瞰画像における上記撮像部の受光部を中心とする放射状の線に基づき路面で反射した線を駐車枠候補の線から除外し、
     更に上記俯瞰画像から検出した駐車枠候補となる線に基づき駐車枠を抽出し、その抽出した駐車枠に基づき、運転者が加速指示するために操作する加速操作子の加速操作量に応じて自車両に発生させる加速度を低減制御することを特徴とする運転支援方法。
PCT/JP2013/006883 2012-11-27 2013-11-22 運転支援装置及び運転支援方法 WO2014083825A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014549818A JP5900651B2 (ja) 2012-11-27 2013-11-22 運転支援装置及び運転支援方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-259191 2012-11-27
JP2012259191 2012-11-27

Publications (1)

Publication Number Publication Date
WO2014083825A1 true WO2014083825A1 (ja) 2014-06-05

Family

ID=50827486

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/006883 WO2014083825A1 (ja) 2012-11-27 2013-11-22 運転支援装置及び運転支援方法

Country Status (2)

Country Link
JP (1) JP5900651B2 (ja)
WO (1) WO2014083825A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160074110A (ko) * 2014-12-18 2016-06-28 현대모비스 주식회사 차량 및 그 제어 방법
WO2018109918A1 (ja) * 2016-12-16 2018-06-21 本田技研工業株式会社 車両制御装置及び方法
CN108791063A (zh) * 2018-03-22 2018-11-13 惠州市德赛西威汽车电子股份有限公司 一种基于adas的停车位捕捉方法
JP2021064868A (ja) * 2019-10-11 2021-04-22 アイシン精機株式会社 駐車支援装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007243464A (ja) * 2006-03-07 2007-09-20 Aisin Aw Co Ltd 駐車支援方法及び駐車支援装置
JP2007243463A (ja) * 2006-03-07 2007-09-20 Aisin Aw Co Ltd 駐車支援方法及び駐車支援装置
WO2009057410A1 (ja) * 2007-10-30 2009-05-07 Nec Corporation 路面標示画像処理装置,路面標示画像処理方法及びプログラム
JP2011030140A (ja) * 2009-07-29 2011-02-10 Hitachi Automotive Systems Ltd 外界認識装置
WO2012144253A1 (ja) * 2011-04-21 2012-10-26 日産自動車株式会社 トルク制御装置及び非接触充電システム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005178626A (ja) * 2003-12-19 2005-07-07 Toyota Motor Corp 車両の統合制御システム
JP5327630B2 (ja) * 2009-09-17 2013-10-30 スズキ株式会社 後方画像表示切替装置及び方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007243464A (ja) * 2006-03-07 2007-09-20 Aisin Aw Co Ltd 駐車支援方法及び駐車支援装置
JP2007243463A (ja) * 2006-03-07 2007-09-20 Aisin Aw Co Ltd 駐車支援方法及び駐車支援装置
WO2009057410A1 (ja) * 2007-10-30 2009-05-07 Nec Corporation 路面標示画像処理装置,路面標示画像処理方法及びプログラム
US20100215218A1 (en) * 2007-10-30 2010-08-26 Katsuhiko Takahashi Road marking image processing device, road marking image processing method, and program
JP5206687B2 (ja) * 2007-10-30 2013-06-12 日本電気株式会社 路面標示画像処理装置,路面標示画像処理方法及びプログラム
JP2011030140A (ja) * 2009-07-29 2011-02-10 Hitachi Automotive Systems Ltd 外界認識装置
WO2012144253A1 (ja) * 2011-04-21 2012-10-26 日産自動車株式会社 トルク制御装置及び非接触充電システム
JP2012228119A (ja) * 2011-04-21 2012-11-15 Nissan Motor Co Ltd トルク制御装置及び非接触充電システム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160074110A (ko) * 2014-12-18 2016-06-28 현대모비스 주식회사 차량 및 그 제어 방법
KR20210097078A (ko) * 2014-12-18 2021-08-06 현대모비스 주식회사 차량 및 그 제어 방법
KR102288952B1 (ko) * 2014-12-18 2021-08-12 현대모비스 주식회사 차량 및 그 제어 방법
KR102304391B1 (ko) 2014-12-18 2021-09-23 현대모비스 주식회사 차량 및 그 제어 방법
WO2018109918A1 (ja) * 2016-12-16 2018-06-21 本田技研工業株式会社 車両制御装置及び方法
JPWO2018109918A1 (ja) * 2016-12-16 2019-10-24 本田技研工業株式会社 車両制御装置及び方法
US10981597B2 (en) 2016-12-16 2021-04-20 Honda Motor Co., Ltd. Vehicle control device and method
CN108791063A (zh) * 2018-03-22 2018-11-13 惠州市德赛西威汽车电子股份有限公司 一种基于adas的停车位捕捉方法
JP2021064868A (ja) * 2019-10-11 2021-04-22 アイシン精機株式会社 駐車支援装置
JP7383973B2 (ja) 2019-10-11 2023-11-21 株式会社アイシン 駐車支援装置

Also Published As

Publication number Publication date
JP5900651B2 (ja) 2016-04-06
JPWO2014083825A1 (ja) 2017-01-05

Similar Documents

Publication Publication Date Title
JP5904286B2 (ja) 運転支援装置
JP5899664B2 (ja) 車両用加速抑制装置及び車両用加速抑制方法
JP3966219B2 (ja) 運転支援装置
JP2019162915A (ja) 車両走行制御システム
JP5900651B2 (ja) 運転支援装置及び運転支援方法
JP3245363B2 (ja) 車両の衝突防止装置
JP2021119074A (ja) 駐車支援方法及び駐車支援装置
JP2009137385A (ja) 車両の走行支援装置
JP2012131460A (ja) 目標軌道算出装置
WO2014041757A1 (ja) 駐車支援装置
JP5900649B2 (ja) 運転支援装置
JP2020082816A (ja) 車両制御装置および車両制御プログラム
JP6299171B2 (ja) 運転支援装置
JP2018079929A (ja) 運転支援装置
JP6287106B2 (ja) 運転支援装置及び記号登録装置
JP5942817B2 (ja) 車両用加速抑制装置
JP6273789B2 (ja) 運転支援装置
JP2012250674A (ja) 車両用加速抑制装置及び車両用加速抑制方法
JP2014100957A (ja) 駐車支援装置及び制御装置
JP2020157793A (ja) 障害物回避制御装置、車両、障害物回避制御方法、および障害物回避制御プログラム
JP2012237683A (ja) 車両用制御対象物判定装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13858409

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014549818

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13858409

Country of ref document: EP

Kind code of ref document: A1