WO2018003068A1 - 運転支援方法及び運転支援装置 - Google Patents

運転支援方法及び運転支援装置 Download PDF

Info

Publication number
WO2018003068A1
WO2018003068A1 PCT/JP2016/069465 JP2016069465W WO2018003068A1 WO 2018003068 A1 WO2018003068 A1 WO 2018003068A1 JP 2016069465 W JP2016069465 W JP 2016069465W WO 2018003068 A1 WO2018003068 A1 WO 2018003068A1
Authority
WO
WIPO (PCT)
Prior art keywords
host vehicle
vehicle
driving support
detection boundary
obstacle
Prior art date
Application number
PCT/JP2016/069465
Other languages
English (en)
French (fr)
Inventor
真規 義平
根本 英明
Original Assignee
日産自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社 filed Critical 日産自動車株式会社
Priority to PCT/JP2016/069465 priority Critical patent/WO2018003068A1/ja
Publication of WO2018003068A1 publication Critical patent/WO2018003068A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present invention relates to a driving support method and a driving support device that support driving of a vehicle.
  • Patent Document 1 a technique is known in which the time at which the host vehicle and another vehicle arrive at the intersection can be recognized by transmitting and receiving signals having a frequency corresponding to the time at which the vehicle arrives at the intersection.
  • the problem to be solved by the present invention is to provide driving support according to the mode of contact between the host vehicle and the obstacle.
  • the present invention detects a common point between the first detection boundary set for the own vehicle and the second detection boundary set for the obstacle, and performs driving support according to the position of the common point with respect to the own vehicle. Solve the above problems.
  • FIG. 1 is a block configuration diagram of a driving support system according to the present embodiment.
  • FIG. 2A is a diagram for explaining the positional relationship between the host vehicle and another vehicle at an intersection.
  • FIG. 2B is a diagram for explaining detection boundaries of the host vehicle and other vehicles.
  • FIG. 2C is a diagram for describing an example of a first detection boundary of the host vehicle.
  • FIG. 2D is a diagram for describing an example of a second detection boundary of another vehicle.
  • FIG. 3 is a diagram for explaining a common point between the first detection boundary and the second detection boundary.
  • FIG. 4A is a diagram illustrating an example of the first detection boundary.
  • FIG. 4B is a diagram illustrating another example of the first detection boundary.
  • FIG. 5 is a flowchart showing the procedure of the driving support process of the present embodiment.
  • FIG. 6 shows an example of the content of driving assistance.
  • FIG. 7 is a flowchart illustrating an example of a subroutine for driving support processing.
  • FIG. 8 is a flowchart illustrating an example of a subroutine for driving support processing.
  • FIG. 9 shows another example of the content of driving assistance.
  • FIG. 10A shows a contact example in which the shared point is located at the front part of the host vehicle.
  • FIG. 10B shows a contact example in which the shared point is located on the side portion of the host vehicle.
  • FIG. 10C shows one contact example in which the shared point is located at the rear portion of the host vehicle.
  • FIG. 10D shows another contact example in which the shared point is located at the rear portion of the host vehicle.
  • FIG. 11 shows another example of the content of driving assistance.
  • FIG. 12 is a flowchart illustrating another example of a subroutine for driving support processing.
  • FIG. 13A shows an example in which a shared point is located at the first and second detection boundaries of the shortest distance.
  • FIG. 13B shows an example in which a common point is located at the first and second detection boundaries at medium distances.
  • FIG. 13C shows an example in which a common point is located at the first and second detection boundaries at the farthest distance.
  • FIG. 1 is a diagram showing a block configuration of the driving support system 1.
  • the driving support system 1 of this embodiment includes a driving support device 100 and an in-vehicle device 200.
  • the embodiment of the driving support device 100 of the present invention is not limited, and may be configured to be integrated with the in-vehicle device 200 by being mounted on a vehicle, or as a portable terminal device capable of exchanging information with the in-vehicle device 200. You may comprise independently.
  • the terminal device includes devices such as a smartphone and a PDA.
  • the driving support system 1, the driving support device 100, the in-vehicle device 200, and each device included in these are computers that include arithmetic processing devices such as a CPU and execute arithmetic processing.
  • the in-vehicle device 200 of the present embodiment includes a vehicle controller 210, a navigation device 220, an obstacle detection device 230, a lane departure prevention device 240, and an output device 250.
  • the devices constituting the in-vehicle device 200 are connected by a CAN (Controller Area Network) or other in-vehicle LAN in order to exchange information with each other.
  • the in-vehicle device 200 can exchange information with the driving support device 100 via the in-vehicle LAN.
  • the vehicle controller 210 of the present embodiment operates in cooperation with the detection device 260, the drive device 270, and the steering device 280.
  • the detection device 260 includes a rudder angle sensor 261, a vehicle speed sensor 262, and an attitude sensor 263.
  • the rudder angle sensor 261 detects information such as rudder turning, steering amount, steering speed, and steering acceleration.
  • the vehicle speed sensor 262 detects the speed and / or acceleration of the vehicle.
  • the posture sensor 263 of the present embodiment includes a gyro sensor.
  • the attitude sensor 263 detects the position of the vehicle, the pitch angle of the vehicle, the yaw angle of the vehicle, the roll angle of the vehicle, and the like. The amount of change in the attitude of the vehicle can be acquired from these detected values.
  • the detection device 260 outputs the detection result to the vehicle controller 210 or the driving support device 100.
  • the vehicle controller 210 of this embodiment is an in-vehicle computer such as an engine control unit (Engine ECU), and electronically controls the operation of the vehicle.
  • Examples of the vehicle of this embodiment include an electric vehicle including an electric motor as a drive source, an engine vehicle including an internal combustion engine as a drive source, and a hybrid vehicle including both the electric motor and the internal combustion engine as drive sources.
  • electric vehicles and hybrid vehicles using an electric motor as a drive source include a type using a secondary battery as a power source for the electric motor and a type using a fuel cell as a power source for the electric motor.
  • the drive device 270 of this embodiment includes a drive mechanism for the host vehicle V1.
  • the drive mechanism includes the above-described electric motor and / or internal combustion engine as a drive source, a power transmission device including a drive shaft and an automatic transmission for transmitting output from the drive source to drive wheels, and a braking device for braking the wheels. 271 and the like are included.
  • the drive device 270 generates each control signal of these drive mechanisms based on the input signals by the accelerator operation and the brake operation, the control signals acquired from the vehicle controller 210 or the driving support device 100, and performs driving control including acceleration / deceleration of the vehicle. Execute. By sending control information to the drive device 270, driving control including acceleration / deceleration of the vehicle can be automatically performed.
  • torque distribution output to each of the electric motor and the internal combustion engine corresponding to the driving state (running state) of the vehicle is also sent to the drive device 270.
  • the steering device 280 of this embodiment includes a steering actuator.
  • the steering actuator includes a motor and the like attached to the column shaft of the steering.
  • the steering device 280 executes change control of the moving direction of the vehicle based on the control signal acquired from the vehicle controller 210 and the steering operation amount acquired from the steering angle sensor 261.
  • the vehicle controller 210 executes control to change the moving direction by sending control information including the steering amount to the steering device 280.
  • the driving assistance device 100 may execute change control of the moving direction of the vehicle by controlling the braking amount of each wheel of the vehicle. In this case, the vehicle controller 210 executes control for changing the moving direction of the vehicle by sending control information including the braking amount of each wheel to the braking device 271.
  • control of the driving device 270 and the control of the steering device 280 may be performed completely automatically, or may be performed in a manner that supports the driving operation (progression operation) of the driver.
  • the control of the driving device 270 and the control of the steering device 280 can be interrupted / stopped by the driver's intervention operation.
  • the vehicle controller 210 controls the driving of the host vehicle according to a predetermined driving plan.
  • the in-vehicle device 200 of this embodiment includes a navigation device 220.
  • the navigation device 220 of this embodiment calculates a route from the current position of the host vehicle to the destination.
  • a route calculation method a method known at the time of filing based on a graph search theory such as the Dijkstra method or A * can be used.
  • the calculated route is sent to the vehicle controller 210 for use in driving support of the host vehicle.
  • the calculated route is output as route guidance information via an output device 250 described later.
  • the navigation device 220 includes a position detection device 221.
  • the position detection device 221 of this embodiment includes a global positioning system (Global Positioning System, GPS), and detects the traveling position (latitude / longitude) of a traveling vehicle.
  • GPS Global Positioning System
  • the navigation device 220 includes accessible map information 222, road information 223, and traffic rule information 224.
  • the map information 222, the road information 223, and the traffic rule information 224 need only be read by the navigation device 220, may be configured separately from the in-vehicle device 200, or may be configured as a server that can be read via communication means. It may be stored.
  • the map information 222 of this embodiment is a so-called electronic map, and is information in which latitude and longitude are associated with map information.
  • the map information 222 has road information 223 associated with each point.
  • the road information 223 of the present embodiment is defined by nodes and links connecting the nodes.
  • the road information 223 of the present embodiment stores information relating to the position of the intersection, the approach direction of the intersection, the type of the intersection, and other intersections for each road link identification information.
  • the road information 223 includes road type, road width, road shape, whether to go straight, whether to go straight ahead, whether to advance, whether to pass (whether it can enter the adjacent lane), and other roads. Information is stored in association with each other.
  • the navigation device 220 calculates a route on which the host vehicle travels based on the current position of the host vehicle detected by the position detection device 221.
  • the navigation device 220 refers to road information 223 described later, and identifies a road link as a route on which the host vehicle travels.
  • the route of the present embodiment includes specific information (coordinate information) of one or more points where the host vehicle will pass in the future.
  • the traffic rule information 224 of the present embodiment is a rule relating to traffic that the vehicle should comply with when traveling, such as temporary stop, parking / stop prohibition, slow speed, and speed limit on the route. Each rule is defined for each point (latitude, longitude) and for each link.
  • the traffic rule information 224 may include traffic signal information acquired from a device provided on the road side.
  • the in-vehicle device 200 of the present embodiment includes an obstacle detection device 230.
  • the obstacle detection device 230 of the present embodiment detects the situation around the host vehicle.
  • the obstacle detection device 230 of the host vehicle detects the presence of obstacles including obstacles existing around the host vehicle and the position of the obstacle.
  • the obstacle detection device 230 of the present embodiment includes a camera 231.
  • the camera 231 of the present embodiment is an imaging device that includes an imaging element such as a CCD.
  • the camera 231 may be an infrared camera or a stereo camera.
  • the camera 231 is installed at a predetermined position of the host vehicle, and images obstacles around the host vehicle.
  • the periphery of the host vehicle includes the front, rear, front side, and rear side of the host vehicle.
  • the obstacle includes a moving object such as a pedestrian, a two-wheeled vehicle, another vehicle such as a four-wheeled vehicle.
  • the obstacle detection device 230 may analyze the image data and identify the type of the obstacle based on the analysis result.
  • the obstacle detection device 230 identifies whether the obstacle included in the image data is a moving object such as a vehicle or a pedestrian or a stationary object such as a sign using a pattern matching technique or the like.
  • the obstacle detection device 230 processes the acquired image data and acquires the positional relationship between the obstacle and the host vehicle.
  • the obstacle detection device 230 calculates the distance / arrival time from the host vehicle to the obstacle.
  • the obstacle detection device 230 of the present embodiment may use the radar device 232.
  • the radar device 232 a system known at the time of filing such as a millimeter wave radar, a laser radar, an ultrasonic radar, or the like can be used.
  • the obstacle detection device 230 detects the presence / absence of the obstacle, the position of the obstacle, and the distance to the obstacle based on the received signal of the radar device 232.
  • the obstacle detection device 230 detects the presence / absence of the obstacle, the position of the obstacle, and the distance to the obstacle based on the clustering result of the point cloud information acquired by the laser radar.
  • the obstacle detection device 230 displays the state information such as the vehicle speed, the moving direction, and the acceleration of the other vehicle detected by the vehicle speed sensor of the other vehicle as an obstacle. It may be acquired as information.
  • the obstacle detection device 230 can also acquire state information including the position, moving direction, speed, and acceleration of another vehicle from an external device of the intelligent transportation system.
  • the in-vehicle device 200 of this embodiment includes a lane departure prevention device 240.
  • the lane departure prevention device 240 includes a camera 241 and road information 242.
  • the camera 241 may share the camera 231 of the obstacle detection device.
  • the road information 242 may share the road information 223 of the navigation device.
  • the lane departure prevention device 240 detects a route along which the host vehicle travels from an image captured by the camera 241.
  • the lane departure prevention device 240 includes a lane departure prevention function (lane keep support function) that controls the movement of the host vehicle so that the position of the lane marker in the lane of the route and the position of the host vehicle maintain a predetermined relationship.
  • the driving support device 100 controls the movement of the host vehicle so that the host vehicle travels in the center of the lane.
  • the in-vehicle device 200 of this embodiment includes an output device 250.
  • the output device 250 includes a display 251 and a speaker 252.
  • the output device 250 according to the present embodiment outputs various types of information related to driving assistance to a user or a passenger in a surrounding vehicle.
  • the output device 250 outputs the contents of driving assistance and information related to driving control based on the driving assistance.
  • a passenger in the host vehicle is informed in advance via the display 251 and the speaker 252 that a route change, deceleration, acceleration, and steering for avoiding contact with an obstacle are executed.
  • the output device 250 of the present embodiment may output various types of information related to driving assistance to an external device such as an intelligent transportation system (ITS) via a communication device.
  • ITS intelligent transportation system
  • the driving support device 100 will be described.
  • the driving support device 100 of this embodiment includes a driving support processor 10, an output device 20, and a communication device 30.
  • the output device 20 sends the determined driving support content to the in-vehicle device 200.
  • the output device 20 has the same function as the output device 250 of the in-vehicle device 200 described above.
  • the display 251 and the speaker 252 of the in-vehicle device 200 can be used as the output device 20 of the driving support device 100.
  • the communication device 30 executes communication with the outside of the driving support system 1 or communication with each device constituting the driving support system 1.
  • the devices included in each driving support system 1 can exchange information with each other via a wired or wireless communication line.
  • the driving support device 100 includes a driving support processor 10 that functions as the control device.
  • the driving support processor 10 detects a common point between the first detection boundary set on the moving direction side of the host vehicle V1 and the second detection boundary set on the moving direction side of the obstacle, and shares the same with the host vehicle V1. Determine the position of the point.
  • the driving support processor 10 acquires state information including the moving direction of the host vehicle V1.
  • the state information includes state information of the host vehicle V1 and state information of obstacles such as other vehicles.
  • the state information includes the position, moving direction, speed, and acceleration of the host vehicle V1 and / or another vehicle.
  • the state information of the host vehicle V1 is acquired from the in-vehicle device 200.
  • the state information of the other vehicle is detected by the detection device 260 (or a similar detection device) of the in-vehicle device 200 provided in the other vehicle.
  • the pedestrian state information is detected by a GPS function and a speed / acceleration detection function of a smartphone carried by the pedestrian.
  • the state information of obstacles such as other vehicles and pedestrians is acquired via the communication device 30.
  • the driving support processor 10 detects a common point between the first detection boundary and the second detection boundary, and a ROM (Read Only) that stores a program for determining the content of the driving support based on the position of the common point with respect to the host vehicle V1.
  • Memory CPU
  • a CPU Central Processing Unit
  • RAM Random Access Memory
  • the driving support processor 10 includes a storage medium in which a program for executing driving support processing is stored.
  • This process may be started when the host vehicle V1 enters the region R1 based on the intersection shown in FIG. 2A.
  • the driving support processor 10 information on the intersection position R ⁇ b> 0 defined in advance is included in the road information 242. This process is triggered by the fact that the current position of the host vehicle V1 detected by the position detection device 221 belongs to the region R1 set based on the position R0.
  • the driving support processor 10 determines the other vehicle V3 (based on the movement direction (route) DV1 of the host vehicle V1 calculated by the navigation device 220 and the temporal change of the captured image of the camera 241 mounted on the vehicle.
  • Vn: n is a natural number equal to or greater than 2), and the movement direction DH of the pedestrian H1 is acquired.
  • the driving support processor 10 sets a first detection boundary ahead of the moving direction of the host vehicle V1 based on the moving direction of the host vehicle V1 included in the state information.
  • the number of first detection boundaries may be one or more.
  • boundaries having different distances from the host vehicle V1 are set.
  • the driving support processor 10 sets the second detection boundary ahead of the moving direction of the other vehicle Vn based on the moving direction of the other vehicle included in the state information.
  • a second detection boundary is set for each of the other vehicles Vn.
  • a pedestrian is detected as an obstacle, a second detection boundary is set for each pedestrian. Since the movement speed of the pedestrian is low, the second detection boundary of the pedestrian is provided along the movement direction including the current position.
  • the movement direction is set wide so that the pedestrian has a circle or ellipse.
  • the driving support processor 10 sets boundaries having different distances to other vehicles.
  • the driving support processor 10 includes the shortest distance boundary from the own vehicle V1 / the obstacle, the farthest distance boundary from the own vehicle V1 / the obstacle, the shortest distance boundary, Set a medium-range boundary located between the long-range boundary.
  • the detection boundary setting method is not particularly limited, the driving support processor 10 calculates each moving speed (moving amount for a predetermined unit time) from the host vehicle V1 / obstacle state information, and according to the moving amount.
  • a plurality of detection boundaries are set at equal intervals or unequal intervals.
  • the intervals between the detection boundaries may be longer as they are separated from the host vehicle V1 / obstacles, or may be shortened as they are separated from the host vehicle V1 / obstacles. May be.
  • the driving support processor 10 predicts the movement of the host vehicle V1 / obstacle on the basis of the position / velocity of the host vehicle V1 / obstacle detected at two different timings, and determines the probability that the host vehicle V1 / obstacle exists. A position on a high route may be calculated, and a detection boundary may be set at a position where the existence probability is determined to be high. Further, the detection boundary may be set according to the road attribute, traffic volume, speed limit, and the like with reference to the road information 223. At this time, the detection boundary interval may be set longer as the speed limit is higher, and the detection boundary interval may be set shorter as the traffic volume increases.
  • the size of the first detection boundary is defined and stored in advance according to the size of the host vehicle V1.
  • the size of the first detection boundary may be determined based on the vehicle speed included in the state information of the host vehicle V1. The higher the vehicle speed, the longer the length of the first detection boundary in the moving direction, and the lower the vehicle speed, the shorter the length of the first detection boundary in the moving direction.
  • the size of the second detection boundary may be determined according to the size of the detected obstacle (other vehicle). Further, the size of the second detection boundary may be determined based on the speed of the obstacle. The higher the speed of the obstacle, the longer the length of the second detection boundary in the moving direction, and the lower the speed, the smaller the length of the second detection boundary in the moving direction.
  • the size of the detection boundary may be determined according to road attributes, traffic volume, speed limit, and the like. The detection boundary size may be set larger as the speed limit is higher, and the detection boundary size may be set smaller as the traffic volume increases.
  • the number of first / second detection boundaries can be defined in advance. You may obtain
  • the driving support processor 10 sets one or a plurality of detection boundaries on the moving direction side of the host vehicle V1.
  • the detection boundary setting method is not particularly limited, a region RV1 along the moving direction (path) DV1 of the host vehicle V1 is set.
  • the driving support processor 10 sets a region RV3 in the moving direction (path) DV3 of the other vehicle V2.
  • the driving support processor 10 sets one or a plurality of first detection boundaries B1 in the region RV1.
  • the driving support processor 10 may set one or a plurality of first detection boundaries B1 along the moving direction (route) DV1 of the host vehicle V1 without setting the region RV1.
  • the driving support processor 10 detects the first detection boundary B11 at a distance D11 from the host vehicle V1, the first detection boundary B12 at a distance D12 (D12> D11) from the host vehicle V1, and the distance D13 (from the host vehicle V1).
  • the method for measuring the distance D between the host vehicle V1 and the first detection boundary B is not particularly limited, and as shown in FIG. 2C, the distance from the front portion of the host vehicle V1 to the boundary of the first detection boundary B on the moving direction side. Alternatively, the distance from the center of gravity of the host vehicle V1 to the center of gravity of the first detection boundary B may be used.
  • the driving support processor 10 sets one or a plurality of second detection boundaries B3 for the other vehicle V3.
  • the driving support processor 10 may sequentially set the second detection boundaries B31, B32, B33 on the moving direction side of the other vehicle V3, or a plurality of second detection boundaries B31, B32, B33 may be set at a time.
  • the driving support processor 10 detects a common point between the first detection boundary and the second detection boundary.
  • the “shared point” in the present embodiment is a concept including an intersection, a contact point, and an overlapping point.
  • the driving support processor 10 can determine how the host vehicle V1 comes into contact with an obstacle based on the position of the common point with respect to the host vehicle V1. From the viewpoint of determining contact between the host vehicle V1 and the obstacle, the shared point is a point where the first detection boundary and the second detection boundary moving together with the host vehicle V1 are in contact with each other at the earliest timing, intersecting points, or overlapping points.
  • the common point may be a point where the second detection boundary and the first detection boundary on the moving direction side (front) of the other vehicle V2 are in contact with, intersecting with each other, or overlapping.
  • the driving support processor 10 determines the position of the detected shared point with respect to the host vehicle V1. Specifically, whether the common point is located on the front (front) side of the host vehicle V1, the side (side) side of the host vehicle V1, or the rear (rear) side of the host vehicle V1 Judging.
  • the first detection boundary constituting the common point indicates the position where the host vehicle is scheduled to exist
  • the second detection boundary indicates the position where the other vehicle is scheduled to exist.
  • the shape of the first detection boundary has a corresponding relationship with the shape of the host vehicle
  • the shape of the second detection boundary has a corresponding relationship with the shape of the other vehicle.
  • 2C and 2D is a rectangular shape surrounding the own vehicle V1 / other vehicle in a plan view (overhead view) with a substantially rectangular outline.
  • each side of the first / second detection boundary is located at the front / side / back of the host vehicle V1. It is possible to determine which one corresponds.
  • a common point CT13 exists between the first detection boundary B13 of the host vehicle V1 and the second detection boundary B33 of the other vehicle V3.
  • the common point CT13 is located on the side of the first detection boundary B13, that is, on the side portion of the host vehicle V1.
  • the first detection boundary B13 of the own vehicle V1 and the second detection boundary B33 ′ of the other vehicle V3 ′ have a common point.
  • CT13 ' exists.
  • the common point CT13 ′ is located on the front side of the first detection boundary B13, that is, the front portion of the host vehicle V1.
  • the driving support processor 10 stores first / second detection boundaries whose shapes and sizes are specified in advance.
  • the first / second detection boundary B may be a rectangle as shown in FIG. 4A, or may be a shape constituted by a curve such as a circle or an ellipse as shown in FIG. 4B.
  • a shape having a vertex as shown in FIG. 4A or a shape without a vertex as shown in FIG. 4B may be used. Although not shown, it may have a shape composed of a straight line and a curved line.
  • first / second detection boundary B For the first / second detection boundary B, a front part, a side part, and a rear part are defined for each shape.
  • the shape of the first / second detection boundary B shown in FIGS. 4A and 4B is a rectangular or elliptical shape surrounding the own vehicle V1 / other vehicle in a plan view (overhead view) with a substantially rectangular outline.
  • the side along the Y-axis direction is the side portion S (SR, SR, SR) of the host vehicle V1.
  • the side located along the X axis and located on the + Y side is defined as the front part F of the host vehicle V1
  • the side located along the X axis direction and located on the -Y side is defined as the rear part of the host vehicle V1.
  • R is defined.
  • the four axes of the axes Y1, Y2 passing through the origin G and intersecting at a predetermined angle (except 90 degrees) and the first / second detection boundary B are shown.
  • the first / second detection boundary B is divided into four, the long side portion along the Y-axis direction is defined as the side portion S (SR, SL) of the host vehicle V1, and the short side along the X-axis direction is defined.
  • the side portion that is located on the + Y side is defined as the front portion F of the host vehicle V1
  • the short side portion that is located on the ⁇ Y side is the rear portion of the host vehicle V1.
  • R is defined.
  • the driving support processor 10 determines the content of driving support for the host vehicle V1 based on the position of the common point between the first detection boundary and the second detection boundary with respect to the host vehicle V1.
  • the presence of a common point between the first detection boundary and the second detection boundary is evaluated as the possibility that the host vehicle V1 and the obstacle will come into contact in the future.
  • this common point is the position of the front part, the side part, or the rear part of the host vehicle V1
  • the contact mode between the host vehicle V1 and an obstacle (another vehicle) ( Predict how to collide.
  • the inventors of the present application pay attention to the fact that the contact avoidance method differs if the contact mode (collision method) between the host vehicle V1 and the obstacle (the other vehicle) is different, and by appropriate driving assistance according to the contact mode. , Avoid contact with obstacles.
  • the driving support processor 10 provides driving support for contact avoidance according to driving contents including one or a combination of deceleration control of the host vehicle V1, acceleration control of the host vehicle V1, and steering control of the host vehicle V1. Execute. Conventionally, when the distance to a certain point and the arrival time are less than a predetermined threshold, uniform control is performed such as decelerating the host vehicle V1. This is based on the viewpoint that the own vehicle V1 stops itself approaching the obstacle. According to the operation of decelerating or stopping the host vehicle V1, there is a high degree of certainty that contact with an obstacle can be avoided.
  • the deceleration or stop of the host vehicle V1 may cause a disturbance in the traffic flow to which the host vehicle V1 belongs, and may cause a traffic jam or approach / contact between other vehicles.
  • driving support according to the contact mode is executed. Since contact with an obstacle can be avoided not only by deceleration control but also by steering and acceleration, a contact avoidance method according to the contact mode can be selected flexibly. As in this embodiment, it is possible to reduce abrupt deceleration control by flexible contact avoidance by steering and acceleration according to the contact mode, and to prevent the occurrence of traffic flow disturbance.
  • the driving support method does not perform only the deceleration control when the possibility of contact is predicted, but predicts the contact mode from the position of the common point, and performs various operations according to the contact mode. To avoid contact with other vehicles (obstacles).
  • the driving support processor 10 determines the content of driving support based on the state information related to the steering of the host vehicle V1 and the position of the common point with respect to the host vehicle V1.
  • the state information related to the steering of the host vehicle V1 includes the steering amount detected by the steering angle sensor 261 of the host vehicle V1.
  • the driving support processor 10 determines whether the host vehicle V1 is being steered (the steering amount is greater than or equal to a predetermined value P1), the host vehicle V1 is turning right, or the host vehicle V1 is turning left Or whether the host vehicle V1 is traveling straight (the steering amount is less than a predetermined value P2: P2 ⁇ P1).
  • the predetermined value P2 is an upper limit of the steering amount that can be determined that the host vehicle V1 is traveling straight.
  • the mode of contact with the obstacle can be more specifically determined by considering the steering state / straight traveling state of the host vehicle V1. Since driving assistance for avoiding contact is determined according to a specific mode of contact, contact can be avoided by smooth driving.
  • the driving support processor 10 causes the driving device 270, the braking device 271 and the steering device 280 of the host vehicle V1 to execute a driving support control process of the determined content via the vehicle controller 210. Since the driving assistance according to the mode is performed for the contact with the obstacle, the host vehicle V1 can be driven so as not to disturb the traffic flow while avoiding the contact with the obstacle.
  • step S1 the driving support processor 10 acquires state information detected by the detection device 260 of the host vehicle V1.
  • the state information includes one or more of information on the moving direction of the host vehicle V1, the steering amount of the host vehicle V1, the steering direction, the vehicle speed, the acceleration, and the attitude.
  • the moving direction may be acquired from the navigation device 220.
  • step S2 the driving support processor 10 acquires obstacle information about the obstacle detected by the obstacle detection device 230 of the host vehicle V1.
  • Obstacle information includes the location of the obstacle, information about whether the obstacle is a moving body or a stationary object, information about whether the obstacle is a vehicle or a pedestrian, the direction of movement of the obstacle, and the speed of movement. And one or more of acceleration.
  • the driving support processor 10 uses the communication device 30 directly or directly via an external device, and detects the detection result (movement direction, steering amount, steering direction, Vehicle speed, acceleration, and attitude information) and other vehicle identification information may be acquired.
  • step S3 the driving support processor 10 sets a first detection boundary ahead of the moving direction of the host vehicle V1.
  • the number of set first detection boundaries may be one or plural.
  • step S4 the driving support processor 10 sets a second detection boundary ahead of the moving direction of the other vehicle Vn.
  • One or a plurality of second detection boundaries may be set.
  • step S5 the driving support processor 10 detects a common point (including a contact point, an intersection point, and an overlapping point) between the first detection boundary and the second detection boundary.
  • step S ⁇ b> 6 the driving support processor 10 determines the position (front / side / rear) of the detected shared point with respect to the host vehicle V ⁇ b> 1 and determines the content of driving support based on the position.
  • FIG. 6 shows the correspondence between the position of the shared point relative to the host vehicle V1 and the content of driving assistance.
  • the driving support processor 10 of the present embodiment steers the content of driving support of the host vehicle V1 when the position of the common point is the front part of the host vehicle V1. And The driving support processor 10 selects “steering” from steering, acceleration, and deceleration that are defined in advance as the content of driving support for the host vehicle V1. Since the determination of the content of driving assistance is only the selection process, the processing load is reduced. Depending on the surrounding conditions, the host vehicle V1 may not be able to steer, so steering is not necessarily performed. If it is determined that steering of the host vehicle V1 is impossible due to a situation in which another vehicle stops and the lane is blocked, or there is a pedestrian, the host vehicle V1 cannot be steered.
  • the driving support processor 10 first examines whether the host vehicle V1 can avoid contact with an obstacle by steering.
  • the host vehicle V1 can be steered and contact with an obstacle can be avoided by steering, the content of driving assistance is determined to be steering.
  • the position of the common point is the front portion of the host vehicle V1
  • contact avoidance can be achieved by various methods according to the contact mode, so that traffic flow is not hindered.
  • the driving support processor 10 of the present embodiment accelerates the content of driving support for the host vehicle V1 when the position of the common point with respect to the host vehicle V1 is the rear portion of the host vehicle V1.
  • the driving support processor 10 selects “acceleration” among steering, acceleration, and deceleration that are defined in advance as the content of driving support for the host vehicle V1. Since the determination of the content of driving assistance is only the selection process, the processing load is reduced. Depending on the surrounding conditions, the host vehicle V1 may not be able to accelerate, so the acceleration is not necessarily performed. If it is determined that acceleration of the host vehicle V1 is impossible due to a short distance from the preceding other vehicle or the presence of a pedestrian, the host vehicle V1 cannot be accelerated.
  • the driving support processor 10 first examines whether the host vehicle V1 can avoid contact with an obstacle due to acceleration.
  • the host vehicle V1 can be accelerated and contact with an obstacle can be avoided by the acceleration, the content of the driving assistance is determined to be acceleration.
  • the position of the common point is the rear portion of the host vehicle V1
  • contact avoidance by acceleration is examined. By accelerating, the position of the host vehicle V1 is shifted forward, and the rear portion of the host vehicle V1 is prevented from coming into contact with an obstacle. In situations where acceleration is not possible, it is of course possible to avoid contact by decelerating and stopping.
  • the driving support processor 10 of the present embodiment sets the content of driving support for the host vehicle V1 as acceleration or deceleration when the position of the shared point with respect to the host vehicle V1 is the side portion of the host vehicle V1.
  • the driving support processor 10 selects “acceleration or deceleration” from among steering, acceleration, and deceleration defined in advance as the content of driving support for the host vehicle V1.
  • the content of driving support is narrowed down, and the determination can be made only by the selection process, so the processing load is reduced.
  • the obstacle By decelerating, the obstacle can pass in front of the vehicle V1.
  • the case where the shared point is the side of the host vehicle V1 means that another vehicle may come into contact with the side surface of the host vehicle V1. In this case, contact avoidance by steering is not considered. Since the area / length of the side part of the host vehicle V1 is longer than that of the front part / rear part, even if the position of the host vehicle V1 is shifted in the lateral direction (X direction in the figure), it touches the obstacle before and after that. Because there is a possibility. Of course, it is also possible to avoid contact by stopping. Thus, when the position of the common point is the side portion of the host vehicle V1, first, contact avoidance by acceleration is examined. By accelerating, it is avoided that the host vehicle V1 passes in front of the obstacle and the side portion of the host vehicle V1 comes into contact with the obstacle. In situations where acceleration is not possible, it is of course possible to avoid contact by decelerating and stopping.
  • step S7 the driving support processor 10 transmits the determined content to the vehicle controller 210, and causes the vehicle controller 210 to execute the driving support control process.
  • the vehicle controller 210 sends a control command to the drive device 270 and the steering device 280 to control the operation of the host vehicle V1.
  • FIG. 7 and 8 show the subroutine of step S6 of the flowchart of FIG.
  • FIG. 7 shows a process for determining a contact avoidance technique when the host vehicle V1 is turning
  • FIG. 8 shows a process for determining a contact avoidance technique when the host vehicle V1 is traveling straight
  • FIG. 9 is information in which the position of the common point is associated with the content of driving support for avoiding contact during straight traveling and turning.
  • FIG. 9 describes the contents of driving assistance that may be employed.
  • the steering is first examined in either case of straight traveling or turning. By avoiding contact with obstacles without slowing down or stopping, traffic flow can be prevented.
  • acceleration is first considered in either case of straight travel or turning. By avoiding contact with obstacles without slowing down or stopping, traffic flow can be prevented.
  • the position of the common point is the rear portion of the host vehicle V1, acceleration is first examined in either case of straight travel or turning. By avoiding contact with obstacles without slowing down or stopping, traffic flow can be prevented.
  • step S 11 when a shared point is detected by the process of step 5 of FIG. 5 (Yes in S11), the driving support processor 10 acquires the state information of the own vehicle V1 (S12). In step S ⁇ b> 13, the driving support processor 10 determines whether the host vehicle V ⁇ b> 1 is turning or going straight. When the host vehicle V1 is in a turning state, the process proceeds to step S14. Otherwise (in the case of a straight traveling state), the process proceeds to step S33 in FIG.
  • step S14 when the driving support processor 10 determines that the position of the shared point is the front portion of the host vehicle V1, the process proceeds to step S15.
  • step S15 when the driving support processor 10 determines that steering is possible, the driving support content for avoiding contact is determined to be steering. The determination as to whether or not the steering is possible is made based on whether or not there is a space (route) in which the vehicle V1 after steering can travel. Considering the position of obstacles such as other surrounding vehicles, if there is a space where the host vehicle V1 can travel after steering, it is determined that steering is possible.
  • the driving support processor 10 makes a determination based on the captured image of the camera 231 mounted on the host vehicle V1 or the detection result of the radar device 232.
  • FIG. 10A is a view overlooking a state in which the host vehicle V1 is being steered and the set common point CT12 of the first detection boundary B1 and the second detection boundary B2 is located at the front portion of the host vehicle V1.
  • the host vehicle V1 is scheduled to travel along the route A1.
  • the driving support processor 10 detects the common point CT12 between the first detection boundary B1 and the second detection boundary B2, and predicts the possibility of contact with the other vehicle V2. It is assumed that the driving support processor 10 selects the steering as the contact avoidance method because the common point CT12 is located at the front portion of the host vehicle V1.
  • the driving support processor 10 steers the host vehicle V1 in the right direction at a point upstream of the position of the first detection boundary B1.
  • the route of the host vehicle V1 is changed from the route A1 to the route A2, and the position of the first detection boundary B1 moves to the position of the first detection boundary B1 ′.
  • the common point CT12 between the first detection boundary B1 and the second detection boundary B2 disappears (is not detected), and the first detection boundary B1 ′ and the second detection boundary B2 include common points including contact points, intersections, and overlapping points. not exist.
  • the host vehicle V1 can avoid contact with the other vehicle V2 by steering.
  • step S15 If it is determined in step S15 that steering is impossible, it is determined whether acceleration is possible.
  • the driving support processor 10 examines whether or not the possibility of contact with an obstacle becomes zero when the host vehicle V1 accelerates. When the position of the common point is the front portion of the host vehicle V1, it is extremely difficult to reduce the possibility of contact by acceleration. For this reason, when steering is impossible, it progresses to step S22 and deceleration control is employ
  • step S16 the driving support processor 10 proceeds to step S17 when it is determined that the position of the shared point is the side portion.
  • step S ⁇ b> 17 if the driving support processor 10 determines that acceleration is possible, the driving support content for avoiding contact is determined to be acceleration. Whether or not this acceleration is possible is determined based on whether or not there is a space (route) in which the host vehicle V1 can travel from the start of acceleration to the cancellation of acceleration. Considering the position of obstacles such as other surrounding vehicles, if there is a space where the host vehicle V1 can travel until the end of acceleration, it is determined that acceleration is possible. Whether or not acceleration is possible may be determined based on the distance from the preceding other vehicle.
  • the surrounding situation is determined based on the captured image of the camera 231 or the detection result of the radar device 232. Further, the driving support processor 10 examines whether or not the possibility of contact with an obstacle becomes zero when the host vehicle V1 accelerates. If acceleration is possible in step S17, the process proceeds to step S24 and acceleration control is executed. If not, the process proceeds to step S22 and deceleration control is executed. Thereafter, step S7 of FIG. 5 is executed.
  • FIG. 10B is a view overlooking a state in which the host vehicle V1 is being steered and the set common point CT12 of the first detection boundary B1 and the second detection boundary B2 is located on the side portion of the host vehicle V1.
  • the host vehicle V1 is scheduled to travel along the route A1.
  • the driving support processor 10 detects the common point CT12 between the first detection boundary B1 and the second detection boundary B2, and predicts the possibility of contact with the other vehicle V2. It is assumed that the driving support processor 10 selects the acceleration as the contact avoidance method because the common point CT12 is located on the side portion of the host vehicle V1.
  • the driving support processor 10 accelerates the host vehicle V1 at a point upstream of the position of the first detection boundary B1.
  • the position of the first detection boundary B1 moves to the position of the first detection boundary B1 ′.
  • the common point CT12 between the first detection boundary B1 and the second detection boundary B2 disappears (is not detected), and the first detection boundary B1 ′ and the second detection boundary B2 include common points including contact points, intersections, and overlapping points. not exist.
  • the host vehicle V1 can avoid contact with the other vehicle V2 by steering.
  • step S18 if the driving support processor 10 determines that the position of the shared point is the rear part, the operation supporting processor 10 proceeds to step S24 and executes acceleration. If it is predicted that the rear portion will come into contact with an obstacle, the range of contact may be expanded if the host vehicle V1 is decelerated. For this reason, the driving support processor 10 of this embodiment first performs contact avoidance by acceleration. Further, as indicated by a broken line, the driving support processor 10 first determines whether or not acceleration is possible in step S17. If yes, the driving support processor 10 proceeds to step S24 to execute acceleration control, and otherwise, proceeds to step S22. You may perform advance deceleration control.
  • FIGS. 10C and 10D are views overlooking a state in which the host vehicle V1 is being steered and the set common point CT12 of the first detection boundary B1 and the second detection boundary B2 is located at the rear portion of the host vehicle V1. It is.
  • FIG. 10C shows a situation where the other vehicle V2 turns left from the oncoming lane
  • FIG. 10D shows a situation where the other vehicle V2 enters the lane where the own vehicle V1 enters from behind the own vehicle V1.
  • FIGS. 10C and 10D it is assumed that the host vehicle V1 is scheduled to travel along the route A1.
  • the driving support processor 10 detects the common point CT12 between the first detection boundary B1 and the second detection boundary B2, and predicts the possibility of contact with the other vehicle V2. It is assumed that the driving support processor 10 selects acceleration as a contact avoidance method because the common point CT12 is located in the rear portion of the host vehicle V1. The driving support processor 10 accelerates the host vehicle V1 at a point upstream of the position of the first detection boundary B1. As a result, the position of the first detection boundary B1 moves to the position of the first detection boundary B1 ′.
  • the common point CT12 between the first detection boundary B1 and the second detection boundary B2 disappears (is not detected), and the first detection boundary B1 ′ and the second detection boundary B2 include common points including contact points, intersections, and overlapping points. not exist.
  • the host vehicle V1 can avoid contact with the other vehicle V2 by steering.
  • steps S11 and S12 is the same as the processing shown in FIG.
  • the driving support processor 10 proceeds to step S34 when the host vehicle V1 is in the straight traveling state, and proceeds to step S13 in FIG. 7 otherwise (when in the turning state).
  • step S34 the driving support processor 10 determines in step S34 in the flowchart of FIG. 8 that the position of the shared point is the front part of the host vehicle V1
  • the process proceeds to step S35.
  • the driving support processor 10 determines that steering is possible
  • the driving support content for avoiding contact is determined to be steering (S40). The determination of whether or not steering is possible is performed by the method described above. If it is determined in step S35 that steering is impossible, it is determined whether or not acceleration is possible.
  • the driving support processor 10 examines whether or not the possibility of contact with an obstacle becomes zero when the host vehicle V1 accelerates. When the position of the common point is the front portion of the host vehicle V1, it is extremely difficult to reduce the possibility of contact by acceleration. For this reason, when acceleration is impossible, it progresses to step S42 and deceleration control is employ
  • step S36 the driving support processor 10 proceeds to step S37 when it is determined that the position of the shared point is the side portion. If it is determined that acceleration is possible, the content of driving assistance for avoiding contact is determined as acceleration. Whether or not this acceleration is possible is determined based on whether or not there is a space (route) in which the host vehicle V1 can travel from the start of acceleration to the cancellation of acceleration. Considering the position of obstacles such as other surrounding vehicles, if there is a space where the host vehicle V1 can travel until after acceleration, it is determined that acceleration is possible. If acceleration is possible in step S37, the process proceeds to step S44 and acceleration control is executed. Otherwise, the process proceeds to step S42 and deceleration control is executed.
  • step S38 the driving support processor 10 proceeds to step S37 when it is determined that the position of the common point is the rear portion, determines whether or not acceleration is possible, and proceeds to step S44 when acceleration is possible. If not, the process proceeds to step S42 to execute deceleration control. Thereafter, step S7 of FIG. 5 is executed.
  • the first detection boundary includes a plurality of boundaries with different distances to the host vehicle V1
  • the second detection boundary includes a plurality of boundaries with different distances to another vehicle as an obstacle.
  • the first detection boundary set in front of the host vehicle V1 is from the first detection boundary B11 having the shortest distance D11 from the host vehicle V1 and the host vehicle V1.
  • the driving support processor 10 has a distance from the first detection boundary that forms a common point to the host vehicle V1 and a second detection boundary. Based on the distance to the other vehicle (obstacle), the content of the driving assistance is determined. As shown in FIG. 11, the driving support processor 10 of the present embodiment performs driving support for emergency avoidance when there is a common point on the first detection boundary and the second detection boundary of the shortest distance, and the medium distance When there is a common point at the first detection boundary and the second detection boundary, driving assistance for directly avoiding an obstacle is executed, and there is a common point at the first detection boundary and the second detection boundary at the farthest distance. When driving, the driving assistance for changing the planned travel route is executed.
  • the driving assistance for emergency avoidance includes immediately decelerating, stopping, shoulder movement, etc. in order to avoid approach / contact with an obstacle.
  • the driving assistance for directly avoiding an obstacle in the present embodiment is to travel along a route that avoids the area where the obstacle exists.
  • Driving support for directly avoiding obstacles according to the present embodiment means steering, acceleration, and deceleration that avoid contact with obstacles even if the posture of the host vehicle V1 changes by a predetermined amount or more. is there.
  • the change of the driving plan of the present embodiment is to change the travel route and the driving control contents so that the posture of the host vehicle V1 does not change by a predetermined amount or more.
  • the attitude of the host vehicle V1 is acquired from the attitude sensor 263.
  • the change of the driving plan in the present embodiment is to cancel the initial driving route, set a new driving route that does not approach the obstacle, and create / execute a driving control command for driving the new driving route. It is.
  • the attitude of the host vehicle V1 is acquired from the attitude sensor 263. For example, changing the travel route includes changing the lane, raising the steering timing, and changing the set speed for traveling on the planned route.
  • FIG. 12 is a flowchart illustrating processing for determining the content of driving assistance when a first detection boundary and a second detection boundary including a plurality of boundaries at different positions are set.
  • the process shown in FIG. 12 is performed after steps S1 to S5 in FIG. Specifically, in step S3 of FIG. 5, the driving support processor 10 of the present embodiment, as the first detection boundary, the three boundaries having different distances from the host vehicle V1, the boundary of the shortest distance, the boundary of the intermediate distance, Set the far boundary. In step S4 of FIG. 5, the driving support processor 10 according to the present embodiment uses, as the second detection boundary, three boundaries having different distances from the other vehicle Vn, the shortest distance boundary, the middle distance boundary, and the farthest distance boundary. Set. In step S5 of FIG. 5, the driving support processor 10 detects a common point between the first detection boundary and the second detection boundary. Steps S1 to S5 are repeated until a shared point is detected.
  • the driving support processor 10 executes the processing shown in FIG.
  • the driving support processor 10 determines whether the first detection boundary constituting the common point is the shortest distance boundary, the middle distance boundary, or the farthest distance boundary among the three boundaries. .
  • the driving support processor 10 determines whether the second detection boundary constituting the common point is the shortest distance boundary, the middle distance boundary, or the farthest distance boundary among the three boundaries. Judging.
  • step S51 of FIG. 12 the driving support processor 10 determines whether or not the detected shared point exists on the “shortest distance boundary” having the shortest distance from the host vehicle V1. If so, the process proceeds to step S52, and it is determined whether or not the detected shared point is present at the “shortest distance boundary” having the shortest distance from the other vehicle Vn.
  • driving assistance defined as emergency avoidance is executed. For example, driving assistance for avoiding contact such as deceleration, stop, and shoulder movement by steering. From the viewpoint of emergency avoidance, braking at a predetermined acceleration (negative) or higher is executed in driving support for deceleration and stop. In driving support for movement, steering that is equal to or greater than a predetermined steering amount / steering speed is executed.
  • FIG. 13A is a view overlooking the state where the common point CT12 is on the first detection boundary B11 and the second detection boundary B21 which are “the shortest distance boundary”. Assume that the host vehicle V1 is scheduled to travel along the route A1. It is assumed that the driving support processor 10 detects the common point CT12 on the first detection boundary B11 and the second detection boundary B21 that are “the shortest distance boundary” and predicts the possibility of contact with the other vehicle V2. The driving support processor 10 executes driving support defined as emergency avoidance.
  • the driving support processor 10 decelerates to or stops the host vehicle V1 before reaching the first detection boundary B11, or steers leftward at a point upstream of the first detection boundary B11 and moves in the A1 ′ direction (first It moves in the direction opposite to the detection boundary B11). Accordingly, the position of the first detection boundary B11 of the host vehicle V1 moves to another position. The common point CT12 of the first detection boundary B11 and the second detection boundary B21 disappears (not detected). The host vehicle V1 can urgently avoid contact with the other vehicle V2.
  • the driving support processor 10 determines that the detected shared point is a medium distance boundary (longer than the shortest distance and shorter than the farthest distance) with a medium distance from the host vehicle V1. Determine if it exists above. If so, the process proceeds to step S55, and the detected shared point is present at the “intermediate distance boundary” where the distance from the other vehicle Vn is medium (longer than the shortest distance and shorter than the farthest distance). Judge whether to do. When the common point exists on the first detection boundary and the second detection boundary at the middle distance, the process proceeds to step S56, and driving assistance defined as obstacle avoidance for directly avoiding the obstacle is executed. For example, the host vehicle V1 is moved along a route that avoids an obstacle existing area.
  • FIG. 13B is a view overlooking the state where the common point CT12 is on the first detection boundary B12 and the second detection boundary B22 which are “medium distance boundaries”. Assume that the host vehicle V1 is scheduled to travel along the route A1. It is assumed that the driving support processor 10 detects the common point CT12 on the first detection boundary B12 and the second detection boundary B22 which are “medium distance boundaries” and predicts the possibility of contact with the other vehicle V2. The driving support processor 10 executes driving support defined as “avoidance of obstacles”. The driving support processor 10 moves the host vehicle V1 in a direction that avoids the position where the second detection boundary B22 of the other vehicle V2 is set.
  • the host vehicle V1 may be decelerated and moved in the direction A1 ′, and may turn right after the other vehicle V2 passes. As a result, the position of the first detection boundary B12 of the host vehicle V1 moves to another position. The common point CT12 of the first detection boundary B12 and the second detection boundary B22 disappears (not detected). The host vehicle V1 can urgently avoid contact with the other vehicle V2.
  • the driving support processor 10 determines whether or not the detected shared point is on the “farmost boundary” having the longest distance from the host vehicle V1. If so, the process proceeds to step S58, and it is determined whether or not the detected shared point is present at the “boundary at the farthest distance” where the distance from the other vehicle Vn is the longest.
  • the process proceeds to step S59, and the driving support whose original route is changed is executed. For example, the initial travel route is canceled and a new travel route that does not approach the obstacle is set.
  • the change of the travel route includes lane change, advancement of the steering timing, and change of the set speed for traveling on the planned route.
  • FIG. 13C is a diagram overlooking the state where the common point CT12 is on the first detection boundary B13 and the second detection boundary B23 which are “the farthest distance boundary”. Assume that the host vehicle V1 is scheduled to travel along the route A1. It is assumed that the driving support processor 10 detects the common point CT12 on the first detection boundary B13 and the second detection boundary B23 that are “the farthest distance boundary” and predicts the possibility of contact with the other vehicle V2. The driving support processor 10 changes the planned driving route and executes driving support based on the new driving route. The driving support processor 10 sets a new route A1 ′ (a route different from the route A1) before the host vehicle V1 reaches the first detection boundary B13.
  • the driving support processor 10 steers leftward at a point upstream of the first detection boundary B13 and moves to a route A1 ′ (a route different from the route A1). Thereby, the position of the first detection boundary B13 of the host vehicle V1 moves to another position.
  • the common point CT12 of the first detection boundary B13 and the second detection boundary B23 disappears (not detected).
  • the own vehicle V1 can avoid contact with the other vehicle V2 by changing the travel route.
  • the driving support apparatus 100 Since the driving support apparatus 100 according to the embodiment of the present invention is configured and operates as described above, the following effects can be obtained.
  • the driving support apparatus 100 in which the driving support method of the present embodiment is executed includes a first detection boundary set in the moving direction of the host vehicle V1 and a second detection boundary set in the moving direction of the obstacle. And a method for driving support of the host vehicle V1 is determined based on the position of the share point with respect to the host vehicle V1.
  • the common point of the first detection boundary and the second detection boundary is positioned as a point where the host vehicle V1 and the obstacle may come into contact in the future.
  • the contact mode between the host vehicle V1 and an obstacle (another vehicle) Predict how to collide.
  • the driving support device 100 in which the driving support method of the present embodiment is executed when the position of the common point with respect to the host vehicle V1 is the front part of the host vehicle V1, the details of the driving support of the host vehicle V1 are displayed. Steering. Uniformly, it is possible to avoid contact by various methods according to the contact mode, instead of decelerating and stopping the host vehicle V1. Since there is no uniform deceleration / stop, it is possible to avoid driving that disturbs traffic flow.
  • the driving support device 100 in which the driving support method of the present embodiment is executed, when the position of the common point with respect to the host vehicle V1 is the rear part of the host vehicle V1, the details of the driving support of the host vehicle V1 are displayed. Accelerate. By accelerating, the position of the host vehicle V1 can be shifted forward in the moving direction, and the rear portion of the host vehicle V1 can be prevented from contacting an obstacle. Since there is no uniform deceleration / stop, it is possible to avoid driving that disturbs traffic flow.
  • the driving support content of the host vehicle V1 is displayed. Accelerate or decelerate. By accelerating, it is avoided that the host vehicle V1 passes in front of the obstacle and the side portion of the host vehicle V1 comes into contact with the obstacle. Since there is no uniform deceleration / stop, it is possible to avoid driving that disturbs traffic flow.
  • the status information regarding the steering of the host vehicle V1 and the position of the common point with respect to the host vehicle V1 are included in the status information. And decide based on.
  • the mode of contact with the obstacle can be more specifically determined by taking into account the steering state / straight traveling state of the host vehicle V1. Since driving assistance for avoiding contact is determined according to a specific mode of contact, contact can be avoided by smooth driving.
  • the first detection boundary includes a plurality of boundaries having different distances from the host vehicle V1
  • the second detection boundary is for another vehicle as an obstacle. Includes multiple boundaries with different distances.
  • the content of driving assistance is determined based on the distance with respect to the own vehicle V1 of the 1st detection boundary which forms a common point among several boundaries, and the distance with respect to the other vehicle of a 2nd detection boundary.
  • the mode of contact with the obstacle can be more specifically determined by taking into account the steering state / straight traveling state of the host vehicle V1. Since driving assistance for avoiding contact is determined according to a specific mode of contact, contact can be avoided by smooth driving.
  • the content of the driving support includes deceleration control of the host vehicle V1, acceleration control of the host vehicle V1, and steering control of the host vehicle V1.
  • deceleration control of the host vehicle V1 controls the acceleration of the host vehicle V1 .
  • acceleration control of the host vehicle V1 controls the acceleration of the host vehicle V1 .
  • steering control of the host vehicle V1 controls the uniform control of decelerating the host vehicle V1 .
  • the contact mode is taken into consideration as in the driving support method of the present embodiment, the contact can be avoided even by steering or acceleration.
  • the avoidance method can be selected flexibly.
  • deceleration control is executed each time contact is avoided, traffic flow may be disturbed, causing traffic jams.
  • contact with other vehicles can be avoided in various ways.
  • the host vehicle V1 is caused to execute the driving support control process of the determined content. Thereby, it is possible to avoid contact with other vehicles (obstacles) by various methods as well as deceleration / stop.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

自車両の運転支援処理に用いられる運転支援プロセッサ10を用いて、自車両V1の移動方向を含む状態情報に基づいて、自車両の移動方向側に設定された第1検出境界と、自車両V1の周囲に存在する障害物の移動方向を含む状態情報に基づいて、障害物の移動方向側に設定された第2検出境界との共有点を検出し、自車両にV1対する共有点の位置に基づいて、自車両の運転支援の内容を決定する。

Description

運転支援方法及び運転支援装置
 本発明は、車両の運転を支援する運転支援方法、運転支援装置に関する。
 この種の装置に関し、交差点に到着する時間に応じた周波数の信号を送受信することにより、自車両と他車両が交差点に到着する時間を互いに認識できる技術が知られている(特許文献1)。
特開2009-64331号公報
 従来の技術では、交差点に到着する時間に基づいて、自車両を減速させるという運転支援がされていた。
 本発明が解決しようとする課題は、自車両と障害物との接触の態様に応じた運転支援を行うことである。
 本発明は、自車両について設定された第1検出境界と、障害物について設定された第2検出境界との共有点を検出し、自車両に対する共有点の位置に応じた運転支援を行うことにより、上記課題を解決する。
 本発明によれば、自車両と障害物との接触の態様に応じた運転支援を行うことができる。
図1は、本実施形態に係る運転支援システムのブロック構成図である。 図2Aは、交差点における自車両と他車両との位置関係を説明するための図である。 図2Bは、自車両及び他車両の検出境界を説明するための図である。 図2Cは、自車両の第1検出境界の一例を説明するための図である。 図2Dは、他車両の第2検出境界の一例を説明するための図である。 図3は、第1検出境界と第2検出境界の共有点を説明するための図である。 図4Aは、第1検出境界の一の例を示す図である。 図4Bは、第1検出境界の他の例を示す図である。 図5は、本実施形態の運転支援処理の手順を示すフローチャート図である。 図6は、運転支援の内容の一例を示す。 図7は、運転支援処理のサブルーチンの一例を示すフローチャート図である。 図8は、運転支援処理のサブルーチンの一例を示すフローチャート図である。 図9は、運転支援の内容の他の例を示す。 図10Aは、共有点が自車両のフロント部に位置する接触例を示す。 図10Bは、共有点が自車両のサイド部に位置する接触例を示す。 図10Cは、共有点が自車両のリア部に位置する一の接触例を示す。 図10Dは、共有点が自車両のリア部に位置する他の接触例を示す。 図11は、運転支援の内容の他の例を示す。 図12は、運転支援処理のサブルーチンの他の例を示すフローチャート図である。 図13Aは、最短距離の第1及び第2検出境界に共有点が位置する例を示す。 図13Bは、中距離の第1及び第2検出境界に共有点が位置する例を示す。 図13Cは、最遠距離の第1及び第2検出境界に共有点が位置する例を示す。
 以下、本発明の実施形態を図面に基づいて説明する。本実施形態では、本発明に係る運転支援装置を、車両に搭載された運転支援システムに適用した場合を例にして説明する。
 図1は、運転支援システム1のブロック構成を示す図である。本実施形態の運転支援システム1は、運転支援装置100と車載装置200を備える。本発明の運転支援装置100の実施の形態は限定されず、車両に搭載して車載装置200と一体として構成してもよいし、車載装置200と情報の授受が可能な可搬の端末装置として独立して構成してもよい。端末装置は、スマートフォン、PDAなどの機器を含む。運転支援システム1、運転支援装置100、車載装置200、及びこれらが備える各装置は、CPUなどの演算処理装置を備え、演算処理を実行するコンピュータである。
 まず、車載装置200について説明する。
 本実施形態の車載装置200は、車両コントローラ210、ナビゲーション装置220、障害物検出装置230、車線逸脱防止装置240、及び出力装置250を備える。車載装置200を構成する各装置は、相互に情報の授受を行うためにCAN(Controller Area Network)その他の車載LANによって接続されている。車載装置200は、車載LANを介して運転支援装置100と情報の授受を行うことができる。本実施形態の車両コントローラ210は、検出装置260、駆動装置270、操舵装置280と連携して動作する。
 検出装置260は、舵角センサ261、車速センサ262、姿勢センサ263を有する。舵角センサ261は、舵転舵、操舵量、操舵速度、操舵加速度などの情報を検出する。車速センサ262は、車両の速度及び/又は加速度を検出する。本実施形態の姿勢センサ263は、ジャイロセンサを含む。姿勢センサ263は、車両の位置、車両のピッチ角、車両のヨー角車両のロール角などを検出する。これらの検出値から、車両の姿勢の変化量を取得できる。検出装置260は、検出結果を車両コントローラ210又は運転支援装置100へ出力する。
 本実施形態の車両コントローラ210は、エンジンコントロールユニット(Engine Control Unit, ECU)などの車載コンピュータであり、車両の運転を電子的に制御する。本実施形態の車両としては、電動モータを駆動源として備える電気自動車、内燃機関を駆動源として備えるエンジン自動車、電動モータ及び内燃機関の両方を駆動源として備えるハイブリッド自動車を例示できる。なお、電動モータを駆動源とする電気自動車やハイブリッド自動車には、二次電池を電動モータの電源とするタイプや燃料電池を電動モータの電源とするタイプのものも含まれる。
 本実施形態の駆動装置270は、自車両V1の駆動機構を備える。駆動機構には、上述した駆動源である電動モータ及び/又は内燃機関、これら駆動源からの出力を駆動輪に伝達するドライブシャフトや自動変速機を含む動力伝達装置、及び車輪を制動する制動装置271などが含まれる。駆動装置270は、アクセル操作及びブレーキ操作による入力信号、車両コントローラ210又は運転支援装置100から取得した制御信号に基づいてこれら駆動機構の各制御信号を生成し、車両の加減速を含む運転制御を実行する。駆動装置270に制御情報を送出することにより、車両の加減速を含む運転制御を自動的に行うことができる。なお、ハイブリッド自動車の場合には、車両の運転状態(走行状態)に応じた電動モータと内燃機関とのそれぞれに出力するトルク配分も駆動装置270に送出される。
 本実施形態の操舵装置280は、ステアリングアクチュエータを備える。ステアリングアクチュエータは、ステアリングのコラムシャフトに取り付けられるモータ等を含む。操舵装置280は、車両コントローラ210から取得した制御信号、舵角センサ261から取得したステアリング操作量に基づいて車両の移動方向の変更制御を実行する。車両コントローラ210は、操舵量を含む制御情報を操舵装置280に送出することにより、移動方向の変更制御を実行する。また、運転支援装置100は、車両の各輪の制動量をコントロールすることにより車両の移動方向の変更制御を実行してもよい。この場合、車両コントローラ210は、各輪の制動量を含む制御情報を制動装置271へ送出することにより、車両の移動方向の変更制御を実行する。なお、駆動装置270の制御、操舵装置280の制御は、完全に自動で行われてもよいし、ドライバの駆動操作(進行操作)を支援する態様で行われてもよい。駆動装置270の制御及び操舵装置280の制御は、ドライバの介入操作により中断/中止させることができる。車両コントローラ210は、所定の運転計画に従って自車両の運転を制御する。
 本実施形態の車載装置200は、ナビゲーション装置220を備える。本実施形態のナビゲーション装置220は、自車両の現在位置から目的地までの経路を算出する。経路の算出手法は、ダイキストラ法やA*などのグラフ探索理論に基づく出願時に知られた手法を用いることができる。算出した経路は、自車両の運転支援に用いるために、車両コントローラ210へ送出される。算出した経路は、経路案内情報として後述する出力装置250を介して出力される。ナビゲーション装置220は、位置検出装置221を備える。本実施形態の位置検出装置221は、グローバル・ポジショニング・システム(Global Positioning System, GPS)を備え、走行中の車両の走行位置(緯度・経度)を検出する。
 ナビゲーション装置220は、アクセス可能な地図情報222と、道路情報223と、交通規則情報224を備える。地図情報222、道路情報223、交通規則情報224は、ナビゲーション装置220が読み込むことができればよく、車載装置200とは別体として構成してもよいし、通信手段を介して読み込みが可能なサーバに格納してもよい。本実施形態の地図情報222は、いわゆる電子地図であり、緯度経度と地図情報が対応づけられた情報である。地図情報222は、各地点に対応づけられた道路情報223を有する。
 本実施形態の道路情報223は、ノードと、ノード間を接続するリンクにより定義される。本実施形態の道路情報223は、各道路リンクの識別情報ごとに、交差点の位置、交差点の進入方向、交差点の種別その他の交差点に関する情報を対応づけて記憶する。また、道路情報223は、各道路リンクの識別情報ごとに、道路種別、道路幅、道路形状、直進の可否、進行の優先関係、追い越しの可否(隣接レーンへの進入の可否)その他の道路に関する情報を対応づけて記憶する。
 ナビゲーション装置220は、位置検出装置221により検出された自車両の現在位置に基づいて、自車両が走行する経路を演算する。本実施形態のナビゲーション装置220は、後述する道路情報223を参照して、自車両が走行する経路として道路リンクを特定する。本実施形態の経路は、自車両が、将来通過する一つ又は複数の地点の特定情報(座標情報)を含む。
 本実施形態の交通規則情報224は、経路上における一時停止、駐車/停車禁止、徐行、制限速度などの車両が走行時に遵守すべき交通に関する規則である。各規則は、地点(緯度、経度)ごと、リンクごとに定義される。交通規則情報224には、道路側に設けられた装置から取得する交通信号の情報を含めてもよい。
 本実施形態の車載装置200は、障害物検出装置230を備える。本実施形態の障害物検出装置230は、自車両の周囲の状況を検出する。自車両の障害物検出装置230は、自車両の周囲に存在する障害物を含む障害物の存在及びその存在位置を検出する。特に限定されないが、本実施形態の障害物検出装置230はカメラ231を含む。本実施形態のカメラ231は、例えばCCD等の撮像素子を備える撮像装置である。カメラ231は、赤外線カメラ、ステレオカメラでもよい。カメラ231は自車両の所定の位置に設置され、自車両の周囲の障害物を撮像する。自車両の周囲は、自車両の前方、後方、前方側方、後方側方を含む。障害物は、歩行者、二輪車、四輪車などの他車両などの移動物体を含む。
 障害物検出装置230は、画像データを解析し、その解析結果に基づいて障害物の種別を識別してもよい。障害物検出装置230は、パターンマッチング技術などを用いて、画像データに含まれる障害物が、車両、歩行者などの移動体であるか、標識などの静止物であるか否かを識別する。障害物検出装置230は、取得した画像データを処理し、障害物と自車両との位置関係を取得する。障害物検出装置230は、自車両から障害物までの距離・到達時間を算出する。
 なお、本実施形態の障害物検出装置230は、レーダー装置232を用いてもよい。レーダー装置232としては、ミリ波レーダー、レーザーレーダー、超音波レーダーなどの出願時に知られた方式のものを用いることができる。障害物検出装置230は、レーダー装置232の受信信号に基づいて障害物の存否、障害物の位置、障害物までの距離を検出する。障害物検出装置230は、レーザーレーダーで取得した点群情報のクラスタリング結果に基づいて、障害物の存否、障害物の位置、障害物までの距離を検出する。
 他車両と自車両とが車車間通信をすることが可能であれば、障害物検出装置230は、他車両の車速センサが検出した他車両の車速、移動方向、加速度などの状態情報を障害物情報として取得してもよい。もちろん、障害物検出装置230は、高度道路交通システムの外部装置から他車両の位置、移動方向、速度、加速度を含む状態情報を取得することもできる。
 本実施形態の車載装置200は、車線逸脱防止装置240を備える。車線逸脱防止装置240は、カメラ241、道路情報242を備える。カメラ241は、障害物検出装置のカメラ231を共用してもよい。道路情報242は、ナビゲーション装置の道路情報223を共用してもよい。車線逸脱防止装置240は、カメラ241の撮像画像から自車両が走行する経路を検出する。車線逸脱防止装置240は、経路の車線のレーンマーカの位置と自車両の位置とが所定の関係を維持するように、自車両の動きを制御する車線逸脱防止機能(レーンキープサポート機能)を備える。本実施形態の運転支援装置100は車線の中央を自車両が走行するように、自車両の動きを制御する。
 本実施形態の車載装置200は、出力装置250を備える。出力装置250は、ディスプレイ251、スピーカ252を備える。本実施形態の出力装置250は、運転支援に関する各種の情報をユーザ又は周囲の車両の乗員に向けて出力する。本実施形態において、出力装置250は、運転支援の内容、その運転支援に基づく運転制御に関する情報を出力する。障害物との接触を回避するための経路変更、減速、加速、操舵が実行されることをディスプレイ251、スピーカ252を介して、自車両の乗員に予め知らせる。また、これらの運転支援に関する情報を車室外ランプ、車室内ランプを介して、自車両の乗員又は他車両の乗員に予め知らせてもよい。また、本実施形態の出力装置250は、通信装置を介して、高度道路交通システム(Intelligent Transport Systems:ITS)などの外部装置に運転支援に関する各種の情報を出力してもよい。
 運転支援装置100について説明する。
 本実施形態の運転支援装置100は、運転支援プロセッサ10と、出力装置20と、通信装置30とを備える。出力装置20は、決定した運転支援の内容を、車載装置200に送出する。また、出力装置20は、先述した車載装置200の出力装置250と同様の機能を有する。車載装置200のディスプレイ251、スピーカ252を、運転支援装置100の出力装置20として用いることができる。通信装置30は、運転支援システム1の外部との通信、又は運転支援システム1を構成する各装置との通信を実行する。各運転支援システム1に含まれる装置は、有線又は無線の通信回線を介して互いに情報の授受が可能である。
 図2A乃至図4に基づいて、運転支援装置100の処理内容を説明する。
 運転支援装置100は、その制御装置として機能する運転支援プロセッサ10を備える。運転支援プロセッサ10は、自車両V1の移動方向側に設定された第1検出境界と、障害物の移動方向側に設定された第2検出境界との共有点を検出し、自車両V1に対する共有点の位置を判断する。
 具体的に、運転支援プロセッサ10は、自車両V1の移動方向を含む状態情報を取得する。状態情報は、自車両V1の状態情報と、他車両などの障害物の状態情報とを含む。状態情報は、自車両V1及び/又は他車両の位置、移動方向、速度、加速度を含む。自車両V1の状態情報は、車載装置200から取得する。他車両の状態情報は、他車両が備える車載装置200の検出装置260(又はこれに類する検出装置)により検出される。歩行者の状態情報は、歩行者が携帯するスマートフォンのGPS機能、速度/加速度検出機能により検出される。他車両、歩行者などの障害物の状態情報は、通信装置30を介して取得する。
 運転支援プロセッサ10は、第1検出境界と第2検出境界の共有点を検出し、自車両V1に対する共有点の位置に基づいて、運転支援の内容を決定するプログラムが格納されたROM(Read Only Memory)と、このROMに格納されたプログラムを実行することで、運転支援装置100として機能する動作回路としてのCPU(Central Processing Unit)と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)と、を備えるコンピュータである。運転支援プロセッサ10は、運転支援処理を実行させるプログラムが記憶された記憶媒体を備える。
 本処理は、図2Aに示す交差点を基準にする領域R1に自車両V1が進入したときに開始してもよい。運転支援プロセッサ10は、予め定義された交差点の位置R0の情報は道路情報242に含まれる。位置R0を基準に設定された領域R1に、位置検出装置221が検出する自車両V1の現在位置が属したことをトリガとして、本処理を開始する。図2Aに示す例では、運転支援プロセッサ10は、ナビゲーション装置220が算出した自車両V1の移動方向(経路)DV1と、車載されたカメラ241の撮像画像の経時的変化に基づいて他車両V3(Vn:nは2以上の自然数)の移動方向DV3及び歩行者H1の移動方向DHを取得する。
 運転支援プロセッサ10は、状態情報に含まれる自車両V1の移動方向に基づいて、自車両V1の移動方向の前方に第1検出境界を設定する。第1検出境界の数は、一つでも複数でもよい。複数の境界(第1検出境界)を設定する場合には、自車両V1に対する距離が異なる境界を設定する。
 同様に、運転支援プロセッサ10は、状態情報に含まれる他車両の移動方向に基づいて、他車両Vnの移動方向の前方に第2検出境界を設定する。自車両V1と接触の可能性がある他車両Vnが複数存在する場合には、各他車両Vnのそれぞれについて第2検出境界を設定する。歩行者が障害物として検出された場合も同様に、歩行者ごとに第2検出境界を設定する。歩行者の移動速度は低いので、歩行者の第2検出境界は現在位置を含んで移動方向に沿って設けられる。また、歩行者の移動可能な方向は複数あるので、移動方向を広く設定し、歩行者を囲む円形乃至楕円形とする。
 複数の境界(第2検出境界)を設定する場合において、運転支援プロセッサ10は、他車両に対する距離が異なる境界を設定する。運転支援プロセッサ10は、自車両V1/障害物からの距離が最も短い最短距離の境界と、自車両V1/障害物からの距離が最も長い最遠距離の境界と、最短距離の境界と、最遠距離の境界との間に位置する中距離の境界を設定する。
 検出境界の設定手法は特に限定されないが、運転支援プロセッサ10は、自車両V1/障害物の状態情報からそれぞれの移動速度(所定の単位時間の移動量)を算出し、その移動量に応じて等間隔又は不等間隔で複数の検出境界を設定する。複数の検出境界を設定する際には、各検出境界の間隔は自車両V1/障害物から離隔するに従い長くなるようにしてもよいし、自車両V1/障害物から離隔するに従い短くなるようにしてもよい。運転支援プロセッサ10は、異なる二つのタイミングで検出された自車両V1/障害物の位置/速度を基準として自車両V1/障害物の動きを予測し、自車両V1/障害物が存在する確率の高い経路上の位置を算出し、存在確率が高いと判断された位置に検出境界を設定してもよい。また、道路情報223を参照し、道路属性、交通量、制限速度などに応じて検出境界を設定してもよい。このとき、制限速度が高いほど検出境界の間隔を長く設定し、交通量が多いほど検出境界の間隔を短く設定してもよい。
 第1検出境界のサイズは、自車両V1の大きさに応じて予め定義し、記憶する。自車両V1の状態情報に含まれる車速に基づいて第1検出境界のサイズを決定してもよい。車速が高いほど第1検出境界の移動方向の長さを長くし、車速が低いほど第1検出境界の移動方向の長さを短くする。第2検出境界のサイズは、検出された障害物(他車両)のサイズに応じて決定してもよい。また障害物の速度に基づいて第2検出境界のサイズを決定してもよい。障害物の速度が高いほど第2検出境界の移動方向の長さを長くし、速度が低いほど第2検出境界の移動方向の長さを小さくする。道路情報223を参照し、道路属性、交通量、制限速度などに応じて検出境界の大きさを決定してもよい。制限速度が高いほど検出境界の大きさを大きく設定し、交通量が多いほど検出境界の大きさを小さく設定してもよい。
 第1/第2検出境界の数は予め定義することができる。自車両V1/障害物から自車両V1の経路と障害物の経路との交点までの距離を検出境界の長さで除して求めてもよい。自車両V1/障害物から所定の交差点までの距離を検出境界の長さで除して求めてもよい。
 特に限定されないが、図2Bに示す例では、運転支援プロセッサ10は、自車両V1の移動方向側に一つ又は複数の検出境界を設定する。検出境界の設定手法は特に限定されないが、自車両V1の移動方向(経路)DV1に沿う領域RV1を設定する。同様に、運転支援プロセッサ10は、他車両V2の移動方向(経路)DV3に領域RV3を設定する。図2Cに示す例では、運転支援プロセッサ10は、この領域RV1に、一又は複数の第1検出境界B1を設定する。運転支援プロセッサ10は、領域RV1を設定することなく、自車両V1の移動方向(経路)DV1に沿って一又は複数の第1検出境界B1を設定してもよい。
 運転支援プロセッサ10は、設定開始のタイミングT1において、経路(DV1)の下流側に第1検出境界B11を設定し、自車両V1の移動に伴い、タイミングT2(T2=T1+t)において、第1検出境界B11よりも上流側に第1検出境界B12を設定し、タイミングT3(T3=T2+t)において、第1検出境界B12よりも上流側に第1検出境界B13を一つずつ設定してもよい。運転支援プロセッサ10は、タイミングT1において、自車両V1から距離D11の第1検出境界B11と、自車両V1から距離D12(D12>D11)の第1検出境界B12と、自車両V1から距離D13(D13>D12)の三つの第1検出境界B13を一度に設定してもよい。自車両V1と第1検出境界Bとの距離Dの計測手法は特に限定されず、図2Cに示すように、自車両V1のフロント部から第1検出境界Bの移動方向側の境界までの距離としてもよいし、自車両V1の重心から第1検出境界Bの重心までの距離としてもよい。
 同様に、図2Dに示すように、運転支援プロセッサ10は、他車両V3についても一つ又は複数の第2検出境界B3を設定する。運転支援プロセッサ10は、他車両V3の移動方向側に第2検出境界B31、B32、B33を順次設定してもよいし、他車両V3からの距離が異なる複数の第2検出境界B31、B32、B33を一度に設定してもよい。
 運転支援プロセッサ10は、第1検出境界と第2検出境界との共有点を検出する。本実施形態における「共有点」とは、交点、接点、重複点を含む概念である。運転支援プロセッサ10は、自車両V1に対する共有点の位置に基づいて、自車両V1がどのように障害物と接触するのか、接触の態様を判断できる。自車両V1と障害物との接触を判断する観点から、共有点は、自車両V1とともに移動する第1検出境界と第2検出境界が最も早いタイミングで接する点、交わる点又は重なる点である。共有点は、他車両V2の移動方向側(フロント)の第2検出境界と第1検出境界とが接する点、交わる点又は重なる点としてもよい。
 運転支援プロセッサ10は、検出した共有点の自車両V1に対する位置を判断する。具体的には、共有点が自車両V1の前方(フロント)側に位置するのか、自車両V1の側方(サイド)側に位置するのか、自車両V1の後方(リア)側に位置するのかを判断する。共有点を構成する第1検出境界は自車両が存在する予定の位置を示すものであり、第2検出境界は他車両が存在する予定の位置を示すものである。このため、第1検出境界の形状は自車両の形状と対応関係があり、第2検出境界の形状は他車両の形状と対応関係がある。図2C,図2Dに示す第1/第2検出境界の形状は、平面視(俯瞰視)における自車両V1/他車両を略矩形の輪郭を取り囲む矩形の形状である。このように、第1/第2検出境界が自車両V1/障害物の輪郭に対応づけられているので、第1/第2検出境界の各辺が自車両V1の前方/側方/後方の何れに対応するのかを判断することができる。
 図3に示す例では、自車両V1の第1検出境界B13と、他車両V3の第2検出境界B33とには、共有点CT13が存在する。共有点CT13は、第1検出境界B13の側方の辺、つまり、自車両V1のサイド部に位置する。他車両V3からその位置を図中+X側にシフトさせた他車両V3´について検討すると、自車両V1の第1検出境界B13と、他車両V3´の第2検出境界B33´には、共有点CT13´が存在する。共有点CT13´は、第1検出境界B13の前方の辺、つまり、自車両V1のフロント部に位置する。
 運転支援プロセッサ10は、予め形状・サイズが特定された第1/第2検出境界を記憶する。第1/第2検出境界Bは、図4Aに示すように矩形であってもよいし、図4Bに示すように円形・楕円形などの曲線で構成された形状であってもよい。図4Aに示すように頂点を有する形状であってもよいし、図4Bに示すように頂点が無い形状であってもよい。図示はしないが、直線と曲線とから構成された形状であってもよい。
 第1/第2検出境界Bは、その形状ごとに、フロント部、サイド部、リア部が定義されている。図4A、図4Bに示す第1/第2検出境界Bの形状は、平面視(俯瞰視)における自車両V1/他車両を略矩形の輪郭を取り囲む矩形又は楕円形の形状である。
 一例ではあるが、図4Aに示す第1/第2検出境界Bでは、原点Gを通る直交する座標上において、Y軸方向に沿う(平行な)辺を自車両V1のサイド部S(SR,SL)と定義し、X軸方向に沿い、+Y側に位置する辺を自車両V1のフロント部Fと定義し、X軸方向に沿い、-Y側に位置する辺を自車両V1のリア部Rと定義する。
 一例ではあるが、図4Bに示す第1/第2検出境界Bでは、原点Gを通過し所定角度(90度を除く)で交わる軸Y1,Y2と第1/第2検出境界Bとの四つの交点で、第1/第2検出境界Bを四つに分割し、Y軸方向に沿う長辺部分を自車両V1のサイド部S(SR,SL)と定義し、X軸方向に沿う短辺部分であって、+Y側に位置する部分を自車両V1のフロント部Fと定義し、X軸方向に沿う短辺部分であって、-Y側に位置する部分を自車両V1のリア部Rと定義する。
 運転支援プロセッサ10は、自車両V1に対する、第1検出境界と第2検出境界との共有点の位置に基づいて、その自車両V1の運転支援の内容を決定する。
 本実施形態では、第1検出境界と第2検出境界との共有点が存在することは、自車両V1と障害物とが将来接触する可能性として評価する。本実施形態では、この共有点が、自車両V1のフロント部、サイド部、リア部のいずれの位置であるかということに基づいて、自車両V1と障害物(他車両)との接触態様(ぶつかり方)を予測する。本願発明者らは、自車両V1と障害物(他車両)との接触態様(ぶつかり方)が異なれば、その接触回避の方法も異なることに着目し、接触態様に応じた適切な運転支援により、障害物との接触を回避できる。
 本実施形態の運転支援プロセッサ10は、自車両V1の減速制御、自車両V1の加速制御、自車両V1の操舵制御を一つ又はこれらを組み合わせた運転内容により、接触回避のための運転支援を実行する。
 従来は、ある地点までの距離や到達時間が所定閾値未満である場合には、自車両V1を減速させるといった画一的な制御が実行されていた。これは、自車両V1が障害物に接近すること自体を中止させるという観点による。自車両V1を減速乃至停止させるという運転によれば、障害物との接触を回避できる確実性は高い。しかし、自車両V1の減速乃至停止は自車両V1が属する交通流に乱れを発生させ、渋滞、他の車両同士の接近・接触を発生させる可能性がある。
 本実施形態の運転支援システム(運転支援方法)では、接触態様を考慮すれば操舵や加速によっても接触を回避できる場面があることに着目し、接触態様に応じた運転支援を実行する。減速制御だけではなく、操舵や加速によっても障害物との接触を回避できることにより、接触態様に応じた接触回避の方法を柔軟に選択できる。本実施形態にように、接触の態様に応じて操舵、加速による柔軟な接触回避により、急な減速制御が行われることを低減させることができ、交通流の乱れの発生を防止できる。このように、本実勢形態の運転支援方法は、接触の可能性が予測されたときに、減速制御だけを行うのではなく、共有点の位置から接触態様を予測し、接触態様に応じた多様な手法で他車両(障害物)との接触を回避する。
 また、運転支援プロセッサ10は、自車両V1の操舵に関する状態情報と、自車両V1に対する共有点の位置とに基づいて、運転支援の内容を決定する。自車両V1の操舵に関する状態情報とは、自車両V1の舵角センサ261が検出する操舵量を含む。運転支援プロセッサ10は、操舵に関する状態情報に基づいて、自車両V1が操舵中であるか(操舵量が所定値P1以上である)自車両V1が右折しているか、自車両V1が左折しているか、自車両V1が直進しているか(操舵量が所定値P2未満:P2<P1である)を判断する。所定値P2は、自車両V1が直進していると判断できる操舵量の上限である。
 自車両V1に対する共有点の位置に加えて、自車両V1の操舵状態/直進状態を考慮することにより、障害物との接触の態様がより具体的に判断できる。具体的な接触の態様に応じて接触を回避するための運転支援を決定するので、円滑な運転により接触を回避できる。
 運転支援プロセッサ10は、決定された内容の運転支援の制御処理を、車両コントローラ210を介して自車両V1の駆動装置270、制動装置271、操舵装置280に実行させる。障害物との接触に態様に応じた運転支援を実行するので、障害物との接触を回避しつつ、交通流を乱さないように自車両V1を走行させることができる。
 図5のフローチャートに基づいて、本実施形態の運転支援の制御処理について説明する。
 ステップS1において、運転支援プロセッサ10は、自車両V1の検出装置260が検出した状態情報を取得する。状態情報は、自車両V1の移動方向、自車両V1の操舵量、操舵方向、車速、加速度、及び姿勢の情報のうち一つ以上を含む。移動方向は、ナビゲーション装置220から取得してもよい。
 ステップS2において、運転支援プロセッサ10は、自車両V1の障害物検出装置230が検出した障害物についての障害物情報を取得する。障害物情報は、障害物の存在位置、障害物が移動体であるか静止物であるかの情報、障害物が車両であるか歩行者であるかの情報、障害物の移動方向、移動速度、及び加速度のうち一つ以上を含む。運転支援プロセッサ10は、外部装置を介して又は直接的に、通信装置30を用いて、他車両の検出装置(検出装置260に相当する装置)の検出結果(移動方向、操舵量、操舵方向、車速、加速度、及び姿勢の情報)、他車両の識別情報を取得してもよい。
 ステップS3において、運転支援プロセッサ10は、自車両V1の移動方向の前方に、第1検出境界を設定する。第1検出境界の設定数は、一つであってもよいし、複数であってもよい。ステップS4において、運転支援プロセッサ10は、他車両Vnの移動方向前方に、第2検出境界を設定する。第2検出境界の設定数は、一つであってもよいし、複数であってもよい。
 ステップS5において、運転支援プロセッサ10は、第1検出境界と第2検出境界との共有点(接点、交点、重複点を含む)を検出する。ステップS6において、運転支援プロセッサ10は、検出された共有点の自車両V1に対する位置(フロント/サイド/リア)を判断し、その位置に基づいて運転支援の内容を決定する。図6は、共有点の自車両V1に対する位置と、運転支援の内容との対応関係を示す。
 図6の対応関係において示されているように、本実施形態の運転支援プロセッサ10は、共有点の位置が自車両V1のフロント部である場合には、自車両V1の運転支援の内容を操舵とする。運転支援プロセッサ10は、自車両V1の運転支援の内容として予め定義された操舵、加速、減速のうち「操舵」を選択する。運転支援の内容の判断が、選択処理だけで済むので処理負荷が軽減される。周囲の状況によっては、自車両V1が操舵することができないこともあるので、必ず操舵を行うというわけではない。他車両が停車して車線を塞いでいる、歩行者が存在するなどの状況により、自車両V1の操舵が不可能であると判断された場合には、自車両V1を操舵させることができない。運転支援プロセッサ10は、最初に、自車両V1が操舵により障害物との接触が回避できるか否か検討する。自車両V1の操舵が可能であり、かつ操舵により障害物との接触が回避できる場合には、運転支援の内容を操舵に決定する。このように、共有点の位置が自車両V1のフロント部である場合には、操舵により接触の回避を図る。自車両V1を画一的に停止させるのではなく、接触の態様に応じた多様な手法で接触回避を図ることができるので、交通流の妨げにならないようにできる。
 本実施形態の運転支援プロセッサ10は、自車両V1に対する共有点の位置が自車両V1のリア部である場合には、自車両V1の運転支援の内容を加速とする。運転支援プロセッサ10は、自車両V1の運転支援の内容として予め定義された操舵、加速、減速のうち「加速」を選択する。運転支援の内容の判断が、選択処理だけで済むので処理負荷が軽減される。周囲の状況によっては、自車両V1が加速できないこともあるので、必ず加速を行うというわけではない。先行他車両との距離が短い、歩行者が存在するなどの状況により、自車両V1の加速が不可能であると判断された場合には、自車両V1を加速させることができない。運転支援プロセッサ10は、最初に、自車両V1が加速により障害物との接触が回避できるか否か検討する。自車両V1の加速が可能であり、かつ加速により障害物との接触が回避できる場合には、運転支援の内容を加速に決定する。
 このように、共有点の位置が自車両V1のリア部である場合には、まずは、加速による接触回避を検討する。加速することにより、自車両V1の位置を前方にずらし、自車両V1のリア部が障害物と接触することを避ける。加速ができない状況においては、もちろん減速・停止により接触を回避することも可能である。
 本実施形態の運転支援プロセッサ10は、自車両V1に対する共有点の位置が自車両V1のサイド部である場合には、自車両V1の運転支援の内容を加速又は減速とする。運転支援プロセッサ10は、自車両V1の運転支援の内容として予め定義された操舵、加速、減速のうち「加速又は減速」を選択する。運転支援の内容が絞り込まれ、その判断が選択処理だけで済むので処理負荷が軽減される。共有点が自車両V1のサイド部である場合には、まずは、加速による接触回避を検討する。加速することにより、車両V1のサイド部が、障害物が接近する前に障害物を通り過ぎるようにすることができる。次に、減速による接触回避を検討する。減速することにより、障害物が車両V1の前を通り過ぎるようにすることができる。共有点が自車両V1のサイドである場合とは、他車両が自車両V1の側面に接触する可能性があるということである。この場合には、操舵により接触回避は検討しない。自車両V1のサイド部の面積/長さはフロント部/リア部に比べて長いため、自車両V1の位置を横方向(図中X方向)にずらしても、その前後で障害物に接触する可能性があるからである。もちろん停止により接触を回避することも可能である。
 このように、共有点の位置が自車両V1のサイド部である場合には、まずは、加速による接触回避を検討する。加速することにより、自車両V1が障害物の前を通り過ぎ、自車両V1のサイド部が障害物と接触することを避ける。加速ができない状況においては、もちろん減速・停止により接触を回避することも可能である。
 ステップS7において、運転支援プロセッサ10は、決定した内容を車両コントローラ210に送信し、車両コントローラ210にその運転支援の制御処理を実行させる。車両コントローラ210は、駆動装置270、操舵装置280に制御指令を送出し、自車両V1の運転を制御する。
 本実施形態では、障害物との接触を回避する運転支援内容を決定する際に、自車両V1の操舵に関する状態情報を考慮する。図7乃至図9Cに基づいて、本実施形態の運転支援内容の決定処理について説明する。
 図7及び図8のフローチャートは、図5のフローチャートのステップS6のサブルーチンを示す。図7は、自車両V1が旋回しているときの接触回避の手法を決定する処理を示し、図8は、自車両V1が直進しているときの接触回避の手法を決定する処理を示す。図9は、直進時と旋回時において、共有点の位置と接触回避のための運転支援の内容を対応づけた情報である。図9は、採用される可能性のある運転支援の内容を記載した。先述したとおり、共有点の位置が自車両V1のフロント部であるときには、直進/旋回の何れの場合においても、まず操舵を検討する。減速・停止をすることなく、障害物との接触を避けることにより、交通流を妨げないようにできる。共有点の位置が自車両V1のサイド部であるときには、直進/旋回の何れの場合においても、まず加速を検討する。減速・停止をすることなく、障害物との接触を避けることにより、交通流を妨げないようにできる。共有点の位置が自車両V1のリア部であるときには、直進/旋回の何れの場合においても、まず加速を検討する。減速・停止をすることなく、障害物との接触を避けることにより、交通流を妨げないようにできる。
 図7に示すように、運転支援プロセッサ10は、図5のステップ5の処理によって、共有点が検出された場合には(S11でYes)、自車両V1の状態情報を取得する(S12)。ステップS13において、運転支援プロセッサ10は、自車両V1が旋回状態であるか又は直進状態であるかを判断する。自車両V1が旋回状態であるときには、ステップS14に進み、そうでない場合(直進状態である場合)には、図8のステップS33に進む。
 ステップS14において、運転支援プロセッサ10は、共有点の位置が自車両V1のフロント部であると判断した場合には、ステップS15に進む。ステップS15において、運転支援プロセッサ10は、操舵が可能であると判断した場合には、接触回避のための運転支援の内容を操舵と決定する。この操舵が可能であるか否かの判断は、操舵後の自車両V1が走行できるスペース(経路)が存在するか否かに基づいて行う。周囲の他車両などの障害物の位置を考慮し、操舵後に自車両V1が走行できるスペースがある場合には、操舵が可能であると判断する。運転支援プロセッサ10は、自車両V1に搭載されたカメラ231の撮像画像又はレーダー装置232の検出結果に基づいて判断する。
 図10Aは、自車両V1が操舵中であり、設定された第1検出境界B1と第2検出境界B2の共有点CT12が、自車両V1のフロント部に位置する状態を俯瞰する図である。自車両V1は経路A1に沿って走行する予定であるとする。運転支援プロセッサ10が、第1検出境界B1と第2検出境界B2の共有点CT12を検出し、他車両V2との接触の可能性を予測したとする。運転支援プロセッサ10は、共有点CT12が、自車両V1のフロント部に位置するため操舵を接触回避の手法として選択したとする。運転支援プロセッサ10は、自車両V1を、第1検出境界B1の位置よりも上流側の地点において、右側方向に操舵をさせる。これにより、自車両V1の経路は、経路A1から経路A2に変更され、第1検出境界B1の位置は、第1検出境界B1´の位置に移動する。第1検出境界B1と第2検出境界B2の共有点CT12は消滅し(検出されず)、第1検出境界B1´と第2検出境界B2とには接点、交点、重複点を含む共有点は存在しない。自車両V1は、操舵により、他車両V2との接触を回避できる。
 ステップS15において操舵が不可能であると判断した場合には、加速が可能であるか否かを判断する。運転支援プロセッサ10は、自車両V1が加速したときに障害物と接触する可能性がゼロになるか否かを検討する。共有点の位置が自車両V1のフロント部であるときには、加速により接触の可能性を低減させることは極めて困難である。このため、操舵が不可能である場合には、ステップS22に進み、減速制御が採用される。
 ステップS16において、運転支援プロセッサ10は、共有点の位置がサイド部であると判断された場合には、ステップS17に進む。ステップS17において、運転支援プロセッサ10は、加速が可能であると判断した場合には、接触回避のための運転支援の内容を加速と決定する。この加速が可能であるか否かの判断は、加速開始から加速解除に至るまで自車両V1が走行できるスペース(経路)が存在するか否かに基づいて行う。周囲の他車両などの障害物の位置を考慮し、加速終了まで自車両V1が走行できるスペースがある場合には、加速が可能であると判断する。先行他車両との距離に基づいて、加速の可否を判断してもよい。周囲の状況については、先に説明したように、カメラ231の撮像画像又はレーダー装置232の検出結果に基づいて判断する。また、運転支援プロセッサ10は、自車両V1が加速したときに障害物と接触する可能性がゼロになるか否かを検討する。ステップS17において加速が可能であれば、ステップS24に進み加速制御を実行し、そうでない場合にはステップS22に進み減速制御を実行する。その後、図5のステップS7が実行される。
 図10Bは、自車両V1が操舵中であり、設定された第1検出境界B1と第2検出境界B2の共有点CT12が、自車両V1のサイド部に位置する状態を俯瞰する図である。自車両V1は経路A1に沿って走行する予定であるとする。運転支援プロセッサ10が、第1検出境界B1と第2検出境界B2の共有点CT12を検出し、他車両V2との接触の可能性を予測したとする。運転支援プロセッサ10は、共有点CT12が、自車両V1のサイド部に位置するため加速を接触回避の手法として選択したとする。運転支援プロセッサ10は、自車両V1を、第1検出境界B1の位置よりも上流側の地点において、加速させる。これにより、第1検出境界B1の位置は、第1検出境界B1´の位置に移動する。第1検出境界B1と第2検出境界B2の共有点CT12は消滅し(検出されず)、第1検出境界B1´と第2検出境界B2とには接点、交点、重複点を含む共有点は存在しない。自車両V1は、操舵により、他車両V2との接触を回避できる。
 ステップS18において、運転支援プロセッサ10は、共有点の位置がリア部であると判断された場合には、ステップS24に進み、加速を実行する。リア部が障害物と接触すると予測される場合に、自車両V1を減速させると接触の範囲が広がる可能性がある。このため、本実施形態の運転支援プロセッサ10は、まずは加速による接触回避を行う。また、運転支援プロセッサ10は、破線で示すように、先にステップS17で加速の可否を判断し、可能である場合にステップS24に進んで加速制御を実行し、そうでない場合にはステップS22に進み減速制御を実行してもよい。
 図10C,図10Dは、自車両V1が操舵中であり、設定された第1検出境界B1と第2検出境界B2の共有点CT12が、自車両V1のリア部に位置する状態を俯瞰する図である。図10Cは、他車両V2が対向車線から左折してくる状況を示し、図10Dは、他車両V2が、自車両V1が進入する車線に自車両V1の後方から進入する状況を示す。
 図10C,図10Dに示す状況において、自車両V1は経路A1に沿って走行する予定であるとする。運転支援プロセッサ10が、第1検出境界B1と第2検出境界B2の共有点CT12を検出し、他車両V2との接触の可能性を予測したとする。運転支援プロセッサ10は、共有点CT12が、自車両V1のリア部に位置するため加速を接触回避の手法として選択したとする。運転支援プロセッサ10は、第1検出境界B1の位置よりも上流側の地点において自車両V1を加速させる。これにより、第1検出境界B1の位置は、第1検出境界B1´の位置に移動する。第1検出境界B1と第2検出境界B2の共有点CT12は消滅し(検出されず)、第1検出境界B1´と第2検出境界B2とには接点、交点、重複点を含む共有点は存在しない。自車両V1は、操舵により、他車両V2との接触を回避できる。
 続いて、図8に基づいて、自車両V1が直進しているときの処理を説明する。自車両V1が直進する場合に関し、上述した自車両V1が操舵中である場合と共通する部分については先の説明を援用する。ステップS11,12の処理は図7に示す処理と同様である。ステップS33において、運転支援プロセッサ10は、自車両V1が直進状態であるときには、ステップS34に進み、そうでない場合(旋回状態である場合)には、図7のステップS13に進む。
 図8のフローチャートのステップS34において、運転支援プロセッサ10は、共有点の位置が自車両V1のフロント部であると判断した場合には、ステップS35に進む。運転支援プロセッサ10は、操舵が可能であると判断した場合には、接触回避のための運転支援の内容を操舵と決定する(S40)。操舵の可否判断は、先述した方法により行う。ステップS35において操舵が不可能であると判断した場合には、加速が可能であるか否かを判断する。運転支援プロセッサ10は、自車両V1が加速したときに障害物と接触する可能性がゼロになるか否かを検討する。共有点の位置が自車両V1のフロント部であるときには、加速により接触の可能性を低減させることは極めて困難である。このため、加速が不可能である場合には、ステップS42に進み、減速制御が採用される。
 ステップS36において、運転支援プロセッサ10は、共有点の位置がサイド部であると判断された場合には、ステップS37に進む。加速が可能であると判断した場合には、接触回避のための運転支援の内容を加速と決定する。この加速が可能であるか否かの判断は、加速開始から加速解除に至るまで自車両V1が走行できるスペース(経路)が存在するか否かに基づいて行う。周囲の他車両などの障害物の位置を考慮し、加速後まで自車両V1が走行できるスペースがある場合には、加速が可能であると判断する。ステップS37において加速が可能であれば、ステップS44に進み加速制御を実行し、そうでない場合にはステップS42に進み減速制御を実行する。
 ステップS38において、運転支援プロセッサ10は、共有点の位置がリア部であると判断された場合には、ステップS37に進み、加速の可否を判断し、可能である場合にステップS44に進んで加速制御を実行し、そうでない場合にはステップS42に進み減速制御を実行する。その後、図5のステップS7が実行される。
 続いて、運転支援の内容を決定する他の方法を説明する。本例では、第1検出境界及び第2検出境界が複数設定されることを前提とする。第1検出境界は、自車両V1に対する距離が異なる複数の境界を含み、第2検出境界は、障害物としての他車両に対する距離が異なる複数の境界を含む。先に説明した図2Cに示すように、自車両V1の前方に設定された第1検出境界は、自車両V1からの距離が最も短い最短距離D11の第1検出境界B11と、自車両V1からの距離が最も長い最遠距離D13の第1検出境界B13と、自車両V1からの距離が中間の中距離D12(D11<D12<D13)の第1検出境界B12を含む。
 本実施形態の運転支援プロセッサ10は、第1検出境界が複数設定された場合において、複数の境界のうち、共有点を形成する第1検出境界の自車両V1に対する距離、及び第2検出境界の他車両(障害物)に対する距離に基づいて、運転支援の内容を決定する。
 図11に示すように、本実施形態の運転支援プロセッサ10は、最短距離の第1検出境界と第2検出境界に共有点が存在するときには、緊急回避のための運転支援を実行し、中距離の第1検出境界と第2検出境界に共有点が存在するときには、障害物を直接回避するための運転支援を実行し、最遠距離の第1検出境界と第2検出境界に共有点が存在するときには、走行予定経路を変更する運転支援を実行する。
 本実施形態における緊急回避のための運転支援とは、障害物との接近・接触を回避するために、直ちに、減速、停止、路肩移動などである。本実施形態における障害物を直接回避するための運転支援とは、障害物の存在領域を避けた経路で移動することである。本実施形態の障害物を直接回避するための運転支援とは、自車両V1の姿勢に所定量以上の変化があっても、障害物との接触を避けた操舵・加速・減速を行うことである。本実施形態の運転計画の変更とは、自車両V1の姿勢に所定量以上の変化がないように、走行経路及び運転制御内容を変更することである。自車両V1の姿勢は姿勢センサ263から取得する。本実施形態における運転計画の変更とは、初期の走行経路を取り消し、その障害物と接近しない新たな走行経路を設定し、新たな走行経路を走行するための運転制御命令を作成・実行することである。自車両V1の姿勢は姿勢センサ263から取得する。たとえば、走行経路の変更には、車線変更、操舵タイミングの繰り上げ、計画した経路を走行する設定速度の変更を含む。
 図12は、位置の異なる複数の境界を含む第1検出境界及び第2検出境界が設定されたときの運転支援の内容を決定する処理を示すフローチャートである。
 図12に示す処理は、図5のステップS1~S5の後に行われる。具体的に、図5のステップS3において、本実施形態の運転支援プロセッサ10は、第1検出境界として、自車両V1からの距離が異なる3つの境界、最短距離の境界、中距離の境界、最遠距離の境界を設定する。図5のステップS4において、本実施形態の運転支援プロセッサ10は、第2検出境界として、他車両Vnからの距離が異なる3つの境界、最短距離の境界、中距離の境界、最遠距離の境界を設定する。図5のステップS5において、運転支援プロセッサ10は、第1検出境界と第2検出境界との共有点を検出する。共有点が検出されるまで、ステップS1~S5の処理を繰り返す。
 続いて、運転支援プロセッサ10は、図12に示す処理を実行する。運転支援プロセッサ10は、共有点を構成する第1検出境界が、その3つの境界のうち、最短距離の境界、中距離の境界、又は最遠距離の境界のうちの何れであるかを判断する。同様に、運転支援プロセッサ10は、共有点を構成する第2検出境界が、その3つの境界のうち、最短距離の境界、中距離の境界、又は最遠距離の境界のうちの何れであるかを判断する。
 図12のステップS51において、運転支援プロセッサ10は、検出された共有点が自車両V1からの距離が最も短い「最短距離の境界」上に存在するか否かを判断する。そうである場合には、ステップS52に進み、検出された共有点が他車両Vnからの距離が最も短い「最短距離の境界」に存在するか否かを判断する。共有点が最短距離の第1検出境界と第2検出境界の上に存在する場合には、ステップS53に進み、緊急回避として定義された運転支援を実行する。例えば、減速、停止、操舵による路肩移動などの接触回避のために運転支援である。緊急回避の観点から、減速・停止の運転支援においては、所定の加速度(負)以上の制動を実行する。移動の運転支援においては、所定の操舵量・操舵速度以上の操舵を実行する。
 図13Aは、共有点CT12が、「最短距離の境界」である第1検出境界B11と第2検出境界B21の上にある状態を俯瞰する図である。自車両V1は経路A1に沿って走行する予定であるとする。運転支援プロセッサ10が、「最短距離の境界」である第1検出境界B11と第2検出境界B21上に共有点CT12を検出し、他車両V2との接触の可能性を予測したとする。運転支援プロセッサ10は、緊急回避として定義された運転支援を実行する。運転支援プロセッサ10は、自車両V1を、第1検出境界B11に到達する前に減速乃至停止するか、第1検出境界B11よりも上流側の地点において左側に操舵してA1´方向(第1検出境界B11とは反対の方向)に移動する。これにより、自車両V1の第1検出境界B11の位置は、別の位置に移動する。第1検出境界B11と第2検出境界B21の共有点CT12は消滅する(検出されない)。自車両V1は、他車両V2との接触を緊急的に回避できる。
 ステップS51、S54の判断において、運転支援プロセッサ10は、検出された共有点が自車両V1からの距離が中程度(最短距離よりも長く、最遠距離よりも短い)の「中距離の境界」上に存在するか否かを判断する。そうである場合には、ステップS55に進み、検出された共有点が他車両Vnからの距離が中程度(最短距離よりも長く、最遠距離よりも短い)の「中距離の境界」に存在するか否かを判断する。共有点が中距離の第1検出境界と第2検出境界の上に存在する場合には、ステップS56に進み、障害物を直接回避する障害物回避として定義された運転支援を実行する。例えば、障害物の存在領域を避けた経路で自車両V1を移動させることである。
 図13Bは、共有点CT12が、「中距離の境界」である第1検出境界B12と第2検出境界B22の上にある状態を俯瞰する図である。自車両V1は経路A1に沿って走行する予定であるとする。運転支援プロセッサ10が、「中距離の境界」である第1検出境界B12と第2検出境界B22上に共有点CT12を検出し、他車両V2との接触の可能性を予測したとする。運転支援プロセッサ10は、「障害物の回避」として定義された運転支援を実行する。運転支援プロセッサ10は、自車両V1を、他車両V2の第2検出境界B22が設定された位置を避ける方向に移動させる。例えば方向A1´に向かって自車両V1を減速して移動させ、他車両V2の通過を待って右折してもよい。これにより、自車両V1の第1検出境界B12の位置は、別の位置に移動する。第1検出境界B12と第2検出境界B22の共有点CT12は消滅する(検出されない)。自車両V1は、他車両V2との接触を緊急的に回避できる。
 ステップS54、S57の判断において、運転支援プロセッサ10は、検出された共有点が自車両V1からの距離が最も長い「最遠距離の境界」上に存在するか否かを判断する。そうである場合には、ステップS58に進み、検出された共有点が他車両Vnからの距離が最も長い「最遠距離の境界」に存在するか否かを判断する。共有点が最遠距離の第1検出境界と第2検出境界の上に存在する場合には、ステップS59に進み、当初の経路が変更された運転支援を実行する。例えば、当初の走行経路を取り消して、その障害物と接近しない新たな走行経路を設定する。走行経路の変更として、車線変更、操舵タイミングの繰り上げ、計画した経路を走行する設定速度の変更を含む。
 図13Cは、共有点CT12が、「最遠距離の境界」である第1検出境界B13と第2検出境界B23の上にある状態を俯瞰する図である。自車両V1は経路A1に沿って走行する予定であるとする。運転支援プロセッサ10が、「最遠距離の境界」である第1検出境界B13と第2検出境界B23上に共有点CT12を検出し、他車両V2との接触の可能性を予測したとする。運転支援プロセッサ10は、走行予定経路を変更し、新たな走行経路に基づく運転支援を実行する。運転支援プロセッサ10は、自車両V1が第1検出境界B13に到達する前に新たな経路A1´(経路A1とは異なる経路)を設定する。新たな経路A1を走行するにあたり、運転支援プロセッサ10は、第1検出境界B13よりも上流側の地点において左側に操舵して経路A1´(経路A1とは異なる経路)に移動する。これにより、自車両V1の第1検出境界B13の位置は、別の位置に移動する。第1検出境界B13と第2検出境界B23の共有点CT12は消滅する(検出されない)。自車両V1は、走行経路を変更することにより、他車両V2との接触を回避できる。
 本発明の実施形態の運転支援装置100は、以上のように構成され動作するので、以下の効果を奏する。
[1]本実施形態の運転支援方法が実行される運転支援装置100は、自車両V1の移動方向に設定された第1検出境界と、障害物の移動方向に設定された第2検出境界との共有点を検出し、自車両V1に対する共有点の位置に基づいて、自車両V1の運転支援の手法を決定する。
 第1検出境界と第2検出境界の共有点は、自車両V1と障害物とが将来接触する可能性がある点として位置づけられる。本実施形態では、この共有点が、自車両V1のフロント部、サイド部、リア部のいずれの位置であるかという点を考慮し、自車両V1と障害物(他車両)との接触態様(ぶつかり方)を予測する。本実施形態では、自車両V1と障害物(他車両)との接触態様(ぶつかり方)に応じて、適した接触回避の方法も異なることに着目し、接触の態様に応じた適切な運転支援により、障害物との接触を回避することができる。
[2]本実施形態の運転支援方法が実行される運転支援装置100では、自車両V1に対する共有点の位置が自車両V1のフロント部である場合には、自車両V1の運転支援の内容を操舵とする。画一的に、自車両V1を減速・停止させるのではなく、接触の態様に応じた多様な手法で接触回避を図ることができる。画一的に減速・停止をさせることが無いので、交通流を乱す運転とならないようにすることができる。
[3]本実施形態の運転支援方法が実行される運転支援装置100では、自車両V1に対する共有点の位置が自車両V1のリア部である場合には、自車両V1の運転支援の内容を加速とする。加速することにより、自車両V1の位置を移動方向の前方にずらし、自車両V1のリア部が障害物と接触することを避けることができる。画一的に減速・停止をさせることが無いので、交通流を乱す運転とならないようにすることができる。
[4]本実施形態の運転支援方法が実行される運転支援装置100では、自車両V1に対する共有点の位置が自車両V1のサイド部である場合には、自車両V1の運転支援の内容を加速又は減速とする。加速することにより、自車両V1が障害物の前を通り過ぎ、自車両V1のサイド部が障害物と接触することを避ける。画一的に減速・停止をさせることが無いので、交通流を乱す運転とならないようにすることができる。
[5]本実施形態の運転支援方法が実行される運転支援装置100では、運転支援の内容が、状態情報に含まれる、自車両V1の操舵に関する状態情報と、自車両V1に対する共有点の位置とに基づいて決定する。自車両V1に対する共有点の位置に加えて、自車両V1の操舵状態/直進状態を考慮することにより、障害物との接触の態様がより具体的に判断できる。具体的な接触の態様に応じて接触を回避するための運転支援を決定するので、円滑な運転により接触を回避できる。
[6]本実施形態の運転支援方法が実行される運転支援装置100において、第1検出境界は自車両V1に対する距離が異なる複数の境界を含み、第2検出境界は障害物としての他車両に対する距離が異なる複数の境界を含む。そして、運転支援の内容は、複数の境界のうち、共有点を形成する第1検出境界の自車両V1に対する距離、及び第2検出境界の他車両に対する距離に基づいて決定される。自車両V1に対する共有点の位置に加えて、自車両V1の操舵状態/直進状態を考慮することにより、障害物との接触の態様がより具体的に判断できる。具体的な接触の態様に応じて接触を回避するための運転支援を決定するので、円滑な運転により接触を回避できる。
[7]本実施形態の運転支援方法が実行される運転支援装置100において、運転支援の内容は、自車両V1の減速制御、自車両V1の加速制御、自車両V1の操舵制御を含む。従来は、自車両V1が障害物に接近することを中断させるという観点から、ある地点までの距離や到達時間が所定閾値未満である場合には、自車両V1を減速させるといった画一的な制御が実行されていた。これに対し、本実施形態の運転支援方法のように、接触態様を考慮すれば、操舵や加速によっても接触を回避できる。減速制御だけではなく、接触態様に応じて、操舵や加速によっても障害物との接触を回避できることにより、柔軟に回避の方法を選択できる。ちなみに、接触回避の度に減速制御を実行すれば、交通流に乱れを生じさせ、渋滞の原因となりうる。本実施形態にように、接触の態様に応じて操舵、加速による柔軟な接触回避により、急な減速制御が行われることを低減させることができ、交通流の乱れの発生を防止できる。このように、接触の可能性が予測されたときに減速制御だけを行う支援とは異なり、多様な方法で他車両(障害物)との接触回避をすることができる。
[8]本実施形態の運転支援方法が実行される運転支援装置100において、決定された内容の運転支援の制御処理を、自車両V1に実行させる。これにより、減速・停止だけではなく、多様な方法で他車両(障害物)との接触回避をすることができる。
[9]本実施形態の運転支援装置100によれば、上記[1]で述べた作用効果を得ることができる。
 なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
1…運転支援システム
100…運転支援装置
10…運転支援プロセッサ
20…出力装置
21…出力制御プロセッサ
30…通信装置
200…車載装置
210…車両コントローラ
220…ナビゲーション装置
 221…位置検出装置
 222…地図情報
 223…道路情報
 224…交通規則情報
230…障害物検出装置
 231…カメラ
 232…レーダー装置
240…車線逸脱防止装置
 241…カメラ
 242…道路情報
250…出力装置
 251…ディスプレイ
 252…スピーカ
260…検出装置
 261…舵角センサ
 262…車速センサ
 263…姿勢センサ
270…駆動装置
 271…制動装置
280…操舵装置

Claims (9)

  1.  自車両の運転支援処理に用いられるプロセッサを用いて、
     前記自車両の移動方向を含む状態情報に基づいて、前記自車両の移動方向側に設定された第1検出境界と、前記自車両の周囲に存在する障害物の移動方向を含む状態情報に基づいて、前記障害物の移動方向側に設定された第2検出境界との共有点を検出し、
     前記自車両に対する前記共有点の位置に基づいて、当該自車両の運転支援の内容を決定する運転支援方法。
  2.  前記自車両に対する前記共有点の位置が自車両のフロント部である場合には、前記自車両の運転支援の内容を操舵とする請求項1に記載の運転支援方法。
  3.  前記自車両に対する前記共有点の位置が自車両のリア部である場合には、前記自車両の運転支援の内容を加速とする請求項1又は2に記載の運転支援方法。
  4.  前記自車両に対する前記共有点の位置が自車両のサイド部である場合には、前記自車両の運転支援の内容を加速又は減速とする請求項1~3の何れか一項に記載の運転支援方法。
  5.  前記運転支援の内容は、
     前記状態情報に含まれる、前記自車両の操舵に関する状態情報と、前記自車両に対する共有点の位置とに基づいて決定される請求項1~4の何れか一項に記載の運転支援方法。
  6.  前記第1検出境界は、前記自車両に対する距離が異なる複数の境界を含み、
     前記第2検出境界は、前記障害物としての他車両に対する距離が異なる複数の境界を含み、
     前記運転支援の内容は、
     前記複数の境界のうち、前記共有点を形成する前記第1検出境界の前記自車両に対する距離、及び前記第2検出境界の前記他車両に対する距離に基づいて決定される請求項1~5の何れかに記載の運転支援方法。
  7.  前記運転支援の内容は、
     前記自車両の減速制御、前記自車両の加速制御、前記自車両の操舵制御を含む運転支援の内容を含む請求項1~6の何れか一項に記載の運転支援方法。
  8.  前記決定された内容の運転支援の制御処理を、前記自車両に実行させる請求項1~7の何れか一項に記載の運転支援方法。
  9.  自車両の運転支援の制御処理を実行するプロセッサと、
     前記自車両の移動方向を含む状態情報と、前記自車両の周囲に存在する障害物の移動方向を含む状態情報とを取得する通信装置とを備え、
     前記プロセッサは、
     前記通信装置を介して取得した前記状態情報に基づいて、前記自車両の移動方向側に第1検出境界を設定し、
     前記通信装置を介して取得した前記状態情報に基づいて、前記障害物の移動方向側に第2検出境界を設定し、
     前記第1検出境界と前記第2検出境界との共有点を検出し、
     前記自車両に対する前記共有点の位置に基づいて、運転支援の内容を決定する運転支援装置。
PCT/JP2016/069465 2016-06-30 2016-06-30 運転支援方法及び運転支援装置 WO2018003068A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/069465 WO2018003068A1 (ja) 2016-06-30 2016-06-30 運転支援方法及び運転支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/069465 WO2018003068A1 (ja) 2016-06-30 2016-06-30 運転支援方法及び運転支援装置

Publications (1)

Publication Number Publication Date
WO2018003068A1 true WO2018003068A1 (ja) 2018-01-04

Family

ID=60786859

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/069465 WO2018003068A1 (ja) 2016-06-30 2016-06-30 運転支援方法及び運転支援装置

Country Status (1)

Country Link
WO (1) WO2018003068A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112325898A (zh) * 2021-01-06 2021-02-05 中智行科技有限公司 路径规划方法、装置、设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007022263A (ja) * 2005-07-14 2007-02-01 Mazda Motor Corp 車両用走行支援装置
JP2010241315A (ja) * 2009-04-08 2010-10-28 Honda Motor Co Ltd 車両用衝突回避装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007022263A (ja) * 2005-07-14 2007-02-01 Mazda Motor Corp 車両用走行支援装置
JP2010241315A (ja) * 2009-04-08 2010-10-28 Honda Motor Co Ltd 車両用衝突回避装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112325898A (zh) * 2021-01-06 2021-02-05 中智行科技有限公司 路径规划方法、装置、设备和存储介质

Similar Documents

Publication Publication Date Title
JP6380919B2 (ja) 車両制御装置
US10262534B2 (en) System for avoiding collision with multiple moving bodies
JP6885462B2 (ja) 運転支援装置及び運転支援方法
US20180056998A1 (en) System and Method for Multi-Vehicle Path Planning Technical Field
WO2018066133A1 (ja) 車両判定方法、走行経路補正方法、車両判定装置、及び走行経路補正装置
JP7185408B2 (ja) 車両制御装置
US11697416B2 (en) Travel assistance method and travel assistance device
JP7207256B2 (ja) 車両制御システム
JP7167977B2 (ja) 車両走行支援方法及び車両走行支援装置
US11541892B2 (en) Vehicle control method and vehicle control device
JP6809087B2 (ja) 運転支援方法及び運転支援装置
WO2018211645A1 (ja) 運転支援方法及び運転支援装置
JP7400754B2 (ja) 遠隔支援システム及び遠隔支援方法
WO2018230152A1 (ja) 運転支援装置、運転支援システム、運転支援方法およびプログラム
JP2019153029A (ja) 車両制御装置
WO2018003068A1 (ja) 運転支援方法及び運転支援装置
WO2022118788A1 (ja) 車両制御装置
JP2020163974A (ja) 車両運転支援システム
JP2020163967A (ja) 車両運転支援システム
JP2020045038A (ja) 車両制御方法及び車両制御装置
JP7123645B2 (ja) 走行支援方法及び走行支援装置
JP2019001451A (ja) 運転支援装置、運転支援システム、運転支援方法およびプログラム
JP7471150B2 (ja) 走行支援方法、及び、走行支援装置
WO2021074659A1 (ja) 運転支援方法及び運転支援装置
JP6525405B1 (ja) 車両制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16907301

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16907301

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP