WO2018216177A1 - 車両制御装置 - Google Patents

車両制御装置 Download PDF

Info

Publication number
WO2018216177A1
WO2018216177A1 PCT/JP2017/019591 JP2017019591W WO2018216177A1 WO 2018216177 A1 WO2018216177 A1 WO 2018216177A1 JP 2017019591 W JP2017019591 W JP 2017019591W WO 2018216177 A1 WO2018216177 A1 WO 2018216177A1
Authority
WO
WIPO (PCT)
Prior art keywords
recommended
vehicle
target
lines
vehicle control
Prior art date
Application number
PCT/JP2017/019591
Other languages
English (en)
French (fr)
Inventor
加藤大智
小黒宏史
Original Assignee
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 本田技研工業株式会社 filed Critical 本田技研工業株式会社
Priority to JP2019519910A priority Critical patent/JP6799150B2/ja
Priority to US16/616,093 priority patent/US11136027B2/en
Priority to CN201780091210.8A priority patent/CN110678915B/zh
Priority to PCT/JP2017/019591 priority patent/WO2018216177A1/ja
Publication of WO2018216177A1 publication Critical patent/WO2018216177A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2754/00Output or target parameters relating to objects
    • B60W2754/10Spatial relation or speed relative to objects
    • B60W2754/20Lateral distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Definitions

  • the present invention relates to a vehicle control apparatus that controls automatic driving or driving assistance of a vehicle.
  • a vehicle control device that controls automatic driving and driving support of a vehicle (own vehicle) detects the surrounding environment of the own vehicle during control, and calculates a travel route and speed according to the surrounding environment.
  • the driving support device disclosed in Japanese Patent No. 4949063 avoids a target based on the turning control amount of the own vehicle when a target (an obstacle such as another vehicle) is detected on the traveling path of the own vehicle.
  • a route (traveling route) is generated.
  • the present invention has been made in view of the above circumstances, and can be interfered by generating a travel path that can travel to some extent away from the target in consideration of various factors in the surrounding environment of the vehicle.
  • An object of the present invention is to provide a vehicle control device that enables efficient travel with reduced performance.
  • the present invention provides a vehicle control device that at least partially automatically performs traveling control of a host vehicle, the detection unit detecting a surrounding environment of a traveling path on which the host vehicle travels, Based on detection information of the detection unit, an external recognition unit that extracts left and right recognition lines of the travel path and extracts a target existing on the travel path, and information on the left and right recognition lines and the target Based on the calculation of the left and right boundary lines indicating the limit of non-interference with the range of action of the vehicle and the target on the travel path, and adding a margin interval to narrow the left and right boundary lines inside, And an information generation unit that calculates left and right recommended boundary lines when the host vehicle is traveling.
  • the vehicle control apparatus calculates the recommended left and right boundary lines obtained by adding a margin interval to the left and right boundary lines by the information generating unit. Information for driving the vehicle with a margin against the target of the vehicle is obtained. Therefore, the vehicle control apparatus can set a travel route that can handle a plurality of targets based on the recommended boundary lines on the left and right. Efficient traveling control that takes into account can be realized.
  • the information generation unit may perform correction to widen the left and right recommended boundary lines outward in the width direction when an interval in the width direction of the left and right recommended boundary lines is equal to or less than a predetermined threshold.
  • the vehicle control device performs a correction to widen the left and right recommended boundary lines to the outside in the width direction, and the vehicle control device may interfere with the traveling control of the vehicle due to a narrow interval between the generated left and right recommended boundary lines. Can be suppressed.
  • the information generation unit moves the left recommended boundary to the left of the right recommended boundary in the correction when the left recommended boundary is positioned to the right of the right recommended boundary. It is preferable to make it.
  • the vehicle control device can suppress the occurrence of trouble in the traveling control of the host vehicle due to the reversal by processing so as to eliminate this reversal.
  • the information generation unit is configured to generate a left and right limit line obtained by adding an allowable deviation interval to the left and right recognition lines, and one of the left and right recommended boundary lines is one of the left and right limit lines. In the correction, only the other of the left and right recommended boundary lines may be widened outward in the width direction.
  • the vehicle control device widens only the other of the left and right recommended boundary lines outward in the width direction, so that the left and right recommended boundary lines are Can be prevented from exceeding the left and right limit lines. Thereby, generation
  • the information generation unit preferably widens the recommended left and right boundary lines in a range not exceeding the left and right boundary lines in the correction.
  • the information generation unit sets a restraint point where the vehicle passes within the left and right recommended boundary lines, and in a state where the restraint points are arranged, the curvature, the travel distance, the left and right recommended boundary lines A recommended travel route that minimizes the difference from the center may be calculated.
  • the recommended travel route that minimizes the difference between the curvature, the travel distance, and the center of the left and right recommended boundary lines indicates, for example, a route in which a decrease in the vehicle speed and unnecessary movement of the steering wheel can be suppressed. Therefore, the vehicle control device can make the host vehicle travel well by adjusting the traveling speed and the steering angle so as to follow the recommended traveling route as much as possible.
  • the information generation unit may adjust the left and right recommended boundary lines so that the recommended travel route is centered in the width direction.
  • the vehicle control device can obtain the left and right recommended boundary lines that are smooth and continuous. It is possible to generate a pattern of no path more efficiently.
  • the information generation unit may calculate a width in the width direction of the left and right boundary lines, and acquire a target speed corresponding to the width based on reference information stored in advance in a storage unit.
  • the vehicle control device acquires a target speed corresponding to the width of the left and right boundary lines, for example, when the left and right boundary lines form a narrow road, the vehicle control apparatus sets the target speed to reduce the traveling speed of the host vehicle. It is possible to reduce the anxiety of the passenger.
  • the information generation unit classifies the action on the extracted target as one of left avoidance, right avoidance, stop, ignore and follow before calculating the left and right boundary lines, and the left avoidance or
  • the left and right boundary lines are preferably generated based on the right avoidance classification.
  • the vehicle control apparatus determines the action classification for the target in advance, and reduces the possibility of forming a complicated boundary line in the generation of the left and right boundary lines, and obtains the boundary lines efficiently and satisfactorily. Can do.
  • the information generation unit is configured to generate a polygon target based on the target information of the external recognition unit, and when the target is a moving object, a time elapses as the polygon target. Accordingly, it is preferable to generate a predicted polygon target in which the position of the moving body changes.
  • the vehicle control device can calculate the left and right recommended boundary lines corresponding to the predicted polygon target by generating the predicted polygon target for the moving object. Thereby, the path
  • FIG. 1 It is a top view which shows the recommended boundary line on either side which the vehicle control apparatus which concerns on one Embodiment of this invention produces, and a recommended driving
  • FIG. 1 It is a schematic block diagram of the vehicle control apparatus of FIG. It is explanatory drawing for demonstrating the process which calculates the recognition line on either side by an external field recognition part.
  • FIG. 8A is an explanatory diagram for explaining a predicted polygon target of a moving object
  • FIG. 8B is a graph for explaining identification of the position of the moving object with time. It is a flowchart which shows the processing flow which produces
  • FIG. 10A is an explanatory diagram for explaining a first process for generating left and right boundary lines
  • FIG. 10B is an explanatory diagram for explaining a second process for generating left and right boundary lines.
  • FIG. 12A is an explanatory diagram for explaining processing for generating left and right limit lines
  • FIG. 12B is an explanatory diagram for explaining processing for generating left and right marginal travel lines. It is explanatory drawing for demonstrating the process which produces
  • FIG. 14A is an explanatory diagram showing the left and right recommended boundary lines before correction
  • FIG. 14B is an explanatory diagram showing the left and right recommended boundary lines after correction.
  • FIG. 15A to FIG. 15D are explanatory diagrams for explaining correction contents of the left and right recommended boundary lines.
  • FIG. 20A is an explanatory diagram showing the width of the left and right boundary lines
  • FIG. 20B is a reference graph showing the relationship between the width of the left and right boundary lines and the speed limit.
  • a vehicle control device 10 is a control unit that is mounted on a vehicle 11 (hereinafter also referred to as a host vehicle 11) and controls automatic operation of the host vehicle 11, as shown in FIG.
  • speed control acceleration, deceleration, speed maintenance, etc.
  • rudder angle control for adjusting the traveling direction of the host vehicle 11 are integrally performed.
  • the vehicle control device 10 recognizes the surrounding environment of the host vehicle 11 and travels the host vehicle 11 (for example, a sign that defines a travel path such as a lane mark, a stationary body, a moving body, etc.
  • the left and right recommended boundary lines 100 and the recommended travel route 102 suitable for the target are generated.
  • the recommended boundary lines 100 on the left and right and the recommended travel route 102 are information on the travel route considering various factors of the surrounding environment, and are index information that allows the target to travel with a margin as much as possible.
  • the left and right recommended boundary lines 100 and the recommended travel route 102 can be used to generate a track including a route and a speed when the vehicle control device 10 performs automatic driving.
  • the vehicle control apparatus 10 can drive the host vehicle 11 more safely and efficiently in accordance with various elements of the surrounding environment.
  • the vehicle control device 10 will be specifically described.
  • the vehicle control device 10 includes a vehicle control system 12 (electronic control unit) that is a main part of the system, and is further connected to the vehicle control system 12 via a communication line.
  • the input device includes an external sensor 14, a navigation device 16, a vehicle sensor 18, a communication device 20, an automatic operation switch 22 (automatic operation SW), an operation detection sensor 26, and the like.
  • the output device includes a driving force device 28, a steering device 30, a braking device 32, and the like.
  • the external sensor 14 is a detection unit that recognizes the surrounding environment (external environment) of the host vehicle 11, and is configured by one or more cameras 33 and one or more radars 34 in the present embodiment.
  • the camera 33 and the radar 34 detect the outside world according to their characteristics, and output this detection information to the vehicle control system 12.
  • the external sensor 14 may be comprised with one type of apparatus, and another apparatus may be applied. Examples of other devices include an infrared sensor, an ultrasonic sensor, and LIDAR (light detection device).
  • the navigation device 16 detects and identifies the current position of the host vehicle 11 using a satellite positioning device or the like, and calculates a route from the current position to the destination designated by the user.
  • Information of the navigation device 16 is provided to the vehicle control system 12 as necessary and stored in the map information storage unit 42 of the storage device 40.
  • the vehicle sensor 18 is a sensor device group (vehicle state detection unit) that detects the state of the host vehicle 11 and outputs the detection result to the vehicle control system 12 when the host vehicle 11 is traveling.
  • the sensor device group includes a vehicle speed sensor that detects the vehicle speed of the host vehicle 11, an acceleration sensor that detects acceleration, a yaw rate sensor that detects an angular velocity around the vertical axis of the host vehicle 11, and an orientation sensor that detects the direction of the host vehicle 11.
  • a gradient sensor for detecting the gradient of the vehicle 11 can be used. Detection information detected by the vehicle sensor 18 (or the vehicle control unit 74) is stored in the host vehicle state information storage unit 43 of the storage device 40 as host vehicle state information Ivh.
  • the communication device 20 is provided to communicate with an external communication device (roadside machine, other vehicle, traffic system server, etc.) existing outside the host vehicle 11.
  • the communication device 20 receives information (position and light color) related to a traffic light from a roadside device, probe information related to another vehicle from another vehicle, updated map information or other information from a server, and a probe of the own vehicle 11 Send information etc. to the outside.
  • the automatic operation switch 22 is a switch for the passenger to switch between the manual operation mode and the automatic operation mode.
  • the occupant operates the operation device 24 of the host vehicle 11 to operate the output device (the driving force device 28, the steering device 30, and the braking device 32) to run the host vehicle 11 or the like.
  • the operation device 24 includes an accelerator pedal, a steering wheel (handle), a brake pedal, a shift lever, a direction indication lever, and the like.
  • each configuration of the operation device 24 is provided with an operation detection sensor 26 that detects the presence / absence, operation amount, and operation position of the passenger.
  • the operation detection sensor 26 outputs an accelerator depression (opening) amount, a steering operation (steering) amount, a brake depression amount, a shift position, a right / left turn direction, and the like as detection results to the vehicle control system 12.
  • the host vehicle 11 is caused to run under the control of the vehicle control device 10 in a state where the passenger does not operate the operation device 24.
  • the vehicle control system 12 generates an action plan (a long-term trajectory Lt, a medium-term trajectory Mt, and a short-term trajectory St, which will be described later) based on the surrounding environment of the host vehicle 11 when the automatic operation mode is performed, and an output device along the action plan.
  • the driving force device 28, the steering device 30, and the braking device 32 are appropriately controlled.
  • the driving force device 28 includes a driving force ECU (not shown) and a driving source such as an engine and a driving motor.
  • the driving force device 28 generates traveling driving force (torque) according to the vehicle control value Cvh input from the vehicle control system 12, and transmits the traveling driving force to the wheels via the transmission (or directly).
  • the steering device 30 includes an EPS (electric power steering) ECU (not shown) and an EPS device.
  • the steering device 30 changes the direction of the wheels (steering wheels) according to the vehicle control value Cvh input from the vehicle control system 12.
  • the braking device 32 is, for example, an electric servo brake that uses a hydraulic brake together, and includes a brake ECU (not shown) and a brake actuator.
  • the braking device 32 brakes the wheel according to the vehicle control value Cvh input from the vehicle control system 12.
  • the vehicle control system 12 is configured as an electronic control unit (ECU) having an input / output I / F (not shown) and a processor, and includes a storage device 40 mounted on or connected to the ECU.
  • the processor executes a program (not shown) stored in the storage device 40, and recognizes the external world recognition unit 52, the recognition result reception unit 53, the local environment map generation unit 54, the overall control unit 70, the long-term trajectory generation unit 71, and the medium-term trajectory generation.
  • the function implementation units such as the unit 72, the short-term trajectory generation unit 73, and the vehicle control unit 74 are constructed.
  • the function realizing unit is a software function unit as described above, but may be realized by a hardware function unit including an integrated circuit or the like.
  • the external environment recognition unit 52 generates the extraction information Ip of the object existing around the host vehicle 11 based on each detection information input from the external sensor 14, the navigation device 16, the communication device 20, and the like.
  • the extraction information Ip the detection result of the radar 34 and the like
  • the own vehicle state information Ivh transmitted from the vehicle sensor 18 and the vehicle control unit 74, and the like are referred to.
  • the positional relationship (the direction and distance of the object with respect to the vehicle 11) is also recognized.
  • the external environment recognition unit 52 lane mark (white line, yellow line, marker, etc.) on the road on which the vehicle 11 travels, the boundary between the paved portion and the unpaved portion, the road shoulder, guardrail, curb Extract objects such as walls, stop lines, traffic lights, signs, traffic participants, and obstacles.
  • the lane mark, the boundary between the paved portion and the unpaved portion, and the like indicate the traveling path without obstructing the traveling of the vehicle 11.
  • the external world recognition unit 52 performs polynomial approximation as shown in FIG. 3 to perform two substantially parallel recognition lines 104 (left recognition line) continuous on the virtual plane coordinate SC. Line 104L, right recognition line 104R).
  • the left and right recognition lines 104 are supplemental lines even when the lane mark on the road is blurred or the lane mark cannot be recognized by the target.
  • the external environment recognition unit 52 may supplement the recognition line 104 from the map information stored in the map information storage unit 42 when the detection of the lane mark or the like by the camera 33 is unknown or lost.
  • the left and right recognition lines 104 are constructed as point sequences obtained by taking out points on the polynomial (coordinate points of the virtual plane coordinates SC) at predetermined distances. Further, the external recognition unit 52 also calculates a center line 106 extending in the middle of the left and right recognition lines 104 and includes it in the extracted information Ip. This center line 106 is also constructed as a point sequence in which coordinate points are arranged.
  • the other vehicles that are traveling are moving bodies 202 that affect the traveling of the host vehicle 11.
  • guardrails, curbs, walls, other vehicles that are stopped, obstacles, and the like become stationary bodies 204 that affect the traveling of the vehicle 11.
  • the moving body 202 differs from the other in that the position on the travel path changes according to time
  • the stationary body 204 differs in that the position on the travel path hardly changes according to time.
  • a traffic participant such as a person may be recognized by either the moving body 202 or the stationary body 204. This is because a route that avoids the target 200 is eventually set by the processing described later.
  • the external environment recognition unit 52 extracts similar shapes (edges) of the target 200 in a plurality of images, and determines the speed of the target 200 (that is, the moving body 202 and the stationary body 204) based on the speed of the host vehicle 11. recognize.
  • Each target 200 is output as information whose position is specified on the same virtual plane coordinate SC as the recognition line 104.
  • the external environment recognition unit 52 sets the range to be considered when designing the action plan of the host vehicle 11 to the left and right action defining lines 108 (left action defining lines 108L, Right action defining line 108R) and included in the extracted information Ip. For this reason, as shown in FIG. 2, an action regulation line generation unit 56 is provided in the outside recognition unit 52.
  • the action defining line generation unit 56 may be provided in the local environment map generation unit 54.
  • the action defining line generation unit 56 is shifted (offset) by a predetermined set interval D1 to the outside in the width direction of each of the left and right recognition lines 104.
  • the left and right action regulation lines 108 are generated. For example, for the left recognition line 104L, a left action defining line 108L is generated by adding 5 m to the left in the width direction, and for the right recognition line 104R, a right action defining line 108R is added by adding 5 m to the right in the width direction. To do.
  • the set interval D1 is not limited to 5 m and may be designed arbitrarily, and may be a value that varies based on the reliability of the external sensor 14 or the like.
  • the left and right action defining lines 108 are also formed as a point sequence in which a plurality of coordinate points are arranged on the virtual plane coordinate SC.
  • the recognition result receiving unit 53 periodically receives the extracted information Ip (the left and right recognition lines 104, the center line 106, the left and right action defining lines 108, the moving body 202, and the stationary body 204) from the external environment recognition unit 52. Update old information. Then, the extraction information Ip is transmitted to the overall control unit 70 as the external world recognition information Ipr at the timing when the calculation command Aa is received from the overall control unit 70. This outside world recognition information Ipr is stored in the outside world recognition information storage unit 44 of the storage device 40.
  • the local environment map generation unit 54 is an information generation unit that generates local environment information Iem, which is information on the traveling road, based on the calculation command Ab, the external environment recognition information Ipr, the own vehicle state information Ivh, and the like transmitted from the overall control unit 70. It is.
  • the local environment information Iem is output to the overall control unit 70 and stored in the local environment information storage unit 46 of the storage device 40. A specific configuration of the local environment map generator 54 will be described in detail later.
  • the overall control unit 70 synchronizes the tasks (processing) of the recognition result receiving unit 53, the local environment map generation unit 54, the long-term trajectory generation unit 71, the medium-term trajectory generation unit 72, and the short-term trajectory generation unit 73, and is necessary for calculation. It functions as a task synchronization module that sends information to each function realization unit. Specifically, the overall control unit 70 internally counts the reference calculation cycle, outputs a calculation command to each function realization unit according to the timing based on the reference calculation cycle, performs the process, and receives the processing result. To do.
  • the long-term trajectory generating unit 71, the medium-term trajectory generating unit 72, and the short-term trajectory generating unit 73 are trajectories including a vehicle speed necessary for speed control and a route necessary for steering control (long-term trajectory) under the command of the overall control unit 70.
  • a trajectory Lt, a medium-term trajectory Mt, and a short-term trajectory St) are generated. Each generated trajectory is output from each trajectory generation unit to the overall control unit 70 and stored in the trajectory information storage unit 48 of the storage device 40.
  • the long-term trajectory generation unit 71 generates a long-term trajectory Lt, which is a trajectory of a somewhat long period, based on the calculation command Ac, the local environment information Iem, and the own vehicle state information Ivh.
  • the long-term trajectory Lt is generated as a point sequence in which coordinate points including time or speed information in a 10-second period are arranged at intervals of about several hundred ms (about nine times the reference calculation period).
  • the medium-term trajectory generator 72 generates a medium-term trajectory Mt that is a trajectory having a shorter period than the long-term trajectory Lt, based on the calculation command Ad, the local environment information Iem, the host vehicle state information Ivh, and the long-term trajectory Lt.
  • the medium-term trajectory Mt is generated as a point sequence in which coordinate points including time or speed information in a period of 5 seconds are arranged at intervals of about several hundreds of ms (about three times the reference calculation cycle).
  • the short-term trajectory generation unit 73 generates a short-term trajectory St that is a trajectory having a shorter period than the medium-term trajectory Mt, based on the calculation command Ae, the local environment information Iem, the own vehicle state information Ivh, the long-term trajectory Lt, and the medium-term trajectory Mt.
  • the short-term trajectory St includes vehicle dynamics information (vertical position x, horizontal position y, attitude angle ⁇ z, velocity vs, acceleration va, curvature ⁇ , yaw rate ⁇ , steering angle ⁇ st) in a 1 second period.
  • the generated coordinate points are generated as a sequence of points arranged at intervals of about several ms (standard calculation cycle).
  • the vehicle control unit 74 converts the coordinate point including the vehicle dynamics into the vehicle control value Cvh so that the host vehicle 11 travels along the input short-term track St, and the driving force device 28 and the steering device 30. And output to the braking device 32.
  • Information for driving the driving force device 28, the steering device 30, and the braking device 32 is transmitted to the outside recognition unit 52 as the vehicle state information Ivh.
  • the vehicle control device 10 generates information on the surrounding environment of the host vehicle 11 (local environment information Iem) in the local environment map generation unit 54, and tracks each of the track generation units based on the local environment information Iem. Generate.
  • local environment information Iem include a polygon target 110, left and right boundary lines 112, left and right recommended boundary lines 100, a recommended travel route 102, a vehicle stop position 114, and a target speed 116.
  • the “polygon target 110” is a polygon formed from the target 200 (stationary object 204 and moving object 202) existing in the surrounding environment of the vehicle 11 (see also FIGS. 6 and 7).
  • the polygon target 110 is constructed on the virtual plane coordinate SC as information that the host vehicle 11 should avoid based on the extraction information Ip of the stationary body 204 and the moving body 202.
  • the polygon target 110 is traced in position and shape on the virtual plane coordinate SC over time.
  • the “left and right boundary line 112” refers to a boundary that separates non-interference and interference of the vehicle 11 with respect to the stationary body 204 and the moving body 202 (see also FIG. 10C). That is, the left and right boundary lines 112 are generated in consideration of the polygonal target 110 existing on the virtual plane coordinate SC. In other words, the left and right boundary lines 112 are information representing a range in which the host vehicle 11 is not moved when the host vehicle 11 determines an action plan.
  • the “left and right recommended boundary line 100” is a position where the vehicle 11 is located at a certain distance from the target 200 based on the left and right boundary lines 112, and the vehicle 11 can travel safely and comfortably (recommended) (See also FIG. 13).
  • the left and right recommended boundary lines 100 are formed by adding a margin interval Dm (margin) to the left and right boundary lines 112, and become appropriate information corresponding to the actual travel route by appropriate correction.
  • Dm margin interval
  • the “recommended travel route 102” is a route formed so as to pass inside the left and right recommended boundary lines 100 (see also FIG. 16).
  • the vehicle 11 is further weighted appropriately with respect to the curvature, travel distance, and difference between the center of the recommended left and right boundaries so that these parameters are minimized. Yes.
  • the recommended travel route 102 indicates a route with improved efficiency and comfort in traveling the host vehicle 11.
  • the “vehicle stop position 114” is position information for stopping the host vehicle 11 on the virtual plane coordinate SC when the polygon target 110 cannot be avoided (see also FIG. 18).
  • the “target speed 116” is a target value of the speed at which the vehicle 11 travels on the virtual plane coordinate SC based on the left and right recognition lines 104, the polygon target 110, the left and right boundary lines 112, the vehicle stop position 114, and the like. Yes (see also FIG. 20).
  • the local environment map generation unit 54 includes a target recognition action unit 80, a boundary line generation unit 82, a recommended travel path generation unit 84, and a stop position generation unit, as shown in FIG. 86 and a target speed generator 88 are provided. Then, each function realizing unit of the local environment map generating unit 54 generates each information along the processing flow shown in FIG.
  • the polygon target 110 is first generated based on the information of the target 200 (step S10), and then the left and right boundary lines 112 are generated based on the polygon target 110 (step S20).
  • the left and right recommended boundary lines 100 are generated based on the line 112 (step S30).
  • a recommended travel route 102 is also generated, and the left and right recommended boundary lines 100 are corrected based on the recommended travel route 102.
  • the vehicle stop position 114 is generated based on the polygon target 110 and the recommended travel route 102 (step S40), and finally the target based on the vehicle stop position 114, the left and right boundary lines 112, and the like.
  • a speed 116 is generated (step S50).
  • the configuration of each function implementing unit will be described in detail.
  • the target recognition action unit 80 of the local environment map generation unit 54 is a functional unit that performs Step S10 in FIG. 5 and generates a polygon target 110 for all the targets 200 extracted on the travel path.
  • the target recognition action unit 80 according to the present embodiment forms the polygon target 110 in consideration of the types of the stationary body 204, the moving body 202, and the like.
  • the target recognition action unit 80 includes an edge, a corner, and a protruding portion of the extracted target 200 (guardrail, curbstone, wall, traffic light, sign, traffic participant, obstacle, etc.). Etc. are appropriately connected to form a polygon shape.
  • the polygonal target 110 may be formed only by a detection part (for example, a part visible by the camera 33) by the external sensor 14, and the non-detection part is omitted by connecting the end parts of the detection part. Good.
  • the target recognition action part 80 produces
  • a classification determination unit 81 that classifies the action of the vehicle 11 based on the left and right action definition lines 108 included in the external environment recognition information Ipr and the generated polygon target 110.
  • the behavior classification includes four patterns of [1] left avoid, [2] right avoid, [3] stop, and [4] ignore for the polygon target 110. It is possible to take action.
  • the extraction information Ip is the moving object 202
  • five patterns of [1] left avoidance, [2] right avoidance, [3] stop, [4] ignore, and [5] follow-up with respect to the polygon target 110 It is possible to take action.
  • the classification determination unit 81 is separated from the left and right action definition lines 108 by a certain distance outward in the width direction on the virtual plane coordinate SC, as in the polygon target 110 surrounded by the frame A1 in FIG.
  • the thing is classified as [4] Ignore. This is because the polygon target 110 deviating from the left and right action defining lines 108 is less likely to affect the travel of the host vehicle 11 in the first place. Note that when the polygon target 110 overlaps the left and right action definition lines 108 (see frame A2 in FIG. 7), [4] is not classified as ignored and is an object to be avoided.
  • the classification determination unit 81 calculates the width BW for each point sequence of the left and right recognition lines 104 in order to determine the action classification of the own vehicle 11 using the travelable width of the left and right recognition lines 104. For example, like the polygon target 110 surrounded by the frame B1 in FIG. 7, it exists inside the left and right recognition lines 104 on the virtual plane coordinate SC, and from the polygon target 110 to the left and right recognition lines 104. If each width BW is less than a certain value, it recognizes that the polygon target 110 cannot be avoided and classifies as [3] stop. At this time, when it is recognized that the nearest polygon target 110 in front of the host vehicle 11 is the moving body 202 traveling in the same direction as the host vehicle 11, it is classified as [5] following.
  • the constant value to be compared with the width BW may be designed to be an appropriate value according to the vehicle width of the host vehicle 11.
  • the classification determining unit 81 has a width from the one side where the polygon target 110 is shifted to the right side or the left side with respect to the center line 106 to the opposite recognition line 104 on the other side. If BW is equal to or greater than a certain value, it is determined to avoid the polygon target 110. For example, it is assumed that a polygon target 110 ⁇ that is on the right side of the center line 106 is detected as indicated by a dotted line in FIG. In this case, if the width BW from the polygon target 110 ⁇ to the left recognition line 104L is equal to or greater than a certain value, it is classified as [1] left avoidance. Conversely, as indicated by the dotted line in FIG.
  • the behavior classification for each polygon target 110 by the classification determination unit 81 is linked as behavior classification information together with each polygon target 110, and is used for subsequent processing in the local environment map generation unit 54.
  • the action classification information may be output to the long-term trajectory generation unit 71, the medium-term trajectory generation unit 72, and the short-term trajectory generation unit 73 via the overall control unit 70, and may be used as information that limits the range of a plurality of trajectory patterns. Good.
  • the target recognition action unit 80 takes into account the passage of time on the virtual plane coordinate SC when the moving body 202 is included in the external world recognition information Ipr as shown in FIG. 8A.
  • a predicted polygon target 111 is generated. For example, when another vehicle is traveling in the vicinity of the own vehicle 11, taking into account the speed of the other vehicle, in addition to the polygon of the other vehicle at the present time, the polygon when the own vehicle 11 approaches the other vehicle Estimate and form a series of polygons for the moving body 202.
  • the target recognition action unit 80 selects the predicted trajectory of the moving body 202 classified into [1] left avoidance and [2] right avoidance and the previously calculated output trajectory of the vehicle 11 (long-term trajectory Lt, medium-term trajectory). Mt, the relative distance with the passage of time is calculated from the short-term trajectory St).
  • the predicted trajectory can be calculated based on, for example, the previous detection position and the current detection position of the moving body 202 and the output trajectory of the host vehicle 11.
  • the horizontal axis represents time
  • the vertical axis represents the relative position of the moving body 202 on the travel path, that is, the time variation of the inter-vehicle distance between the host vehicle 11 and the moving body 202.
  • the moving body 202 is positioned forward (positive value) from the host vehicle 11 at the current position at the time point t1.
  • the inter-vehicle distance is inclined downward as time passes.
  • the target recognition action unit 80 has a front threshold value and a rear threshold value corresponding to the inter-vehicle distance in advance, extracts a region between the front threshold value and the rear threshold value, and the position (absolute position) of the moving body 202 on the lane. Calculate the maximum and minimum values of.
  • the absolute position of the moving body 202 is the lowest S min at the time point t1 and the largest S max at the time point t2, as shown in the lower graph of FIG. 8B.
  • Target recognition behavior unit 80 the S min, by calculating the S max, indexing the existence range of the moving object 202 with time on the virtual plane coordinates SC (time t1 ⁇ t2), predicted the existence range A polygon target 111 is created. Thereby, the classification determination unit 81 can determine the behavior of the own vehicle 11 corresponding to the predicted polygon target 111.
  • the boundary line generation unit 82 of the local environment map generation unit 54 generates the left and right boundary lines 112 (left boundary line 112L, right boundary line 112R) (that is, step S20 in FIG. 5 is performed).
  • the polygon target 110 and action classification information generated by the target recognition action unit 80, the center line 106 of the external environment recognition information Ipr, and the left and right action defining lines 108 are used.
  • the boundary line generation unit 82 extracts the positional relationship between the polygon target 110 and the left and right action defining lines 108 for each coordinate point of the center line 106 and generates the left and right boundary lines 112.
  • the boundary line generation unit 82 sequentially executes the processing flow shown in FIG.
  • the boundary line generation unit 82 first calculates the distance in the left-right width direction (normal direction) to the left and right action defining lines 108 or the polygon target 110 with respect to the center line 106 for each coordinate point of the center line 106 (Ste S21).
  • the normal line extending in the left-right width direction from each coordinate point of the center line 106 and the intersection of the left-right action defining line 108 or the polygon target 110 are connected (step S22).
  • a filtering process is performed using the left and right boundary lines 112 calculated last time (step S23).
  • Step S21 is processing for recognizing the positional relationship between the left and right action defining lines 108 and the polygonal target 110 on the virtual plane coordinate SC. Based on the action classification information, the boundary line generation unit 82 recognizes whether each polygon target 110 is located on the left or right side with respect to the center line 106, and from the center line 106 to the recognized polygon target 110. The distances DL and DR are calculated.
  • the boundary line generation unit 82 calculates the distance DL from the coordinate point of the center line 106 to the intersection of the first polygon target 110A located on the left side in the normal direction.
  • the distance DR from the coordinate point of the center line 106 to the right action defining line 108R on the right side in the normal direction is calculated.
  • the distance DL and the distance DR are preferably calculated with a positive value on one side and a negative value on the other side to facilitate later processing. In this embodiment, the distance on the right side of the center line 106 is calculated with a negative value.
  • the second polygon target 110B shown in FIG. 10A is located on the right side of the center line 106 while covering the center line 106.
  • the boundary line generation unit 82 calculates the distance DL from the coordinate point of the center line 106 to the left action defining line 108L, while intersecting the second polygon target 110B that is directed to the left in the normal direction from the center line 106.
  • Distance DR is calculated. The distance DR at this time is a positive value.
  • the boundary line generation unit 82 changes the distance calculation method based on the shape of the polygon target 110. Specifically, when there is no recess near the center line 106 as in the third polygon target 110C shown in FIG. 10A, the third polygon target 110C is ignored and the coordinates of the center line 106 are ignored. The distances DL and DR from the point to the left and right action defining lines 108 in the width direction are calculated. This is because the third polygon target 110 ⁇ / b> C is an element that stops the host vehicle 11, but does not become the polygon target 110 that forms the left and right boundary lines 112.
  • the distance DL from the coordinate point of the center line 106 to the inside of the fourth polygon target 110D. , DR are calculated respectively. That is, as described above, the polygon target 110 is formed into a series of polygons in which a plurality of targets 200 are collected in the target recognition action unit 80. At this time, for example, when the target 200 (another vehicle or the like) is extracted on each of the left and right sides, there is a possibility that a fourth polygon target 110D having a recess is formed.
  • the fourth polygon target 110D having a recess in front of the host vehicle 11 is likely to have an actual target 200 (moving body 202, etc.) on the left and right of the recess.
  • distances DL and DR in the normal direction from the center line 106 are obtained.
  • the maximum distance (the distance DL between the center line 106 and the left action defining line 108L, the center line 106 and the right action defining line).
  • the distance DR up to 108R is calculated.
  • Step S22 is a process of associating the polygon target 110 and the left and right action defining lines 108 for each coordinate point of the center line 106.
  • the boundary line generation unit 82 extends the intersection of the traveling path at the intersection point between the normal line extending in the left-right width direction from each coordinate point of the center line 106 and the left and right action defining lines 108 or the polygon target 110. Connect along the current direction.
  • the left and right temporary boundary lines 113 left temporary boundary line 113L and right temporary boundary line 113R
  • meandering in accordance with the presence of the polygonal target 110 are once formed on the left side and the right side of the traveling path.
  • Step S23 is a process of generating a formal left and right boundary line 112 based on the left and right temporary boundary lines 113 as shown in FIG. 10C.
  • the boundary line generation unit 82 performs a filtering process using the left and right boundary lines 112 generated last time. That is, the previous left and right boundary lines 112 are superimposed on the current left and right temporary boundary lines 113 to correct the temporary boundary lines 113, thereby eliminating the interference portion between each polygon target 110 and the temporary boundary lines 113.
  • left and right boundary lines 112 left boundary line 112L and right boundary line 112R
  • the left and right boundary lines 112 indicate continuous lines that change for each coordinate point so that the polygonal target 110 is located outside. Further, in the left and right boundary lines 112, noise and the like included in the left and right temporary boundary lines 113 are also removed. Then, the boundary line generation unit 82 outputs the left and right boundary lines 112 generated by the processing up to step S23 to the overall control unit 70 and also outputs to the recommended travel path generation unit 84.
  • the recommended travel path generation unit 84 is based on the left and right boundary lines 112 received from the boundary line generation unit 82, the left and right recognition lines 104 included in the external environment recognition information Ipr, the left and right action defining lines 108, and the polygon target 110.
  • the left and right recommended boundary lines 100 and the recommended travel route 102 are generated. As described above, the left and right recommended boundary lines 100 are boundaries for moving the host vehicle 11 with a margin relative to the target 200.
  • the processing flow shown in FIG. 11 is sequentially performed. That is, the recommended travel path generation unit 84 generates the left and right limit lines 118 based on the left and right recognition lines 104 (step S31), and generates the left and right margin travel lines 120 based on the left and right boundary lines 112 (step S32). ). Then, the inner line of the left and right limit lines 118 and the left and right margin travel lines 120 is set as the left and right recommended boundary lines 100 (step S33). Further, the adjacent (including the intersection) portion of the left and right recommended boundary lines 100 is corrected by the correction (step S34).
  • the recommended travel route generation unit 84 generates a recommended travel route 102 based on the left and right recommended boundary lines 100 (step S35), and smoothes the left and right recommended boundary lines 100 based on the recommended travel route 102 (step S36). ).
  • step S35 the recommended travel route 102 based on the left and right recommended boundary lines 100
  • step S36 smoothes the left and right recommended boundary lines 100 based on the recommended travel route 102
  • Step S31 is a process of setting an allowable protrusion range from a lane mark or the like in the travel lane of the travel path on which the host vehicle 11 travels.
  • the generated left and right limit lines 118 (left limit line 118L, right limit line 118R) represent a deviable range depending on the left and right recognition lines 104, and are outside the limit line 118. It can be said that the boundary for preventing the vehicle 11 from deviating is shown.
  • the recommended travel path generating unit 84 generates the left and right limit lines 118 by adding an appropriate allowable distance D2 that is shifted outward in the width direction with respect to the left and right recognition lines 104.
  • an appropriate allowable distance D2 that is shifted outward in the width direction with respect to the left and right recognition lines 104.
  • the left and right limit lines 118 are added by adding an allowable interval D2 such as 0.5 m, 1 m,.
  • the left and right limit lines 118 may be included including a predetermined range of the shoulders.
  • Step S32 is performed in order to set a right and left range for comfortable driving without almost approaching the target 200 existing in the surrounding environment of the host vehicle 11.
  • the calculated left and right margin travel lines 120 are inward in the width direction from the left and right boundary lines 112, depending on the left and right boundary lines 112. It shows a boundary that is some distance away.
  • the recommended travel path generation unit 84 adds the predetermined margin interval Dm (margin) to the left and right boundary lines 112 to generate the left and right margin travel lines 120.
  • the margin interval Dm may be 0.5, 1 m, etc.
  • the recommended travel path generation unit 84 may change the margin interval Dm according to each element such as the left and right action defining lines 108 and the polygonal target 110 constituting the left and right boundary lines 112.
  • Step S33 compares the left and right limit lines 118 with the left and right margin travel lines 120 and gives priority to the inner line with reference to the vehicle 11 as shown in FIG.
  • the left recommended boundary line 100L and the right recommended boundary line 100R) are temporarily set.
  • the calculated left and right recommended boundary lines 100 indicate a target boundary that the vehicle 11 does not greatly deviate from the traveling lane and passes through a place away from the stationary body 204 and the moving body 202. Therefore, in the automatic driving of the vehicle 11, it can be said that it is desirable to travel as much as possible inside the left and right recommended boundary lines 100.
  • the recommended travel path generation unit 84 compares the left and right limit lines 118 generated in step S31 with the left and right margin travel lines 120 generated in step S32, and selects the line existing inside. As a result, the margin travel line 120 becomes the recommended boundary line 100 in a range where the margin travel line 120 exists on the inner side of the limit line 118 on the travel path. Further, the limit line 118 becomes the recommended boundary line 100 in a range where the limit line 118 exists inside the marginal travel line 120 on the travel path. By this processing, the recommended boundary line 100 is located on the limit line 118 or inside the limit line 118. Note that the recommended boundary line 100 may be generated in a point sequence in which coordinate points are arranged at intervals on the virtual plane coordinate SC, similarly to the recognition line 104 and the like.
  • Step S34 is a process for correcting the left and right recommended boundary lines 100 in order to correspond to a section where the host vehicle 11 cannot pass as shown in FIG. 14A with respect to the left and right recommended boundary lines 100 calculated above.
  • the left and right recommended boundary lines 100 can be eliminated such as narrow narrow roads and inversions (the left recommended boundary line 100L is positioned to the right of the right recommended boundary line 100R) (see also FIG. 14B).
  • an interval in the width direction (hereinafter referred to as a recommended boundary interval Db) is calculated for each coordinate point of the left and right recommended boundary lines 100.
  • the recommended travel path generation unit 84 has a threshold value Th in advance, and compares the calculated plurality of recommended boundary intervals Db with the threshold value Th.
  • Th is not particularly limited, and may be a value obtained by adding a slight margin width to the vehicle width of the host vehicle 11, for example.
  • the left and right recommended boundary lines 100 are both inside the left and right limit lines 118 (see line A in FIG. 14A).
  • the left recommended boundary line 100L and the right recommended boundary line 100R intersect each other (see line B in FIG. 14A).
  • One of the left and right recommended boundary lines 100 overlaps the left and right limit lines 118 and the other is inside the left and right limit lines 118 (see line C in FIG. 14A).
  • each of the left and right recommended boundary lines 100 of [a] When both the left and right recommended boundary lines 100 of [a] are inside the left and right limit lines 118, each of the left and right recommended boundary lines 100 can be widened in the width direction. For this reason, as shown in FIG. 15A, the recommended travel path generation unit 84 performs a process of expanding each of the left and right recommended boundary lines 100 outward in the width direction with reference to the center portion in the width direction of the left and right recommended boundary lines 100. . With this correction, the width of the left and right recommended boundary lines 100 is set to be equal to or slightly wider than the threshold value Th.
  • the limit line 118 (or the boundary line 112) has the maximum value for expanding the left and right recommended boundary lines 100 outward in the width direction.
  • the left recommended boundary line 100L before correction is in the vicinity of the left limit line 118L
  • the right recommended boundary line 100R before correction is relative to the right limit line 118R (or the right boundary line 112R).
  • the left recommended boundary line 100L is expanded to the left limit line 118L (or slightly inside the left limit line 118L), while the right recommended boundary line 100R is greatly expanded.
  • the corrected left and right recommended boundary lines 100 do not show boundaries that contact the target 200 or the like.
  • the recommended travel path generation unit 84 performs a process of expanding the left recommended boundary line 100L in the left direction and expanding the right recommended boundary line 100R in the right direction, as in [a].
  • the method of expanding the left recommended boundary line 100L and the right recommended boundary line 100R is larger than [a]. For example, the intersection of the left recommended boundary line 100 and the one in the width direction of the recommended boundary line 100 is used as a base point.
  • the recommended boundary line 100 may be extended by 1 ⁇ 2 of the threshold value Th, and the other recommended boundary line 100 may be extended by 1 ⁇ 2 of the threshold value Th. As a result, even when the left and right recommended boundary lines 100 are inverted, the recommended boundary line 100 through which the vehicle 11 can pass is corrected.
  • the recommended travel path generation unit 84 performs a process of expanding the other recommended boundary line 100 in the width direction on the basis of one recommended boundary line 100 overlapping the left and right limit lines 118. As a result, the vehicle 11 is corrected to the left and right recommended boundary lines 100 that are avoided as close as possible to the one recommended boundary line 100.
  • the recommended travel path generation unit 84 can change the corrected left and right recommended boundary lines 100 shown in FIG. 14A to the corrected left and right recommended boundary lines 100 shown in FIG. 14B.
  • the left recommended boundary line 100L and the right recommended boundary line 100R are arranged at positions separated from each other by the correction.
  • the recommended travel route 102 when the host vehicle 11 is traveling is generated using the left and right recommended boundary lines 100 (dot string) generated by the above processing.
  • the recommended travel route 102 is intended to minimize the curvature, the distance, and the difference from the center line 106 in the travel route of the host vehicle 11, and also consider the travel efficiency and comfort of the host vehicle 11. Can be said.
  • an example of a method for calculating the recommended travel route 102 will be described.
  • the recommended travel route generation unit 84 first calculates the interpolation line 122 by an appropriate interpolation method using the previously calculated recommended travel route (not shown). Further, the recommended travel path generation unit 84 sets a plurality of intersections at which the interpolation line 122 intersects a line segment connecting each pair of left and right coordinate points of the left and right recommended boundary lines 100 as a target constraint point X through which the host vehicle 11 passes. Set.
  • the point sequence of the left recommended boundary line 100L is (Lx, Ly) ⁇ N
  • the point sequence of the right recommended boundary line 100R is (Rx, Ry) ⁇ N
  • the point sequence of the constraint point X is (x, y) ⁇ N
  • the point sequence of the constraint points X can be formulated as the following equations (1) and (2).
  • x i Rx i + ⁇ i (Lx i ⁇ Rx i ) (1)
  • y i Ry i + ⁇ i (Ly i ⁇ Ry i ) (2)
  • the point sequence of each constraint point is formulated, and the objective function and constraint conditions related to the formulated parameters (optimization variables) are formulated as a convex quadratic programming problem (nonlinear programming problem).
  • the convex quadratic programming problem is expressed by the following formula (3), and the constraint conditions are expressed by the following formulas (4) and (5).
  • J 1 / 2x′Hx + q′x (3)
  • a eq x b eq (4)
  • a constraint point is used as the equality constraint condition in (4).
  • the inequality constraint condition of (5) uses the upper limit value / lower limit value of the optimization variable considering the vehicle body width of the host vehicle 11 and the lane width calculated from the left and right recommended boundary lines 100.
  • the parameter x that J minimizes is calculated in the following equations (6) to (8) that are objective functions.
  • Equation (6) is an objective function that minimizes the curvature of the point sequence of the constraint point X
  • Equation (7) is an objective function that minimizes the distance of the sequence of the constraint point X
  • (8) is an objective function that minimizes the difference between the point sequence of the constraint points X and the center line 106.
  • the recommended travel route generation unit 84 defines an objective function that summarizes the three conditions using weights Wc, Ws, and Wt determined in advance as shown in the following equation (9), and a parameter that minimizes J_all: x is the final recommended travel route 102 (that is, the curvature is minimized, the distance is minimized, and the difference between the center lines 106 is minimized).
  • J_all 1 / 2x′H_allx + q_all′x (9)
  • the weights Wc, Ws, and Wt are preferably changed as appropriate in the local environment map generation unit 54 according to the situation of the host vehicle 11. For example, when the traveling path has a large curvature or meandering, a better path can be obtained by performing processing such as increasing the curvature minimization Wc.
  • step S36 the left and right recommended boundary lines 100 are further smoothed using the recommended travel route 102 and the left and right recognition lines 104 generated in step S35.
  • the recommended boundary lines 100 on the left and right sides are smoothly continuous without an extremely large width corresponding to the traveling of the host vehicle 11. Note that step S36 may not be performed.
  • the recommended travel route generation unit 84 reviews the width of each recommended travel route 102 at a coordinate point so that the recommended travel route 102 is positioned at the center. Set). That is, for each coordinate point of the recommended travel route 102, the left side width WL up to the left recommended boundary line 100L is compared with the right side width WR up to the right recommended boundary line 100R, and the smaller one is set.
  • the left width WL in the width direction is larger than the right width WR.
  • the left side width WL is changed to the same width as the right side width WR (see reference numeral WL ′ in FIG. 17B), and the coordinate point of the left recommended boundary line 100L is moved to the right side.
  • the recommended travel route generation unit 84 has the coordinate point of the recommended travel route 102 inside the left and right recognition lines 104, and the left and right recommended boundary lines 100 are the left and right recognition lines.
  • processing different from the above is performed. Specifically, if it is possible to compare the left and right recognition lines 104 and the left and right recommended boundary lines 100 and put them in the left and right recognition lines 104, one of the left and right recommended boundary lines 100 (the recommended travel route 102 is offset). The recognition side 104). Then, the other of the left and right recommended boundary lines 100 (the side where the recommended travel route 102 is away) is set to the same width as the recommended boundary line 100 superimposed on the recognition line 104 and the recommended travel route 102.
  • the recommended travel path generation unit 84 is based on the total width (left width WL and right width WR) of the coordinate points before and after the recommended travel path 102, Select the minimum value of the total width and set the final width for each coordinate point. For example, when the recommended boundary lines 100 on the left and right are suddenly close to each other or when they are suddenly separated, the recommended travel path generation unit 84 does not suddenly change the width but suppresses fluctuations greater than the minimum value. Thus, the left and right recommended boundary lines 100 can be made smoother.
  • the left and right recommended boundary lines 100 are corrected from a state where the line segment connecting the coordinate points meanders to a smoothly changing point sequence.
  • the smoothing of the left and right recommended boundary lines 100 is not limited to the above method, and various methods may be adopted. For example, smoothing may be performed by calculating an angle of a line segment connecting the coordinate points of the left and right recommended boundary lines 100 and shifting the coordinate points so that the angle is equal to or less than a predetermined value.
  • the current left and right recommended boundary lines 100 may be smoothed using the left and right recommended boundary lines 100 a plurality of times in the past.
  • the recommended travel route generation unit 84 When the recommended travel route generation unit 84 generates each piece of information (the recommended left and right boundary lines 100 and the recommended travel route 102) by the above calculation of the recommended travel processing, the recommended travel route generation unit 84 outputs the information to the overall control unit 70. And output to the stop position generator 86.
  • the recommended travel path generation unit 84 may send the left and right limit lines 118 generated in the processing process to the overall control unit 70 and the stop position generation unit 86 together.
  • the stop position generation unit 86 receives the polygon target 110 and the action classification information from the target recognition action unit 80, and specifies the vehicle stop position 114 where the host vehicle 11 stops. Specifically, as shown in FIG. 18, the stop position generation unit 86 arranges the left and right limit lines 118 and the polygon target 110 on the virtual plane coordinate SC, so that the left and right limit lines 118 and the polygon object are arranged. The relative position of the mark 110 is specified.
  • the stop position generation unit 86 determines the travelable area on the virtual plane coordinate SC based on the polygon target 110 including [1] left avoidance, [2] right avoidance, and [3] stop as action classification information. calculate.
  • the travelable area is set according to the distance to the intersection (coordinate point) where the normal line extends for each coordinate point of the recommended travel route 102 in the virtual plane coordinate SC and the normal line intersects the left and right limit lines 118 or the polygon target 110. can do.
  • the travelable area may be obtained by subtracting the polygon target 110 (the travel impossible area) from the inner area of the left and right limit lines 118.
  • the empty width Wi between the both polygon targets 110 and the vehicle width of the host vehicle 11 are compared. If the vacant width Wi of both polygonal targets 110 is larger than the vehicle width of the host vehicle 11, it can be considered that a travelable area is secured at the coordinate point. On the other hand, if the free width Wi between the polygonal targets 110 is smaller than the vehicle width of the host vehicle 11, a travelable area is not secured at the coordinate point, that is, a travel impossible area (vehicle stop position 114). . Therefore, the coordinate point is specified as the vehicle stop position 114.
  • the polygon target 110 when the polygon target 110 is present at one of the coordinate points of the recommended travel route 102 in the left-right width direction, from one of the left and right limit lines 118 (the limit line 118 on the avoidance side) to the polygon target 110. Is compared with the vehicle width of the own vehicle 11. If the vacant width Wi is larger than the vehicle width of the own vehicle 11, a travelable area is secured at the coordinate point. On the contrary, if the empty width Wi is smaller than the vehicle width of the own vehicle 11, it becomes a travel impossible area (vehicle stop position 114) at the coordinate point.
  • the stop position generation unit 86 When the stop position generation unit 86 generates the vehicle stop position 114 by the above method, the stop position generation unit 86 outputs the vehicle stop position 114 to each trajectory generation unit via the overall control unit 70 and also outputs it to the target speed generation unit 88. As described above, the vehicle control device 10 performs the stop operation on the target 200 with high accuracy by setting the vehicle stop position 114 anew in the stop position generation unit 86 separately from the action classification information for the polygon target 110. Can do.
  • the polygonal target 110 that is classified as stopped by the action classification information overlaps the recommended travel route 102 and the recommended left and right boundary lines 100 on the virtual plane coordinate SC, so that the overlapping position is the vehicle stop position. It may be 114.
  • the stop position generation unit 86 has a width that allows the vehicle 11 to pass based on the left and right boundary lines 112 that have been generated in the case of the polygon target 110 that has been classified as left avoidance and right avoidance. It may be determined whether or not there is a vehicle stop position 114.
  • step S50 shown in FIG. 5 the target speed generation unit 88 of the local environment map generation unit 54 receives the left and right recommended boundary lines 100 and the own vehicle state information Ivh, and the target value of the speed on the recommended travel route 102. (Target speed 116) is generated.
  • the target speed 116 is sent to each trajectory generation unit via the overall control unit 70, and becomes an index when the trajectory generation unit calculates a trajectory including the speed.
  • the target speed generation unit 88 sequentially executes the processing flow shown in FIG.
  • the target speed generation unit 88 calculates a first speed limit according to the curvature of the recommended travel route 102 and the lateral acceleration (acceleration in the vehicle width direction) applied to the host vehicle 11 (step S51).
  • the curvature of the recommended travel route 102 can be easily calculated from the angle between the line segments of the recommended travel route 102 connecting the coordinate points.
  • the lateral acceleration may be estimated for each coordinate point of the recommended travel route 102 based on the calculated curvature, current speed, and the like.
  • the first speed limit is set to a reasonable speed that reflects the condition of the running road and the state of the host vehicle 11.
  • the target speed generation unit 88 sets a second speed limit with zero after the vehicle stop position 114 (step S52). As a result, the host vehicle 11 can be prevented from traveling beyond the vehicle stop position 114 (the speed is greater than 0).
  • the target speed generation unit 88 sets a third speed limit based on the width of the left and right boundary lines 112 (step S53).
  • the target speed 116 that reduces the speed of the host vehicle 11 is set. is there.
  • the vehicle 11 can be run at a reduced speed.
  • the target speed generation unit 88 stores a width-restricted speed table 90 (reference information) as shown in FIG. 20B in a target speed storage unit (not shown).
  • the width-restricted speed table 90 speed limits that can provide a sense of security for the width of the boundary line 112 are set and stored in advance through experiments or the like.
  • the target speed generation unit 88 receives the left and right boundary lines 112
  • the target speed generation unit 88 calculates the width of the left and right boundary lines 112 for each coordinate point of the recommended travel route 102, and the width calculated by referring to the width-restricted speed table 90
  • the speed limit according to is derived. Thereby, an appropriate speed limit is obtained for each coordinate point.
  • the target speed generation unit 88 recommends the minimum value among these speeds by taking into account the first to third speed limits obtained in the above steps S51 to S53, and the own vehicle maximum speed and legal speed. A selection is made for each coordinate point of the travel route 102 (step S54). Therefore, the lowest speed is obtained for each coordinate point of the generated recommended travel route 102.
  • the target speed generation unit 88 corrects the speed limit of each coordinate point of the recommended travel route 102 obtained in the above step to a target speed 116 that can be realized by equal acceleration / deceleration (step S55). Thereby, it is possible to calculate a target speed 116 that can suppress a large acceleration or deceleration from being applied to the host vehicle 11 and that allows the host vehicle 11 to travel stably.
  • the local environment map generator 54 causes the polygon target 110, the left and right boundary lines 112, the left and right limit lines 118, the left and right recommended boundary lines 100, the recommended travel route 102, the vehicle stop position 114, the target speed 116, and the like.
  • the local environment information Iem is output. Therefore, each track generation unit can aggregate the generation range of the track pattern to some extent by using the local environment information Iem (for example, the route in the vicinity of the recommended travel route 102 can be calculated intensively).
  • the vehicle control apparatus 10 calculates the recommended left and right boundary lines 100 by adding the margin interval Dm to the left and right boundary lines 112 in the local environment map generation unit 54.
  • the left and right recommended boundary lines 100 indicate boundaries at which the host vehicle 11 can travel with a margin with respect to various targets 200 on the travel path. Therefore, the vehicle control device 10 can obtain a route that can correspond to the plurality of targets 200 based on the recommended boundary lines 100 on the left and right. Therefore, in the automatic driving, the possibility of interference with the target 200 is reduced, and the anxiety given to the passenger is reduced, so that the host vehicle 11 can be efficiently driven.
  • the vehicle control device 10 is configured to correct the left and right recommended boundary lines 100 as appropriate. For example, by expanding the left and right recommended boundary lines 100 outward in the width direction, it is possible to suppress a problem in the travel control of the host vehicle 11 due to a narrow interval between the generated left and right recommended boundary lines 100. Can do. In particular, when the positions of the left recommended boundary line 100L and the right recommended boundary line 100R are reversed, the vehicle control device 10 performs processing so as to eliminate the reversal, thereby improving the traveling control of the host vehicle 11. Can continue. Furthermore, when one of the left and right recommended boundary lines 100 overlaps one of the left and right limit lines 118, the vehicle control device 10 extends only the other of the left and right recommended boundary lines 100 outward in the width direction. The left and right recommended boundary lines 100 may not exceed the limit line 118. Thereby, generation
  • the vehicle control device 10 calculates the recommended travel route 102 that minimizes the difference between the curvature, the travel distance, and the center of the left and right recommended boundary lines 100, thereby reducing the vehicle speed of the host vehicle 11 and wasting steering. Provide a target path with limited movement. Therefore, the vehicle control device 10 can make the host vehicle 11 travel well by adjusting the traveling speed and the rudder angle so as to follow the recommended travel route 102 as much as possible. Moreover, the vehicle control apparatus 10 can obtain the left and right recommended boundary lines 100 that are smoothly continuous by adjusting the left and right recommended boundary lines 100 based on the recommended travel route 102. The left and right recommended boundary lines 100 can more efficiently generate a route that does not overwork the behavior of the host vehicle 11.
  • the vehicle control device 10 is configured to acquire a target speed 116 corresponding to the width of the left and right boundary lines 112. As a result, when the left and right boundary lines 112 form a narrow road, the target speed 116 for reducing the traveling speed of the host vehicle 11 can be set, and the anxiety of the passenger can be reduced. Furthermore, the vehicle control apparatus 10 can calculate the left and right recommended boundary lines 100 corresponding to the predicted polygon target 111 by generating the predicted polygon target 111 for the moving body 202. As a result, a path that can avoid the moving body 202 can be formed satisfactorily.
  • the vehicle control apparatus 10 may perform not only fully automatic driving that automatically performs vehicle driving control but also partial automatic driving (driving support) that partially performs driving control.
  • driving assistance there are cases where only speed control is performed, only steering control is performed, or a passenger performs manual driving and guides a target vehicle speed and a target steering position from a monitor, a speaker or the like which is an in-vehicle device.
  • the vehicle control device 10 may be configured to guide the appropriate route to the passenger by displaying the calculated recommended travel route 102 on the monitor of the host vehicle 11.

Abstract

車両制御装置(10)は、検出部(14)と、走行路の左右の認識線(104)及び物標(200)を抽出する外界認識部(52)とを備える。また車両制御装置(10)の局所環境マップ生成部(54)は、左右の認識線(104)と物標(200)の情報に基づき、自車(11)の行動範囲及び物標(200)との非干渉の限界を示す左右の境界線(112)を算出する。さらに局所環境マップ生成部(54)は、左右の境界線(112)を内側に狭める余裕間隔(Dm)を加えることで、自車(11)の走行時における左右の推奨境界線(100)を算出する。

Description

車両制御装置
 本発明は、車両の自動運転又は運転支援を制御する車両制御装置に関する。
 車両(自車)の自動運転や運転支援を制御する車両制御装置は、制御時に、自車の周辺環境を検出し、この周辺環境に応じた走行経路や速度を算出している。例えば、特許第4949063号公報に開示の運転支援装置は、自車の走行路上に物標(他車等の障害物)を検出すると、自車の旋回制御量に基づいて物標を回避する回避ルート(走行経路)を生成している。
 ところで、走行中の周辺環境は、走行路の種々の要素(走行レーンが複数存在する等)や物標の種々の要素(物標が複数存在する、物標の位置が時間的に変化する等)等が複雑に絡み合う。特に、自車と干渉可能性がある物標に対しては、ある程度離れた位置を走行することが望ましいと言える。しかしながら、特許第4949063号公報に開示の運転支援装置のように、自車の旋回制御量に基づく回避ルートを一の物標に対応して生成すると、他の物標に対する行動が不定となり、干渉可能性が高まる、効率的な走行とならない等の不都合が生じる。
 本発明は、上記の実情に鑑みてなされたものであり、自車の周辺環境の種々の要素を勘案し、物標からある程度離れて走行することができる走行路を生成することで、干渉可能性を低減して効率的な走行を可能とする車両制御装置を提供することを目的とする。
 前記の目的を達成するために、本発明は、自車の走行制御を少なくとも部分的に自動で行う車両制御装置であって、前記自車が走行する走行路の周辺環境を検出する検出部と、前記検出部の検出情報に基づき、前記走行路の左右の認識線を抽出し、且つ前記走行路に存在する物標を抽出する外界認識部と、前記左右の認識線と前記物標の情報に基づき、前記走行路における前記自車の行動範囲及び前記物標との非干渉の限界を示す左右の境界線を算出し、且つ前記左右の境界線を内側に狭める余裕間隔を加えることで、前記自車の走行時における左右の推奨境界線を算出する情報生成部と、を備えることを特徴とする。
 上記によれば、車両制御装置は、情報生成部により、左右の境界線に余裕間隔を加えた左右の推奨境界線を算出することで、自車の自動運転又は運転支援において、走行路上の種々の物標に対し余裕をもって自車を走行させる情報が得られる。そのため、車両制御装置は、左右の推奨境界線に基づき、複数の物標に対応可能な走行経路を設定することができ、この走行経路によって、搭乗者の不安を低減すると共に、複数の物標を加味した効率的な走行制御を実現することができる。
 また、前記情報生成部は、前記左右の推奨境界線の幅方向の間隔が所定の閾値以下の場合に、前記左右の推奨境界線を幅方向外側に広げる補正を行うとよい。
 車両制御装置は、左右の推奨境界線を幅方向外側に広げる補正を行うことで、生成された左右の推奨境界線の間隔が狭い等の理由で、自車の走行制御に支障が生じることを抑制することができる。
 上記構成に加えて、前記情報生成部は、左推奨境界線が右推奨境界線の右側に位置している場合に、前記補正において前記左推奨境界線を前記右推奨境界線よりも左側に移動させることが好ましい。
 左推奨境界線が右推奨境界線よりも右側に位置している場合とは、左推奨境界線と右推奨境界線の位置が反転していることである。従って車両制御装置は、この反転を解消するように処理することで、反転により自車の走行制御に支障が生じることを抑制することができる。
 また、前記情報生成部は、前記左右の認識線に逸脱の許容間隔を加えた左右の限界線を生成する構成であり、さらに前記左右の推奨境界線のうち一方が前記左右の限界線の一方に重なっている場合に、前記補正において前記左右の推奨境界線のうち他方のみを幅方向外側に広げるとよい。
 車両制御装置は、左右の推奨境界線のうち一方が左右の限界線の一方に重なっている場合に、左右の推奨境界線のうち他方のみを幅方向外側に広げることで、左右の推奨境界線が左右の限界線を越えないようにすることができる。これにより、自車が走行路を大きく逸脱するような経路の生成を抑制することができる。
 そして、前記情報生成部は、前記補正において前記左右の境界線を越えない範囲で前記左右の推奨境界線を広げることが好ましい。
 これにより、左右の推奨境界線が左右の境界線よりも内側になり、後の経路の生成時に、自車が物標に干渉するような経路の生成を未然に防ぐことができる。
 ここで、前記情報生成部は、前記左右の推奨境界線内で前記自車が通行する拘束点を設定し、前記拘束点を並べた状態で、曲率、走行距離、前記左右の推奨境界線の中心との差分が最小となる推奨走行経路を算出するとよい。
 曲率、走行距離、左右の推奨境界線の中心との差分が最小となる推奨走行経路は、例えば自車の車速の低下やステアリングの無駄な動きが抑えられる経路を示す。そのため、車両制御装置は、この推奨走行経路に可及的に沿うように走行時の速度及び舵角を調整することで、自車を良好に走行させることができる。
 さらに、前記情報生成部は、前記推奨走行経路が幅方向中心となるように前記左右の推奨境界線を調整してもよい。
 車両制御装置は、推奨走行経路に基づき左右の推奨境界線を調整することで、滑らかに連続する左右の推奨境界線を得ることができ、この左右の推奨境界線によって自車の挙動に無理のない経路のパターンを一層効率的に生成することができる。
 また、前記情報生成部は、前記左右の境界線の幅方向の幅員を算出し、予め記憶部に記憶している参照情報に基づき、前記幅員に対応した目標速度を取得するとよい。
 車両制御装置は、左右の境界線の幅員に対応した目標速度を取得することで、例えば、左右の境界線が狭路を形成している場合に、自車の走行速度を下げる目標速度とすることができ、搭乗者の不安を低減することができる。
 またさらに、前記情報生成部は、前記左右の境界線の算出前に、抽出された前記物標に対する行動を左回避、右回避、停止、無視及び追従のいずれかに分類し、前記左回避又は前記右回避の分類に基づき前記左右の境界線を生成することが好ましい。
 車両制御装置は、物標に対する行動の分類を予め判断することで、左右の境界線の生成において、複雑な境界線を形成する可能性を低減して、効率的且つ良好に境界線を得ることができる。
 さらにまた、前記情報生成部は、前記外界認識部の前記物標の情報に基づきポリゴン物標を生成する構成であり、前記物標が移動体である場合に、前記ポリゴン物標として、時間経過に伴い前記移動体の位置が変化する予測ポリゴン物標を生成することが好ましい。
 車両制御装置は、移動体について予測ポリゴン物標を生成することで、予測ポリゴン物標に対応した左右の推奨境界線を算出することができる。これにより移動体をより確実に回避することが可能な経路を良好に形成することができる。
本発明の一実施形態に係る車両制御装置が生成する左右の推奨境界線、推奨走行経路を示す平面図である。 図1の車両制御装置の概略構成ブロック図である。 外界認識部による左右の認識線を算出する処理を説明するための説明図である。 図2の局所環境マップ生成部の構成を示すブロック図である。 図4の局所環境マップ生成部の処理フローを示すフローチャートである。 物標認識行動部のポリゴン物標を生成する処理を示す説明図である。 分類判断部の行動の分類を説明するための説明図である。 図8Aは、移動体の予測ポリゴン物標を説明するための説明図であり、図8Bは、時間変化に伴う移動体の位置の特定を説明するグラフである。 境界線生成部による左右の境界線を生成する処理フローを示すフローチャートである。 図10Aは、左右の境界線を生成する第1処理を説明するための説明図であり、図10Bは、左右の境界線を生成する第2処理を説明するための説明図であり、図10Cは、左右の境界線を生成する第3処理を説明するための説明図である。 推奨走行路生成部による左右の推奨境界線及び推奨走行経路を生成する処理フローを示すフローチャートである。 図12Aは、左右の限界線を生成する処理を説明するための説明図であり、図12Bは、左右の余裕走行線を生成する処理を説明するための説明図である。 左右の推奨境界線を生成する処理を説明するための説明図である。 図14Aは、補正前の左右の推奨境界線を示す説明図であり、図14Bは、補正後の左右の推奨境界線を示す説明図である。 図15A~図15Dは、左右の推奨境界線の補正内容を説明する説明図である。 左右の推奨境界線に基づき推奨走行経路を算出する処理を説明する平面図である。 図17A~17Cは、左右の推奨境界線の平滑化を説明する説明図である。 停止位置生成部による車両停止位置の生成を説明する説明図である。 目標速度生成部による目標速度を生成する処理フローを示すフローチャートである。 図20Aは、左右の境界線の幅員を示す説明図であり、図20Bは、左右の境界線の幅員と制限速度の関係性を示す参照グラフである。
 以下、本発明に係る車両制御装置について好適な実施形態を挙げ、添付の図面を参照して詳細に説明する。
 本発明の一実施形態に係る車両制御装置10は、図1に示すように、車両11(以下、自車11ともいう)に搭載され、自車11の自動運転を制御する制御部である。自動運転では、自車11の車速を調整する速度制御(加速、減速、速度維持等)と、自車11の進行方向を調整する舵角制御とを一体的に行う。
 また、本実施形態に係る車両制御装置10は、自車11の周辺環境を認識して自車11の走行状況(例えば、レーンマーク等の走行路を規定する標識、静止体や移動体等の物標)に適した左右の推奨境界線100及び推奨走行経路102を生成する。左右の推奨境界線100及び推奨走行経路102は、周辺環境の種々の要素を勘案した走行路の情報であり、且つ物標に対し可及的に余裕をもって走行可能とする指標情報となる。
 例えば、左右の推奨境界線100及び推奨走行経路102は、車両制御装置10が自動運転を行う際に、経路と速度を含む軌道の生成に使用することができる。これにより車両制御装置10は、周辺環境の種々の要素に対応して、自車11をより安全且つ効率的に走行させることが可能となる。以下、この車両制御装置10について具体的に説明していく。
[自車11の全体構成について]
 図2に示すように、車両制御装置10は、システムの主要部である車両制御システム12(電子制御ユニット)を備え、さらに通信線を介して車両制御システム12に接続される入力装置及び出力装置を備える。入力装置には、外界センサ14、ナビゲーション装置16、車両センサ18、通信装置20、自動運転スイッチ22(自動運転SW)及び操作検出センサ26等が含まれる。出力装置には、駆動力装置28、操舵装置30及び制動装置32等が含まれる。
 外界センサ14は、自車11の周辺環境(外界)を認識する検出部であり、本実施形態では1以上のカメラ33と、1以上のレーダ34とで構成されている。カメラ33及びレーダ34は、それぞれの特性に応じて外界を検出し、この検出情報を車両制御システム12に出力する。なお、外界センサ14は、1種類の機器で構成されてもよく、他の機器が適用されてもよい。他の機器としては、例えば、赤外線センサ、超音波センサ、LIDAR(光検出機器)があげられる。
 ナビゲーション装置16は、衛星測位装置等を用いて自車11の現在位置を検出及び特定し、また現在位置からユーザが指定した目的地までの経路を算出する。ナビゲーション装置16の情報(地図情報、現在位置、算出した経路等)は、必要に応じて車両制御システム12に提供され、記憶装置40の地図情報記憶部42に記憶される。
 車両センサ18は、自車11の走行時等において、自車11の状態を検出して、車両制御システム12にその検出結果を出力するセンサ機器群(車両状態検出部)である。このセンサ機器群としては、自車11の車速を検出する車速センサ、加速度を検出する加速度センサ、自車11の垂直軸周りの角速度を検出するヨーレートセンサ、自車11の向きを検出する方位センサ、自車11の勾配を検出する勾配センサ等があげられる。車両センサ18(又は車両制御部74)が検出した検出情報は、自車状態情報Ivhとして記憶装置40の自車状態情報記憶部43に記憶される。
 通信装置20は、自車11の外部に存在する外部通信機器(路側機、他車、交通システムのサーバ等)と通信するために設けられる。例えば、通信装置20は、路側機から信号機に係わる情報(位置や灯火色)、他車から他車に係わるプローブ情報、サーバから更新地図情報又は他の情報を受信し、また自車11のプローブ情報等を外部に送信する。
 自動運転スイッチ22は、手動運転モードと自動運転モードを搭乗者が切り替えるためのスイッチである。手動運転モードでは、自車11の操作デバイス24を搭乗者が操作して、出力装置(駆動力装置28、操舵装置30、制動装置32)を動作させて、自車11を走行等させる。
 操作デバイス24としては、アクセルペダル、ステアリングホイール(ハンドル)、ブレーキペダル、シフトレバー及び方向指示レバー等があげられる。また、操作デバイス24の各構成には、搭乗者による操作の有無や操作量、操作位置を検出する操作検出センサ26が取り付けられている。操作検出センサ26は、検出結果としてアクセル踏込(開度)量、ハンドル操作(操舵)量、ブレーキ踏込量、シフト位置、右左折方向等を車両制御システム12に出力する。
 自動運転モードでは、操作デバイス24を搭乗者が操作しない状態で、車両制御装置10の制御下に自車11を走行等させる。車両制御システム12は、自動運転モードの実施時に、自車11の周辺環境に基づき行動計画(後述する長期軌道Lt、中期軌道Mt、短期軌道St)を生成し、この行動計画に沿って出力装置(駆動力装置28、操舵装置30、制動装置32)を適宜制御する。
 駆動力装置28は、図示しない駆動力ECUと、エンジンや駆動モータ等の駆動源とを含む。この駆動力装置28は、車両制御システム12から入力される車両制御値Cvhに従って走行駆動力(トルク)を生成し、トランスミッションを介して(或いは直接に)、走行駆動力を車輪に伝達する。
 操舵装置30は、図示しないEPS(電動パワーステアリング)ECUと、EPS装置とを含む。この操舵装置30は、車両制御システム12から入力される車両制御値Cvhに従って、車輪(操舵輪)の向きを変更する。
 制動装置32は、例えば、油圧式ブレーキを併用する電動サーボブレーキであって、図示しないブレーキECUと、ブレーキアクチュエータとを含む。この制動装置32は、車両制御システム12から入力される車両制御値Cvhに従って、車輪を制動する。
[車両制御システム12の構成]
 車両制御システム12は、図示しない入出力I/F及びプロセッサを有する電子制御ユニット(ECU)として構成され、またECUに搭載或いは接続される記憶装置40を備える。プロセッサは、記憶装置40に記憶された図示しないプログラムを実行して、外界認識部52、認識結果受信部53、局所環境マップ生成部54、統括制御部70、長期軌道生成部71、中期軌道生成部72、短期軌道生成部73及び車両制御部74等の機能実現部を構築する。なお本実施形態において、機能実現部は、上記のとおりソフトウエア機能部であるが、集積回路等からなるハードウエア機能部により実現されてもよい。
 外界認識部52は、外界センサ14、ナビゲーション装置16及び通信装置20等から入力される各検出情報に基づき、自車11の周辺に存在する対象物の抽出情報Ipを生成する。抽出情報Ipを生成する際には、レーダ34等の検出結果、車両センサ18や車両制御部74から送信される自車状態情報Ivh等を参照して、自車11に対する対象物の相対的な位置関係(自車11に対する対象物の向きや距離)も認識する。例えば、外界認識部52は、カメラ33の画像情報に基づき、自車11が走行する道路のレーンマーク(白線、黄色線、マーカ等)、舗装部分と未舗装部分の境界、路肩、ガードレール、縁石、壁、停止線、信号機、標識、交通参加者、障害物等の対象物を抽出する。
 ここで、レーンマーク、舗装部分と未舗装部分の境界等は、自車11の走行の障害とならずに走行路を示すものである。外界認識部52は、適宜の画像処理に基づきこれらを抽出すると、図3に示すように、多項式近似を行って、仮想平面座標SC上で連続する2本の略平行な認識線104(左認識線104L、右認識線104R)を生成する。これにより、左右の認識線104は、走行路上のレーンマークがかすれている、レーンマークが物標により認識できない等の場合でも、それを補う線となる。なお、外界認識部52は、カメラ33によるレーンマーク等の検出が不明又はロストした場合に、地図情報記憶部42に記憶されている地図情報から認識線104を補完してもよい。
 左右の認識線104は、所定距離毎に多項式上の点(仮想平面座標SCの座標点)を取り出した点列として構築される。さらに、外界認識部52は、左右の認識線104の中間を延びる中心線106も算出し、抽出情報Ipに含める。この中心線106も座標点が並ぶ点列として構築される。
 また、走行路を示さない対象物(物標200)のうち、走行中の他車等は、自車11の走行に影響を及ぼす移動体202となる。さらに、ガードレール、縁石、壁、停車中の他車、障害物等は、自車11の走行に影響を及ぼす静止体204となる。移動体202は、時間に応じて走行路上の位置が変化し、静止体204は、時間に応じて走行路上の位置が殆ど変化しない点で相互に異なる。なお、人等の交通参加者は、移動体202と静止体204のいずれに認識されてもよい。後述する処理により、結局、物標200を避ける経路が設定されるからである。
 例えば、外界認識部52は、複数の画像で相似する物標200の形状(エッジ)を抽出し、自車11の速度に基づきその物標200の速度(つまり移動体202、静止体204)を認識する。また、各物標200は、認識線104と同じ仮想平面座標SC上において位置が特定された情報として出力される。
 さらに、本実施形態に係る外界認識部52は、図3中に点線で示すように、自車11の行動計画の設計時に考慮する範囲を、左右の行動規定線108(左行動規定線108L、右行動規定線108R)として設定し、抽出情報Ipに含める。このため図2に示すように、外界認識部52の内部には、行動規定線生成部56が設けられている。なお、行動規定線生成部56は、局所環境マップ生成部54に設けられていてもよい。
 行動規定線生成部56は、外界認識部52により走行路の左右の認識線104が抽出されると、左右の認識線104の各々の幅方向外側に所定の設定間隔D1だけずらした(オフセットした)左右の行動規定線108を生成する。例えば、左認識線104Lに対しては幅方向左側に5mを加えた左行動規定線108Lを生成し、右認識線104Rに対しては幅方向右側に5mを加えた右行動規定線108Rを生成する。なお、設定間隔D1は、5mに限定されず任意に設計されればよく、外界センサ14等の信頼性に基づき変動する値でもよい。また、左右の行動規定線108も、仮想平面座標SC上で複数の座標点を並べた点列として形成される。
 認識結果受信部53は、上記の抽出情報Ip(左右の認識線104、中心線106、左右の行動規定線108、移動体202及び静止体204)を外界認識部52から定期的に受信して古い情報の更新を行う。そして、統括制御部70から演算指令Aaを受け付けたタイミングで、抽出情報Ipを外界認識情報Iprとして統括制御部70に送信する。この外界認識情報Iprは、記憶装置40の外界認識情報記憶部44に記憶される。
 局所環境マップ生成部54は、統括制御部70から送信される演算指令Ab、外界認識情報Ipr、自車状態情報Ivh等に基づき、走行路の情報である局所環境情報Iemを生成する情報生成部である。局所環境情報Iemは、統括制御部70に出力され、記憶装置40の局所環境情報記憶部46に記憶される。この局所環境マップ生成部54の具体的な構成については後に詳述する。
 統括制御部70は、認識結果受信部53、局所環境マップ生成部54、長期軌道生成部71、中期軌道生成部72及び短期軌道生成部73のタスク(処理)を同期させ、また演算に必要な情報を各機能実現部に送るタスク同期モジュールとして機能する。詳細には、統括制御部70は、基準演算周期を内部でカウントし、この基準演算周期に基づくタイミングに応じて各機能実現部に演算指令を出力して処理を実施させ、その処理結果を受信する。
 一方、長期軌道生成部71、中期軌道生成部72及び短期軌道生成部73は、統括制御部70の指令下に、速度制御に必要な車速と、操舵制御に必要な経路とを含む軌道(長期軌道Lt、中期軌道Mt、短期軌道St)をそれぞれ生成する。生成された各軌道は、各軌道生成部から統括制御部70に出力され、記憶装置40の軌道情報記憶部48に記憶される。
 長期軌道生成部71は、演算指令Ac、局所環境情報Iem及び自車状態情報Ivhに基づき、ある程度長い期間の軌道である長期軌道Ltを生成する。例えば、長期軌道Ltは、10秒の期間において時間又は速度の情報を含む座標点を、数百ms程度(基準演算周期の9倍程度)の間隔で並べた点列として生成される。
 中期軌道生成部72は、演算指令Ad、局所環境情報Iem、自車状態情報Ivh、及び長期軌道Ltに基づき、長期軌道Ltよりも短い期間の軌道である中期軌道Mtを生成する。例えば、中期軌道Mtは、5秒の期間において時間又は速度の情報を含む座標点を、百数十ms程度(基準演算周期の3倍程度)の間隔で並べた点列として生成される。
 短期軌道生成部73は、演算指令Ae、局所環境情報Iem、自車状態情報Ivh、長期軌道Lt及び中期軌道Mtに基づき、中期軌道Mtよりも短い期間の軌道である短期軌道Stを生成する。例えば、短期軌道Stは、1秒の期間において車両ダイナミクスの情報(縦方向の位置x、横方向の位置y、姿勢角θz、速度vs、加速度va、曲率ρ、ヨーレートγ、操舵角δst)を含む座標点を、数ms程度(基準演算周期)の間隔で並べた点列として生成される。
 一方、車両制御部74は、入力された短期軌道Stに沿って自車11が走行するように、車両ダイナミクスを含む座標点を車両制御値Cvhに変換して、駆動力装置28、操舵装置30及び制動装置32に出力する。また、駆動力装置28、操舵装置30及び制動装置32を駆動させる情報は、自車状態情報Ivhとして外界認識部52に送信される。
[局所環境マップ生成部54の具体的な構成]
 上述したように、車両制御装置10は、局所環境マップ生成部54において自車11の周辺環境の情報(局所環境情報Iem)を生成し、この局所環境情報Iemに基づき各軌道生成部で軌道を生成する。局所環境情報Iemとしては、例えば、ポリゴン物標110、左右の境界線112、左右の推奨境界線100、推奨走行経路102、車両停止位置114及び目標速度116があげられる。
 「ポリゴン物標110」とは、自車11の周辺環境に存在する物標200(静止体204及び移動体202)をポリゴン化したものである(図6及び図7も参照)。ポリゴン物標110は、静止体204、移動体202の抽出情報Ipに基づき、自車11が回避すべき情報として仮想平面座標SCに構築される。このポリゴン物標110は、時間経過に伴い仮想平面座標SC上での位置及び形状がトレースされる。
 「左右の境界線112」とは、静止体204や移動体202に対し自車11の非干渉と干渉とを分ける境界をいう(図10Cも参照)。すなわち、左右の境界線112は、仮想平面座標SC上に存在するポリゴン物標110を勘案して生成される。換言すれば、左右の境界線112は、自車11が行動計画を決定する際に、自車11を移動させない範囲を表す情報となる。
 「左右の推奨境界線100」とは、左右の境界線112に基づき自車11が物標200からある程度離れた位置を算出したものであり、自車11が安全且つ快適に走行可能な(推奨の)境界である(図13も参照)。左右の推奨境界線100は、左右の境界線112に余裕間隔Dm(マージン)を加えることで形成され、また適宜の補正がなされることで実際の走行路に対応した推奨情報となる。
 「推奨走行経路102」とは、上記の左右の推奨境界線100の内側を通行するように形成された経路である(図16も参照)。本実施形態では、さらに自車11の走行における曲率、走行距離、左右の推奨境界の中心との差分に関して適宜の重み付けをして、これらのパラメータが可及的に最小となるように算出している。これにより推奨走行経路102は、自車11の走行における効率性や快適性を高めた経路を示すことになる。
 「車両停止位置114」とは、ポリゴン物標110を回避できない場合に、仮想平面座標SC上で自車11を停止させる位置情報である(図18も参照)。
 「目標速度116」とは、左右の認識線104、ポリゴン物標110、左右の境界線112及び車両停止位置114等に基づき、仮想平面座標SC上で自車11が走行する速度の目標値である(図20も参照)。
 以上の情報を生成するため、局所環境マップ生成部54の内部には、図4に示すように、物標認識行動部80、境界線生成部82、推奨走行路生成部84、停止位置生成部86及び目標速度生成部88が設けられる。そして、局所環境マップ生成部54の各機能実現部は、図5に示す処理フローに沿って各情報を生成していく。
 具体的には、まず物標200の情報に基づきポリゴン物標110を生成し(ステップS10)、次にポリゴン物標110に基づき左右の境界線112を生成し(ステップS20)、その後左右の境界線112に基づき左右の推奨境界線100を生成する(ステップS30)。また、左右の推奨境界線100の生成時には、推奨走行経路102も合わせて生成し、推奨走行経路102に基づき左右の推奨境界線100の補正等を行う。さらに局所環境情報Iemの生成処理フローでは、ポリゴン物標110及び推奨走行経路102に基づき車両停止位置114を生成し(ステップS40)、最後に車両停止位置114、左右の境界線112等に基づき目標速度116を生成する(ステップS50)。以下、各機能実現部の構成について詳述していく。
 局所環境マップ生成部54の物標認識行動部80は、図5中のステップS10を実施する機能部であり、走行路において抽出されたすべての物標200に関してポリゴン物標110を生成する。特に、本実施形態に係る物標認識行動部80は、静止体204、移動体202等の種類も考慮したポリゴン物標110を形成する。
 例えば、図6に示すように、物標認識行動部80は、抽出された物標200(ガードレール、縁石、壁、信号機、標識、交通参加者、障害物等)のエッジ、角部、突出部分等を適宜繋ぐことで、ポリゴン形状を形成する。なお、ポリゴン物標110は、外界センサ14による検出部分(例えば、カメラ33で見えている部分)のみで形成されればよく、非検出部分は、検出部分の端部同士を繋いで省略されてよい。また、物標認識行動部80は、ポリゴンの形成時に複数の物標200が重なっている場合に、統合した(一連に連なった)ポリゴンを生成することが好ましい。これにより、仮想平面座標SC上に形成されるポリゴンが単純化して、効率的に処理を行うことが可能となる。
 そして、物標認識行動部80の内部には、外界認識情報Iprに含まれる左右の行動規定線108と、生成したポリゴン物標110とに基づき、自車11の行動を分類する分類判断部81が設けられている。行動の分類としては、例えば物標200が静止体204の場合に、ポリゴン物標110に対して[1]左回避、[2]右回避、[3]停止、[4]無視の4パターンの行動をとることが考えられる。また例えば、抽出情報Ipが移動体202の場合に、ポリゴン物標110に対して[1]左回避、[2]右回避、[3]停止、[4]無視、[5]追従の5パターンの行動をとることが考えられる。
 具体的に、分類判断部81は、図7中の枠A1で囲ったポリゴン物標110のように、仮想平面座標SC上で左右の行動規定線108から幅方向外側に一定距離以上離れているものについて、[4]無視に分類する。左右の行動規定線108から外れているポリゴン物標110は、そもそも自車11の走行に影響を及ぼす可能性が少ないからである。なお、ポリゴン物標110が左右の行動規定線108に重なっている場合(図7中の枠A2参照)には、[4]無視に分類せず、回避行動をとる対象とする。
 また、分類判断部81は、左右の認識線104の走行可能幅を用いて自車11の行動分類を判断するため、左右の認識線104の点列毎に幅BWを算出する。そして例えば、図7中の枠B1で囲ったポリゴン物標110のように、仮想平面座標SC上で左右の認識線104の内側に存在し、且つポリゴン物標110から左右の認識線104までの各幅BWが一定値未満であれば、ポリゴン物標110を回避できないと認識して[3]停止に分類する。この際、自車11の前方で最も近いポリゴン物標110が自車11と同方向に進行している移動体202であると認識した場合には、[5]追従に分類する。幅BWと比較する一定値は、自車11の車幅に応じて適切な値に設計されるとよい。
 さらに、分類判断部81は、ポリゴン物標110が中心線106に対して右側又は左側に寄っており、且つポリゴン物標110が寄っている一方側から反対の他方側の認識線104までの幅BWが一定値以上であれば、そのポリゴン物標110を避ける判断をする。例えば、図7中に点線で示すように、中心線106に対して右側に寄っているポリゴン物標110αを検出したとする。この場合、ポリゴン物標110αから左認識線104Lまでの幅BWが一定値以上となっていれば、[1]左回避に分類する。逆に図7中に点線で示すように、中心線106に対して左側に寄っているポリゴン物標110βを検出したとする。この場合、ポリゴン物標110βから右認識線104Rまでの幅BWが一定値以上となっていれば、[2]右回避に分類する。
 分類判断部81による各ポリゴン物標110に対する行動分類は、各ポリゴン物標110と共に行動分類情報として紐付けられ、局所環境マップ生成部54内の以降の処理に用いられる。また、行動分類情報は、統括制御部70を介して長期軌道生成部71、中期軌道生成部72、短期軌道生成部73に出力され、複数の軌道パターンの範囲を限定する情報として用いられてもよい。
 ここで、本実施形態に係る物標認識行動部80は、図8Aに示すように、外界認識情報Iprに移動体202が含まれている場合に、仮想平面座標SC上で時間経過を加味した予測ポリゴン物標111を生成する。例えば、自車11の周辺において他車が走行している場合に、他車の速度を勘案して、現時点の他車のポリゴンに加えて、自車11が他車に接近した際のポリゴンを推定し、その移動体202に関して一連のポリゴンを形成する。
 具体的には、物標認識行動部80は、[1]左回避、[2]右回避に分類した移動体202の予測軌道と自車11の前回算出した出力軌道(長期軌道Lt、中期軌道Mt、短期軌道St)から時間経過に伴う相対距離を算出する。予測軌道は、例えば、移動体202の前回検出位置と今回検出位置、及び自車11の出力軌道に基づき算出し得る。
 例えば、図8Bの上側グラフは、横軸が時間であり、縦軸が走行路上における移動体202の相対位置である、すなわち自車11と移動体202の車間距離の時間変化を示している。この場合、移動体202が、時点t1の現在位置で自車11よりも前方(正の値)に位置する。そして自車11よりも移動体202の速度が遅い場合には、車間距離が時間経過に伴い下側に傾く。物標認識行動部80は、車間距離に対応した前方閾値と後方閾値を予め有しており、前方閾値と後方閾値の間の領域を抽出し、移動体202の車線上の位置(絶対位置)の最大値と最小値を算出する。
 移動体202の絶対位置は、図8Bの下側グラフのように、時点t1において最も低いSminとなり、時点t2において最も大きいSmaxとなる。物標認識行動部80は、このSmin、Smaxを算出することで、仮想平面座標SC上の時間経過(時点t1~t2)に伴う移動体202の存在範囲を割り出し、この存在範囲に予測ポリゴン物標111を作成する。これにより、分類判断部81は、予測ポリゴン物標111に対応した自車11の行動を判断することができる。
 図4に戻り、局所環境マップ生成部54の境界線生成部82は、左右の境界線112(左境界線112L、右境界線112R)を生成(すなわち図5中のステップS20を実施)する。左右の境界線112の生成では、物標認識行動部80で生成されたポリゴン物標110及び行動分類情報と、外界認識情報Iprの中心線106、左右の行動規定線108とを用いる。境界線生成部82は、中心線106の座標点毎に、ポリゴン物標110と左右の行動規定線108の位置関係を抽出して左右の境界線112を生成していく。
 詳細には、境界線生成部82は、図9に示す処理フローを順次実施する。境界線生成部82は、まず中心線106を基準として左右の行動規定線108又はポリゴン物標110までの左右幅方向(法線方向)の距離を、中心線106の座標点毎に算出する(ステップS21)。次に、中心線106の各座標点から左右幅方向に延ばした法線と、左右の行動規定線108又はポリゴン物標110との交点をそれぞれ繋ぐ(ステップS22)。さらに、前回算出した左右の境界線112を用いてフィルタリング処理を行う(ステップS23)。以下、各ステップの具体的な処理内容について説明していく。
 ステップS21は、仮想平面座標SC上における左右の行動規定線108とポリゴン物標110の位置関係を認識する処理である。境界線生成部82は、行動分類情報に基づき、各ポリゴン物標110が中心線106に対し左右のどちら寄りに存在するかを認識し、中心線106から認識した側のポリゴン物標110までの距離DL、DRを算出する。
 例えば、図10A中に示す第1ポリゴン物標110Aは、行動分類情報により中心線106の左側寄りに位置していると既に認識されている。よって、境界線生成部82は、中心線106の座標点から法線方向左側に位置する第1ポリゴン物標110Aの交点までの距離DLを算出する。その一方で、中心線106の右側には第1ポリゴン物標110Aが存在していないので、中心線106の座標点から法線方向右側の右行動規定線108Rまでの距離DRを算出する。距離DLと距離DRは後の処理の容易化のため、一方がプラス値で他方がマイナス値で算出されるとよく、本実施形態では、中心線106の右側の距離をマイナス値で算出している。
 また例えば、図10A中に示す第2ポリゴン物標110Bは、中心線106に被りつつ中心線106の右側寄りに位置している。この場合、境界線生成部82は、中心線106の座標点から左行動規定線108Lまでの距離DLを算出する一方で、中心線106から法線方向左側に向かう第2ポリゴン物標110Bの交点までの距離DRを算出する。この際の距離DRはプラス値である。
 さらに例えば、境界線生成部82は、行動分類情報において停止が認識されたポリゴン物標110がある場合に、ポリゴン物標110の形状に基づき距離の算出方法を変更する。具体的には、図10Aに示す第3ポリゴン物標110Cのように、中心線106付近において凹部を有していない場合には、第3ポリゴン物標110Cを無視して、中心線106の座標点から幅方向外側の左右の行動規定線108までの距離DL、DRを算出する。第3ポリゴン物標110Cは、自車11が停止する要素であるが、左右の境界線112を構成するポリゴン物標110とはならないからである。
 逆に、図10Aに示す第4ポリゴン物標110Dのように、中心線106付近において凹部を有する形状の場合には、中心線106の座標点から第4ポリゴン物標110Dの内側までの距離DL、DRをそれぞれ算出する。すなわち上述したように、ポリゴン物標110は、物標認識行動部80において複数の物標200をまとめた一連のポリゴンに形成される。この際、例えば左右それぞれに物標200(他車等)を抽出した場合においては、凹部を有する第4ポリゴン物標110Dが形成される可能性がある。従って、自車11の前方で凹部を有する第4ポリゴン物標110Dは、凹部の左右に実際の物標200(移動体202等)が存在する可能性が高いので、中心線106の幅方向にポリゴン物標110が存在する場合と同様に、中心線106から法線方向の距離DL、DRを求める。
 なお例えば、中心線106の座標点の幅方向にポリゴン物標110が存在しない場合には、最大の距離(中心線106と左行動規定線108Lまでの距離DL、中心線106と右行動規定線108Rまでの距離DR)が算出されることになる。
 またステップS22は、ポリゴン物標110と左右の行動規定線108とを、中心線106の座標点毎に関連させる処理である。境界線生成部82は、図10Bに示すように、中心線106の各座標点から左右幅方向に延びる法線と左右の行動規定線108又はポリゴン物標110が交わる交点を、走行路の延在方向に沿って連結していく。これにより、走行路の左寄り及び右寄りの各々に、ポリゴン物標110の存在に応じて蛇行した左右の仮境界線113(左仮境界線113L、右仮境界線113R)が一旦形成される。
 ステップS23は、図10Cに示すように、左右の仮境界線113に基づき正式な左右の境界線112を生成する処理である。境界線生成部82は、前回生成した左右の境界線112を用いてフィルタリング処理を実行する。すなわち、今回の左右の仮境界線113に前回の左右の境界線112を重ねて仮境界線113を補正することで、各ポリゴン物標110と仮境界線113の干渉部分が解消する。これにより、ポリゴン物標110との衝突・非衝突を分ける左右の境界線112(左境界線112L、右境界線112R)が得られる。
 この左右の境界線112は、ポリゴン物標110が外側に位置するように、座標点毎に変化する連続線を示す。また、左右の境界線112では、左右の仮境界線113に含まれるノイズ等も除去される。そして、境界線生成部82は、ステップS23までの処理により生成した左右の境界線112を、統括制御部70に出力すると共に、推奨走行路生成部84に出力する。
 推奨走行路生成部84は、境界線生成部82から受け取った左右の境界線112と、外界認識情報Iprに含まれる左右の認識線104、左右の行動規定線108及びポリゴン物標110に基づき、左右の推奨境界線100及び推奨走行経路102を生成する。上述したように、左右の推奨境界線100は、物標200に対し余裕をもって自車11を移動させる境界である。
 詳細には、図11に示す処理フローを順次実施する。すなわち、推奨走行路生成部84は、左右の認識線104に基づき左右の限界線118を生成し(ステップS31)、また左右の境界線112に基づき左右の余裕走行線120を生成する(ステップS32)。そして、左右の限界線118と左右の余裕走行線120のうち内側の線を左右の推奨境界線100に設定する(ステップS33)。さらに、補正により、左右の推奨境界線100のうち近接している(交差を含む)部分を修正する(ステップS34)。その後、推奨走行路生成部84は、左右の推奨境界線100に基づき推奨走行経路102を生成し(ステップS35)、この推奨走行経路102に基づき左右の推奨境界線100を平滑化する(ステップS36)。以下、各ステップの具体的な処理内容について説明していく。
 ステップS31は、自車11が走行する走行路の走行レーンにおいて、レーンマーク等からのはみ出し許容範囲を設定する処理である。図12Aに示すように、生成される左右の限界線118(左限界線118L、右限界線118R)は、左右の認識線104に依存する逸脱可能範囲を表し、また限界線118よりも外側に自車11を逸脱させないための境界を示すと言える。
 推奨走行路生成部84は、左右の認識線104に対し幅方向外側にずれる適宜の許容間隔D2を加えて左右の限界線118を生成する。例えば、左右の認識線104として走行レーンのレーンマークが抽出されている場合には、レーンマークの幅方向外側に0.5m、1m、…等の許容間隔D2を加えて左右の限界線118とする。なお例えば、走行路の路肩を抽出している場合には、路肩の所定範囲を含んで左右の限界線118としてもよい。
 ステップS32は、自車11の周辺環境に存在する物標200に殆ど接近することなく、快適に走行するための左右範囲を設定するために行う。図12Bに示すように、算出される左右の余裕走行線120(左余裕走行線120L、右余裕走行線120R)は、左右の境界線112に依存しつつ左右の境界線112から幅方向内側にある程度離れた境界を示すことになる。
 推奨走行路生成部84は、左右の境界線112に所定の余裕間隔Dm(マージン)を加えて左右の余裕走行線120を生成する。例えば、余裕間隔Dmとしては、0.5、1m、…等があげられる。なお、推奨走行路生成部84は、左右の境界線112を構成している左右の行動規定線108、ポリゴン物標110等の各要素に応じて余裕間隔Dmを変えてもよい。
 ステップS33は、図13に示すように、左右の限界線118と左右の余裕走行線120とを比較し、自車11を基準に内側の線を優先することで、左右の推奨境界線100(左推奨境界線100L、右推奨境界線100R)を仮設定する処理である。算出される左右の推奨境界線100は、自車11が走行レーンを大きく逸脱せずに、また静止体204や移動体202から離れた箇所を通る目標の境界を示すことになる。従って、自車11の自動運転においては、この左右の推奨境界線100の内側を可及的に走行することが望ましいと言える。
 推奨走行路生成部84は、ステップS31で生成した左右の限界線118と、ステップS32で生成した左右の余裕走行線120とを各々比較して、内側に存在するほうの線を選択する。これにより、走行路上で余裕走行線120が限界線118よりも内側に存在する範囲では、余裕走行線120が推奨境界線100となる。また、走行路上で限界線118が余裕走行線120よりも内側に存在する範囲では、限界線118が推奨境界線100となる。この処理により、推奨境界線100は、限界線118上又は限界線118よりも内側に位置することになる。なお、推奨境界線100は、認識線104等と同様に、仮想平面座標SC上で座標点が間隔を開けて並ぶ点列に生成されるとよい。
 ステップS34は、上記で算出した左右の推奨境界線100に関し、図14Aに示すように、自車11が通行できない区間に対応するために、左右の推奨境界線100を修正する処理である。これにより、左右の推奨境界線100は、狭い狭路や反転(左推奨境界線100Lが右推奨境界線100Rよりも右側に位置)した箇所等の解消が図られる(図14Bも参照)。
 具体的な処理としては、まず左右の推奨境界線100の座標点毎に幅方向の間隔(以下、推奨境界間隔Dbという)を算出する。また、推奨走行路生成部84は、閾値Thを予め保有しており、算出した複数の推奨境界間隔Dbと閾値Thとをそれぞれ比較し、推奨境界間隔Dbが閾値Th以下の場合(左右の推奨境界線100の反転も含む)に、その座標点について修正を実施する。閾値Thは、特に限定されないが、例えば、自車11の車幅に若干の余裕幅を加えた値であるとよい。
 そして、左右の推奨境界線100を修正する状況としては、以下の[a]~[c]のパターンがあげられる。
[a]左右の推奨境界線100が共に左右の限界線118の内側にある(図14A中のラインA参照)。
[b]左推奨境界線100Lと右推奨境界線100Rが互いに交差している(図14A中のラインB参照)。
[c]左右の推奨境界線100のうち一方が左右の限界線118上に重なり、他方が左右の限界線118よりも内側にある(図14A中のラインC参照)。
 [a]の左右の推奨境界線100が共に左右の限界線118に内側にある場合には、左右の推奨境界線100の各々を幅方向に広げることが可能である。このため、推奨走行路生成部84は、図15Aに示すように、左右の推奨境界線100の幅方向中央部を基準に、左右の推奨境界線100の各々を幅方向外側に広げる処理を行う。この補正によって、左右の推奨境界線100の幅は、閾値Thと同一又は閾値Thよりも多少広く設定される。
 また、左右の推奨境界線100を広げることで一方の推奨境界線100が限界線118(又は境界線112)に重なる場合には、他方の推奨境界線100をより広げる処理を行う。すなわち、左右の推奨境界線100を幅方向外側に広げる量は、限界線118(又は境界線112)が最大値となる。例えば、図15Bに示すように、補正前の左推奨境界線100Lが左限界線118Lの近傍位置にあり、補正前の右推奨境界線100Rが右限界線118R(又は右境界線112R)に対し余裕をもって離れていたとする。この場合は、左推奨境界線100Lを左限界線118L(又は左限界線118Lより若干内側)まで広げる一方で、右推奨境界線100Rを大きく広げる処理を行う。これにより補正後の左右の推奨境界線100は、物標200等に接触するような境界を示すことがなくなる。
 [b]の左推奨境界線100Lと右推奨境界線100Rが互いに交差している場合も、図15Cに示すように、左右の推奨境界線100の各々を、幅方向に広げることが可能と推定できる。従ってこの[b]の場合でも、推奨走行路生成部84は、[a]と同様に、左推奨境界線100Lを左方向に広げると共に、右推奨境界線100Rを右方向に広げる処理を行う。なお、左推奨境界線100L及び右推奨境界線100Rの広げ方は、[a]よりも大きくなり、例えば交差部分を無視して左右の推奨境界線100の幅方向中央部を基点に、一方の推奨境界線100を閾値Thの1/2だけ広げ、他方の推奨境界線100を閾値Thの1/2だけ広げるとよい。これにより、左右の推奨境界線100が反転していた箇所でも、自車11が通行可能な推奨境界線100に修正されることになる。
 [c]の左右の推奨境界線100のうち一方が左右の限界線118上に重なり、他方が左右の限界線118よりも内側にある場合は、左右の推奨境界線100の他方のみを幅方向に広げることが可能である。従って、推奨走行路生成部84は、図15Dに示すように、左右の限界線118上に重なる一方の推奨境界線100を基準に、他方の推奨境界線100を幅方向に広げる処理を行う。これにより、自車11が一方の推奨境界線100寄りに可及的に避ける左右の推奨境界線100に補正される。
 以上の処理によって、推奨走行路生成部84は、図14Aに示す補正前の左右の推奨境界線100から、図14Bに示す補正後の左右の推奨境界線100とすることができる。すなわち補正によって、左推奨境界線100Lと右推奨境界線100Rは、相互に交わらず離間した位置に配置される。
 図11に戻り、ステップS35では、以上の処理によって生成された左右の推奨境界線100(点列)を用いて、自車11の走行時における推奨走行経路102を生成する。推奨走行経路102は、自車11の走行経路において曲率最小化、距離最小化、中心線106との差分の最小化等を図ったものであり、また自車11の走行効率や快適性を勘案した経路と言うことができる。以下では、推奨走行経路102の算出方法の一例を説明していく。
 図16に示すように、推奨走行路生成部84は、まず前回算出した推奨走行経路(不図示)を用いて、適宜の補間方法により補間線122を算出する。さらに推奨走行路生成部84は、左右の推奨境界線100の各左右一対の座標点を繋いだ線分と補間線122が交わる複数の交点を、自車11が通行する目標の拘束点Xに設定する。仮想平面座標SCでは、左推奨境界線100Lの点列を(Lx、Ly)×N、右推奨境界線100Rの点列を(Rx、Ry)×N、拘束点Xの点列を(x、y)×Nと表わすことができ、拘束点Xの点列は、以下の式(1)、(2)のように定式化され得る。
 xi=Rxi+αi(Lxi-Rxi) …(1)
 yi=Ryi+αi(Lyi-Ryi) …(2)
 ここで、0≦αi≦1、i∈[0、N-1]である。
 設定後は、各拘束点の点列を定式化し、定式化したパラメータ(最適化変数)に関する目的関数及び制約条件を、凸2次計画問題(非線形計画問題)として定式化する。凸2次計画問題は、以下の式(3)で表され、さらに制約条件は、以下の式(4)、(5)で表される。
 J=1/2x’Hx+q’x …(3)
 Aeqx=beq …(4)
 Ainx≦bin …(5)
 この場合、(4)の等式制約条件は、拘束点を用いる。(5)の不等式制約条件は、自車11の車体幅と、左右の推奨境界線100から算出した車線幅とを考慮した最適化変数の上限値/下限値を用いる。そして、凸2次計画問題では、目的関数である以下の数1に記載の式(6)~式(8)において、Jが最小化するパラメータxを算出する。
Figure JPOXMLDOC01-appb-M000001
 ここで、式(6)は、拘束点Xの点列の曲率を最小化する目的関数であり、式(7)は、拘束点Xの点列の距離を最小化する目的関数であり、式(8)は、拘束点Xの点列と中心線106との差分を最小化する目的関数である。式(6)~(8)を式(3)の形に変形すると、各式においてH、qが算出される(すなわち、曲率最小となるHc、qc、距離最小となるHs、qs、中心線106との差分最小となるHt、qtが得られる)。
 そして、推奨走行路生成部84は、事前に決定した重みWc、Ws、Wtを用いて、3条件をまとめた目的関数を以下の式(9)のように定義し、J_allを最小化するパラメータxが最終的な(つまり、曲率最小化、距離最小化、及び中心線106の差分の最小化が図られた)推奨走行経路102となる。
 J_all=1/2x’H_allx+q_all’x …(9)
 ここで、H_all=Wc*Hc+Ws*Hs+Wt*Ht
     q_all=Wc*qc+Ws*qs+Wt*Ht
     x={a0、a1、…、aN-1}である
 なお、重みWc、Ws、Wtは、自車11の状況に応じて局所環境マップ生成部54において適宜変更することが好ましい。例えば、走行路の曲率が大きい場合や蛇行が生じている場合には、曲率最小化のWcを増やす等の処理を行うことで、より良好な経路が得られる。
 図11に戻りステップS36では、ステップS35にて生成された推奨走行経路102と左右の認識線104とを用いて、さらに左右の推奨境界線100を平滑化する。これにより左右の推奨境界線100は、自車11の走行に対応して極端な大きな幅とならずに滑らかに連続することになる。なお、ステップS36は実施しなくてもよい。
 図17A及び図17Bに示すように、平滑化処理において、推奨走行路生成部84は、推奨走行経路102が概ね中心に位置するように、推奨走行経路102の座標点毎に幅員の見直し(再設定)を実施する。つまり、推奨走行経路102の各座標点に関し、左推奨境界線100Lまでの左側幅WLと、右推奨境界線100Rまでの右側幅WRとを比較して、小さい方の幅に合わせる。
 例えば、図17A中のラインDを図17Bに示すように抜き取ると、その幅方向(法線方向)における左側幅WLが、右側幅WRよりも大きい。このため、左側幅WLを右側幅WRと同じ幅員に変更して(図17B中の符号WL’参照)、左推奨境界線100Lの座標点を右側に寄せる。
 また、推奨走行路生成部84は、図17A中のラインEに示すように、推奨走行経路102の座標点が左右の認識線104の内側で、且つ左右の推奨境界線100が左右の認識線104の外側に存在する座標点を認識すると、上記と異なる処理を実施する。詳細には、左右の認識線104と左右の推奨境界線100を比較して、左右の認識線104内に入れることが可能なら、左右の推奨境界線100のうち一方(推奨走行経路102が寄っている側)を認識線104に重ねる。そして左右の推奨境界線100の他方(推奨走行経路102が離れている側)を、認識線104に重ねた推奨境界線100と推奨走行経路102までの幅員と同一にする。
 上記の処理により左右の推奨境界線100の各座標点を修正した後、推奨走行路生成部84は、推奨走行経路102の前後の座標点の全幅(左側幅WL及び右側幅WR)に基づき、全幅の最小値を選択して最終的な幅を座標点毎に設定する。例えば、推奨走行路生成部84は、左右の推奨境界線100が相互に急に近接する場合や急に離れる場合に、幅員を急に変動させるのではなく、最小値よりも大きな変動を抑制することで、左右の推奨境界線100をより滑らかにすることができる。
 これにより、左右の推奨境界線100は、その座標点を繋ぐ線分が蛇行していた状態から、滑らかに変化する点列に補正される。なお、左右の推奨境界線100の平滑化は、上記の手法に限定されず種々の方法を採ってよい。例えば、左右の推奨境界線100の各座標点を繋ぐ線分の角度を算出して、その角度が所定以下となるように座標点をずらすことで平滑化を行ってもよい。或いは、過去複数回の左右の推奨境界線100を用いて、現在の左右の推奨境界線100の平滑化を行ってもよい。
 推奨走行路生成部84は、以上の推奨走行処理の演算により、各情報(左右の推奨境界線100及び推奨走行経路102)の生成を行うと、これらの情報を統括制御部70に出力すると共に、停止位置生成部86に出力する。なお、推奨走行路生成部84は、処理過程で生成した左右の限界線118等も合わせて、統括制御部70や停止位置生成部86に送るとよい。
 図5に示すステップS40において、停止位置生成部86は、物標認識行動部80からポリゴン物標110及び行動分類情報を受け取り、自車11が停車する車両停止位置114を特定する。具体的には、図18に示すように、停止位置生成部86は、仮想平面座標SC上に、左右の限界線118及びポリゴン物標110を配置することで、左右の限界線118とポリゴン物標110の相対位置を特定する。
 そして、停止位置生成部86は、行動分類情報として[1]左回避、[2]右回避、[3]停止が含まれるポリゴン物標110に基づき、仮想平面座標SC上での走行可能領域を算出する。走行可能領域は、仮想平面座標SCにおいて推奨走行経路102の座標点毎に法線を延ばし、該法線が左右の限界線118又はポリゴン物標110と交わる交点(座標点)までの距離により設定することができる。また走行可能領域は、左右の限界線118の内側領域からポリゴン物標110(走行不能領域)を減算することで得てもよい。
 例えば、左右幅方向にポリゴン物標110がそれぞれ存在している場合には、両ポリゴン物標110間の空き幅Wiと自車11の車幅とを比較する。そして、両ポリゴン物標110の空き幅Wiが自車11の車幅よりも大きければ、その座標点で走行可能領域が確保されていると見なすことができる。逆に、両ポリゴン物標110間の空き幅Wiが自車11の車幅よりも小さければ、その座標点で走行可能領域が確保されていない、つまり走行不能領域(車両停止位置114)となる。従ってその座標点を車両停止位置114に特定する。
 同様に、推奨走行経路102の座標点の左右幅方向の一方にポリゴン物標110が存在している場合は、左右の限界線118の一方(回避側の限界線118)からポリゴン物標110までの空き幅Wiと、自車11の車幅とを比較する。そして、空き幅Wiが自車11の車幅よりも大きければ、その座標点において走行可能領域が確保されていることになる。逆に、空き幅Wiが自車11の車幅よりも小さければその座標点において走行不能領域(車両停止位置114)となる。
 停止位置生成部86は、以上のような手法で車両停止位置114を生成すると、統括制御部70を介して各軌道生成部に出力すると共に、目標速度生成部88に出力する。このように、車両制御装置10は、ポリゴン物標110に対する行動分類情報とは別に、停止位置生成部86において車両停止位置114を改めて設定することで、物標200に対する停止動作を精度よく行うことができる。
 なお、行動分類情報で停止の分類がなされているポリゴン物標110は、仮想平面座標SC上で推奨走行経路102や左右の推奨境界線100に重なることになるので、その重なり位置を車両停止位置114としてもよい。また、停止位置生成部86は、左回避や右回避の分類がなされているポリゴン物標110の場合に、既に生成されている左右の境界線112に基づき、自車11が通行可能な幅があるか否かを判別して、車両停止位置114を特定してもよい。
 また図5に示すステップS50において、局所環境マップ生成部54の目標速度生成部88は、左右の推奨境界線100及び自車状態情報Ivhを受信して、推奨走行経路102上における速度の目標値(目標速度116)を生成する。この目標速度116は、統括制御部70を介して各軌道生成部に送られ、各軌道生成部にて速度を含む軌道を算出する際の指標となる。例えば、目標速度生成部88は、図19に示す処理フローを順次実施する。
 目標速度生成部88は、推奨走行経路102の曲率と、自車11にかかる横加速度(車幅方向の加速度)とに応じた第1制限速度を算出する(ステップS51)。例えば、推奨走行経路102の曲率は、各座標点を繋ぐ推奨走行経路102の線分同士の角度から容易に算出することができる。また、横加速度は、算出した曲率、現在の速度等に基づき、推奨走行経路102の座標点毎に推定するとよい。これにより第1制限速度は、走行中の走行路の状況と自車11の状態を反映した無理のない速度に設定される。
 また、目標速度生成部88は、車両停止位置114を特定(受信)している場合に、車両停止位置114以降をゼロとする第2制限速度を設定する(ステップS52)。これにより、車両停止位置114を越えて自車11が走行する(速度が0より大きくなる)ことを防ぐことができる。
 さらに、目標速度生成部88は、左右の境界線112の幅員に基づき第3制限速度を設定する(ステップS53)。この処理は、図20Aに示すように、自車11周辺の走行可能範囲(左右の境界線112)の幅が狭い場合に、自車11の速度を低下させた目標速度116を設定させるものである。これにより、左右の境界線112が狭路である場合に、自車11の速度を落として走行させることができる。
 例えば、目標速度生成部88は、図20Bに示すような幅員-制限速度テーブル90(参照情報)を図示しない目標速度記憶部に記憶している。幅員-制限速度テーブル90には、境界線112の幅員に対し安心感が得られる制限速度が実験等によって予め設定・記憶されている。目標速度生成部88は、左右の境界線112を受信すると、推奨走行経路102の座標点毎に左右の境界線112の幅員を算出し、また幅員-制限速度テーブル90を参照して算出した幅員に応じた制限速度を導出する。これにより、座標点毎に適宜の制限速度が得られる。
 その後、目標速度生成部88は、上記のステップS51~S53で得た第1~第3制限速度と、さらに自車最高速度及び法定速度とを加味して、これらの速度のうち最小値を推奨走行経路102の座標点毎に選択する(ステップS54)。従って、生成された推奨走行経路102の座標点毎に最も低い速度が得られる。
 最後に、目標速度生成部88は、上記ステップで得た推奨走行経路102の各座標点の制限速度を等加減速で実現可能な目標速度116に補正する(ステップS55)。これにより、大きな加速度や減速度を自車11に加えることが抑えられ、自車11を安定的に走行させることが可能な目標速度116を算出することができる。
 上記処理によって、局所環境マップ生成部54は、ポリゴン物標110、左右の境界線112、左右の限界線118、左右の推奨境界線100、推奨走行経路102、車両停止位置114、目標速度116等の局所環境情報Iemを出力する。よって、各軌道生成部では、局所環境情報Iemを用いることで、軌道パターンの生成範囲をある程度集約する(一例として、推奨走行経路102付近の経路を集中的に算出する)ことができる。
 以上のように、本実施形態に係る車両制御装置10は、局所環境マップ生成部54において、左右の境界線112に余裕間隔Dmを加えた左右の推奨境界線100を算出する。この左右の推奨境界線100は、走行路上の種々の物標200に対して自車11が余裕をもって走行し得る境界を示している。そのため、車両制御装置10は、左右の推奨境界線100に基づき複数の物標200に対応可能な経路が得られる。従って、自動運転において、物標200との干渉可能性を低減し、また搭乗者に与える不安を低減して、自車11を効率的に走行させることができる。
 さらに、車両制御装置10は、左右の推奨境界線100を適宜補正する構成となっている。例えば、左右の推奨境界線100を幅方向外側に広げることで、生成された左右の推奨境界線100の間隔が狭い等の理由で、自車11の走行制御に支障が生じることを抑制することができる。特に、左推奨境界線100Lと右推奨境界線100Rの位置が反転している場合に、車両制御装置10は、この反転を解消するように処理することで、自車11の走行制御を良好に継続することができる。さらに、車両制御装置10は、左右の推奨境界線100のうち一方が左右の限界線118の一方に重なっている場合に、左右の推奨境界線100のうち他方のみを幅方向外側に広げることで、左右の推奨境界線100が限界線118を越えないようにすることができる。これにより、自車11が走行路を大きく逸脱するような経路の生成を抑制することができる。
 そして、車両制御装置10は、曲率、走行距離、左右の推奨境界線100の中心との差分が最小となる推奨走行経路102を算出することで、自車11の車速の低下やステアリングの無駄な動きが抑えられた目標の経路を提供する。そのため、車両制御装置10は、推奨走行経路102に可及的に沿うように走行時の速度及び舵角を調整することで、自車11を良好に走行させることができる。また、車両制御装置10は、推奨走行経路102に基づき左右の推奨境界線100を調整することで、滑らかに連続する左右の推奨境界線100を得ることができる。この左右の推奨境界線100は、自車11の挙動に無理のない経路を一層効率的に生成させることができる。
 またさらに、車両制御装置10は、左右の境界線112の幅員に対応した目標速度116を取得する構成となっている。これにより、左右の境界線112が狭路を形成している場合に、自車11の走行速度を下げる目標速度116とすることができ、搭乗者の不安を低減することができる。さらにまた、車両制御装置10は、移動体202について予測ポリゴン物標111を生成することで、予測ポリゴン物標111に対応した左右の推奨境界線100を算出することができる。これにより移動体202を回避可能な経路を良好に形成することができる。
 なお、本発明は、上述の実施形態に限定されず、発明の要旨に沿って種々の改変が可能である。例えば、車両制御装置10は、車両の走行制御をすべて自動で行う完全自動運転のみならず、走行制御を部分的に自動で行う部分自動運転(運転支援)を実施するものでもよい。運転支援では、速度制御のみを行う場合、操舵制御のみを行う場合、或いは搭乗者が手動運転を行い車載装置であるモニタ、スピーカ等から目標車速や目標操舵位置を案内する場合があげられる。一例として、車両制御装置10は、算出した推奨走行経路102を自車11のモニタに表示することで、搭乗者に適切な経路を案内する構成でもよい。

Claims (10)

  1.  自車(11)の走行制御を少なくとも部分的に自動で行う車両制御装置(10)であって、
     前記自車(11)が走行する走行路の周辺環境を検出する検出部(14)と、
     前記検出部(14)の検出情報に基づき、前記走行路の左右の認識線(104)を抽出し、且つ前記走行路に存在する物標(200)を抽出する外界認識部(52)と、
     前記左右の認識線(104)と前記物標(200)の情報に基づき、前記走行路における前記自車(11)の行動範囲及び前記物標(200)との非干渉の限界を示す左右の境界線(112)を算出し、且つ前記左右の境界線(112)を内側に狭める余裕間隔(Dm)を加えることで、前記自車(11)の走行時における左右の推奨境界線(100)を算出する情報生成部(54)と、を備える
     ことを特徴とする車両制御装置(10)。
  2.  請求項1記載の車両制御装置(10)において、
     前記情報生成部(54)は、前記左右の推奨境界線(100)の幅方向の間隔(Db)が所定の閾値(Th)以下の場合に、前記左右の推奨境界線(100)を幅方向外側に広げる補正を行う
     ことを特徴とする車両制御装置(10)。
  3.  請求項2記載の車両制御装置(10)において、
     前記情報生成部(54)は、左推奨境界線(100L)が右推奨境界線(100R)の右側に位置している場合に、前記補正において前記左推奨境界線(100L)を前記右推奨境界線(100R)よりも左側に移動させる
     ことを特徴とする車両制御装置(10)。
  4.  請求項2記載の車両制御装置(10)において、
     前記情報生成部(54)は、前記左右の認識線(104)に逸脱の許容間隔を加えた左右の限界線(118)を生成する構成であり、
     さらに前記左右の推奨境界線(100)のうち一方が前記左右の限界線(118)の一方に重なっている場合に、前記補正において前記左右の推奨境界線(100)のうち他方のみを幅方向外側に広げる
     ことを特徴とする車両制御装置(10)。
  5.  請求項2~4のいずれか1項に記載の車両制御装置(10)において、
     前記情報生成部(54)は、前記補正において前記左右の境界線(112)を越えない範囲で前記左右の推奨境界線(100)を広げる
     ことを特徴とする車両制御装置(10)。
  6.  請求項1記載の車両制御装置(10)において、
     前記情報生成部(54)は、前記左右の推奨境界線(100)内で前記自車(11)が通行する拘束点を設定し、前記拘束点を並べた状態で、曲率、走行距離、前記左右の推奨境界線(100)の中心との差分が最小となる推奨走行経路(102)を算出する
     ことを特徴とする車両制御装置(10)。
  7.  請求項6記載の車両制御装置(10)において、
     前記情報生成部(54)は、前記推奨走行経路(102)が幅方向中心となるように前記左右の推奨境界線(100)を調整する
     ことを特徴とする車両制御装置(10)。
  8.  請求項1記載の車両制御装置(10)において、
     前記情報生成部(54)は、前記左右の境界線(112)の幅方向の幅員を算出し、予め記憶部に記憶している参照情報(90)に基づき、前記幅員に対応した目標速度(116)を取得する
     ことを特徴とする車両制御装置(10)。
  9.  請求項1記載の車両制御装置(10)において、
     前記情報生成部(54)は、前記左右の境界線(112)の算出前に、抽出された前記物標(200)に対する行動を左回避、右回避、停止、無視及び追従のいずれかに分類し、前記左回避又は前記右回避の分類に基づき前記左右の境界線(112)を生成する
     ことを特徴とする車両制御装置(10)。
  10.  請求項1記載の車両制御装置(10)において、
     前記情報生成部(54)は、前記外界認識部(52)の前記物標(200)の情報に基づきポリゴン物標(110)を生成する構成であり、
     前記物標(200)が移動体である場合に、前記ポリゴン物標(110)として、時間経過に伴い前記移動体の位置が変化する予測ポリゴン物標(111)を生成する
     ことを特徴とする車両制御装置(10)。
PCT/JP2017/019591 2017-05-25 2017-05-25 車両制御装置 WO2018216177A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019519910A JP6799150B2 (ja) 2017-05-25 2017-05-25 車両制御装置
US16/616,093 US11136027B2 (en) 2017-05-25 2017-05-25 Vehicle control device
CN201780091210.8A CN110678915B (zh) 2017-05-25 2017-05-25 车辆控制装置
PCT/JP2017/019591 WO2018216177A1 (ja) 2017-05-25 2017-05-25 車両制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/019591 WO2018216177A1 (ja) 2017-05-25 2017-05-25 車両制御装置

Publications (1)

Publication Number Publication Date
WO2018216177A1 true WO2018216177A1 (ja) 2018-11-29

Family

ID=64396397

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/019591 WO2018216177A1 (ja) 2017-05-25 2017-05-25 車両制御装置

Country Status (4)

Country Link
US (1) US11136027B2 (ja)
JP (1) JP6799150B2 (ja)
CN (1) CN110678915B (ja)
WO (1) WO2018216177A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021006111A1 (ja) * 2019-07-08 2021-01-14
WO2021145177A1 (ja) * 2020-01-17 2021-07-22 株式会社デンソー 先行車判別装置、先行車判別方法、および先行車判別プログラム
JP7424866B2 (ja) 2019-08-08 2024-01-30 エヌビディア コーポレーション 環境内のオブジェクトのレーン割り当てを決定するための障害物及びレーン検出の活用

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6854357B2 (ja) * 2017-10-10 2021-04-07 日産自動車株式会社 運転制御方法及び運転制御装置
RU2751382C1 (ru) * 2018-05-31 2021-07-13 Ниссан Норт Америка, Инк. Планирование траектории
CN112673230A (zh) * 2018-07-04 2021-04-16 日产自动车株式会社 行驶辅助方法及行驶辅助装置
US10800412B2 (en) * 2018-10-12 2020-10-13 GM Global Technology Operations LLC System and method for autonomous control of a path of a vehicle
DE102018008624A1 (de) * 2018-10-31 2020-04-30 Trw Automotive Gmbh Steuerungssystem und Steuerungsverfahren zum samplingbasierten Planen möglicher Trajektorien für Kraftfahrzeuge
JP6935507B2 (ja) * 2018-12-26 2021-09-15 バイドゥ ドットコム タイムス テクノロジー (ベイジン) カンパニー リミテッド 自動運転のための自己反転線の相互回避アルゴリズム
JP2020157943A (ja) * 2019-03-27 2020-10-01 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
US11693415B2 (en) * 2019-11-06 2023-07-04 Waymo Llc Predicting cut-in probabilities of surrounding agents
US20220017112A1 (en) * 2020-07-20 2022-01-20 Uatc, Llc Systems and Methods for Generating Vehicle Corridors to Improve Path Planning Efficiency
CN111829545B (zh) * 2020-09-16 2021-01-08 深圳裹动智驾科技有限公司 自动驾驶车辆及其运动轨迹的动态规划方法及系统
CN114162140B (zh) * 2021-12-08 2023-08-01 武汉中海庭数据技术有限公司 一种最优车道匹配方法及系统
CN115083208B (zh) * 2022-07-20 2023-02-03 深圳市城市交通规划设计研究中心股份有限公司 人车冲突预警方法、预警分析方法、电子设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006154967A (ja) * 2004-11-25 2006-06-15 Nissan Motor Co Ltd リスク最小軌跡生成装置およびこれを用いた危険状況警報装置
JP2009252032A (ja) * 2008-04-08 2009-10-29 Honda Motor Co Ltd 車両の接触回避支援装置
JP2011134071A (ja) * 2009-12-24 2011-07-07 Denso Corp 仮想白線設定方法、仮想白線設定装置及びそれを用いた針路変更支援装置
JP2012079118A (ja) * 2010-10-01 2012-04-19 Toyota Motor Corp 走行支援装置及び方法
WO2014006759A1 (ja) * 2012-07-06 2014-01-09 トヨタ自動車株式会社 車両の走行制御装置
EP2942251A1 (en) * 2014-05-08 2015-11-11 Volvo Car Corporation Method for providing an object prediction representation

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4949063B2 (ja) 2007-02-14 2012-06-06 富士重工業株式会社 車両の運転支援装置
JP6128584B2 (ja) * 2013-01-16 2017-05-17 株式会社Soken 走行経路生成装置
EP2949548B1 (en) * 2014-05-27 2018-07-11 Volvo Car Corporation Lane keeping suppressing system and method
JP6115576B2 (ja) * 2015-01-07 2017-04-19 トヨタ自動車株式会社 車両走行制御装置
JP6025273B2 (ja) * 2015-03-17 2016-11-16 富士重工業株式会社 車両の走行制御装置
JP6791616B2 (ja) * 2015-04-27 2020-11-25 トヨタ自動車株式会社 自動運転車両システム
JP6361567B2 (ja) * 2015-04-27 2018-07-25 トヨタ自動車株式会社 自動運転車両システム
US20190016338A1 (en) * 2016-02-18 2019-01-17 Honda Motor Co., Ltd. Vehicle control device, vehicle control method, and vehicle control program
US10730512B2 (en) * 2016-05-06 2020-08-04 Pcms Holdings, Inc. Method and system for collaborative sensing for updating dynamic map layers

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006154967A (ja) * 2004-11-25 2006-06-15 Nissan Motor Co Ltd リスク最小軌跡生成装置およびこれを用いた危険状況警報装置
JP2009252032A (ja) * 2008-04-08 2009-10-29 Honda Motor Co Ltd 車両の接触回避支援装置
JP2011134071A (ja) * 2009-12-24 2011-07-07 Denso Corp 仮想白線設定方法、仮想白線設定装置及びそれを用いた針路変更支援装置
JP2012079118A (ja) * 2010-10-01 2012-04-19 Toyota Motor Corp 走行支援装置及び方法
WO2014006759A1 (ja) * 2012-07-06 2014-01-09 トヨタ自動車株式会社 車両の走行制御装置
EP2942251A1 (en) * 2014-05-08 2015-11-11 Volvo Car Corporation Method for providing an object prediction representation

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021006111A1 (ja) * 2019-07-08 2021-01-14
WO2021006111A1 (ja) * 2019-07-08 2021-01-14 日立オートモティブシステムズ株式会社 車両制御装置
JP7303304B2 (ja) 2019-07-08 2023-07-04 日立Astemo株式会社 車両制御装置
JP7424866B2 (ja) 2019-08-08 2024-01-30 エヌビディア コーポレーション 環境内のオブジェクトのレーン割り当てを決定するための障害物及びレーン検出の活用
WO2021145177A1 (ja) * 2020-01-17 2021-07-22 株式会社デンソー 先行車判別装置、先行車判別方法、および先行車判別プログラム
JP2021114105A (ja) * 2020-01-17 2021-08-05 株式会社デンソー 先行車判別装置、先行車判別方法、および先行車判別プログラム
JP7163934B2 (ja) 2020-01-17 2022-11-01 株式会社デンソー 先行車判別装置、先行車判別方法、および先行車判別プログラム

Also Published As

Publication number Publication date
CN110678915B (zh) 2022-03-11
JPWO2018216177A1 (ja) 2020-01-09
US11136027B2 (en) 2021-10-05
JP6799150B2 (ja) 2020-12-09
US20200172100A1 (en) 2020-06-04
CN110678915A (zh) 2020-01-10

Similar Documents

Publication Publication Date Title
WO2018216177A1 (ja) 車両制御装置
JP6637400B2 (ja) 車両制御装置
US11698263B2 (en) Safety and comfort constraints for navigation
CN108693878B (zh) 前进路线设定装置以及前进路线设定方法
US10831205B2 (en) Route determination device, vehicle control device, route determination method, and storage medium
JP7069518B2 (ja) 車両制御装置
US11584388B2 (en) Driving control method and driving control apparatus
RU2760046C1 (ru) Способ помощи при вождении и устройство помощи при вождении
EP3696788B1 (en) Driving control method and driving control apparatus
US9708004B2 (en) Method for assisting a driver in driving an ego vehicle and corresponding driver assistance system
US20200238980A1 (en) Vehicle control device
US20200353918A1 (en) Vehicle control device
JP7379033B2 (ja) 運転支援方法及び運転支援装置
JP2021041754A (ja) 運転制御方法及び運転制御装置
RU2724213C1 (ru) Способ генерации целевой скорости и устройство генерации целевой скорости транспортного средства с содействием вождению
JP7167732B2 (ja) 地図情報システム
JP2021160660A (ja) 車両制御装置
JP6982405B2 (ja) 車両制御装置
US11745763B2 (en) Vehicle travel assistance method and vehicle travel assistance device
US20220266858A1 (en) Vehicle Travel Control Method and Vehicle Travel Control Device
JP2021109576A (ja) 車両の走行支援方法および走行支援装置
CN115933667A (zh) 用于操作自主驾驶车辆的方法和系统
JP2021011168A (ja) 運転制御方法及び運転制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17911059

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019519910

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17911059

Country of ref document: EP

Kind code of ref document: A1