WO2018123019A1 - 車両制御システム、車両制御方法、および車両制御プログラム - Google Patents

車両制御システム、車両制御方法、および車両制御プログラム Download PDF

Info

Publication number
WO2018123019A1
WO2018123019A1 PCT/JP2016/089099 JP2016089099W WO2018123019A1 WO 2018123019 A1 WO2018123019 A1 WO 2018123019A1 JP 2016089099 W JP2016089099 W JP 2016089099W WO 2018123019 A1 WO2018123019 A1 WO 2018123019A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
lane
virtual line
recognized
lane marking
Prior art date
Application number
PCT/JP2016/089099
Other languages
English (en)
French (fr)
Inventor
宏史 小黒
勝也 八代
加治 俊之
徹 幸加木
政宣 武田
Original Assignee
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 本田技研工業株式会社 filed Critical 本田技研工業株式会社
Priority to CN201680091877.3A priority Critical patent/CN110121450B/zh
Priority to US16/470,574 priority patent/US10810878B2/en
Priority to JP2018558608A priority patent/JPWO2018123019A1/ja
Priority to PCT/JP2016/089099 priority patent/WO2018123019A1/ja
Publication of WO2018123019A1 publication Critical patent/WO2018123019A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T8/00Arrangements for adjusting wheel-braking force to meet varying vehicular or ground-surface conditions, e.g. limiting or varying distribution of braking force
    • B60T8/17Using electrical or electronic regulation means to control braking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • B60W30/165Automatically following the path of a preceding lead vehicle, e.g. "electronic tow-bar"
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D6/00Arrangements for automatically controlling steering depending on driving conditions sensed and responded to, e.g. control circuits
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/164Centralised systems, e.g. external to vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2201/00Particular use of vehicle brake systems; Special systems using also the brakes; Special software modules within the brake system controller
    • B60T2201/08Lane monitoring; Lane Keeping Systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2210/00Detection or estimation of road or environment conditions; Detection or estimation of road shapes
    • B60T2210/30Environment conditions or position therewithin
    • B60T2210/32Vehicle surroundings
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • G01S13/32Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S13/34Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9318Controlling the steering
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection

Definitions

  • the present invention relates to a vehicle control system, a vehicle control method, and a vehicle control program.
  • the conventional technique prohibits the setting of virtual lines in the vicinity of the toll booth, which has a high probability of erroneous detection of virtual lines. Therefore, the target trajectory cannot be generated in the vicinity of the toll booth, and automatic vehicle operation continues. There was a case that could not be made.
  • the present invention has been made in view of such circumstances, and provides a vehicle control system, a vehicle control method, and a vehicle control program capable of improving the continuity of execution of automatic driving near a toll gate.
  • a vehicle control system a vehicle control method, and a vehicle control program capable of improving the continuity of execution of automatic driving near a toll gate.
  • the lane marking recognition unit (121A) that recognizes the lane marking of the road on which the vehicle travels, and the lane marking by the lane marking recognition unit after passing through the gate installed on the road. If there is a section that cannot be recognized, the end of the lane line extending from the gate or an object existing in the vicinity of the gate as one end, the future of the vehicle existing before the section where the lane line cannot be recognized
  • the lane marking cannot be recognized based on the imaginary line setting unit (123A) for setting the imaginary line with the starting end portion of the lane marking in the travel area of the vehicle as the other end and the imaginary line set by the imaginary line setting unit.
  • Invention of Claim 2 is the vehicle control system of Claim 1, Comprising: It recognized by the external field recognition part which recognizes the position of the surrounding vehicle ahead or the side of the said vehicle, and the said external field recognition part A vehicle train recognizing unit for recognizing a vehicle train formed by the surrounding vehicle based on a position of the surrounding vehicle, wherein the automatic driving control unit is configured to detect the vehicle train recognized by the vehicle train recognizer. Following the vehicle, the vehicle travels.
  • Invention of Claim 3 is a vehicle control system of Claim 2, Comprising: When the said vehicle train recognition part recognizes several vehicle trains, each stability degree of these vehicle trains is shown. Evaluation is performed, and one of the vehicle trains is selected based on the evaluation result, and the automatic operation control unit follows the vehicle train selected by the vehicle train recognition unit and causes the vehicle to travel.
  • a fourth aspect of the present invention is the vehicle control system according to the third aspect, wherein the vehicle train recognizing unit is configured to determine the number of surrounding vehicles of each of the plurality of vehicle trains or the alignment degree of the vehicle trains. The degree of stability is evaluated based on at least one of them.
  • a fifth aspect of the present invention is the vehicle control system according to any one of the second to fourth aspects, wherein the automatic operation control unit is configured to set the virtual line according to a surrounding situation of the vehicle. The automatic operation based on the virtual line set by the unit is executed, or the automatic operation is executed following the vehicle train recognized by the vehicle train recognition unit.
  • a sixth aspect of the present invention when the computer recognizes a lane marking on a road on which the vehicle is traveling and passes through a gate installed on the road, there is a section where the lane marking cannot be recognized.
  • An end portion of the lane line extending from the gate or an object existing near the gate as one end, and a starting end portion of the lane line in a future traveling region of the vehicle existing before a section where the lane line cannot be recognized In the vehicle control method, a virtual line is set as the other end, and an automatic operation is performed in a section where the lane marking cannot be recognized based on the set virtual line.
  • the invention according to claim 7 allows a computer to recognize a lane marking of a road on which a vehicle travels, and when there is a section where the lane marking cannot be recognized after passing through a gate installed on the road, An end portion of the lane line extending from the gate or an object existing near the gate as one end, and a starting end portion of the lane line in a future traveling region of the vehicle existing before a section where the lane line cannot be recognized
  • a virtual line is set as the other end, and an automatic operation of a section where the lane marking cannot be recognized is executed based on the set virtual line.
  • the vehicle can improve the continuity of execution of automatic driving near the toll gate.
  • the vehicle can smoothly travel along the flow of the train of surrounding vehicles in a section where the lane marking cannot be recognized.
  • the vehicle can travel along a vehicle train in which the flow of surrounding vehicles is more stable.
  • the vehicle can realize appropriate automatic driving control according to the surrounding situation in the section where the lane marking cannot be recognized.
  • FIG. 1 is a configuration diagram of a vehicle system 1 including an automatic operation control unit 100.
  • FIG. It is a figure which shows a mode that the relative position and attitude
  • FIG. It is a figure which shows a mode that a target track is produced
  • FIG. It is a flowchart which shows an example of the vehicle control process using the virtual line of embodiment. It is a flowchart which shows an example of the vehicle control process using the vehicle train of embodiment.
  • FIG. 1 is a configuration diagram of a vehicle system 1 including an automatic driving control unit 100.
  • a vehicle on which the vehicle system 1 is mounted (hereinafter referred to as “own vehicle M”) is, for example, a vehicle such as a two-wheel, three-wheel, or four-wheel vehicle, and a driving source thereof is an internal combustion engine such as a diesel engine or a gasoline engine, An electric motor or a combination thereof.
  • the electric motor operates using electric power generated by a generator connected to the internal combustion engine or electric discharge power of a secondary battery or a fuel cell.
  • the vehicle system 1 includes, for example, a camera 10, a radar device 12, a finder 14, an object recognition device 16, a communication device 20, an HMI (Human20Machine Interface) 30, a navigation device 50, and an MPU (Micro-Processing).
  • Unit 60 a vehicle sensor 70, a driving operator 80, a vehicle interior camera 90, an automatic driving control unit 100, a traveling driving force output device 200, a brake device 210, and a steering device 220.
  • These devices and devices are connected to each other by a multiple communication line such as a CAN (Controller Area Network) communication line, a serial communication line, a wireless communication network, or the like.
  • CAN Controller Area Network
  • serial communication line a wireless communication network
  • the “vehicle control system” includes, for example, a camera 10, a radar device 12, a finder 14, an object recognition device 16, and an automatic driving control unit 100.
  • the camera 10 is a digital camera using a solid-state imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor).
  • a solid-state imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor).
  • One or a plurality of cameras 10 are attached to any part of a vehicle on which the vehicle system 1 is mounted.
  • the camera 10 When imaging the front, the camera 10 is attached to the upper part of the front windshield, the rear surface of the rearview mirror, or the like.
  • the camera 10 When imaging the rear, the camera 10 is attached to an upper part of the rear windshield, a back door, or the like.
  • the camera 10 is attached to a door mirror or the like.
  • the camera 10 periodically and repeatedly images the periphery of the host vehicle M.
  • the camera 10 may be a stereo camera.
  • the radar device 12 radiates a radio wave such as a millimeter wave around the host vehicle M, and detects a radio wave (reflected wave) reflected by the object to detect at least the position (distance and direction) of the object.
  • a radio wave such as a millimeter wave around the host vehicle M
  • the radar apparatus 12 may detect the position and speed of an object by FMCW (Frequency Modulated Continuous Wave) method.
  • the finder 14 is a LIDAR (Light Detection and Ranging or Laser Imaging Detection and Ranging) that measures the scattered light with respect to the irradiated light and detects the distance to the target.
  • LIDAR Light Detection and Ranging or Laser Imaging Detection and Ranging
  • One or a plurality of the finders 14 are attached to arbitrary locations of the host vehicle M.
  • the object recognition device 16 performs sensor fusion processing on the detection results of some or all of the camera 10, the radar device 12, and the finder 14 to recognize the position, type, speed, and the like of the object.
  • the object recognition device 16 outputs the recognition result to the automatic driving control unit 100.
  • the communication device 20 uses, for example, a cellular network, a Wi-Fi network, Bluetooth (registered trademark), DSRC (Dedicated Short Range Communication) or the like to communicate with other vehicles around the host vehicle M or wirelessly. It communicates with various server apparatuses via a base station.
  • a cellular network for example, a Wi-Fi network, Bluetooth (registered trademark), DSRC (Dedicated Short Range Communication) or the like to communicate with other vehicles around the host vehicle M or wirelessly. It communicates with various server apparatuses via a base station.
  • the HMI 30 presents various information to the passengers in the vehicle and accepts input operations by the passengers.
  • the HMI 30 is, for example, various display devices, speakers, buzzers, touch panels, switches, keys, and the like.
  • the navigation device 50 includes, for example, a GNSS (Global Navigation Satellite System) receiver 51, a navigation HMI 52, and a route determination unit 53.
  • the first map information 54 is stored in a storage device such as an HDD (Hard Disk Drive) or a flash memory. Holding.
  • the GNSS receiver specifies the position of the host vehicle M based on the signal received from the GNSS satellite. The position of the host vehicle M may be specified or supplemented by INS (Inertial Navigation System) using the output of the vehicle sensor 70.
  • the navigation HMI 52 includes a display device, a speaker, a touch panel, keys, and the like. The navigation HMI 52 may be partly or wholly shared with the HMI 30 described above.
  • the route determination unit 53 determines the route from the position of the host vehicle M specified by the GNSS receiver 51 (or any input position) to the destination input by the occupant using the navigation HMI 52. This is determined with reference to one map information 54.
  • the first map information 54 is information in which a road shape is expressed by, for example, a link indicating a road and nodes connected by the link.
  • the first map information 54 may include road curvature, POI (Point Of Interest) information, and the like.
  • the route determined by the route determination unit 53 is output to the MPU 60. Further, the navigation device 50 may perform route guidance using the navigation HMI 52 based on the route determined by the route determination unit 53.
  • the navigation apparatus 50 may be implement
  • the MPU 60 functions as the recommended lane determining unit 61, for example, and holds the second map information 62 in a storage device such as an HDD or a flash memory.
  • the recommended lane determining unit 61 divides the route provided from the navigation device 50 into a plurality of blocks (for example, every 100 [m] with respect to the vehicle traveling direction), and refers to the second map information 62 for each block. Determine the recommended lane.
  • the recommended lane determining unit 61 performs determination such as what number of lanes from the left to travel.
  • the recommended lane determining unit 61 determines a recommended lane so that the host vehicle M can travel on a reasonable travel route for proceeding to the branch destination when there is a branching point, a joining point, or the like on the route.
  • the second map information 62 is map information with higher accuracy than the first map information 54.
  • the second map information 62 includes information on lane markings that divide the road, for example.
  • lane markings may include intermittent lane markings such as botsdots and cat's eyes, and lines formed by objects such as curbs, poles, and fences. Good.
  • the second map information 62 includes, for example, information on the center of the lane or information on the boundary of the lane.
  • the second map information 62 may include road information, traffic regulation information, position information of various gates such as toll gates, address information (address / postal code), facility information, telephone number information, and the like.
  • Road information includes information indicating the type of road such as expressway, toll road, national road, prefectural road, number of road lanes, emergency parking area, width of each lane, road gradient, road position (longitude , Latitude and height (three-dimensional coordinates), lane curve curvature, lane merging and branch point positions, road markings, and other information.
  • the second map information 62 may be updated at any time by accessing another device using the communication device 20.
  • the vehicle sensor 70 includes a vehicle speed sensor that detects the speed of the host vehicle M, an acceleration sensor that detects acceleration, a yaw rate sensor that detects angular velocity around the vertical axis, an orientation sensor that detects the direction of the host vehicle M, and the like.
  • the driving operator 80 includes, for example, an accelerator pedal, a brake pedal, a shift lever, a steering wheel, and other operators.
  • a sensor that detects the amount of operation or the presence or absence of an operation is attached to the driving operator 80, and the detection result is the automatic driving control unit 100, or the traveling driving force output device 200, the brake device 210, and the steering device. 220 is output to one or both of 220.
  • the vehicle interior camera 90 images the upper body centering on the face of the occupant seated in the seat of the host vehicle M (for example, the driver's seat). A captured image of the vehicle interior camera 90 is output to the automatic driving control unit 100.
  • the automatic operation control unit 100 includes, for example, a first control unit 120, a second control unit 140, an interface control unit 150, and a storage unit 160.
  • the first control unit 120, the second control unit 140, and the interface control unit 150 are each realized by a processor (software) executing a processor such as a CPU (Central Processing Unit).
  • a processor software
  • CPU Central Processing Unit
  • some or all of the functional units of the first control unit 120, the second control unit 140, and the interface control unit 150 described below are LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), It may be realized by hardware such as a field-programmable gate array (FPGA) or may be realized by cooperation of software and hardware.
  • FPGA field-programmable gate array
  • the automatic driving control unit automatically controls at least one of acceleration / deceleration or steering of the host vehicle M, and executes the driving of the host vehicle M automatically.
  • the 1st control part 120 is provided with the external world recognition part 121, the own vehicle position recognition part 122, and the action plan production
  • the external environment recognition unit 121 recognizes the position, speed, acceleration, and the like of surrounding vehicles based on information input from the camera 10, the radar device 12, and the finder 14 via the object recognition device 16.
  • the position of the surrounding vehicle may be represented by a representative point such as the center of gravity or corner of the surrounding vehicle, or may be represented by an area expressed by the outline of the surrounding vehicle.
  • the “state” of the surrounding vehicle may include acceleration and jerk of the surrounding vehicle, or “behavioral state” (for example, whether or not the lane is changed or is about to be changed).
  • the external environment recognition unit 121 may recognize the positions of guardrails, utility poles, parked vehicles, pedestrians, and other objects in addition to surrounding vehicles.
  • the external environment recognition unit 121 includes, for example, a lane marking recognition unit 121A and a vehicle train recognition unit 121B. Details of the functions of the lane marking recognition unit 121A and the vehicle train recognition unit 121B will be described later.
  • the own vehicle position recognition unit 122 recognizes, for example, the lane (traveling lane) in which the host vehicle M is traveling, and the relative position and posture of the host vehicle M with respect to the traveling lane.
  • the own vehicle position recognition unit 122 for example, includes a road marking line pattern (for example, an arrangement of solid lines and broken lines) obtained from the second map information 62 and an area around the own vehicle M recognized from an image captured by the camera 10.
  • the traveling lane is recognized by comparing the road marking line pattern. In this recognition, the position of the host vehicle M acquired from the navigation device 50 and the processing result by INS may be taken into account.
  • FIG. 2 is a diagram illustrating a state in which the vehicle position recognition unit 122 recognizes the relative position and posture of the vehicle M with respect to the travel lane L1.
  • the own vehicle position recognizing unit 122 makes, for example, a line connecting the deviation OS of the reference point (for example, the center of gravity) of the own vehicle M from the travel lane center CL and the travel lane center CL in the traveling direction of the own vehicle M.
  • the angle ⁇ is recognized as the relative position and posture of the host vehicle M with respect to the traveling lane L1.
  • the host vehicle position recognition unit 122 recognizes the position of the reference point of the host vehicle M with respect to any side end of the travel lane L1 as the relative position of the host vehicle M with respect to the travel lane. Also good.
  • the relative position of the host vehicle M recognized by the host vehicle position recognition unit 122 is provided to the recommended lane determination unit 61 and the action plan generation unit 123.
  • the action plan generation unit 123 generates an action plan for the host vehicle M to perform automatic driving on a destination or the like. For example, the action plan generation unit 123 determines events that are sequentially executed in automatic driving so as to travel in the recommended lane determined by the recommended lane determination unit 61 and to cope with the surrounding situation of the host vehicle M. To do. Events include, for example, a constant speed event that travels in the same lane at a constant speed, a follow-up event that follows the preceding vehicle, a lane change event, a merge event, a branch event, an emergency stop event, and automatic driving There are switching events for switching to manual operation. In addition, when these events are started or during execution, actions for avoidance may be planned based on the surrounding conditions of the host vehicle M (the presence of surrounding vehicles and pedestrians, lane narrowing due to road construction, etc.). is there.
  • Events include, for example, a constant speed event that travels in the same lane at a constant speed, a follow-up event that follows the preceding vehicle,
  • the action plan generation unit 123 generates a target track on which the vehicle M will travel in the future.
  • the target track is expressed as a sequence of points (track points) that the host vehicle M should reach.
  • the trajectory point is a point where the host vehicle M should reach for each predetermined travel distance.
  • the target speed and target acceleration for each predetermined sampling time are the target trajectory. Generated as part of.
  • the track point may be a position to which the host vehicle M should arrive at the sampling time for each predetermined sampling time. In this case, information on the target speed and target acceleration is expressed by the interval between the trajectory points.
  • FIG. 3 is a diagram illustrating a state in which a target track is generated based on the recommended lane.
  • the recommended lane is set so as to be convenient for traveling along the route to the destination.
  • the action plan generation unit 123 activates a lane change event, a branch event, a merge event, or the like when it reaches a predetermined distance before the recommended lane switching point (may be determined according to the type of event). If it becomes necessary to avoid an obstacle during the execution of each event, an avoidance trajectory is generated as shown in the figure.
  • the action plan generation unit 123 generates, for example, a plurality of target trajectory candidates, and selects an optimal target trajectory that matches the route to the destination at that time point based on safety and efficiency.
  • generation part 123 is provided with the virtual line setting part 123A, for example.
  • the virtual line setting unit 123A sets a virtual lane line (virtual line) in a section where the lane line recognition unit 121A cannot recognize the lane line.
  • the virtual line is, for example, a straight line or a curved line.
  • the virtual line may be an intermittent line or a line formed by arranging patterns, symbols, characters, and the like. Details of the function of the virtual line setting unit 123A will be described later.
  • the second control unit 140 includes, for example, a travel control unit 141.
  • the travel control unit 141 controls the travel driving force output device 200, the brake device 210, and the steering device 220 so that the host vehicle M passes the target track generated by the action plan generation unit 123 at a scheduled time. To do. Further, the traveling control unit 141 may perform switching control between automatic driving and manual driving of the host vehicle M based on the operation of the occupant received by the HMI 30.
  • the interface control unit 150 generates information to be output to the HMI 30. Further, the interface control unit 150 acquires information received by the HMI 30.
  • the storage unit 160 is a storage device such as an HDD (Hard Disk Drive), flash memory, RAM (Random Access Memory), ROM (Read Only Memory), or the like.
  • a travel history 160A is stored in the storage unit 160.
  • the travel history 160A is information in which the travel information of the host vehicle M in the section is associated with the position information of the section where the lane marking cannot be recognized.
  • the driving force output device 200 outputs a driving force (torque) for driving the vehicle to driving wheels.
  • the travel driving force output device 200 includes, for example, a combination of an internal combustion engine, an electric motor, a transmission, and the like, and an ECU (Electronic Control Unit) that controls these.
  • the ECU controls the above-described configuration in accordance with information input from the travel control unit 141 or information input from the driving operator 80.
  • the brake device 210 includes, for example, a brake caliper, a cylinder that transmits hydraulic pressure to the brake caliper, an electric motor that generates hydraulic pressure in the cylinder, and a brake ECU.
  • the brake ECU controls the electric motor in accordance with the information input from the travel control unit 141 or the information input from the driving operation element 80 so that the brake torque corresponding to the braking operation is output to each wheel.
  • the brake device 210 may include, as a backup, a mechanism that transmits the hydraulic pressure generated by operating the brake pedal included in the driving operation element 80 to the cylinder via the master cylinder.
  • the brake device 210 is not limited to the configuration described above, and may be an electronically controlled hydraulic brake device that controls the actuator according to information input from the travel control unit 141 and transmits the hydraulic pressure of the master cylinder to the cylinder. Good. Further, the brake device 210 may include a plurality of brake devices in consideration of safety.
  • the steering device 220 includes, for example, a steering ECU and an electric motor.
  • the electric motor changes the direction of the steered wheels by applying a force to a rack and pinion mechanism.
  • the steering ECU drives the electric motor according to the information input from the travel control unit 141 or the information input from the driving operator 80, and changes the direction of the steered wheels.
  • the host vehicle M according to the embodiment sets a virtual line in a section in which a lane marking of a running road cannot be recognized, and performs automatic driving based on the set virtual line.
  • the host vehicle M according to the embodiment may execute an automatic driving for following traveling with respect to the vehicle train when the vehicle vehicle M recognizes that there is a vehicle train in the area where the lane marking cannot be recognized.
  • the host vehicle M according to the embodiment may execute automatic driving by selecting one of the two determined to be able to travel stably.
  • FIG. 4 is a diagram for explaining a lane line recognized by the lane line recognition unit 121A and a section where the lane line cannot be recognized.
  • the gate 310 is, for example, a toll gate on an expressway or a toll road.
  • partition lines are drawn corresponding to the five gates on the entrance side.
  • the lane marking recognition unit 121A for example, based on the information input from the camera 10, the radar device 12, and the finder 14 via the object recognition device 16, for example, from the shape of the continuous portion of the edge points in the image, etc. Recognize lane markings around M.
  • the lane marking recognition unit 121A recognizes the lane markings 320-1 to 320-5 around the host vehicle M.
  • the lane lines 320-1 to 320-5 will be referred to as “division lines 320” when they are not distinguished from each other.
  • the lane marking recognition unit 121 ⁇ / b> A determines the branch point 330 when the road being traveled is branched toward different traveling directions as in the direction A and the direction B illustrated in FIG. 4. You may recognize it as what can be considered as the start part of a line.
  • the lane marking recognition unit 121 ⁇ / b> A may acquire information about the lane marking 320 and the branch point 330 with respect to the current position of the host vehicle M from the second map information 62.
  • the lane marking recognition unit 121A recognizes a section where the lane marking cannot be recognized.
  • the section from the dotted line 340s to the dotted line 340e is a section in which the lane marking recognition unit 121A cannot recognize the lane marking.
  • the lane marking recognition unit 121A recognizes the position information of the end points 322-1 to 322-5 and the position information of the branch point 330 of the lane marking 320. Further, the lane marking recognition unit 121A may recognize the position information of an object existing near the gate 310 (for example, within a predetermined distance from the gate 310) as the end point 322 described above.
  • the object is, for example, an object such as a curb or a pole that serves as a mark for distinguishing the lane that has passed through the gate 310.
  • the lane marking recognition unit 121A is configured when the lane markings 320-1 to 320-4 do not exist on the gate 310 side.
  • An object existing in the vicinity of the gate 310 may be recognized, and the end points 322-1 to 322-4 may be recognized based on the object.
  • the partition lines 320-1 to 320-4 on the gate 310 side exist.
  • the end points 322-1 to 322-4 are terminal portions of the dividing lines 320-1 to 320-4 extending from the gate 310 side.
  • the end point 322-5 is a starting end portion of the partition line 320-5 on the side farther from the gate 310 than the section where the partition line cannot be recognized.
  • the end point 322-5 is the start end portion of the lane marking 320-5 in the future travel area of the host vehicle M that exists before the section where the lane marking cannot be recognized in the traveling direction of the host vehicle M. is there.
  • the virtual line setting unit 123A uses one of the end points 322-1 to 322-4 as one end, and selects either the end point 322-5 or the branch point 330. Set a virtual line with one as the other end.
  • FIG. 5 is a diagram for explaining how virtual lines are set based on recognized lane markings.
  • the virtual line setting unit 123A selects the end point 322-3 closest to the end point 322-5 from among the end points 322-1 to 322-4 with the position of the end point 322-5 as a reference. To do. Thereafter, the virtual line setting unit 123A sets a virtual line 350-1A that connects the end point 322-5 and the end point 322-3 with a straight line.
  • the virtual line setting unit 123A includes the end points 322-2 that are closest to the branch point 330 from the end points 322-2 to 322-4 except for the end points 322-2 to which the virtual lines are already connected. And a virtual line 350-2A that connects the branch point 330 and the end point 322-2 with a straight line is set.
  • the action plan generation unit 123 regards the virtual lines 350-1A and 350-2A as lane markings and generates a target trajectory for arriving at the destination. Then, the action plan generation unit 123 executes an event such as a lane change based on the virtual lines 350-1A and 350-2A according to the relationship between the lane to be traveled and the lane divided by the virtual line, The lane of the host vehicle M is changed.
  • the action plan generation unit 123 executes the lane change event for the lane on the right side of the virtual line 350-2A, thereby causing the host vehicle M to move toward the direction B. Can be run.
  • the virtual line setting unit 123A may set a virtual line 350 expressed by a curved line instead of a straight line.
  • FIG. 6 is a diagram for explaining a state in which a curved virtual line is set.
  • the virtual line setting unit 123A sets, for example, a curve that smoothly connects the two partition lines 320-3 and 320-5 as the virtual line 350-1B.
  • the imaginary line setting unit 123A has a curve that smoothly connects the end point 322-2 and the branch point 330 to the outer edge of one of the lanes ahead of the lane line 320-3 and the branch point 330. Is set as a virtual line 350-2B.
  • the action plan generation unit 123 can generate a target track for causing the host vehicle M to travel on a smooth track using the virtual line 350-1B or 350-2B. Accordingly, the host vehicle M can continue to travel smoothly without causing the occupant to feel uncomfortable.
  • FIG. 7 is a diagram for explaining a state in which a virtual line is set based on the position of the host vehicle M.
  • the virtual line setting unit 123A selects the end point closest to each of the end points 322-5 and the branch point 330.
  • the end point 322-1 is selected. From among 322-4, the end point 322-1 closest to the position of the host vehicle M is selected.
  • the virtual line setting unit 123A selects the branch point 330 closest to the selected end point 322-1 from among the end points 322-5 and the branch point 330, and the end point 322-1, the branch point 330, Is set to a virtual line 350-3 connecting. Thereby, the own vehicle M can perform an automatic driving
  • the virtual line setting unit 123A groups adjacent lanes among the lanes with the larger number of lanes.
  • the virtual lines may be set after the same number of virtual lanes.
  • FIG. 8 is a diagram for explaining a state in which virtual lines are set after lanes are grouped. In the example of FIG. 8, the number of lanes on the gate 310 side is five, and the number of lanes ahead of the section in which the lane marking 320 cannot be recognized is three.
  • the virtual line setting unit 123A groups, for example, in order from the end of all the lanes after passing through the gate 310, the number obtained by dividing the lane reduction number by the number of lanes on the smaller side (integer value) +1.
  • the virtual line setting unit 123A adds 1 to an integer value obtained by dividing the number of lanes 5 on the gate 310 side by the number of lanes 3 ahead of the section where the lane marking 320 cannot be recognized (1.666).
  • the value 2 obtained in this way is the number of lanes to be grouped.
  • the virtual line setting unit 123A groups two lanes as an upper limit in order from the end of all lanes after passing through the gate 310, and sets three lane groups 360-1 to 360-3.
  • the virtual line setting unit 123A also includes the end point 322-2 of the lane line 320-2, the end point 322-4 of the lane line 320-4, and the end point 322-5 that divide each of the lane groups 360-1 to 360-3. Based on the positional relationship with the branch point 330, virtual lines 350-4 and 350-5 are set.
  • the virtual line setting unit 123A can easily set the end points connecting the virtual lines.
  • the virtual line setting unit 123A may group a predetermined number of lanes in order from the farthest lane based on the position of the host vehicle M.
  • the virtual line setting unit 123A may group the lanes excluding the lane in which the host vehicle M is traveling and the lanes other than the lane adjacent to the traveling lane.
  • the virtual line setting unit 123A may set virtual lines corresponding to all lanes connected to the current travel lane of the host vehicle M, and select a virtual line corresponding to a lane that will travel in the future from among the virtual lines.
  • FIG. 9 is a diagram illustrating a state in which virtual lines corresponding to all lanes connected to the traveling lane of the host vehicle M are set.
  • the virtual line setting unit 123A acquires the travel lane of the host vehicle M based on the current position of the host vehicle M, and the end points 322-1 and 322 of the lane lines 320-1 and 320-2 corresponding to the acquired travel lane. 2, virtual lines corresponding to all lanes connected to the traveling lane of the host vehicle M are set based on the positional relationship between the end point 322-5 and the branch point 330.
  • virtual lines 350-6L and 350-6R corresponding to the lane going from the traveling lane of the host vehicle M in the A direction
  • virtual lines 350-7L and 350-7R corresponding to the lane going in the B direction
  • Virtual lines 350-8L and 350-8R are set.
  • the imaginary line setting unit 123A sets imaginary lines 350-7L and 350-7R and imaginary lines 350-8L and 350-8R corresponding to each of the two lanes in the B direction.
  • Virtual lines 350-7L and 350-8R may be set as one lane in the direction. Note that the virtual line to be set may be set in a straight line shape or a curved line shape.
  • the virtual line setting unit 123A corresponds to the destination local area of the own vehicle M from the virtual lines 350-6L, 350-6R, 350-7L, 350-7R, 350-8L, and 350-8R shown in FIG. Select the imaginary line that divides the lane you want.
  • generation part 123 can drive the own vehicle M by driving
  • the virtual line setting unit 123A sets virtual lines corresponding to a plurality of lanes, for example, when there is an obstacle or the like traveling based on a virtual line where the host vehicle M exists. It is possible to drive while avoiding obstacles by switching to the virtual line.
  • the virtual line setting unit 123A may acquire past travel information for a section in which a lane line cannot be recognized from the travel history 160A, and may set a virtual line corresponding to the acquired past travel information.
  • FIG. 10 is a diagram for explaining the state of automatic driving using a vehicle train.
  • the vehicle train recognition unit 121 ⁇ / b> B recognizes a vehicle train that exists in front of or on the side of the host vehicle M based on, for example, the positions of surrounding vehicles recognized by the external environment recognition unit 121.
  • the train row recognizing unit 121B of the host vehicle M acquires the position information of the surrounding vehicles m-1 to m-5 recognized by the external world recognizing unit 121 in time series, and the surrounding information is obtained from the acquired position information. Recognize the amount and direction of movement of each of the vehicles m-1 to m-5. Further, the vehicle train recognition unit 121B recognizes the vehicle train based on the position information, the movement amount, and the movement direction.
  • the vehicle train recognition unit 121B compares the two neighboring vehicles, the relative distance between the neighboring vehicles is within the first threshold, the difference in the movement amount is within the second threshold, and When the angle formed by the movement direction of the other peripheral vehicle with respect to the movement direction of the other peripheral vehicle is within the third threshold, the two peripheral vehicles are recognized as a train.
  • the first to third threshold values are preset threshold values.
  • the vehicle train recognizing unit 121B recognizes the vehicle trains A and B as shown in FIG. 10 by performing these operations between the surrounding vehicles.
  • the vehicle train A includes the surrounding vehicles m-1 and m-2.
  • the vehicle train B includes surrounding vehicles m-3 to m-5.
  • the vehicle train recognizing unit 121B selects a vehicle train that causes the host vehicle M to follow and travel among the recognized vehicle trains A and B. For example, the vehicle train recognizing unit 121B evaluates the degree of stability of each of the vehicle trains A and B, and selects one of the vehicle trains based on the evaluation result. For example, the vehicle train recognizing unit 121B evaluates the number of vehicles forming the vehicle train as the degree of stability, and selects the vehicle train having the largest number of vehicles.
  • the vehicle train recognizing unit 121B evaluates the alignment degree of each vehicle train of the vehicle trains A and B, and selects the vehicle train having the highest alignment degree. Also good. In this case, the vehicle train recognizing unit 121B sets, for example, straight lines approximated by the least square method for the respective center of gravity of the surrounding vehicles included in the vehicle trains A and B, and the error of each center of gravity with respect to the set straight line. An average of the squares is calculated, and the vehicle train with the smallest average value is selected as the vehicle train with the highest degree of alignment.
  • the vehicle train recognizing unit 121B may select the vehicle train closest to the host vehicle M from among the recognized vehicle trains A and B. Further, the vehicle train recognizing unit 121B may select a vehicle train that is estimated to be traveling in the destination local area of the host vehicle M from the traveling direction of the vehicle train. Further, the vehicle train recognizing unit 121B may select the vehicle train A on the leftmost side (low speed side) among the recognized vehicle trains A and B.
  • the action plan generation unit 123 generates a target track for following the last vehicle in the vehicle train selected by the vehicle train recognition unit 121B, and executes an automatic operation for the generated target track.
  • the action plan generation unit 123 determines the situation around the host vehicle M when there is information on the virtual line set by the virtual line setting unit 123A and information on the vehicle train recognized by the vehicle train recognition unit 121B. Accordingly, information used for automatic driving may be switched. Thereby, the own vehicle M can implement
  • the action plan generation unit 123 may generate the target trajectory by giving priority to the information on the vehicle train when there is information on the vehicle train and the information on the virtual line. In this case, the action plan generation unit 123 may prioritize the vehicle train information with 100% priority, that is, ignore the virtual line information set by the virtual line setting unit 123A. In addition, the action plan generation unit 123 deletes the virtual line 350 set by the virtual line setting unit 123A. As a result, the host vehicle M can smoothly travel along the flow of the train of surrounding vehicles.
  • the action plan generation unit 123 may correct the virtual line 350 set by the virtual line setting unit 123A based on the position of the following vehicle train.
  • the position of the vehicle train is represented, for example, by a line connecting the centers of gravity of the vehicles included in the train.
  • FIG. 11 is a diagram for explaining how the virtual line is corrected.
  • the virtual lines 350-1A and 350-2A shown in FIG. 5 are already set by the virtual line setting unit 123A.
  • the virtual line setting unit 123A is a temporary virtual line located at a predetermined distance left and right from the line connecting the centers of gravity of the vehicles included in the vehicle train. Set. Then, the virtual line setting unit 123A determines the degree of correction for the set temporary virtual line and the virtual lines 350-1A and 350-2A, and the virtual line having the lowest correction degree or the correction degree is equal to or less than the threshold value. Modify virtual lines.
  • the correction degree is a value based on, for example, a difference in length or inclination of the virtual line before and after correction, or a difference in position of the end point of the virtual line.
  • the virtual line setting unit 123A sets the end point 322-5 closest to the position of the vehicle train B and the end point closest to the position of the host vehicle M. Is set to a temporary virtual line 350-9.
  • the virtual line setting unit 123A determines the respective correction degrees when the virtual lines 350-1A and 350-2A are corrected to the temporary virtual lines 350-9, and the virtual line 350-1A having the lowest correction level is determined. Subject to correction. Then, the virtual line setting unit 123A sets the virtual line 350-9 by correcting the end of the virtual line 350-1A on the gate 310 side from the end point 322-3 to the end point 322-2. Thereby, the virtual line setting unit 123A does not need to recognize the positions of the end points 322, the branch points 330, and the like again, and effectively sets the virtual lines by effectively using the virtual lines 350-1A once set. be able to. Further, the virtual line setting unit 123A deletes the virtual line 350-2A.
  • FIG. 12 is a diagram for explaining a situation where the host vehicle M follows the vehicle train B.
  • the action plan generation unit 123 executes a lane change event for the lane on the right side of the temporary virtual line 350-9, and further the vehicle train A follow-up driving event is executed with B as the last vehicle (peripheral vehicle m-3) as the target vehicle.
  • the own vehicle M can implement
  • the action plan generation unit 123 ends the follow-up travel when the own vehicle M exceeds a section where the lane marking cannot be recognized. Even after the section exceeds the above section, the train is the destination local area of the own vehicle M. When traveling, the action plan may be generated so as to continue the follow-up traveling.
  • the action plan generation unit 123 recognizes the surrounding vehicle existing in front or side of the host vehicle M, You may follow-follow with respect to one of surrounding vehicles among vehicles.
  • the own vehicle position recognizing unit 122 stores in the storage unit 160 as a travel history 160A in which the position information of the section where the lane marking cannot be recognized is associated with the travel information of the own vehicle M in the section. This information is used later when a virtual line is set by the virtual line setting unit 123A.
  • the interface control unit 150 may cause the HMI 30 to output information on the virtual line set by the virtual line setting unit 123A and information on the vehicle train recognized by the vehicle train recognition unit 121B.
  • the interface control unit 150 causes the display device of the HMI 30 to output images as shown in FIGS.
  • FIG. 13 is a flowchart illustrating an example of a vehicle control process using virtual lines according to the embodiment.
  • the process is repeatedly executed until the host vehicle M travels a predetermined distance (which may differ depending on the gate) from the position where the vehicle M has passed the gate.
  • the lane marking recognition unit 121A performs a lane marking recognition process (step S100), and determines whether or not there is a section where the lane marking cannot be recognized (step S102).
  • the virtual line setting unit 123A uses the end portion and one end of the lane line extended from the gate (step S104), and is farther from the gate than the section in which the lane line cannot be recognized.
  • a virtual line connecting the end portion and the start end portion is set with the start end portion of the lane marking as the other end (step S106) (step S108).
  • the action plan generation unit 123 generates a target trajectory based on the set virtual line, and executes automatic driving based on the generated target trajectory (step S110). After the processing in step S110 or in the processing in step S102, if there is no section where the lane marking cannot be recognized, the processing in this flowchart ends.
  • FIG. 14 is a flowchart illustrating an example of a vehicle control process using the vehicle train of the embodiment.
  • the process is repeatedly executed until the vehicle M travels a predetermined distance (which may vary depending on the gate) by automatic driving control with reference to the position where the host vehicle M has passed the gate 310. Further, in the example of FIG. 14, it is assumed that the above-described processing relating to the setting of the virtual line is performed.
  • the external environment recognition unit 121 performs a process of recognizing the surrounding vehicle of the host vehicle M (step S200), and determines whether or not there are a plurality of surrounding vehicles in front or side of the host vehicle M (step S202). .
  • the vehicle train recognition unit 121B performs vehicle train recognition processing (step S204) and determines whether one or more vehicle trains exist. (Step S206).
  • the vehicle train recognition unit 121B determines whether or not there are multiple vehicle trains (step S208).
  • the vehicle train recognition unit 121B selects one vehicle train based on, for example, the number of vehicles included in the vehicle train or the degree of alignment of the vehicle train (step S210).
  • step S212 the action plan generation unit 123 executes a follow-up traveling with respect to the last vehicle in the lane.
  • a part or all of the automatic driving control using the virtual line or the automatic driving control using the vehicle train described above may be combined with the other automatic driving control.
  • the gate may be not only a toll gate, but also an entrance gate or an entrance gate of a parking lot, for example, a gate for purchasing or receiving goods in a service such as drive-through. It may be.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Steering Control In Accordance With Driving Conditions (AREA)
  • Regulating Braking Force (AREA)
  • Image Analysis (AREA)

Abstract

車両制御システムにおいて、車両が走行する道路の区画線を認識する区画線認識部と、前記道路に設置されたゲートを通過した後に、前記区画線認識部により前記区画線が認識できない区間が存在する場合に、前記ゲートから延出する区画線の終端部分または前記ゲート付近に存在する物体を一端とし、前記区画線が認識できない区間よりも先に存在する前記車両の将来の走行領域における前記区画線の始端部分を他端として、仮想線を設定する仮想線設定部と、前記仮想線設定部により設定された仮想線に基づいて、前記区画線が認識できない区間の自動運転を実行する自動運転制御部と、を備える。

Description

車両制御システム、車両制御方法、および車両制御プログラム
 本発明は、車両制御システム、車両制御方法、および車両制御プログラムに関する。
 近年、車両が目的地に到着するための目標軌道を生成し、生成した目標軌道に沿って、車両の自動運転を実行させる技術についての研究が進められている。これに関連して、白線等の区画線が検出できない場合に仮想線を設定し、仮想線に沿った目標軌道で車両を誘導する技術が開示されている(例えば、特許文献1参照)。
特開2013-232079号公報
 しかしながら、従来手法の技術では、仮想線の検出を誤る確度が高い料金所付近での仮想線の設定を禁止しているため、料金所付近において目標軌道が生成できず、車両の自動運転を継続させることができない場合があった。
 本発明は、このような事情を考慮してなされたものであり、料金所付近における自動運転の実行継続性を高めることができる車両制御システム、車両制御方法、および車両制御プログラムを提供することを目的の一つとする。
 請求項1に記載の発明は、車両が走行する道路の区画線を認識する区画線認識部(121A)と、前記道路に設置されたゲートを通過した後に、前記区画線認識部により前記区画線が認識できない区間が存在する場合に、前記ゲートから延出する区画線の終端部分または前記ゲート付近に存在する物体を一端とし、前記区画線が認識できない区間よりも先に存在する前記車両の将来の走行領域における前記区画線の始端部分を他端として、仮想線を設定する仮想線設定部(123A)と、前記仮想線設定部により設定された仮想線に基づいて、前記区画線が認識できない区間の自動運転を実行する自動運転制御部(121、122、123、141)と、を備える、車両制御システムである。
 請求項2に記載の発明は、請求項1に記載の車両制御システムであって、前記車両の前方または側方の周辺車両の位置を認識する外界認識部と、前記外界認識部により認識された前記周辺車両の位置に基づいて、前記周辺車両により形成される車列を認識する車列認識部と、を更に備え、前記自動運転制御部は、前記車列認識部により認識された車列に追従して、前記車両を走行させるものである。
 請求項3に記載の発明は、請求項2に記載の車両制御システムであって、前記車列認識部は、複数の車列を認識した場合に、前記複数の車列のそれぞれの安定度合を評価し、評価結果に基づいていずれかの車列を選択し、前記自動運転制御部は、前記車列認識部により選択された車列に追従して、前記車両を走行させるものである。
 請求項4に記載の発明は、請求項3に記載の車両制御システムであって、前記車列認識部は、前記複数の車列のそれぞれの周辺車両の数、または前記車列の整列度合の少なくとも一方に基づいて、前記安定度合を評価するものである。
 請求項5に記載の発明は、請求項2から4のうちいずれか1項に記載の車両制御システムであって、前記自動運転制御部は、前記車両の周辺状況に応じて、前記仮想線設定部により設定された仮想線に基づく自動運転を実行するか、または、前記車列認識部により認識された車列に追従して自動運転を実行するかを切り替えるものである。
 請求項6に記載の発明は、コンピュータが、車両が走行する道路の区画線を認識し、前記道路に設置されたゲートを通過した後に、前記区画線が認識できない区間が存在する場合に、前記ゲートから延出する区画線の終端部分または前記ゲート付近に存在する物体を一端とし、前記区画線が認識できない区間よりも先に存在する前記車両の将来の走行領域における前記区画線の始端部分を他端として、仮想線を設定し、設定された前記仮想線に基づいて、前記区画線が認識できない区間の自動運転を実行する、車両制御方法である。
 請求項7に記載の発明は、コンピュータに、車両が走行する道路の区画線を認識させ、前記道路に設置されたゲートを通過した後に、前記区画線が認識できない区間が存在する場合に、前記ゲートから延出する区画線の終端部分または前記ゲート付近に存在する物体を一端とし、前記区画線が認識できない区間よりも先に存在する前記車両の将来の走行領域における前記区画線の始端部分を他端として、仮想線を設定させ、設定された前記仮想線に基づいて、前記区画線が認識できない区間の自動運転を実行させる、車両制御プログラムである。
 請求項1、6、および7に記載の発明によれば、車両は、料金所付近における自動運転の実行継続性を高めることができる。
 請求項2に記載の発明によれば、車両は、区画線が認識できない区間において、周辺車両の車列の流れに沿ってスムーズな走行を行うことができる。
 請求項3および4に記載の発明によれば、車両は、周辺車両の流れがより安定している車列に沿って走行することができる。
 請求項5に記載の発明によれば、車両は、区画線が認識できない区間において、周辺状況に応じた適切な自動運転制御を実現することができる。
自動運転制御ユニット100を含む車両システム1の構成図である。 自車位置認識部122により走行車線L1に対する自車両Mの相対位置および姿勢が認識される様子を示す図である。 推奨車線に基づいて目標軌道が生成される様子を示す図である。 区画線認識部121Aが認識する区画線と、区画線を認識できない区間について説明するための図である。 認識された区画線に基づいて仮想線を設定する様子を説明するための図である。 曲線状の仮想線を設定する様子を説明するための図である。 自車両Mの位置に基づいて仮想線を設定する様子を説明するための図である。 車線をグループ化した後に仮想線を設定する様子を説明するための図である。 自車両Mの走行車線に連結する全ての車線に対応した仮想線が設定された様子を示す図である。 車列を用いた自動運転の様子を説明するための図である。 仮想線を修正する様子を説明するための図である。 自車両Mが車列Bに追従走行する様子を説明するための図である。 実施形態の仮想線を用いた車両制御処理の一例を示すフローチャートである。 実施形態の車列を用いた車両制御処理の一例を示すフローチャートである。
 以下、図面を参照し、本発明の車両制御システム、車両制御方法、および車両制御プログラムの実施形態について説明する。
 [全体構成]
 図1は、自動運転制御ユニット100を含む車両システム1の構成図である。車両システム1が搭載される車両(以下、「自車両M」と称する)は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジン等の内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
 車両システム1は、例えば、カメラ10と、レーダ装置12と、ファインダ14と、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、ナビゲーション装置50と、MPU(Micro-Processing Unit)60と、車両センサ70と、運転操作子80と、車室内カメラ90と、自動運転制御ユニット100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。
 「車両制御システム」は、例えば、カメラ10と、レーダ装置12と、ファインダ14と、物体認識装置16と、自動運転制御ユニット100とを含む。
 カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両システム1が搭載される車両の任意の箇所に一つまたは複数が取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。後方を撮像する場合、カメラ10は、リアウインドシールド上部やバックドア等に取り付けられる。側方を撮像する場合、カメラ10は、ドアミラー等に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。
 レーダ装置12は、自車両Mの周辺にミリ波等の電波を放射するとともに、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両Mの任意の箇所に一つまたは複数が取り付けられる。レーダ装置12は、FMCW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。
 ファインダ14は、照射光に対する散乱光を測定し、対象までの距離を検出するLIDAR(Light Detection and Ranging、或いはLaser Imaging Detection and Ranging)である。ファインダ14は、自車両Mの任意の箇所に一つまたは複数が取り付けられる。
 物体認識装置16は、カメラ10、レーダ装置12、およびファインダ14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度等を認識する。物体認識装置16は、認識結果を自動運転制御ユニット100に出力する。
 通信装置20は、例えば、セルラー網やWi-Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)等を利用して、自車両Mの周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置と通信する。
 HMI30は、車内の乗員に対して各種情報を提示するとともに、乗員による入力操作を受け付ける。HMI30は、例えば、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キー等である。
 ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備え、HDD(Hard Disk Drive)やフラッシュメモリ等の記憶装置に第1地図情報54を保持している。GNSS受信機は、GNSS衛星から受信した信号に基づいて、自車両Mの位置を特定する。自車両Mの位置は、車両センサ70の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キー等を含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された自車両Mの位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報等を含んでもよい。経路決定部53により決定された経路は、MPU60に出力される。また、ナビゲーション装置50は、経路決定部53により決定された経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。なお、ナビゲーション装置50は、例えば、ユーザの保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。また、ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから返信された経路を取得してもよい。
 MPU60は、例えば、推奨車線決定部61として機能し、HDDやフラッシュメモリ等の記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。推奨車線決定部61は、経路において分岐箇所や合流箇所等が存在する場合、自車両Mが、分岐先に進行するための合理的な走行経路を走行できるように、推奨車線を決定する。
 第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、道路を区画する区画線の情報を含んでいる。区画線とは、例えば、白線や黄線等の直線状の区画線に加えて、ボッツドッツやキャッツアイ等の間欠的な区画線、縁石やポール、フェンス等の物体により形成された線を含んでもよい。また、第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、料金所等の各種ゲートの位置情報、住所情報(住所・郵便番号)、施設情報、電話番号情報等が含まれてよい。道路情報には、高速道路、有料道路、国道、都道府県道といった道路の種別を表す情報や、道路の車線数、非常駐車帯の領域、各車線の幅員、道路の勾配、道路の位置(経度、緯度、高さを含む3次元座標)、車線のカーブの曲率、車線の合流および分岐ポイントの位置、道路に設けられた標識等の情報が含まれる。第2地図情報62は、通信装置20を用いて他装置にアクセスすることにより、随時、アップデートされてよい。
 車両センサ70は、自車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両Mの向きを検出する方位センサ等を含む。
 運転操作子80は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイールその他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御ユニット100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一方または双方に出力される。
 車室内カメラ90は、自車両Mの座席(例えば、運転席)に着座した乗員の顔を中心として上半身を撮像する。車室内カメラ90の撮像画像は、自動運転制御ユニット100に出力される。
 [自動運転制御ユニット]
 自動運転制御ユニット100は、例えば、第1制御部120と、第2制御部140と、インターフェース制御部150と、記憶部160とを備える。第1制御部120と、第2制御部140と、インターフェース制御部150とは、それぞれ、CPU(Central Processing Unit)等のプロセッサがプログラム(ソフトウェア)を実行することで実現される。また、以下に説明する第1制御部120、第2制御部140、およびインターフェース制御部150の各機能部のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)等のハードウェアによって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。
 また、後述する第1制御部120の外界認識部121、自車位置認識部122、行動計画生成部123、および第2制御部140の走行制御部141のうち、一部または全部を含むものが、「自動運転制御部」の一例である。自動運転制御部は、例えば、自車両Mの加減速または操舵の少なくとも一方を自動的に制御し、自車両Mの自動運転を実行する。
 第1制御部120は、例えば、外界認識部121と、自車位置認識部122と、行動計画生成部123とを備える。
 外界認識部121は、カメラ10、レーダ装置12、およびファインダ14から物体認識装置16を介して入力される情報に基づいて、周辺車両の位置、および速度、加速度等の状態を認識する。周辺車両の位置は、その周辺車両の重心やコーナー等の代表点で表されてもよいし、周辺車両の輪郭で表現された領域で表されてもよい。周辺車両の「状態」とは、周辺車両の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。
 また、外界認識部121は、周辺車両に加えて、ガードレールや電柱、駐車車両、歩行者その他の物体の位置を認識してもよい。
 また、外界認識部121は、例えば、区画線認識部121Aと、車列認識部121Bとを備える。区画線認識部121Aおよび車列認識部121Bの機能の詳細については後述する。
 自車位置認識部122は、例えば、自車両Mが走行している車線(走行車線)、並びに走行車線に対する自車両Mの相対位置および姿勢を認識する。自車位置認識部122は、例えば、第2地図情報62から得られる道路区画線のパターン(例えば実線と破線の配列)と、カメラ10によって撮像された画像から認識される自車両Mの周辺の道路区画線のパターンとを比較することで、走行車線を認識する。この認識において、ナビゲーション装置50から取得される自車両Mの位置やINSによる処理結果が加味されてもよい。
 そして、自車位置認識部122は、例えば、走行車線に対する自車両Mの位置や姿勢を認識する。図2は、自車位置認識部122により走行車線L1に対する自車両Mの相対位置および姿勢が認識される様子を示す図である。自車位置認識部122は、例えば、自車両Mの基準点(例えば重心)の走行車線中央CLからの乖離OS、および自車両Mの進行方向の走行車線中央CLを連ねた線に対してなす角度θを、走行車線L1に対する自車両Mの相対位置および姿勢として認識する。なお、これに代えて、自車位置認識部122は、走行車線L1のいずれかの側端部に対する自車両Mの基準点の位置等を、走行車線に対する自車両Mの相対位置として認識してもよい。自車位置認識部122により認識される自車両Mの相対位置は、推奨車線決定部61および行動計画生成部123に提供される。
 行動計画生成部123は、自車両Mが目的地等に対して自動運転を行うための行動計画を生成する。例えば、行動計画生成部123は、推奨車線決定部61により決定された推奨車線を走行するように、且つ、自車両Mの周辺状況に対応できるように、自動運転において順次実行されるイベントを決定する。イベントには、例えば、一定速度で同じ走行車線を走行する定速走行イベント、前走車両に追従する追従走行イベント、車線変更イベント、合流イベント、分岐イベント、緊急停車イベント、自動運転を終了して手動運転に切り替えるための切替イベント等がある。また、これらのイベントの起動時または実行中に、自車両Mの周辺状況(周辺車両や歩行者の存在、道路工事による車線狭窄等)に基づいて、回避のための行動が計画される場合もある。
 行動計画生成部123は、自車両Mが将来走行する目標軌道を生成する。目標軌道は、自車両Mの到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、所定の走行距離ごとの自車両Mの到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における自車両Mの到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は、軌道点の間隔で表現される。
 図3は、推奨車線に基づいて目標軌道が生成される様子を示す図である。図示するように、推奨車線は、目的地までの経路に沿って走行するのに都合が良いように設定される。行動計画生成部123は、推奨車線の切り替わり地点の所定距離手前(イベントの種類に応じて決定されてよい)に差し掛かると、車線変更イベント、分岐イベント、合流イベント等を起動する。各イベントの実行中に、障害物を回避する必要が生じた場合には、図示するように回避軌道が生成される。
 行動計画生成部123は、例えば、複数の目標軌道の候補を生成し、安全性と効率性の観点に基づいて、その時点で目的地までの経路に適合する最適な目標軌道を選択する。
 また、行動計画生成部123は、例えば、仮想線設定部123Aを備える。仮想線設定部123Aは、区画線認識部121Aにより区画線が認識できない区間において、仮想的な区画線(仮想線)を設定する。仮想線とは、例えば、直線状または曲線状の線である。また、仮想線とは、間欠的な線であってもよく、模様や記号、文字等を配列することで形成される線であってもよい。仮想線設定部123Aの機能の詳細については後述する。
 第2制御部140は、例えば走行制御部141を備える。走行制御部141は、行動計画生成部123によって生成された目標軌道を、予定の時刻通りに自車両Mが通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。また、走行制御部141は、HMI30により受け付けられた乗員の操作に基づいて、自車両Mの自動運転と手動運転との切り替え制御を行ってもよい。
 インターフェース制御部150は、HMI30に出力させる情報を生成する。また、インターフェース制御部150は、HMI30により受け付けられた情報を取得する。
 記憶部160は、HDD(Hard Disk Drive)やフラッシュメモリ、RAM(Random Access Memory)、ROM(Read Only Memory)等の記憶装置である。記憶部160には、例えば走行履歴160Aが格納される。走行履歴160Aは、区画線が認識できなかった区間の位置情報に、その区間における自車両Mの走行情報が対応付けられた情報である。
 走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機等の組み合わせと、これらを制御するECU(Electronic Control Unit)とを備える。ECUは、走行制御部141から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。
 ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、走行制御部141から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、走行制御部141から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。また、ブレーキ装置210は、安全面を考慮して複数系統のブレーキ装置を備えていてもよい。
 ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、走行制御部141から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
 [区画線が認識できない場合における自車両Mの自動運転制御]
 以下、道路上の区画線が認識できない場合における自車両Mの自動運転制御について説明する。実施形態の自車両Mは、例えば、走行中の道路の区画線を認識できない区間において、仮想線を設定し、設定した仮想線に基づいて自動運転を実行する。また、実施形態の自車両Mは、区画線を認識できない区間において、周囲に車列があると認識した場合に、車列に対する追従走行の自動運転を実行してもよい。また、実施形態の自車両Mは、これらの双方のうち、安定的に走行できると判断される方を選択して自動運転を実行してもよい。以下では、自車両Mにおける仮想線を用いた自動運転制御と、車列を用いた自動運転制御のそれぞれについて説明する。
 [仮想線を用いた自動運転制御]
 図4は、区画線認識部121Aが認識する区画線と、区画線を認識できない区間について説明するための図である。図4の例では、自車両Mが走行する道路300上に設置されたゲート310を通過した後の様子を示している。ゲート310とは、例えば、高速道路や有料道路における料金所である。図4の例では、入口側の5つのゲートに対応して区画線が描画されている。
 区画線認識部121Aは、例えば、カメラ10、レーダ装置12、およびファインダ14から物体認識装置16を介して入力される情報に基づいて、例えば画像におけるエッジ点の連続する部分の形状等から自車両Mの周囲にある区画線を認識する。図4の例において、区画線認識部121Aは、自車両Mの周囲にある区画線320-1~320-5を認識する。以下の説明において、区画線320-1~320-5は、いずれの区画線であるかを区別しないときは「区画線320」と称して説明する。
 また、区画線認識部121Aは、図4に示すA方面およびB方面のように、走行中の道路が異なる進行方面に向かって分岐している場合に、その分岐点330を、前方側の区画線の始端部分とみなせるものとして認識してもよい。また、区画線認識部121Aは、第2地図情報62から自車両Mの現在位置に対する区画線320や分岐点330の情報を取得してもよい。
 また、区画線認識部121Aは、区画線を認識できない区間を認識する。図4の例において、点線340s~点線340eまでの区間が、区画線認識部121Aによる区画線の認識ができない区間である。この場合、区画線認識部121Aは、区画線320のそれぞれの端点322-1~322-5の位置情報および分岐点330の位置情報を認識する。また、区画線認識部121Aは、ゲート310の付近(例えば、ゲート310から所定距離以内)に存在する物体を、上述した端点322として、その位置情報を認識してもよい。ここで、物体とは、例えば、ゲート310を通過した車線を区分する目印となる縁石やポール等の物体である。例えば、区画線認識部121Aは、区画線320-1~320-4がゲート310側に存在しない場合に。ゲート310付近に存在する物体を認識し、その物体を基準に端点322-1~322-4を認識してもよい。以下の説明では、ゲート310側の区画線320-1~320-4が存在するものとして説明する。
 端点322-1~322-4は、ゲート310側から延出する区画線320-1~320-4の終端部分である。端点322-5は、区画線が認識できない区間よりもゲート310に遠い側における区画線320-5の始端部分である。言い換えると、端点322-5は、自車両Mの進行方向に対して、区画線が認識できない区間よりも先に存在する、自車両Mの将来の走行領域における区画線320-5の始端部分である。
 仮想線設定部123Aは、例えば、道路300に設置されたゲート310を通過した後に、端点322-1~322-4のいずれか一つを一端とし、端点322-5および分岐点330のいずれか一つを他端とする仮想線を設定する。
 [例1-1]
 図5は、認識された区画線に基づいて仮想線を設定する様子を説明するための図である。図5の例において、仮想線設定部123Aは、端点322-5の位置を基準として、端点322-1~322-4のうち、端点322-5と最も近い位置にある端点322-3を選択する。その後、仮想線設定部123Aは、端点322-5と端点322-3とを直線で結ぶ仮想線350-1Aを設定する。
 また、仮想線設定部123Aは、端点322-1~322-4のうち、既に仮想線が結ばれている端点322-2を除く端点から、分岐点330に最も近い位置にある端点322-2を選択し、分岐点330と端点322-2とを直線で結ぶ仮想線350-2Aを設定する。
 上述した処理を行うことで、行動計画生成部123は、仮想線350-1Aおよび350-2Aを区画線とみなして、目的地に到着するための目標軌道を生成する。そして、行動計画生成部123は、進行すべき車線と、仮想線で区画される車線との関係に応じて、仮想線350-1Aおよび350-2Aに基づいて車線変更等のイベントを実行し、自車両Mの車線変更を行う。
 図5の例において、自車両MがB方面に走行する場合、行動計画生成部123は、仮想線350-2Aよりも右側の車線に対する車線変更イベントを実行することで、自車両MをB方面に走行させることができる。
 [例1-2]
 また、仮想線設定部123Aは、直線ではなく曲線で表現される仮想線350を設定してもよい。図6は、曲線状の仮想線を設定する様子を説明するための図である。仮想線設定部123Aは、例えば、2つの区画線320-3および320-5と滑らかに連結するような曲線を仮想線350-1Bとして設定する。また同様に、仮想線設定部123Aは、端点322-2と、分岐点330とを、区画線320-3および分岐点330の先のいずれか一方の車線の外縁と滑らかに連結するような曲線を仮想線350-2Bとして設定する。
 これにより、行動計画生成部123は、仮想線350-1Bまたは350-2Bを用いて、自車両Mを滑らかな軌道で走行させるための目標軌道を生成することができる。したがって、自車両Mは、乗員に違和感を持たせずにスムーズな走行を継続することができる。
 [例2]
 また、上述の例では、区画線320の端点322および分岐点330の位置を基準に仮想線を設定したが、仮想線設定部123Aは、自車両Mの位置に基づいて仮想線を設定してもよい。図7は、自車両Mの位置に基づいて仮想線を設定する様子を説明するための図である。仮想線設定部123Aは、図5および図6の例では、端点322-5および分岐点330のそれぞれから最も近い端点を選択するのであるが、図7の例の例では、まず端点322-1~322-4のうち、自車両Mの位置に最も近い端点322-1を選択する。そして、仮想線設定部123Aは、端点322-5および分岐点330のうち、選択した端点322-1に最も近い位置にある分岐点330を選択して、端点322-1と、分岐点330とを結ぶ仮想線350-3を設定する。これにより、自車両Mは、現在の位置から円滑に進行できるような仮想的な車線に沿って自動運転を行うことができる。
 [例3]
 また、仮想線設定部123Aは、ゲート310側の車線数と、区画線320が認識できない区間の先の車線数とが異なる場合、車線数の多い方の車線のうち、隣接する車線をグループ化し、仮想的な車線数を同数にしてから仮想線を設定してもよい。図8は、車線をグループ化した後に仮想線を設定する様子を説明するための図である。図8の例において、ゲート310側の車線数は5つであり、区画線320が認識できない区間の先の車線数は3つである。
 この場合、仮想線設定部123Aは、例えば、ゲート310通過後の全車線の端から順に、車線削減数を少ない側の車線数で割った数(整数値)+1を上限としてグループ化していく。
 図8の例において、仮想線設定部123Aは、ゲート310側の車線数5を、区画線320が認識できない区間の先の車線数3で割った数(1.666…)の整数値に1を加算して得られた値2を、グループ化する車線数とする。そして、仮想線設定部123Aは、ゲート310通過後の全車線の端から順に、2車線を上限としてグループ化し、3つの車線グループ360-1~360-3を設定する。また、仮想線設定部123Aは、車線グループ360-1~360-3のそれぞれを区画する区画線320-2の端点322-2および区画線320-4の端点322-4と、端点322-5および分岐点330との位置関係に基づいて、仮想線350-4および350-5を設定する。このように、車線のグループ化を行うことで、仮想線設定部123Aは、仮想線を結ぶ端点を容易に設定することができる。
 なお、仮想線設定部123Aは、自車両Mの位置を基準として、最も遠い車線から順に所定数の車線をグループ化してもよい。また、仮想線設定部123Aは、自車両Mが走行中の車線と、その走行中の車線に隣接する車線以外とを除いた車線をグループ化してもよい。
 [例4]
 また、仮想線設定部123Aは、自車両Mの現在の走行車線に連結する全ての車線に対応した仮想線を設定し、その中から将来走行する車線に対応する仮想線を選択してもよい。図9は、自車両Mの走行車線に連結する全ての車線に対応した仮想線が設定された様子を示す図である。 
 仮想線設定部123Aは、自車両Mの現在位置に基づいて自車両Mの走行車線を取得し、取得した走行車線に対応する区画線320-1および320-2の端点322-1および322-2と、端点322-5および分岐点330との位置関係に基づき、自車両Mの走行車線と連結する全ての車線に対応する仮想線を設定する。
 図9の例では、自車両Mの走行車線からA方向に向かう車線に対応した仮想線350-6Lおよび350-6Rと、B方向に向かう車線に対応した仮想線350-7Lおよび350-7Rと、仮想線350-8Lおよび350-8Rとが設定されている。なお、仮想線設定部123Aは、B方向へ向かう2つの車線のそれぞれに対応する仮想線350-7Lおよび350-7Rと、仮想線350-8Lおよび350-8Rとを設定しているが、B方向へ向かう1つの車線として、仮想線350-7Lおよび350-8Rを設定してもよい。なお、設定される仮想線は、直線状に設定されてよく、曲線状に設定されてもよい。
 仮想線設定部123Aは、図9に示す仮想線350-6L、350-6R、350-7L、350-7R、350-8L、および350-8Rの中から、自車両Mの目的地方面に対応する車線を区画する仮想線を選択する。これにより、行動計画生成部123は、進行方向に対して車線を維持する走行制御により自車両Mを走行させることができる。また、仮想線設定部123Aは、複数の車線に対応する仮想線を設定しておくことで、例えば、自車両Mがある仮想線に基づいて走行中の障害物等が存在する場合に、他の仮想線に切り替えて障害物を回避して走行することができる。
 また、仮想線設定部123Aは、走行履歴160Aから区画線が認識できない区間に対する過去の走行情報を取得し、取得した過去の走行情報に対応した仮想線を設定してもよい。
 [車列を用いた自動運転制御]
 次に、実施形態における車列を用いた自動運転制御について説明する。図10は、車列を用いた自動運転の様子を説明するための図である。車列認識部121Bは、例えば外界認識部121により認識された周辺車両の位置に基づいて、自車両Mの前方または側方に存在する車列を認識する。
 図10の例において、自車両Mの車列認識部121Bは、外界認識部121により認識される周辺車両m-1~m-5の位置情報を時系列で取得し、取得した位置情報から周辺車両m-1~m-5のそれぞれの移動量および移動方向を認識する。また、車列認識部121Bは、位置情報、移動量、および移動方向に基づいて車列を認識する。
 この場合、車列認識部121Bは、2つの周辺車両同士を比較し、周辺車両間の相対距離が第1の閾値以内であり、移動量の差が第2の閾値以内であり、且つ、一方の周辺車両の移動方向に対する他方の周辺車両の移動方向のなす角度が第3の閾値以内である場合に、その2つの周辺車両は車列であると認識する。なお、第1~第3の閾値は、予め設定された閾値である。
 車列認識部121Bは、これらを各周辺車両間で行うことで、図10に示すように、車列AおよびBを認識する。車列Aには、周辺車両m-1、m-2が含まれる。車列Bには、周辺車両m-3~m-5が含まれる。
 ここで、自車両Mは、B方面に進行する予定であるものとする。この場合、車列認識部121Bは、認識した複数の車列AおよびBのうち、自車両Mを追従走行させる車列を選択する。車列認識部121Bは、例えば、車列AおよびBのそれぞれの安定度合を評価し、評価結果に基づいていずれかの車列を選択する。例えば、車列認識部121Bは、安定度合として、車列を形成している車両の数を評価し、車両の数が最も多い車列を選択する。
 また、車列認識部121Bは、車両の数の代わりに(または、加えて)、車列AおよびBのそれぞれの車列の整列度合を評価し、整列度合が最も高い車列を選択してもよい。この場合、車列認識部121Bは、例えば、車列AおよびBに含まれる周辺車両のそれぞれの重心に対して、最小二乗法により近似された直線を設定し、設定した直線に対する各重心の誤差の二乗の平均を計算し、平均値が最も小さい車列を、整列度合が最も高い車列として選択する。
 また、車列認識部121Bは、認識した複数の車列AおよびBのうち、自車両Mに最も近い車列を選択してもよい。また、車列認識部121Bは、車列の進行方向から、自車両Mの目的地方面に走行していると推測される車列を選択してもよい。また、車列認識部121Bは、認識された車列AおよびBのうち、最も左側(低速側)にある車列Aを選択してもよい。
 行動計画生成部123は、車列認識部121Bが選択した車列の最後尾の車両の後を追従走行するための目標軌道を生成し、生成した目標軌道に対する自動運転を実行する。
 なお、行動計画生成部123は、仮想線設定部123Aにより設定された仮想線の情報と、車列認識部121Bにより認識された車列の情報とがある場合に、自車両Mの周辺状況に応じて、自動運転に用いる情報を切り替えてもよい。これにより、自車両Mは、周辺状況に応じた適切な自動運転制御を実現することができる。
 また、行動計画生成部123は、車列の情報と仮想線の情報とがある場合に、車列の情報を優先して目標軌道を生成してもよい。この場合、行動計画生成部123は、車列の情報を100%優先、すなわち仮想線設定部123Aにより設定された仮想線の情報を無視してもよい。また、行動計画生成部123は、仮想線設定部123Aが設定した仮想線350を削除する。これにより、自車両Mは、周辺車両の車列の流れに沿ってスムーズな走行を行うことができる。
 また、行動計画生成部123は、追従する車列の位置に基づいて、仮想線設定部123Aが設定した仮想線350を修正してもよい。車列の位置とは、例えば、車列に含まれる各車両の重心を連ねた線で表される。
 図11は、仮想線を修正する様子を説明するための図である。なお、図11の例では、仮想線設定部123Aにより、上述した図5に示す仮想線350-1Aおよび350-2Aが既に設定されているものとする。
 仮想線設定部123Aは、車列AおよびBのそれぞれの車列の位置に基づいて、車列に含まれる各車両の重心を連ねた線から左右に所定距離ずつ離れた位置に仮の仮想線を設定する。そして、仮想線設定部123Aは、設定した仮の仮想線と、仮想線350-1Aおよび350-2Aに対する修正度合を判定し、判定した修正度合が最も低い仮想線、または修正度合が閾値以下の仮想線を修正する。修正度合とは、例えば、修正前後の仮想線の長さの差や傾きの差、仮想線の端点の位置の差に基づく値である。
 図11の例において、自車両Mが車列Bに追従する場合、仮想線設定部123Aは、車列Bの位置に最も近い端点322-5と、自車両Mの位置に最も近い位置の端点とを結ぶ仮の仮想線350-9を設定する。
 また、仮想線設定部123Aは、仮想線350-1Aおよび350-2Aから仮の仮想線350-9に修正した場合のそれぞれの修正度合を判定し、修正度合が最も低い仮想線350-1Aを修正の対象とする。そして、仮想線設定部123Aは、仮想線350-1Aのゲート310側の端部を、端点322-3から端点322-2に修正して、仮想線350-9を設定する。これにより、仮想線設定部123Aは、端点322や分岐点330等の位置を再度認識する必要がなく、一度設定した仮想線350-1Aを有効に利用して、効率的に仮想線を設定することができる。また、仮想線設定部123Aは、仮想線350-2Aを削除する。
 図12は、自車両Mが車列Bに追従走行する様子を説明するための図である。図12の例において、自車両Mが車列Bに追従走行する場合、行動計画生成部123は、仮の仮想線350-9よりも右側の車線に対する車線変更イベントを実行し、更に、車列Bの最後尾の車両(周辺車両m-3)をターゲット車両として追従走行イベントを実行する。これにより、自車両Mは、区画線が認識できない区間において、スムーズな走行を実現することができる。
 行動計画生成部123は、自車両Mが、区画線が認識できない区間を越えた場合に追従走行を終了するが、上記の区間を越えた後も、その車列が自車両Mの目的地方面に走行している場合に、追従走行を継続するように行動計画を生成してもよい。
 また、行動計画生成部123は、車列認識部121Bにより車列が認識されなかった場合であっても、自車両Mの前方または側方に存在する周辺車両を認識した場合には、その周辺車両のうち、いずれかの周辺車両に対して追従走行を行ってもよい。
 自車位置認識部122は、区画線が認識できなかった区間の位置情報に、その区間における自車両Mの走行情報を対応付けた走行履歴160Aとして記憶部160に格納しておく。この情報は、後に、仮想線設定部123Aにより仮想線を設定する場合に用いられる。
 インターフェース制御部150は、仮想線設定部123Aが設定した仮想線に関する情報や、車列認識部121Bが認識した車列に関する情報を、HMI30に出力させてもよい。この場合、インターフェース制御部150は、HMI30の表示装置に、上述した図5~図12に示すような画像を出力させる。これにより、乗員は、区画線がない道路状態であっても、仮想線や車列に基づいて自車両Mが走行していることを把握することができる。そのため、自動運転に対する乗員の安心感を向上させることができる。
 [処理フロー]
 以下、実施形態の車両システム1による各種車両制御の一例について説明する。図13は、実施形態の仮想線を用いた車両制御処理の一例を示すフローチャートである。図13の例では、自車両Mがゲートを通過した位置から所定距離(ゲートに応じて異なってよい)を走行するまでの間、繰り返し実行される。
 まず、区画線認識部121Aは、区画線の認識処理を行い(ステップS100)、区画線が認識できない区間が存在するか否かを判定する(ステップS102)。区画線が認識できない区間が存在する場合、仮想線設定部123Aは、例えば、ゲートから延出された区画線の終端部分と一端とし(ステップS104)、区画線が認識できない区間よりもゲートから遠い区画線の始端部分を他端として(ステップS106)、終端部分と始端部分とを結ぶ仮想線を設定する(ステップS108)。
 次に、行動計画生成部123は、設定された仮想線に基づいて、目標軌道を生成し、生成した目標軌道に基づいて、自動運転を実行する(ステップS110)。ステップS110の処理後、または、ステップS102の処理において、区画線が認識できない区間が存在しない場合、本フローチャートの処理は終了する。
 図14は、実施形態の車列を用いた車両制御処理の一例を示すフローチャートである。図14の例では、自車両Mがゲート310を通過した位置を基準として、自動運転制御により所定距離(ゲートに応じて異なってよい)を走行するまで間で繰り返し実行される。また、図14の例では、上述した仮想線の設定に関する処理が実行されているものとする。
 まず、外界認識部121は、自車両Mの周辺車両の認識処理を行い(ステップS200)、自車両Mの前方または側方に複数の周辺車両が存在するか否かを判定する(ステップS202)。自車両Mの前方または側方に複数の周辺車両が存在する場合、車列認識部121Bは、車列認識処理を行い(ステップS204)、1以上の車列が存在するか否かを判定する(ステップS206)。1以上の車列が存在する場合、車列認識部121Bは、車列が複数存在するか否かを判定する(ステップS208)。車列が複数存在する場合、車列認識部121Bは、例えば車列に含まれる車両数または車列の整列度合等に基づいて、1つの車列を選択する(ステップS210)。
 ステップS210の処理後、または、ステップS208の処理において、1つの車列が存在する場合、行動計画生成部123は、車列の最後尾の車両に対する追従走行を実行する(ステップS212)。また、ステップS202の処理において、自車両の前方または側方に複数の周辺車両が存在しない場合、または、ステップS206の処理において、1以上の車列が存在しない場合、仮想線を用いた車両制御を行う(ステップS214)。これにより、本フローチャートの処理は、終了する。
 なお、実施形態では、上述した仮想線を用いた自動運転制御または車列を用いた自動運転制御の一部または全部を他方の自動運転制御と組み合わせてもよい。
 以上説明した実施形態における車両制御システム、車両制御方法、および車両制御プログラムによれば、料金所付近における自動運転の実行継続性を高めることができる。なお、実施形態において、ゲートは、料金所のゲートだけでなく、例えば駐車場の入場ゲートや出場ゲートであってもよく、ドライブスルー等のサービスにおいて商品を購入したり、受け取ったりするためのゲートであってもよい。
 また、実施形態によれば、周辺車両が形成する車列に追従することで、周辺車両の車列の流れに沿ってスムーズな走行を行うことができる。
 以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
 1…車両システム、10…カメラ、12…レーダ装置、14…ファインダ、16…物体認識装置、20…通信装置、30…HMI、50…ナビゲーション装置、60…MPU、70…車両センサ、80…運転操作子、90…車室内カメラ、100…自動運転制御ユニット、120…第1制御部、121…外界認識部、121A…区画線認識部、121B…車列認識部、122…自車位置認識部、123…行動計画生成部、123A…仮想線設定部、140…第2制御部、141…走行制御部、150…インターフェース制御部、160…記憶部、200…走行駆動力出力装置、210…ブレーキ装置、220…ステアリング装置、M…自車両

Claims (7)

  1.  車両が走行する道路の区画線を認識する区画線認識部と、
     前記道路に設置されたゲートを通過した後に、前記区画線認識部により前記区画線が認識できない区間が存在する場合に、前記ゲートから延出する区画線の終端部分または前記ゲート付近に存在する物体を一端とし、前記区画線が認識できない区間よりも先に存在する前記車両の将来の走行領域における前記区画線の始端部分を他端として、仮想線を設定する仮想線設定部と、
     前記仮想線設定部により設定された仮想線に基づいて自動運転を実行する自動運転制御部と、
     を備える、車両制御システム。
  2.  前記車両の前方または側方の周辺車両の位置を認識する外界認識部と、
     前記外界認識部により認識された前記周辺車両の位置に基づいて、前記周辺車両により形成される車列を認識する車列認識部と、を更に備え、
     前記自動運転制御部は、前記車列認識部により認識された車列に追従して、前記車両を走行させる、
     請求項1に記載の車両制御システム。
  3.  前記車列認識部は、複数の車列を認識した場合に、前記複数の車列のそれぞれの安定度合を評価し、評価結果に基づいていずれかの車列を選択し、
     前記自動運転制御部は、前記車列認識部により選択された車列に追従して、前記車両を走行させる、
     請求項2に記載の車両制御システム。
  4.  前記車列認識部は、前記複数の車列のそれぞれの周辺車両の数、または前記車列の整列度合の少なくとも一方に基づいて、前記安定度合を評価する、
     請求項3に記載の車両制御システム。
  5.  前記自動運転制御部は、前記車両の周辺状況に応じて、前記仮想線設定部により設定された仮想線に基づく自動運転を実行するか、または、前記車列認識部により認識された車列に追従して自動運転を実行するかを切り替える、
     請求項2から4のうちいずれか1項に記載の車両制御システム。
  6.  コンピュータが、
     車両が走行する道路の区画線を認識し、
     前記道路に設置されたゲートを通過した後に、前記区画線が認識できない区間が存在する場合に、前記ゲートから延出する区画線の終端部分または前記ゲート付近に存在する物体を一端とし、前記区画線が認識できない区間よりも先に存在する前記車両の将来の走行領域における前記区画線の始端部分を他端として、仮想線を設定し、
     設定された前記仮想線に基づいて、前記区画線が認識できない区間の自動運転を実行する、
     車両制御方法。
  7.  コンピュータに、
     車両が走行する道路の区画線を認識させ、
     前記道路に設置されたゲートを通過した後に、前記区画線が認識できない区間が存在する場合に、前記ゲートから延出する区画線の終端部分または前記ゲート付近に存在する物体を一端とし、前記区画線が認識できない区間よりも先に存在する前記車両の将来の走行領域における前記区画線の始端部分を他端として、仮想線を設定させ、
     設定された前記仮想線に基づいて、前記区画線が認識できない区間の自動運転を実行させる、
     車両制御プログラム。
PCT/JP2016/089099 2016-12-28 2016-12-28 車両制御システム、車両制御方法、および車両制御プログラム WO2018123019A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201680091877.3A CN110121450B (zh) 2016-12-28 2016-12-28 车辆控制系统、车辆控制方法及存储介质
US16/470,574 US10810878B2 (en) 2016-12-28 2016-12-28 Vehicle control system, vehicle control method, and vehicle control program
JP2018558608A JPWO2018123019A1 (ja) 2016-12-28 2016-12-28 車両制御システム、車両制御方法、および車両制御プログラム
PCT/JP2016/089099 WO2018123019A1 (ja) 2016-12-28 2016-12-28 車両制御システム、車両制御方法、および車両制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/089099 WO2018123019A1 (ja) 2016-12-28 2016-12-28 車両制御システム、車両制御方法、および車両制御プログラム

Publications (1)

Publication Number Publication Date
WO2018123019A1 true WO2018123019A1 (ja) 2018-07-05

Family

ID=62707247

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/089099 WO2018123019A1 (ja) 2016-12-28 2016-12-28 車両制御システム、車両制御方法、および車両制御プログラム

Country Status (4)

Country Link
US (1) US10810878B2 (ja)
JP (1) JPWO2018123019A1 (ja)
CN (1) CN110121450B (ja)
WO (1) WO2018123019A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020100247A (ja) * 2018-12-21 2020-07-02 マツダ株式会社 運転支援装置および該方法
JP2021110990A (ja) * 2020-01-06 2021-08-02 トヨタ自動車株式会社 自動運転車管理システム、管理装置、管理方法、自動運転車、及びプログラム
CN113335272A (zh) * 2021-05-14 2021-09-03 江铃汽车股份有限公司 辅助驾驶方法
JPWO2021187384A1 (ja) * 2020-03-16 2021-09-23
CN116503818A (zh) * 2023-04-27 2023-07-28 内蒙古工业大学 一种多车道车速检测方法及系统
JP7429556B2 (ja) 2020-02-04 2024-02-08 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
US12012145B2 (en) 2020-08-26 2024-06-18 Toyota Jidosha Kabushiki Kaisha Travel controller and method for travel control

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6990160B2 (ja) * 2018-09-28 2022-01-12 株式会社Subaru 自動運転支援装置
CN112758094B (zh) * 2021-01-04 2023-01-06 重庆长安汽车股份有限公司 一种驾驶辅助系统安全停车装置及方法
JP2022123239A (ja) * 2021-02-12 2022-08-24 本田技研工業株式会社 区画線認識装置
CN113071500A (zh) * 2021-05-08 2021-07-06 许杰 车道线的获取方法、装置、计算机设备和存储介质
US20230041498A1 (en) * 2021-08-04 2023-02-09 Ford Global Technologies, Llc Driver Assistance Systems And Methods For Deployment In A Drive-Through Lane

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014041826A1 (ja) * 2012-09-12 2014-03-20 オムロン株式会社 データフロー制御指令発生装置およびセンサ管理装置
WO2016194960A1 (ja) * 2015-06-02 2016-12-08 株式会社デンソー 運転支援装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4475180B2 (ja) * 2005-06-22 2010-06-09 日産自動車株式会社 車両の走行制御装置
JP2007245833A (ja) * 2006-03-14 2007-09-27 Mazda Motor Corp 車両の走行制御装置
DE102013100578B4 (de) * 2012-01-25 2024-02-01 Denso Corporation Spurhalte-Steuersystem
JP5846034B2 (ja) 2012-04-27 2016-01-20 株式会社デンソー 境界線検出装置、逸脱検出装置および境界線検出プログラム
JP5821917B2 (ja) * 2013-09-20 2015-11-24 トヨタ自動車株式会社 運転支援装置
JP6447639B2 (ja) * 2015-01-05 2019-01-09 日産自動車株式会社 目標経路生成装置および走行制御装置
CN105892471B (zh) * 2016-07-01 2019-01-29 北京智行者科技有限公司 汽车自动驾驶方法和装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014041826A1 (ja) * 2012-09-12 2014-03-20 オムロン株式会社 データフロー制御指令発生装置およびセンサ管理装置
WO2016194960A1 (ja) * 2015-06-02 2016-12-08 株式会社デンソー 運転支援装置

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020100247A (ja) * 2018-12-21 2020-07-02 マツダ株式会社 運転支援装置および該方法
JP7172562B2 (ja) 2018-12-21 2022-11-16 マツダ株式会社 運転支援装置および該方法
JP2021110990A (ja) * 2020-01-06 2021-08-02 トヨタ自動車株式会社 自動運転車管理システム、管理装置、管理方法、自動運転車、及びプログラム
JP7358990B2 (ja) 2020-01-06 2023-10-11 トヨタ自動車株式会社 自動運転車管理システム、管理装置、管理方法、自動運転車、及びプログラム
US11644332B2 (en) 2020-01-06 2023-05-09 Toyota Jidosha Kabushiki Kaisha Automated driving vehicle management system, method, and program
JP7429556B2 (ja) 2020-02-04 2024-02-08 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
JP7231111B2 (ja) 2020-03-16 2023-03-01 株式会社デンソー 走行軌道生成装置および走行軌道生成方法
WO2021187384A1 (ja) * 2020-03-16 2021-09-23 株式会社デンソー 走行軌道生成装置および走行軌道生成方法
JPWO2021187384A1 (ja) * 2020-03-16 2021-09-23
US12012145B2 (en) 2020-08-26 2024-06-18 Toyota Jidosha Kabushiki Kaisha Travel controller and method for travel control
CN113335272B (zh) * 2021-05-14 2023-04-25 江铃汽车股份有限公司 辅助驾驶方法
CN113335272A (zh) * 2021-05-14 2021-09-03 江铃汽车股份有限公司 辅助驾驶方法
CN116503818A (zh) * 2023-04-27 2023-07-28 内蒙古工业大学 一种多车道车速检测方法及系统

Also Published As

Publication number Publication date
JPWO2018123019A1 (ja) 2019-07-18
CN110121450B (zh) 2022-05-13
US20200082724A1 (en) 2020-03-12
CN110121450A (zh) 2019-08-13
US10810878B2 (en) 2020-10-20

Similar Documents

Publication Publication Date Title
WO2018123019A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JP6494121B2 (ja) 車線変更推定装置、車線変更推定方法、およびプログラム
WO2018138769A1 (ja) 車両制御装置、車両制御方法、および車両制御プログラム
WO2018116409A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JP7021983B2 (ja) 車両制御装置、車両制御方法、およびプログラム
WO2018216194A1 (ja) 車両制御システムおよび車両制御方法
JP6715959B2 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
US11079762B2 (en) Vehicle control device, vehicle control method, and storage medium
JP6428746B2 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
WO2018158873A1 (ja) 車両制御装置、車両制御方法、およびプログラム
US11352009B2 (en) Vehicle control apparatus, vehicle control method, and program
JP6692930B2 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
WO2018123014A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JPWO2018138768A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
US20190286130A1 (en) Vehicle control device, vehicle control method, and storage medium
JP7043295B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP2019089516A (ja) 車両制御装置、車両制御方法、およびプログラム
WO2018122973A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
WO2018142560A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JPWO2018138765A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
WO2019069425A1 (ja) 車両制御装置、車両制御方法、およびプログラム
JP6696006B2 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JP6705022B2 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JP2019137189A (ja) 車両制御システム、車両制御方法、およびプログラム
JPWO2019064490A1 (ja) 車両制御装置、車両制御方法、およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16925030

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018558608

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16925030

Country of ref document: EP

Kind code of ref document: A1