WO2019073525A1 - 運転制御方法及び運転制御装置 - Google Patents

運転制御方法及び運転制御装置 Download PDF

Info

Publication number
WO2019073525A1
WO2019073525A1 PCT/JP2017/036695 JP2017036695W WO2019073525A1 WO 2019073525 A1 WO2019073525 A1 WO 2019073525A1 JP 2017036695 W JP2017036695 W JP 2017036695W WO 2019073525 A1 WO2019073525 A1 WO 2019073525A1
Authority
WO
WIPO (PCT)
Prior art keywords
event
vehicle
driving
detection
driving behavior
Prior art date
Application number
PCT/JP2017/036695
Other languages
English (en)
French (fr)
Inventor
吉郎 高松
Original Assignee
日産自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社 filed Critical 日産自動車株式会社
Priority to CN201780095676.5A priority Critical patent/CN111448597B/zh
Priority to JP2019547817A priority patent/JP6854357B2/ja
Priority to PCT/JP2017/036695 priority patent/WO2019073525A1/ja
Priority to RU2020115453A priority patent/RU2744018C1/ru
Priority to US16/754,974 priority patent/US11458963B2/en
Priority to EP17928107.6A priority patent/EP3696788B1/en
Publication of WO2019073525A1 publication Critical patent/WO2019073525A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/65Data transmitted between vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9316Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles combined with communication equipment with other vehicles or with base stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves

Definitions

  • the present invention relates to an operation control method and an operation control device.
  • multi-scale recognition is used to calculate the flow line group of the vehicle and the obstacle, and for each flow line, the risk based on the existence probability of both at the route intersection of the vehicle and the obstacle is calculated.
  • Techniques for predicting and selecting driving behavior are known (Patent Document 1).
  • the problem to be solved by the present invention is to set detection conditions according to driving behavior in the event that vehicles traveling along a route sequentially encounter.
  • the present invention is a method of extracting an event encountered by a vehicle based on detection information acquired according to a detection condition, and formulating a driving plan in which a driving action is defined for each of the extracted events.
  • the problem is solved by determining the detection condition based on the content.
  • the present invention since the content and the amount of the detected information are controlled according to the driving behavior, by acquiring the necessary information while reducing the processing load, a highly accurate operation plan based on the judgment in real time is formulated. it can.
  • FIG. 1 is a block diagram of the operation control system 1.
  • the operation control system 1 of the present embodiment includes an operation control device 100 and an in-vehicle device 200.
  • the embodiment of the operation control apparatus 100 of the present invention is not limited, and may be mounted on a vehicle, or may be applied to a portable terminal apparatus capable of exchanging information with the on-vehicle apparatus 200.
  • the terminal device includes devices such as a smartphone and a PDA.
  • the operation control system 1, the operation control apparatus 100, the in-vehicle apparatus 200, and the devices included in these are computers that include arithmetic processing devices such as a CPU and execute arithmetic processing.
  • the on-vehicle apparatus 200 of the present embodiment includes a vehicle controller 210, a navigation apparatus 220, a detection apparatus 230, a lane keeping apparatus 240, and an output apparatus 250.
  • the respective devices constituting the in-vehicle device 200 are connected by a controller area network (CAN) or another in-vehicle LAN to exchange information with each other.
  • the in-vehicle device 200 can exchange information with the operation control device 100 via the in-vehicle LAN.
  • the vehicle controller 210 of the present embodiment controls the operation of the vehicle according to the operation plan formulated by the processor 11.
  • the vehicle controller 210 operates the sensor 260, the drive device 270, and the steering device 280.
  • Vehicle controller 210 acquires vehicle information from sensor 260.
  • the sensor 260 includes a steering angle sensor 261, a vehicle speed sensor 262, and an attitude sensor 263.
  • the steering angle sensor 261 detects information such as a steering amount, a steering speed, and a steering acceleration, and outputs the information to the vehicle controller 210.
  • the vehicle speed sensor 262 detects the speed and / or acceleration of the vehicle and outputs it to the vehicle controller 210.
  • the posture sensor 263 detects the position of the vehicle, the pitch angle of the vehicle, and the roll angle of the yaw angle of the vehicle, and outputs the detected angle to the vehicle controller 210.
  • the attitude sensor 263 includes a gyro sensor.
  • the vehicle controller 210 of the present embodiment is an on-board computer such as an engine control unit (Electric Control Unit, ECU), and electronically controls the driving / operation of the vehicle.
  • ECU Electronic Control Unit
  • Examples of the vehicle include an electric vehicle equipped with an electric motor as a traveling drive source, an engine vehicle equipped with an internal combustion engine as a traveling drive source, and a hybrid vehicle equipped with both an electric motor and an internal combustion engine as a traveling drive source.
  • the electric vehicles and hybrid vehicles that use an electric motor as a traveling drive source include those that use a secondary battery as a power supply for the electric motor and those that use a fuel cell as a power supply for the electric motor.
  • the drive device 270 of the present embodiment includes a drive mechanism of a vehicle.
  • the drive mechanism includes an electric motor and / or an internal combustion engine as the traveling drive source described above, a drive shaft for transmitting an output from the traveling drive source to the drive wheels and a power transmission device including an automatic transmission, and brakes the wheels
  • a braking device 271 and the like are included.
  • the drive device 270 generates control signals of these drive mechanisms based on input signals by accelerator operation and brake operation, and control signals acquired from the vehicle controller 210 or the drive control apparatus 100, and performs drive control including acceleration and deceleration of the vehicle. Run. By transmitting control information to the drive device 270, operation control including acceleration and deceleration of the vehicle can be performed automatically.
  • the torque distribution to be output to each of the electric motor and the internal combustion engine according to the traveling state of the vehicle is also sent to the drive device 270.
  • the steering device 280 of the present embodiment includes a steering actuator.
  • the steering actuator includes a motor or the like attached to a column shaft of the steering.
  • the steering device 280 executes change control of the traveling direction of the vehicle based on a control signal acquired from the vehicle controller 210 or an input signal by a steering operation.
  • the vehicle controller 210 executes change control of the traveling direction by transmitting control information including a steering amount to the steering device 280.
  • the control of the drive device 270 and the control of the steering device 280 may be performed completely automatically or may be performed in a mode that supports the driver's drive operation (progressive operation).
  • the control of the drive device 270 and the control of the steering device 280 can be interrupted / stopped by the intervention operation of the driver.
  • the in-vehicle device 200 of the present embodiment includes a navigation device 220.
  • the navigation device 220 calculates the route from the current position of the vehicle to the destination using a method known at the time of filing.
  • the calculated route is sent to the vehicle controller 210 in order to use it for driving control of the vehicle.
  • the calculated route is output as route guidance information via an output device 250 described later.
  • the navigation device 220 includes a position detection device 221.
  • the position detection device 221 includes a receiver of a global positioning system (GPS), and detects a traveling position (latitude / longitude) of a moving vehicle.
  • GPS global positioning system
  • the navigation device 220 comprises accessible map information 222, road information 223 and traffic regulation information 224.
  • the map information 222, the road information 223, and the traffic rule information 224 may be read by the navigation device 220, and may be physically separated from the navigation device 220.
  • the communication device 30 (or the in-vehicle device 200) May be stored in a readable server via the communication device provided in
  • the map information 222 is a so-called electronic map, and is information in which the latitude and longitude are associated with the map information.
  • the map information 222 has road information 223 associated with each point.
  • the road information 223 is defined by nodes and links connecting the nodes.
  • the road information 223 includes information specifying the road by the position / area of the road, the road type for each road, the road width for each road, and the shape information of the road.
  • the road information 223 associates and stores information on the position of the intersection, the approach direction of the intersection, the type of the intersection, and other intersections for each identification information of each road link.
  • the intersection includes a junction and a junction.
  • the road information 223 relates to road type, road width, road shape, whether to go straight, whether to proceed, whether to pass or not to pass the adjacent lane, and other roads for each identification information of each road link. It associates and stores information.
  • the navigation device 220 specifies a first route on which the vehicle travels based on the current position of the vehicle detected by the position detection device 221.
  • the first route may be a route to a destination designated by the user, or may be a route to a destination estimated based on the travel history of the vehicle / user.
  • the first route traveled by the vehicle may be identified for each road, or the direction of the up / down direction may be identified for each identified link, or it may be identified for each lane where the vehicle actually travels. It is also good.
  • the navigation device 220 specifies a first route on which the vehicle travels by links and lanes with reference to road information 223 described later.
  • the first route includes specific information (coordinate information) of one or more points through which the vehicle passes in the future.
  • the first route includes at least a point indicating a traveling position where the vehicle will exist in the future.
  • the first path may be composed of continuous lines or may be composed of discrete points.
  • the first route is specified by a road identifier, a lane identifier, a lane identifier, and a link identifier.
  • the lane identifier, the lane identifier and the link identifier are defined in the map information 222 and the road information 223.
  • the traffic rule information 224 is a traffic rule that the vehicle should comply with when traveling, such as pausing on the route, parking / stop prohibition, slow driving, speed limit and the like. Each rule is defined for each point (latitude, longitude) and for each link.
  • the traffic regulation information 224 may include information on traffic signals acquired from devices provided on the road side.
  • the in-vehicle device 200 includes a detection device 230.
  • the detection device 230 acquires detection information of the surroundings of a vehicle traveling on a route.
  • the vehicle detection device 230 detects the presence of an object including an obstacle present around the vehicle and its location.
  • the detection device 230 includes a camera 231.
  • the camera 231 is an imaging device provided with an imaging element such as a CCD, for example.
  • the camera 231 may be an infrared camera or a stereo camera.
  • the camera 231 is installed at a predetermined position of the vehicle and captures an object around the vehicle.
  • the periphery of the vehicle includes the front, the rear, the front side, and the rear side of the vehicle.
  • the objects include two-dimensional signs such as stop lines marked on the road surface.
  • Objects include three-dimensional objects.
  • Objects include stationary objects such as labels.
  • the objects include moving objects such as pedestrians, two-wheeled vehicles, and four-wheeled vehicles (other vehicles).
  • Objects include road structures such as guardrails, medians, curbs and the like.
  • the detection device 230 may analyze the image data and identify the type of the object based on the analysis result.
  • the detection device 230 uses pattern matching technology or the like to identify whether the object included in the image data is a vehicle, a pedestrian, or a sign.
  • the detection device 230 processes the acquired image data and acquires the distance from the vehicle to the object based on the position of the object present around the vehicle.
  • the detection device 230 acquires time when the vehicle reaches the object based on the position and time of the object present around the vehicle.
  • the detection device 230 may use a radar device 232.
  • a radar device 232 a method known at the time of application such as a millimeter wave radar, a laser radar, an ultrasonic radar, a laser range finder, etc. can be used.
  • the detection device 230 detects the presence or absence of an object, the position of the object, and the distance to the object based on the reception signal of the radar device 232.
  • the detection device 230 detects the presence or absence of the target, the position of the target, and the distance to the target based on the clustering result of the point cloud information acquired by the laser radar.
  • the detection device 230 may acquire detection information from an external device via the communication device 233. If the communication device 233 can communicate between the other vehicle and the vehicle, the detection device 230 indicates that the other vehicle exists with the vehicle speed and acceleration of the other vehicle detected by the vehicle speed sensor of the other vehicle. You may acquire as object information. Of course, the detection device 230 can also acquire object information including the position, speed, and acceleration of another vehicle from an external device of Intelligent Transport Systems (ITS) through the communication device 233. The detection device 230 may acquire information in the vicinity of the vehicle by the on-vehicle device 200, and may acquire information on an area far from a vehicle by a predetermined distance or more from an external device provided on the roadside via the communication device 233.
  • ITS Intelligent Transport Systems
  • the detection device 230 sequentially outputs the detection result to the processor 11.
  • the detection condition is a condition that can be set for each point.
  • the processor 11 calculates a detection condition and instructs the detection device 230 to make a setting.
  • the detection device 230 can set detection conditions for each point.
  • the point may be a point (position information) defined in the event, or may be any point on the first route.
  • the processor 11 includes point information in the detection condition to be set.
  • the on-vehicle apparatus 200 of the present embodiment includes a lane keeping apparatus 240.
  • the lane keeping device 240 includes a camera 241 and road information 242.
  • the camera 241 may share the camera 231 of the detection device.
  • the road information 242 may share road information 223 of the navigation device.
  • the lane keeping device 240 detects the lane on the first route on which the vehicle travels from the image captured by the camera 241.
  • the lane keeping device 240 has a lane departure prevention function (lane keeping support function) that controls the movement of the vehicle such that the position of the lane marker of the lane and the position of the vehicle maintain a predetermined relationship.
  • the driving control device 100 controls the movement of the vehicle such that the vehicle travels in the center of the lane.
  • the lane marker is not limited as long as it has a function of defining a lane, and may be a diagram drawn on a road surface, or may be planting existing between lanes, or lanes. It may be a road structure such as a guardrail, a curb, a sidewalk, or a motorcycle road existing on the shoulder side of the road. In addition, the lane marker may be an immobile object such as a signboard, a sign, a store, or a roadside tree present on the roadside of the lane.
  • the processor 11 described later stores an object detected by the detection device 230 in association with an event and / or a route.
  • the processor 11 stores an object that exists within a predetermined distance of an event and that may be encountered in the event in association with the event.
  • the processor 11 encountered in the event stores the object in association with the path.
  • the processor 11 grasps at which position of which path the object exists. This makes it possible to quickly determine the object that the vehicle encounters in an event.
  • One or more objects may be associated with one event. Objects determined to meet the vehicle in an event identified as a location are mapped to a common event. For example, when there are a plurality of pedestrians in a pedestrian crossing defined as one event, each pedestrian is associated with the pedestrian incident. Each pedestrian may be associated as an independent object, or may be associated as a group of objects having a common position and velocity (within a predetermined range).
  • the in-vehicle device 200 includes an output device 250.
  • the output device 250 includes a display 251 and a speaker 252.
  • the output device 250 outputs various types of information regarding drive control to the user or the occupants of surrounding vehicles.
  • the output device 250 outputs information relating to the prepared driving action plan and the driving control based on the driving action plan.
  • the information regarding the operation control may be notified in advance to the occupant of the vehicle or the occupant of the other vehicle via the exterior lamp and the interior lamp.
  • the output device 250 may output various types of information related to operation control to an external device such as an intelligent transportation system via the communication device.
  • the operation control device 100 includes a control device 10, an output device 20, and a communication device 30.
  • the output device 20 has the same function as the output device 250 of the on-vehicle apparatus 200 described above.
  • the display 251 and the speaker 252 may be used as the configuration of the output device 20.
  • the control device 10 and the output device 20 can exchange information with each other via a wired or wireless communication line.
  • the communication device 30 exchanges information with the in-vehicle device 200, exchanges information within the operation control device 100, and exchanges information with an external device and the operation control system 1.
  • the control device 10 includes a processor 11.
  • the processor 11 is an arithmetic device that performs operation control processing including planning of an operation plan of a vehicle. Specifically, as the control device 10, the processor 11 executes a program stored in a ROM (Read Only Memory) storing a program for executing the operation control process including the planning of the operation plan and the program stored in the ROM. It is a computer provided with CPU (Central Processing Unit) as an operation circuit which functions, and RAM (Random Access Memory) which functions as an accessible storage device.
  • CPU Central Processing Unit
  • RAM Random Access Memory
  • the processor 11 executes processing according to the following method. (1) Acquisition of detection information around the vehicle, (2) Extract events that the vehicle encounters based on the detection information, (3) rearranging the extracted events in the order in which the vehicle encounters; (4) Judgment of driving behavior based on detected information acquired in the event, (5) Develop a series of operation plans in which the driving behavior is defined for each event, (6) Have the vehicle execute a drive control command according to the drive plan. Furthermore, the processor 11 (7) Based on the content of the driving action defined for the first event encountered earlier, the process of determining the second detection condition for one or more second events encountered after the first event is performed.
  • the processor 11 corresponds to a first block for realizing the operation plan planning / re-planning function, a second block for realizing the operation plan executing function, and the contents of the operation behavior of the operation plan being executed or the change thereof. And a third block that implements a setting function of setting a detection condition.
  • the processor 11 executes each function by cooperation of software for realizing the above functions or executing each process and the above-described hardware.
  • the operation planning process is a basic process that the operation control system 1 executes.
  • calculation processing of a first route on which the vehicle travels, extraction processing of an event encountered when traveling a first route, determination processing of a driving action in an event, and each event and driving action are associated. Operation planning process.
  • the processor 11 calculates a route (sometimes referred to as a first route) on which the vehicle is traveling or scheduled to travel.
  • the processor 11 acquires vehicle information in order to calculate the first route.
  • the processor 11 acquires the current position of the vehicle from the position detection device 221.
  • the processor 11 refers to the map information 222 and calculates a first route using the acquired current position and traveling direction.
  • the processor 11 may acquire the planned traveling route of the vehicle determined by the navigation device 220 as the first route.
  • the processor 11 may acquire, as a first route, the guide route from the current position to the destination, which the navigation device 220 has determined.
  • the calculation process of the route of a vehicle can use suitably the method known at the time of this application filing.
  • the processor 11 acquires (detects / extracts) an event encountered by a vehicle traveling on the first route.
  • the event (event) in the present embodiment is a thing (presence of a thing / object) that is a trigger of the judgment processing of the operation control.
  • the driving control to be performed includes acceleration and deceleration of the vehicle and steering of the vehicle. That is, an event (event) causes acceleration and deceleration of the vehicle and steering.
  • the event is an intersection on the first route, a stop line on the first route, a pedestrian crossing on the first route, and an object around a vehicle traveling on the first route.
  • the objects include flat / three-dimensional traffic signs, moving objects such as pedestrians, two-wheeled vehicles, and four-wheeled vehicles, and road structures such as guard rails, median dividers, and curbs.
  • the processor 11 locates an event.
  • the processor 11 refers to the map information 222 and extracts another route having a point of intersection with the first route where the vehicle is traveling or scheduled to travel.
  • the path having the first path and the intersection point includes a path that intersects the first path, a path that flows into the first path, a path that flows from the first path, and a path that intersects the first path. If another route is detected, the intersection with the other route is the intersection of the first route and is acquired as an event.
  • the processor 11 refers to the traffic rule information 224 to obtain the presence and position of the traffic sign on the first route.
  • the traffic regulation information 224 is information in which information such as a temporary stop position, entry prohibition, one-way traffic, etc. is associated with links (routes) and position information.
  • the processor 11 recognizes the traffic rule of the stop as an event.
  • the processor 11 extracts the position where the stop is defined as the position where the vehicle encounters an event.
  • the position of the extracted event is mapped to a path (including a link).
  • processor 11 recognizes a no-entry traffic rule as an event.
  • the processor 11 extracts a position (upstream side in the traveling direction) upstream of the position where the entry prohibition is defined as the position where the vehicle encounters an event.
  • the position of the extracted event is mapped to a path (including a link).
  • the traffic rule information 224 includes a traffic signal indicated by a traffic light. At this time, the map information 222 and the road information 223 may be referred to.
  • the processor 11 extracts the dynamic event which the vehicle which drive
  • the information of the event detected based on the detection information may include the presence and the position of the object on the first route.
  • the processor 11 recognizes the presence of an object (an object including a pedestrian, another vehicle, a road structure, etc., a so-called obstacle) detected by the detection device 230 as an event encountered by the vehicle.
  • the processor 11 may extract the presence of the object as an event when the distance between the vehicle and the detected object is less than a predetermined value.
  • the processor 11 may extract the presence of the object as an event when the predicted time until the vehicle and the detected object contact each other is less than a predetermined value.
  • the processor 11 uses the position information of the object to extract an event that a vehicle traveling on the first route encounters.
  • the targets include targets for which traffic is temporarily restricted such as a construction site, a broken car, and an avoidance area. Information on this type of object may be included in the road information 223.
  • the information on the position where the object is present may be received from a roadside information provision device such as ITS.
  • the processor 11 obtains the presence and the position of the object including the obstacle on the first path based on the output result of the detection device 230.
  • the processor 11 refers to the road information 223 to acquire the presence and the position of the road structure on the first route.
  • the map information 222 and the road information 223 may be referred to.
  • the processor 11 creates a first driving plan for traveling on the first route based on the acquired information (presence and position) of the event and the relationship with the vehicle.
  • the planning of the first driving plan may be performed at a predetermined cycle, or may be performed at a timing when the distance between the vehicle and the intersection (event) is less than the predetermined distance.
  • the processor 11 associates the encounter positions with the plurality of extracted events with the route of the vehicle.
  • the processor 11 rearranges the plurality of extracted events in the order in which the vehicle encounters.
  • the processor 11 determines the order of the encountered events from the transition of the position of the vehicle traveling on the first route and the position of the events, and rearranges the events in the order in which the vehicles are encountered. Information arranged in chronological order of encountering this event may be presented to the user via an output device 20 described later.
  • the processor 11 plans the driving behavior of the vehicle traveling on the route.
  • the processor 11 draws up an operation plan when the vehicle travels the first route, using a relation (evaluation result) between the vehicle and a plurality of events encountered over time when the vehicle travels the first route. .
  • the processor 11 creates an operation plan in consideration of the presence of the object detected by the detection device 230.
  • the processor 11 rearranges a plurality of events in the order in which the vehicle encounters, and creates control commands in accordance with a series of driving plans in which the driving behavior is defined for each event.
  • the driving behavior of the upstream or downstream event affects the driving behavior of the downstream or upstream event.
  • a change in driving behavior in one event affects the timing of arriving at each of the chronologically arranged events in order to change the arrival time of the vehicle event.
  • the vehicle When the timing of reaching the event changes, the movement amount of the object also changes, and the situation in each event also changes. For example, if the driving behavior of the upstream event is a stop, the vehicle is decelerated regardless of the driving behavior of the downstream event. Furthermore, if the driving behavior of the downstream event is a stop, the vehicle is required to at least decelerate even if the driving behavior of the upstream event is progressing. Since the vehicle speed is low and extension of the arrival time to the event due to deceleration brings about a change of situation in the encountered event, the driving behavior on the upstream side is also affected. In a driving plan having such technical features, there is a unique problem that it is required to respond to the contents of the driving actions arranged in time series and the change thereof. On the other hand, in the present embodiment, the detection conditions are optimized in accordance with the content of each driving action arranged in time series.
  • the processor 11 detects the type of each event (intersection, traffic rule, object), the position of the event and the change in position (distance, time to contact, approach speed, distance after a predetermined time), content of the event (Contents of traffic rules, attributes of objects), etc. are evaluated.
  • the processor 11 uses the vehicle speed of the vehicle acquired from the vehicle speed sensor 262 to determine the distance to the event and the change in distance.
  • the processor 11 refers to one or more of the traffic rule information 224, the map information 222, the road information 223, the detection result of the detection device 230, and the type, position / position of the traffic rule. Change, read the contents. If the event is a traffic light, the processor 11 recognizes, based on the recognition result of the signal recognition function of the detection device 230, whether the traffic rule indicated by the traffic light is progress / attention / stop. The processor 11 may recognize the traffic rule indicated by the traffic light based on the signal information transmitted by the external ITS acquired via the communication device 30.
  • the processor 11 refers to the traffic rule information 224, the road information 223, and the map information 222, and detects the detection device 230. Recognize the position and content of traffic signs detected by If the event is an object such as a pedestrian, another vehicle, or a road structure, the processor 11 detects the position of the object detected by the detection device 230 and the type and position of the object based on the movement speed. / Change in position, seek content.
  • the processor 11 determines one driving action for each of the plurality of extracted events.
  • the action to be determined includes a driving action and a stopping action.
  • the processor 11 determines, for each event, either a progress action or a stop action. If the event is a traffic rule and the traffic rule calls for a stop, the processor 11 determines the driving action for the event as "stop”. On the other hand, if the traffic rule permits passage, the processor 11 determines the driving behavior for the event as "progress”. If the event is an object, the distance to the object is less than a predetermined value, the change in distance is greater than or equal to a predetermined value, and the time to contact is less than a predetermined value, the processor 11 responds to the event. Determine driving behavior as "stop".
  • the processor 11 "progresses" the driving action for the event. Decide.
  • the processor 11 makes a series of operation plans based on the content of each action determined for the plurality of events.
  • the processor 11 determines a driving action to be taken for an event encountered when the vehicle V1 travels the first route RT1.
  • the processor 11 calculates a route along which the vehicle travels in consideration of the destination of the vehicle V1.
  • the calculated route is the first route RT1 in the present embodiment.
  • the planning of the operation plan when traveling the first route RT1 will be described.
  • the vehicle V1 travels in the direction indicated by the arrow F, passes the stop line ST1, the signal SG1, the pedestrian crossing CR1, and turns right at the intersection P.
  • the events encountered by the vehicle V1 when traveling the first route RT1 are the stop line ST1, the signal SG1, the pedestrian crossing CR1, the other vehicle V2 approaching when entering the right turn lane, and the pedestrian crossing CR4.
  • the processor 11 extracts an event at one detection timing.
  • the events that the vehicle V1 encounters change from moment to moment, so if the timing is different, the position, movement (speed, etc.) of the object also changes.
  • the processor 11 calculates an operation plan every moment in accordance with an event which changes every moment at a predetermined cycle.
  • the processor 11 may calculate the driving plan when the vehicle V1 approaches the intersection on the first route (the intersection with another route) within a predetermined distance.
  • the processor 11 detects the type of each extracted event (intersection, traffic rule, object), the position of the event and the change of the position (distance, time to contact, approach speed, distance after a predetermined time), Determine the content (content of traffic rules, attributes of objects).
  • the processor 11 recognizes an event closest to the vehicle V1 (stop line ST1).
  • the processor 11 determines that the stop line ST1 is a traffic rule, the distance from the vehicle V1 is D1, the arrival time is S1, and the stop line ST1 is an event requiring a pause.
  • the processor 11 corresponds to the stop line ST1 and recognizes an event (signal SG1) that is the second closest to the vehicle V1.
  • the processor 11 determines that the issue SG1 is a traffic rule, the distance from the vehicle V1 is D2, the arrival time is S2, and it is an event that prohibits progress (red / yellow light).
  • the stop line ST1 is an event indicating a position at which the vehicle is stopped upstream of the signal SG1 when the signal SG1 instructs a stop when the vehicle V1 enters an intersection.
  • Signals SG1 and stop lines ST1 recognized as separate events are associated in the traffic rule information 224.
  • the content of the stop line ST1 is "stop” when the signal SG1 is a signal (red / yellow signal) indicating a stop, but is "progress” when the signal SG1 is a signal indicating a progression (blue / green) It becomes.
  • the processor 11 determines that the driving action for the event (stop line ST1) associated with the event (signal SG1) is “stopped” based on the fact that the progress inhibition is instructed in the event (signal SG1).
  • the stop line ST1 and the signal SG1 can also be regarded as a common event in the operation control of this embodiment.
  • the processor 11 recognizes the third closest event (crosswalk CR1) from the vehicle V1.
  • the processor 11 determines that the pedestrian crossing CR1 is a traffic rule, the distance from the vehicle V1 is D2, the arrival time is S2, and the progress is permitted (blue / green light) event.
  • the traffic rules for pedestrian crossings are "stop” if the signal indicates no entry and “progress” if the signal indicates entry permission.
  • the traffic rule of the pedestrian crossing is "stop” when a pedestrian is present at the pedestrian crossing, and "going” when the pedestrian is absent at the pedestrian crossing. Since the processor 11 is instructed to prohibit the progress in the event (signal SG1), the event (crosswalk CR1) is "stopped”.
  • the detection device 230 detects a pedestrian H1. Based on the detection result of the detection device 230 (presence of the pedestrian H1), the processor 11 determines that the driving action for the event (crosswalk CR1) is “stop”.
  • the processor 11 When making a right turn in the intersection P, the processor 11 extracts a point (intersection) where the first route intersects with another road as an event.
  • the processor recognizes the third closest event (intersection MX12) from the vehicle V1.
  • the processor determines that the intersection MX12 is an intersection, the distance from the vehicle V1 is D3, and the arrival time is S3.
  • Detection device 230 detects other vehicle V2 approaching intersection MX12.
  • the detection device 230 recognizes an object whose time to collision (TTC) based on the vehicle V1 is within a predetermined time as an object. Based on the detection result of the detection device 230 (presence of the other vehicle V2), the processor 11 determines that the driving action for the event (intersection MX12) is “stop”.
  • the processor 11 extracts, as an event, a pedestrian crossing CR4 entering after the right turn in the intersection P.
  • the processor 11 recognizes an event (crosswalk CR4) near the fourth from the vehicle V1.
  • the processor 11 determines that the pedestrian crossing CR4 is a traffic rule, the distance from the vehicle V1 is D4, and the arrival time is S4.
  • the processor 11 monitors the detection result of the detection device 230 and confirms that there is no object in the surroundings.
  • the processor 11 determines that the driving behavior for the event (crosswalk CR4) is "progress", provided that the detection device 230 does not detect the object at the timing before entering the event (crosswalk CR4).
  • the processor 11 determines, for each event, either an advancing behavior or a stopping behavior based on the relationship between the vehicle V1 and a plurality of events that the vehicle V1 encounters over time, and determines for each event Create a series of operation plans using the contents of the action taken.
  • the processor 11 creates a series of operation plans for each event using a plurality of events encountered over time as the vehicle V1 travels the first route and the relationship with the vehicle V1. This can simplify the process of making the final operation plan.
  • the operation load can be reduced while drafting a highly accurate operation plan in consideration of necessary events.
  • the processor 11 draws up an operation plan of the vehicle V1 traveling on the first route continuously (at a predetermined cycle) using the relationship between each event and the vehicle V1.
  • the operation control apparatus 100 presents the prepared operation plan to the user.
  • the output device 20 displays the events extracted by the processor 11 and arranged in the order they are encountered.
  • the output device 20 uses the display 251 to display information regarding the operation plan.
  • the output device 20 may output a voice of a plurality of rearranged events using the speaker 252.
  • FIG. 2B is a display example showing events over time.
  • Arrow T indicates the traveling direction of the vehicle V1 on the first route.
  • the output device 20 displays the extracted events, that is, the stop line ST1 and the signal SG1, the pedestrian crossing CR1, the intersection MX12, and the pedestrian crossing CR4 in the order in which the vehicle V1 encounters along the time axis arrow T.
  • the information indicating an event may be a symbol, text information, or an abstract mark. Coloring, size, etc. can be determined arbitrarily.
  • the output device 20 displays the driving behavior of each event determined by the processor 11 in association with each event.
  • the driving behavior of the event is displayed under each event so that the position along the arrow T is common to each event.
  • the information indicating the driving behavior may be a symbol, text information, or an abstract mark. Coloring, size, etc. can be determined arbitrarily.
  • the output device 20 extracts a plurality of events even when the events include intersections of routes, stop positions on traffic rules, stationary objects such as road structures, and moving objects such as pedestrians and other vehicles. Are rearranged along a common time axis of the order in which the vehicle V1 encounters. Other vehicles include other vehicles approaching from the rear.
  • the driver of the vehicle V1 can determine which event and in what order You can visually recognize what kind of driving behavior you encounter and take.
  • step S1 the processor 11 acquires vehicle information of a vehicle to be controlled.
  • vehicle information includes information related to the driving of the vehicle such as the current position, traveling direction, speed, acceleration, braking amount, steering amount, steering speed, steering acceleration, etc., vehicle specification information, and vehicle performance information.
  • Vehicle information is acquired from the in-vehicle device 200.
  • step S2 the processor 11 acquires detection information.
  • Detection information includes the presence or absence of an event and the position of the event.
  • the position of the event is the position of the thing that triggers the judgment processing of the operation control of the intersection, the object, etc.
  • the detection information includes the presence or absence of an object around the vehicle, the attribute of the object (stationary or moving object), the position of the object, the velocity / acceleration of the object, and the traveling direction of the object.
  • the detection information can be acquired from the in-vehicle device 200 including the detection device 230 and the navigation device 220.
  • step S3 the processor 11 determines whether there is a change in the latest scene that the vehicle V1 will encounter from now on.
  • the scene is a scene such as an intersection to pass from now on.
  • the scene includes events from intersection intrusion, intersection with other routes, and intersection exit.
  • a scene contains multiple events.
  • a scene to be encountered can also be defined as a unit to which a group of control instructions corresponding to an event is applied.
  • the processor 11 determines that there is no change in the travel route, and whether or not the scene which is the target of the driving control has passed. This is to determine whether it is necessary to set a new (next) scene.
  • the processor 11 determines that there is no change in the travel route if the current position of the vehicle belongs to the route already calculated.
  • the processor 11 determines that the travel route has been changed. The processor 11 determines that the scene has passed when the current position of the vehicle does not belong to the area set as the scene passing immediately before. The processor 11 determines that the scene has not passed when the current position of the vehicle V1 belongs to the area set as the scene passing immediately before. When the scene is passed, the operation planning for the next scene or event is repeated.
  • step S3 the processor 11 determines that the scene is changed, and executes the processing of S4 to S9.
  • the processor 11 determines that there is a change in the scene when the traveling route is changed or passes through the scene, and executes the processing of S4 to S9. If the travel route has not been changed and the scene has not passed, it is determined that there is no change in the scene, and the process proceeds to S11.
  • step S4 the processor 11 calculates a first route on which the vehicle V1 travels.
  • the first route may use the one calculated by the navigation device 220.
  • the first route is identified by a road identifier, a lane identifier, a lane identifier, and a link identifier.
  • the lane identifier, the lane identifier and the link identifier are defined in the map information 222 and the road information 223.
  • step S5 the processor 11 sets a scene encountered by the vehicle V1 traveling on the first route.
  • a scene is an area including a point at which an intersection of a first path and another path exists.
  • the mode of the intersection with the first path is not limited, and may be any of merging, branching, crossing, T-crossing, and adjacent.
  • the scene is an area including a point where a stop is required on the first route according to the traffic rule information 224.
  • the processor 11 refers to the map information 222, the road information 223, and the traffic rule information 224, and sets a scene in which the vehicle V1 is likely to encounter an event as the region R1 (see FIG. 2).
  • the scene encountered by the vehicle V1 is, for example, the area near the intersection, the area near the junction of the lanes, the area near the pedestrian crossing, the area near the stop line, the area near the crossing, the area near the construction site.
  • step S6 the processor 11 extracts a second path having an intersection with the first path.
  • the processor 11 refers to the map information 222 and the road information 223 to extract a second route having an intersection with the first route.
  • the processor 11 refers to the link information (node information) defined in the map information 222. Where multiple routes intersect, link information (node information) is connected to other multiple links.
  • the processor 11 extracts a second route intersecting the first route from the connection status of the link information (node information).
  • step S7 the processor 11 extracts an event encountered by the vehicle V1 in the set scene.
  • the processor 11 extracts an intersection of the first path and the second path as an event.
  • a plurality of links are connected to one link at the junction point of the route.
  • the vicinity of the entrance to the intersection corresponds to the branch point of the lane, and the vicinity of the exit of the intersection corresponds to the junction of the lane.
  • the point where one link is connected to a plurality of links can be extracted as an event where the first route and the second route cross on the exit side of the intersection. That is, the second route at the exit of the intersection can be detected by detecting the presence of points where one link is connected to a plurality of links.
  • link information is defined also for the pedestrian crossing, and the pedestrian crossing that intersects the first route can be detected as the second route by performing intersection determination of the link of the first route and the link of the pedestrian crossing.
  • the processor 11 extracts, as an event, an object for which a pause is required on the first route in accordance with the traffic rule information 224.
  • the position of the extracted event is stored in association with the route.
  • the position of the extracted event may be stored in association with the map information 222 and the road information 223.
  • the driving behavior is determined for each extracted event (the position of the event).
  • step S8 the processor 11 determines driving behavior for each event.
  • Driving behavior includes "stop” and "progress".
  • the driving behavior of the event is "stop”.
  • the driving behavior of the event is also "stopped”.
  • the driving behavior of the event is "progression”.
  • the driving behavior of the event is also "progress”. The possibility of contact is determined based on the time difference between the time the vehicle reaches the event and the time the object reaches the event.
  • step S9 the processor 11 rearranges the plurality of extracted events in the order in which the vehicle V1 encounters.
  • the output device 20 displays the rearranged plurality of events on the display 251 (see FIG. 2B).
  • the output device 20 may output a voice of a plurality of rearranged events using the speaker 252. This display may be performed after operation planning.
  • step S11 the processor 11 verifies the newly acquired detection information.
  • the situation around the traveling vehicle changes from moment to moment.
  • the surrounding conditions such as movement of the vehicle itself, change of positional relationship with other vehicles, change of position of pedestrian, appearance of new object, change of detection accuracy due to change of position, etc. It will never be constant. That is, the presence of an event and the presence or absence of an event extracted based on the detection information acquired in step S2 must be sequentially reviewed.
  • the detection information verified in step S11 is detection information acquired at a timing later than the detection information acquired in step S2.
  • the processor 11 extracts an object which a vehicle traveling on the first route encounters based on the new detection information.
  • the processor 11 extracts information of an object present in a second route intersecting the first route among the object information obtained in step S2.
  • step 12 the processor 11 associates the newly detected object with the event.
  • the pedestrian crossing as the event may be associated with the pedestrian as the object, or the intersection point with the second route may be the event, and other vehicles traveling on the second route may be associated.
  • An object present in the first route may be defined as an event.
  • step S13 the processor 11 determines driving behavior for each event in consideration of the newly detected event.
  • the driving behavior is determined based on the traffic rules in the event and the possibility of contact between the vehicle and the object as described above.
  • the possibility of contact is determined based on the distance between the vehicle and the object or the time taken for the two to contact.
  • the time when the two are in contact is calculated using the speed of the vehicle and the object.
  • the possibility of contact is calculated based on the time when the vehicle and the object reach the event. Determine driving behavior in the event based on the possibility of contact in the event.
  • steps S11 to S13 are preferably performed in a predetermined cycle. Depending on the conditions, it is not impossible to skip from step S8 to step S14.
  • the possibility of contact is high, and the driving behavior "stop" is defined for the event. If the event is an object, the possibility of the contact is determined based on the positional relationship between the vehicle and the object.
  • the processor 11 determines the movement of the object based on the detection information or the temporal change of the detection information. In this determination, the processor 11 predicts the positional relationship between the object and the vehicle or event, assuming the moving direction of the object and the velocity of the object.
  • the degree of freedom (dispersion value) of the moving direction of the object varies depending on the attribute of the object such as a vehicle traveling on a road, a two-wheeled vehicle, or a pedestrian.
  • the processor 11 predicts the moving direction of the object based on the attribute of the object analyzed from the captured image or the like, and calculates the probability that the predicted moving direction matches the existing direction of the vehicle.
  • the processor 11 calculates the time for the object to reach the event according to the range of predicted speeds of the object, and compares the time for the vehicle calculated based on the vehicle information to the time for the event to reach the vehicle and the object The probability that the time difference between the time and the time to reach the event is within a predetermined time is calculated.
  • the processor 11 predicts the traveling direction and speed of the object based on the attribute of the object analyzed from the captured image or the like, and calculates the probability of contact with a vehicle moving at the predicted speed.
  • the probability of contact with the vehicle is calculated by multiplying the behavior of the object (traveling direction, speed, etc.) by a coefficient.
  • the processor 11 processes as an object to be noted that may come in contact with the vehicle when the probability is equal to or more than a predetermined probability as a threshold, and as an object not in contact with the vehicle when the probability is less than the predetermined probability.
  • the processor 11 changes the detection condition by adjusting the probability that the object moves toward the vehicle, the range of the predicted velocity of the object (variance value), and the threshold for evaluating the object. It is determined that the object contacts the vehicle by increasing the probability that the object moves toward the vehicle, widening the range of predicted speeds of the object, or changing the threshold for evaluating the object low. Detection conditions can be set.
  • the processor 11 calculates the probability that the object comes in contact with the vehicle based on the behavior of the object around the vehicle, and when the probability that the object comes in contact with the vehicle is higher than a predetermined threshold value In order to recognize as, a threshold is determined as a detection condition.
  • the processor 11 calculates the probability that the object comes in contact with the vehicle based on the behavior of the object around the vehicle, and when the probability that the object comes in contact with the vehicle is higher than a predetermined threshold value As a detection condition, the method of calculating the probability of recognition as is determined.
  • the processor 11 of the present embodiment sets the probability of contact between the object and the vehicle and the threshold value thereof in accordance with the content of the driving action in the event.
  • the processor 11 adjusts (corrects) the moving direction or moving speed of the object determined based on the temporal change of the detection information, the attribute of the object, or the like according to the content of the driving action. The specific method will be described later.
  • step S14 the processor 11 makes a driving plan in which driving behavior is defined for each event.
  • the processor 11 draws up an operation plan in which driving behavior is associated with each of a plurality of events belonging to the area Q1 set as a scene.
  • the driving plan in this example is a series of instructions in which driving actions are defined for each event, by arranging the plurality of extracted events in the order in which the vehicle encounters.
  • the unit of operation plan is not particularly limited. In this example, the scene where an intersection is encountered is the target of the operation plan, but the operation plan up to the destination may be provisionally created, or the operation plan may be formulated based on a predetermined number of events. Good.
  • step S15 the processor 11 sets a detection condition based on the content of the driving action in the event.
  • the processor 11 causes the in-vehicle device to execute detection processing according to the determined detection condition.
  • the detection condition in the present embodiment can be set for each point. Since it can be set for each point, the detection condition can be set for each event for which the point is specified.
  • FIG. 4 is a conceptual diagram for explaining that the detection condition is set for each point. As shown in FIG. 4, the detection conditions R1 to R6 can be set for the points P1 to P6 set on the first route RT1 on which the vehicle V1 to be controlled travels.
  • the detection conditions R1 to R6 may be common or may be different conditions.
  • the setting command including the detection condition is the detection range (distance along the traveling direction, distance along the vehicle width direction, height, scan range, imaging angle of view, focal length), application event (application position), or application timing (pass Point, time) can be included.
  • the processor 11 determines the second detection condition for one or more second events encountered after the first event based on the content of the driving action defined for the first event that the vehicle previously encounters, and is currently applied Instead of the first detection condition being set, it is set.
  • the second event may be an event encountered next to the first event.
  • the second event may be a plurality of events subsequently encountered after the first event.
  • the processor 11 defines an interval OVA upstream of the first event PA, and next encounters the first of the driving actions specified for the first event acquired when existing in the position belonging to the interval OVA.
  • the second detection condition regarding two events may be determined.
  • the section OVA can be defined as a section between the first point of the first predetermined distance on the upstream side (vehicle side) and the second point of the second distance based on the event.
  • the first point may be the position of the event.
  • the processor 11 rearranges a plurality of events in the order in which the vehicle encounters, and creates control commands in accordance with a series of driving plans in which driving behavior is defined for each event.
  • the driving behavior of the upstream or downstream event affects the driving behavior of the downstream or upstream event. For example, when the driving behavior of the downstream event is a stop, even if the driving behavior of the upstream event is progressing, the change of the situation occurs due to the extension of the arrival time due to the deceleration. When the driving behavior of the upstream event is a stop, the arrival time to the event is delayed because the vehicle is decelerated regardless of the downstream driving behavior. At this time, the vehicle is traveling at a low speed.
  • the processor 11 sets the detection condition of the next encountered event based on the driving behavior in the relatively upstream event.
  • the detection condition of the event that the vehicle encounters next so that the driving behavior of the next event affected by the driving behavior of the event encountered earlier.
  • detection conditions suitable for Since the driving behavior and the driving plan can be made using the detection information according to the appropriate detection conditions, the success rate (completion rate) of the driving plan can be increased.
  • the processor 11 sets the second detection condition at the timing when the driving behavior in the first event that the vehicle first encounters switches from stop to progress.
  • the first event is progressing, it is determined that the arrival time to the next second event is short, so by applying the second detection condition at this timing, the condition suitable for the situation can be obtained. It can be applied at the determined timing. Since appropriate detection conditions are set at appropriate timings, it is possible to acquire only necessary information and not to acquire unnecessary information. As a result, it is possible to reduce the computational load during automatic operation when passing through a scene including an event.
  • the factors of the detection condition will be described.
  • the factors of the detection condition include (1) detection range, (2) calculation method of contact probability with object, and (3) narrowing down of object to be extracted.
  • the processor 11 specifies the factor of the detection condition to change the factor of the detection condition in the detection device 230. Each factor will be described.
  • (1) “Detection range” is the width (area), length (length along the traveling direction), width (length along the vehicle width direction), height (traveling) of the detection area specified in the detection condition Approximately vertical length to the surface), scan range (angle), angle of view, or focal length.
  • the “method of calculating the contact probability with the object” is the movement direction of the object, the velocity of the object, the object, when determining the presence of the object in contact with the vehicle specified in the detection condition It is a setting condition of the movement range.
  • the moving direction of the object, the velocity of the object, and the moving range of the object vary depending on the attribute of the object.
  • a pedestrian having a high degree of freedom in the movement direction has different conclusions as to whether or not it is an object depending on whether it moves toward or away from the vehicle.
  • the processor 11 uses the movement direction of the object as the specified value set based on the certainty, the velocity of the object, the movement range of the object, and the coefficient to obtain the contact probability between the object and the vehicle calculate.
  • the coefficient is lower than in the case of stopping, and conversely, if the driving behavior in the first event is stopping, the coefficient is higher than in the case of traveling.
  • the processor 11 of the present embodiment changes the moving direction of the object as the specified value, the speed of the object, and the moving range of the object so as to increase or decrease the probability that the object contacts the vehicle.
  • the coefficient is made higher than in the case of stopping while the driving behavior in the first event is higher than in the case of stopping. This makes it possible to adjust whether or not the object in contact with the vehicle is the attention object.
  • the “narrowing down of objects to be extracted” is a detection condition of extracting only oncoming vehicles and crossing vehicles which are likely to come in contact with vehicles from among all the objects included in the detection information. For example, before the vehicle reaches an event, objects that have already passed the event are not extracted as objects.
  • FIG. 5 shows a subroutine of step S15 (change of detection condition) of FIG.
  • step S21 the necessity of change processing of detection conditions is examined.
  • the processor 11 determines whether to switch the detection condition from the currently applied first detection condition to the second detection condition based on the amount of change in the movement of the object obtained from the temporal change of the detection information. .
  • the processor 11 executes the process of changing the detection condition in step S15 if the amount of change in movement of the object is equal to or greater than a predetermined value, and does not execute the process of changing the detection condition otherwise.
  • the detection condition does not need to be changed. For example, in a situation (place or time) where pedestrians, other vehicles, etc. hardly exist or their movement is at a constant speed, the process of resetting the detection condition is not performed. On the other hand, when the pedestrian near the pedestrian crossing suddenly starts to run, the driving behavior is changed, and the detection condition is also reviewed.
  • the determination of the driving behavior is unlikely to be changed. If the determination of the driving behavior is not changed, the setting of the detection condition is likely to be maintained. As a result, the determination to change / maintain the detection condition can be appropriately made, so it is possible to execute the operation control suitable for the actual situation. By changing the detection condition frequently, it is possible to suppress the occupant from feeling discomfort.
  • step 22 the processor 11 determines whether the driving action is “progress”. If it is determined to be “progress”, the process proceeds to step S23.
  • step S23 the processor 11 sets the following detection condition A (pattern A) according to the driving action "progress”.
  • each of the first detection condition and the second detection condition has the “detection condition A” and the “detection condition B” described later.
  • step S24 the driving action is "stop” (step S24), and the process proceeds to step S25.
  • step S25 the processor 11 sets the following detection condition B (pattern B) in response to the determination that the driving action is "stop”. (1) Detection condition capable of detecting an object having a relatively long arrival time to a target event (2) Detection condition having a relatively wide detection range for detecting an object (3) When an object contacts a vehicle Detection conditions where the probability of being judged is set relatively high (judged high)
  • step S16 When the setting of the detection condition is completed, the process proceeds to step S16.
  • the processor 11 makes an operation plan.
  • step S16 the processes in steps S11 to S13 are performed based on the detection information acquired in accordance with the changed detection condition, and a new operation plan is redesigned. Verification of the detection information performed in step S16, that is, extraction of a new target, association with an event, determination of a driving action for an event is performed in steps S4 to S8 previously performed, and steps S11 to S13 previously performed.
  • the process may be the same as or different from the process described above.
  • An appropriate detection condition can be set by determining the detection condition based on the content of the driving action.
  • operation control the movement of the vehicle to be controlled changes, and the surrounding situation also changes.
  • the detection condition according to the driving action it is possible to accurately grasp the change of the object to be detected during the operation control and the change of the condition of the object.
  • an object corresponding to the driving behavior can be detected, so appropriate driving control can be performed according to the actual situation.
  • a passenger who has experience driving changes the viewpoint or the field of view according to the situation, and adjusts the judgment result according to the situation.
  • the detection information is acquired according to the detection condition according to the driving behavior specified in the driving plan, and the driving plan is set or revised based on it, so that the occupant who recognizes the change in the situation feels unnatural Can be suppressed.
  • the method of setting the detection condition in accordance with the previously defined driving behavior it is possible to make a driving plan corresponding to the change in the situation, so that complex scenes such as intersections can be smoothly passed.
  • appropriate detection information is acquired, and detection processing of an object based on detection information of an appropriate amount of information And so on. In other words, acquisition of excessive detection information can be suppressed, and detection processing of an object, etc.
  • the detection condition of the second event is set based on the driving behavior of the first event, the detection condition corresponding to the change of the upstream condition is determined, and it is promptly determined to the downstream detection process. It can be reflected. Thereby, necessary detection information according to the situation can be acquired.
  • FIG. 6A is a diagram showing a detection range of the second event PB at the timing T0
  • FIG. 6B is a diagram showing a detection range R1 of the second event PB at the timing T1 after the timing T0
  • the detection ranges R1 and R2 shown here may be detection ranges of the sensor 260, or may be ranges in which the processor 11 detects the object OB.
  • the area Q1 of the intersection P is described as a scene in which the operation control is performed.
  • the vehicle V1 travels in the section OVA which is within a predetermined distance upstream of the event PA.
  • the processor 11 calculates the driving behavior for the common event PA and sets the detection condition in the event PA.
  • the vehicle V1 to be controlled travels on a route RT1 passing through the intersection Q1.
  • the vehicle V1 passes an event PA (which has the same sign as the point) defined at the point PA.
  • a pedestrian M1 which is an object OBA is present in the vicinity of a pedestrian crossing which is an event PA which is encountered first.
  • the processor 11 determines that the distance between the pedestrian M1 and the pedestrian crossing is equal to or greater than a predetermined distance, and determines that the driving action in the event PA is “progress”.
  • the vehicle V1 to be controlled travels along a route RT1.
  • the processor 11 monitors the movement of the object over time.
  • the pedestrian M1 who has not been evaluated as an object is moving, and at timing T1 enters the pedestrian crossing.
  • the processor 11 determines that the distance between the pedestrian M1 and the pedestrian crossing is less than a predetermined distance, and determines that the driving action at the event PA is “stop”.
  • the processor 11 detects a second detection condition regarding the second event when the driving behavior in the first event PA is “progress” is a second detection condition regarding the second event when the driving behavior in the first event is “stop” As a detection condition of pattern A for detecting an object whose arrival time until reaching the second event PB is relatively short when compared to the condition.
  • the driving behavior of the vehicle V1 is "progress”
  • the time to reach the first event PA and the second event PB is short.
  • it is sufficient that the vehicle V1 can recognize the object OB arriving in a short time at the second event PB. That is, when the driving behavior of the vehicle V1 is "progress", the object OB present at a position not arriving at the second event PB within a predetermined time is excluded even if it is present around the second event PB.
  • perform detection processing is performed.
  • the fact that the arrival time of the object OB is short can be determined based on a factor that the distance between the second event PB and the object OB is short, or the speed of the object OB is fast.
  • the processor 11 detects a second detection condition regarding the second event when the driving behavior in the first event PA is “progress” is a second detection condition regarding the second event when the driving behavior in the first event is “stop”
  • the detection range for detecting the object OB is a relatively narrow detection condition.
  • the width of the detection range may be evaluated by the area of the detection region, may be evaluated by the length along the traveling direction of the vehicle V1, or may be evaluated by the length along the vehicle width direction of the vehicle V1. Good.
  • the processor 11 determines that the second detection condition regarding the second event when the driving behavior in the first event PA is "progress" is the case where the driving behavior in the first event is "stop". It may be a detection condition for extracting an object OB having a relatively fast approach speed to the second event PB when compared with the second detection condition regarding the event.
  • the processor 11 adjusts the traveling locus on the traveling path of the vehicle V1 in order to set a detection condition in which the detection range for detecting the object OB becomes relatively narrow.
  • the processor 11 compares the second detection condition in the second event in the first event with the second detection condition in the second event with the stopping in the first event when the driving behavior in the first event is progressing.
  • the traveling locus of the vehicle is changed such that the detection range for detecting the object becomes relatively narrow.
  • the detection range during traveling may include a blind spot (occlusion). Since a blind spot can not detect an object, it is not practically a detection range, and the substantial detection range is narrow.
  • the processor 11 accepts the state even if the detection range is narrowed, even if the occlusion is included, when the driving behavior in the event is progressing, and as a result, the detection range for detecting the object is
  • the travel path of the vehicle is set so as to be relatively narrow. That is, the processor 11 calculates the optimal reference movement trajectory (route) in each lane included in the route to the destination regardless of the presence of the occlusion, and applies the travel trajectory to automatic driving control.
  • the reference movement trajectory (route) in the automatic driving process is any of a trajectory located substantially at the center of the traveling lane, a trajectory whose included curvature is less than a predetermined value, or a variation whose included curvature is less than a predetermined value Including.
  • the target whose approaching time is shorter than the second event PB or whose arrival time is shorter than when the driving behavior in the first event PA is "stopping" Object OB can be selectively detected.
  • the arrival times of the vehicle V1 in the first event PA and the second event PB are more than when the driving behavior in the first event is "stop" Relatively short.
  • the distance to the second event PB is less than the first predetermined value or the arrival time to the second event PB is limited to the vicinity range less than the first predetermined value, and the existing object OB is concentrated It is appropriate to monitor
  • the object OB whose distance to the second event PB is at least the first predetermined value and the arrival time to the second event PB is far from the first predetermined value is excluded from the determination targets be able to. Unnecessary detection information can be prevented from being acquired while maintaining the detection accuracy of the object OB. As a result, computational load can be reduced and system resources can be used effectively.
  • the processor 11 sets the second detection condition as a detection condition including a detection range related to the second event PB.
  • the detection range regarding the second event PB is a region of a predetermined range from the reference position of the second event PB.
  • the shape of the detection range is not particularly limited, and is appropriately defined according to the length along the traveling direction, the length along the road width, and the like. If the first event is "progress”, it is expected that the arrival time to the next event to be encountered next will be short. Triggered by the fact that the first event PA is "progressive", the detection range of the second event is included in the detection range of the second detection condition, thereby quickly acquiring detection information around the necessary second event PB it can. Since detection information suitable for the operation plan can be acquired at an appropriate timing, the accuracy of the operation plan can be maintained.
  • FIGS. 7A and 7B A second setting example will be described based on FIGS. 7A and 7B.
  • the events PA, PB and PC shown in FIGS. 7A and 7B are common to each other.
  • FIG. 7A is a diagram showing a detection range of the second event PB at the timing T0
  • FIG. 7B is a diagram showing a detection range R1 of the second event PB at the timing T1 after the timing T0.
  • the detection ranges R1 and R2 shown here may be detection ranges of the sensor 260, or may be ranges in which the processor 11 detects the object OB.
  • the area Q1 of the intersection P is described as a scene in which the operation control is performed.
  • the vehicle V1 travels in the section OVA which is within a predetermined distance upstream of the event PA.
  • the processor 11 calculates the driving behavior for the common first event PA, and sets the detection condition for the second event PB.
  • the vehicle V1 to be controlled travels on a route RT1 passing through the intersection Q1.
  • the vehicle V1 passes a first event PA (assigned the same sign as the point) defined at the point PA.
  • the pedestrian M1 which is the object OBA, is on the pedestrian crossing, which is the first event PA encountered earlier.
  • the processor 11 determines that the distance between the pedestrian M1 and the pedestrian crossing is less than a predetermined distance, and determines that the driving action in the first event PA is “stop”.
  • the vehicle V1 to be controlled travels along a route RT1.
  • the processor 11 monitors the movement of the object over time.
  • the pedestrian M1 who has walked the pedestrian crossing is separated from the pedestrian crossing at timing T1.
  • the processor 11 determines that the distance between the pedestrian M1 and the pedestrian crossing is equal to or greater than a predetermined distance, and determines that the driving action in the first event PA is “progress”.
  • the processor 11 relates to a second detection condition regarding the second event PB when the driving behavior in the first event PA is “stop” relates to the second event PB when the driving behavior in the first event PA is “progress”
  • the detection condition of the pattern B for detecting an object whose arrival time until reaching the second event PB is relatively short is used.
  • the driving action in the first event PA of the vehicle V1 is "stop"
  • the time until the first event PA, the second event is reached is long.
  • the vehicle V1 monitors not only the object OB arriving in a short time at the second event PB but also the distant object OB.
  • the detection condition A is the condition that the object OB whose arrival time is within the predetermined time T1 is detected. Is a condition for detecting an object OB within a predetermined time T2 (> T1).
  • detection conditions can be set in line with the need to observe far.
  • the long arrival time of the object OB can be determined based on the factor that the distance between the second event PB and the object OB is long or the speed of the object OB is slow.
  • the processor 11 relates to a second detection condition regarding the second event PB when the driving behavior in the first event PA is “stop” relates to the second event PB when the driving behavior in the first event PA is “progress”
  • the detection range for detecting the object OB is a relatively wide detection condition.
  • the definition of the detection range is as described above.
  • the detection range of the sensor 260 may be exceeded. In that case, the detection information of the object may be acquired from the roadside detection device via the communication device 30.
  • the processor 11 relates to a second detection condition regarding the second event PB when the driving behavior in the first event PA is “stop” relates to the second event PB when the driving behavior in the first event PA is “progress” It may be a detection condition for extracting an object OB having a relatively slow approach speed to the second event PB when compared with the second detection condition.
  • the processor 11 adjusts the traveling path of the vehicle V1 in order to set the detection range for detecting the object OB as a relatively wide detection condition.
  • the processor 11 compares the second detection condition regarding the second event when the driving behavior in the first event is the stop with the second detection condition regarding the second event when the driving behavior in the first event is the progression
  • the detection condition in which the traveling locus of the vehicle is changed is set so that the detection range for detecting the target object around the vehicle becomes relatively wide.
  • the processor 11 is common as the first route to the destination, but changes the traveling locus (the position in the road width direction / the position in the traveling direction) including the position in the lane.
  • the adjustment of the traveling locus includes the passing timing of the points included in the route. By adjusting the timing of point passing included in the route, the distance to the front object can be adjusted.
  • the curvature of one or more of the adjusted paths is less than a predetermined curvature. This is to avoid operation control with a large amount of steering change.
  • the processor 11 calculates an optimal reference movement trajectory (route) in each lane included in the route to the destination in the automatic driving process of the vehicle.
  • the reference movement locus (path) is a locus located substantially at the center of a traveling lane, a locus whose included curvature is equal to or less than a predetermined value, and / or a locus whose variation of included curvature is equal to or less than a predetermined value.
  • the processor 11 applies the reference movement trajectory in an ideal situation to move the vehicle, and applies a trajectory in which the reference movement trajectory is changed according to the detected actual situation to move the vehicle.
  • the detection range in the detection process may include a blind spot (occlusion). Since the blind spot is not detected, it can not be said that it is practically a detection range. Here, the area
  • the processor 11 runs the vehicle V1 so as to reduce the dead zone area. Adjust the route to As a first example, in a curved portion of the route, since the preceding vehicle blocks the front detection range, the processor 11 includes a traveling locus including a position shifted to the left and right so as to turn the preceding vehicle along the width direction. Is calculated, and the vehicle travels on the change travel locus.
  • the processor 11 calculates a modified traveling locus including a position separated by a predetermined distance from the preceding vehicle, and travels the vehicle along the traveling locus.
  • the processor 11 calculates a traveling locus including a position at which the back of the preceding vehicle can be recognized, and causes the vehicle to travel on the changed traveling locus. .
  • a detection range with reduced occlusion can be set.
  • the viewpoint sensor position or camera position
  • the processor 11 determines that the second detection condition applied in the second event when the driving behavior in the first event is changed from “stop” to “progress” is the case where the driving behavior in the first event is a stop.
  • This is a detection condition for changing the traveling locus of the vehicle such that the detection range for detecting an object around the vehicle becomes relatively narrow when compared with the second detection condition regarding two events.
  • the travel locus changed when the driving behavior in the first event is determined to be "stop” is changed back. For example, the travel locus whose lateral position has been changed to narrow the blind area is changed to the travel locus returned to the original lateral position (center).
  • the target that is farther from the second event PB or has a longer arrival time than in the case where the driving action in the first event PA is "progressing" Object OB can be selectively detected.
  • the driving action in the first event PA of the vehicle V1 is "stop”
  • the arrival time to the first event PA and the second event PB in the vehicle V1 is "traveling" in the driving action in the first event PA Relatively longer than.
  • the distance to the second event PB is a second predetermined value ( It is appropriate to widely monitor the object OB in the vicinity of less than the first predetermined value or the arrival time until the second event PB is less than the second predetermined value (> first predetermined value).
  • the distance to the second event PB is at least the first predetermined value and less than the second predetermined value
  • the arrival time to the second event PB is at least the first predetermined value and less than the second predetermined value
  • the processor 11 monitors a wide range including the object OB which may move within that time. .
  • the object OB in the excluded range is widely monitored under the detection condition set before that. As a result, it is possible to obtain detection information of a range necessary for a scene where the driving action is “stop”.
  • the processor 11 may set the second detection condition as a detection condition excluding the detection range related to the second event PB.
  • the detection range regarding the second event PB is a region of a predetermined range from the reference position of the second event PB. If the driving behavior of the first event PA encountered earlier is "stopping", the vehicle will decelerate, so the content of the driving behavior of the second event PB encountered next has less influence on the driving plan. I will not give. That is, the importance of the detection information of the detection range related to the second event PB is low.
  • the processor 11 may stop according to the driving behavior in the first event PA without analyzing the detection information of the second event PB when the driving behavior of the first event PA is “stop”.
  • the next judgment result is awaited.
  • This control can be released when the first event PA approaches less than a predetermined distance when the vehicle stops and when the speed becomes lower than a predetermined speed after deceleration.
  • the driving action in the first event PA is “stop”, acquisition of detection information on the event B to be encountered next is not performed, so acquisition of detection information having a low degree of importance is prohibited and processing is performed.
  • the amount of information to be targeted can be reduced. As a result, computational load can be reduced and system resources can be used effectively.
  • FIG. 8A is a diagram showing the driving behavior at timing T0
  • FIG. 8B is a diagram showing the driving behavior at timing T1 after timing T0.
  • the vehicle V1 makes a right turn at the intersection.
  • a driving action "progress” is defined because an object in contact is not detected.
  • the driving action “stop” is defined in the event PC in order to approach the other vehicle OBC within a predetermined distance.
  • the pedestrian OBA enters a pedestrian crossing.
  • the processor 11 changes the driving behavior of the event PA to "stop". Since the vehicle V1 decelerates as the driving action of the event PA becomes “stopped”, the time to reach the events PA, PB and PC is extended. As a result, the driving behavior of the event PB is "stopped” because the possibility of contact with the object OBB in the event PB is increased. Further, since the object OBC passes the event PB earlier than the vehicle V1, the driving action of the event PC is "progress”. Thus, when the driving behavior of the event PA changes, the driving behavior of the events following the event PA may change.
  • the processor 11 relates to a second detection condition regarding the second event PB when the driving behavior in the first event PA is “stop” relates to the second event PB when the driving behavior in the first event PA is “progress”
  • the detection condition of the pattern B is high in the probability that the object OB is determined to contact the vehicle V1 in the second event PB when compared with the second detection condition.
  • the degree of freedom of the movement direction and the variation (threshold value) of the movement speed differ.
  • the processor 11 sets the probability that the moving direction of the object OB is the direction of the vehicle V1 to be high when the driving action is “stop”, and the probability that the object OB contacts the vehicle V1 is calculated to be high.
  • Set the detection condition as follows.
  • the processor 11 sets the probability that the moving speed of the object OB will be in the speed range in which the object OB contacts with the vehicle V1 in the event high when the driving action is "stop”, and the probability that the object OB contacts the vehicle V1.
  • the detection condition is set so that is calculated high.
  • the processor 11 compares the second detection condition regarding the second event when the driving behavior in the first event is the stop with the second detection condition regarding the second event when the driving behavior in the first event is the progression
  • the threshold applied as a detection condition when detecting the object OB is lowered.
  • FIGS. 9A and 9B A fourth setting example will be described based on FIGS. 9A and 9B.
  • the events PA, PB and PC shown in FIGS. 9A and 9B are common to each other.
  • FIG. 9A is a diagram showing the driving behavior at timing T0
  • FIG. 9B is a diagram showing the driving behavior at timing T1 after timing T0.
  • the vehicle V1 makes a right turn at the intersection.
  • a driving object “stop” is defined because an object in contact is detected. Since the other vehicle OBC passes the event PC earlier than the vehicle V1 in the event PC before leaving the intersection after the right turn, the driving action "progress" is defined in the event PC.
  • the pedestrian OBA leaves the pedestrian crossing.
  • the processor 11 changes the driving behavior of the event PA to "progress". Since the vehicle V1 maintains or accelerates the current speed as the driving behavior of the event PA becomes "progress”, the time to reach the events PA, PB and PC is quickened. As a result, since the object OBB does not reach the event PB when the vehicle V1 reaches the event PB, the possibility that the object OBB and the vehicle V1 contact at the event PB is low, and the driving behavior of the event PB is It becomes "progress".
  • the vehicle V1 since the time to reach the event PC is also earlier, the vehicle V1 also reaches the event PC when the object OBC reaches the event PC, so the object OBC and the vehicle V1 are likely to contact at the event PC.
  • the driving action of the event PC is "stop". Thus, when the driving behavior of the event PA changes, the driving behavior of the events following the event PA may change.
  • the processor 11 determines that the second detection condition regarding the second event PB when the driving behavior in the first event PA is "progress" is the second detection condition regarding the second event PB when the driving behavior in the first event PA is stopping.
  • the detection condition of pattern A is low in the probability that the object is determined to contact the vehicle V1 in the second event PB when compared with the detection condition.
  • the degree of freedom of the movement direction and the variation (threshold value) of the movement speed differ.
  • the processor 11 sets the probability that the moving direction of the object OB is the direction of the vehicle V1 to be low when the driving action in the first event PA is "progress", and the probability that the object OB contacts the vehicle V1
  • the detection condition is set so that is calculated low.
  • the processor 11 sets the probability that the moving speed of the object OB will be in the speed range in which the object OB contacts with the vehicle V1 in the event low when the driving behavior is "progress”, and the probability that the object OB contacts the vehicle V1.
  • the detection condition is set so that is calculated low. As described above, since the driving behavior of the event PA becomes "progress", a detection condition that can detect an object whose arrival time to the event PA is short may be set, such as narrowing the detection range.
  • the processor 11 compares the second detection condition regarding the second event when the driving behavior in the first event is progressing with the second detection condition regarding the second event when the driving behavior in the first event is stopping In addition, the threshold applied as the detection condition when detecting the object OB is raised.
  • an object OB that is unlikely to approach the vehicle V1 in the second event can also be considered as an object.
  • An object to be watched can be appropriately detected according to the content of driving behavior in the event.
  • FIG. 10A is a diagram showing a range RV1 for detecting the object OB when the vehicle speed of the vehicle V1 to be controlled is VS1 ( ⁇ VS2) which is relatively low
  • FIG. 10B is a vehicle speed VS2 (> It is a figure which shows range RV2 which detects target object OB in the case of being VS1).
  • the ranges RV1 and RV2 shown here are not the detection range of the sensor 260 but the range in which the processor 11 detects the object OB.
  • the processor 11 sets a detection condition for detecting an object whose arrival time to an event is shorter as the vehicle speed of the vehicle V1 is higher.
  • the object OB is detected in a wide range as shown in FIG. 10A in order to detect an object having a relatively long arrival time to the event.
  • the object OB is detected as shown in FIG. 10B in order to detect an object whose arrival time to an event is relatively shorter than when the speed is relatively low. Detect in a narrow range.
  • the prediction range of the movement speed of the object is set wide (the dispersion of the movement speed is set wide / the dispersion degree is set large), and contact with the object is possible Determine the sex.
  • the probability of contact with the object is calculated high. In this way, at low speeds, the possibility of contact can be taken into consideration also for an object located far from the event.
  • the prediction range of the movement speed of the object is set narrow (the distribution of the movement speed is set narrow / the dispersion degree is set small), and the contact with the object is Determine the possibility.
  • the probability of contact with the object is calculated low.
  • the speed of the vehicle V1 differs between FIG. 10A and FIG. 10B.
  • the position and speed of the object are common.
  • the range in which the presence of the object OBC is predicted is indicated by the presence area OBC-R1
  • the range in which the presence of the object OBB is predicted is indicated by the existence area OBB-R1
  • the presence of the object OBD The range in which is predicted is indicated by the presence area OBD-R1.
  • the existence areas of the objects OBC, OBB, OBD belong to the range RV1
  • the objects OBC, OBB, OBD are processed as the objects.
  • FIG. 10A since the existence areas of the objects OBC, OBB, OBD belong to the range RV1, the objects OBC, OBB, OBD are processed as the objects.
  • the range in which the presence of the object OBC is predicted is indicated by the presence area OBC-R2
  • the range in which the presence of the object OBB is predicted is indicated by the existence area OBB-R2
  • the presence of the object OBD The range in which is predicted is indicated by the presence area OBD-R2.
  • the presence area shown in FIG. 10B in which the vehicle speed of the vehicle V1 is low is narrower than the presence area shown in FIG. 10A in which the vehicle speed is high.
  • the existence region of only the object OBD belongs to the range RV2, only the object OBD is processed as an object, and the objects OBB and OBC are not considered as an object.
  • the vehicle speed As the vehicle speed is higher, it is possible to selectively detect an object whose arrival time to an event is short. The higher the vehicle speed, the shorter the time to reach an event may be. In the present invention, as the vehicle speed is higher, it is possible to detect an object whose arrival time to an event is short. In other words, it is possible to exclude from the judgment object the object OB which exists in a distant range where the arrival time to the event is equal to or more than the predetermined value. Unnecessary detection information can be prevented from being acquired while maintaining the detection accuracy of the object OB. As a result, computational load can be reduced and system resources can be used effectively.
  • the processor 11 monitors the switching of the driving behavior of the event after the execution of the driving plan is started, that is, during the execution of the driving control command.
  • the driving behavior of the upstream or downstream event affects the driving behavior of the downstream or upstream event.
  • the appearance of a new target (other vehicle) may change the situation that is the basis of the operation plan being executed.
  • the situation with respect to the driving plan may change such that the driving behavior of the event changes from that of the running driving plan to another driving action.
  • the processor 11 cancels the driving behavior defined for the second event when the driving behavior in the first event is switched during the execution of the driving control command.
  • the processor 11 predicts that the situation of the second event to be encountered next will change because the time to reach the second event of the vehicle changes due to the switching of the driving behavior of the first event to be encountered first.
  • the processor 11 does not review the driving behavior of the second event after approaching the second event, but cancels the content of the driving behavior of the second event triggered by the switching of the driving behavior of the first event. That is, it does not follow the driving behavior of the second event in the driving plan being executed as it is, but temporarily sets it as a blank (UNKNOWN).
  • the processor 11 redetermines the driving behavior based on the new detection information. This makes it possible to determine a highly accurate driving behavior according to the situation. Since the re-decision is performed based on the change in the driving behavior of the first event rather than re-decision after approaching the second event, processing delay can be prevented.
  • the processor 11 defines the driving behavior of the second event based on a predefined rule, when the driving behavior in the first event is switched during the execution of the driving control command.
  • driving behavior can be temporarily suspended, but rules can also be defined in advance.
  • rules can also be defined in advance.
  • the driving behavior of the first event is “stopped”, the arrival time to the first event may be long, and the driving behavior of the second event may also be “stopped” due to the change of the situation. Then, “stop”, “progress”, and “stop” are obtained, deceleration and acceleration are repeated, and the driver feels uncomfortable.
  • the driving action of the first event is “stopped”
  • the driving action of the second event is also “stopped”, so that occurrence of such a failure can be prevented.
  • the first determination example will be described based on FIGS. 11A and 11B.
  • the events PA, PB and PC shown in FIGS. 11A and 11B are common to each other.
  • the processor 11 calculates driving behavior for each event PA, PB, PC.
  • the driving behavior in the first event and the second event is “progress” and the driving behavior in the first event is changed to “stop”
  • the driving behavior in the second event is “progress”.
  • the driving behavior in the second event is “progress”.
  • the pedestrian M1 enters the pedestrian crossing which is the event A.
  • the driving action of the event A becomes "Stop: No Go”. Since the vehicle decelerates in response to the stop command, the arrival time of the vehicle to the event A becomes long.
  • the driving behavior of event B is set to "Stop: No Go”.
  • the driving behavior of event C is also "stopped: No Go".
  • the driving behavior of the event is “progress”.
  • the driving behavior may be changed from “progressing” to "stopping” due to a change in the situation. is there.
  • the driving behavior of the second event is set to “stop” to prepare for approach with another vehicle. Such an allowance can realize safe automatic driving.
  • the driving action is changed from “progressing” to "stop” by the change of the situation Sometimes. As the vehicle decelerates, the time taken for the vehicle to reach the first event becomes longer. Under such circumstances, it is necessary to consider the appearance and contact of another vehicle, not the other vehicle that has passed the first event in the above judgment. In this example, the driving behavior of the second event is set to “stop” to prepare for approach with another new vehicle. Such an allowance can realize safe automatic driving.
  • event B and event C are also regarded as "stop: No Go", and detection becomes possible thereafter, and detection information is displayed. Judge driving behavior when acquired.
  • the driving behavior of the second event is "progressed” It is preferable to As described above, in principle, the driving behavior of the second event is "stopped", but the movement is small when the movement amount (speed, acceleration) of an object such as another vehicle is less than a predetermined amount It can be judged. In such a case, it is preferable to move the vehicle and pass the second event. Driving that stops even though the movement of the object is small makes the user who is checking the situation feel uncomfortable. In this example, only when the movement of the object is small, by setting the driving behavior of the second event to "progress", smooth automatic driving is realized.
  • FIGS. 12A and 12B A first determination example will be described based on FIGS. 12A and 12B.
  • the events PA, PB and PC shown in FIGS. 12A and 12B are common to each other.
  • the processor 11 calculates driving behavior for each event PA, PB, PC. As shown in FIG. 11A, at timing T0, since the pedestrian M1 is present on the pedestrian crossing which is event A, the driving action of event PA is “stop: No Go”. Since the upstream event PA is "stop: No Go”, the driving behavior of the subsequent event B and event C is "stop: No Go".
  • the driving behavior of the event PA changes to “progress: Go”.
  • the processor 11 sets the driving behavior of the event B and the event C to “stop: No Go”.
  • the driving behavior of event PA changes from "stop” to "progress: Go”
  • the vehicle accelerates to event PA.
  • the driving behavior of event B and event C is set to “stop: No Go”
  • acceleration of the vehicle is suppressed, and the arrival time until the vehicle reaches event A is secured. Acquisition of detection information of events B and C, analysis, detection of object, and arrival time of events B and C of object are calculated.
  • the possibility of contact at events B and C is determined in comparison with the arrival time of events B and C of the control target vehicle.
  • the driving action is "stop: No Go"
  • the driving action is "progress: Go".
  • the driving plan is formulated based on the driving behavior of the event after the change.
  • the operation planning process is repeated at predetermined intervals. Since the vehicle moves and the situation changes every moment, the detection, analysis, and determination of the driving behavior of the object are repeated based on new detection information, detection results of a new object, and the like.
  • a new driving plan is formulated based on the changed driving behavior. Thereby, it is possible to make a driving plan in which the driving behavior optimum for the current situation is defined.
  • the driving action based on the new detection / judgment result is defined, so that the user who confirms the situation does not feel discomfort.
  • step S31 the processor 11 determines whether the driving behavior of the first event has been changed.
  • step S32 the processor 11 further determines whether the driving behavior of the first event has been changed from "progress” to "stop”. If so, the process proceeds to step S33, the processor 11 confirms whether the driving action of the second event is "progress”, and if it is "progress", the process proceeds to step S34, and the second "Stop" the driving behavior of the event.
  • step S35 determines in step S35 whether the driving behavior of the first event has changed from "stop” to "progress”.
  • the processor 11 keeps the driving behavior of the second event “stop” even if the driving behavior of the first event is “progress”.
  • step S37 the processor 11 proceeds to step S38 only when it is confirmed that the detected amount of movement of the target is less than the predetermined amount and the movement of the second event is small. Change the action to "progress”. If the movement amount of the object is equal to or more than the predetermined amount, the process proceeds to step S39, and the driving action of the second event is kept "stop".
  • step S16 when the driving behavior for the event extracted again after the change of the detection condition is determined, the process proceeds to step S16, and a driving plan is formulated. Carry out an operation plan suitable for changing circumstances.
  • step S17 operation control is performed based on the prepared operation plan.
  • the processor 11 causes the vehicle to execute the driving plan via the vehicle controller 210.
  • the processor 11 determines the vehicle V1 on the target X coordinate value based on the actual X coordinate value of the host vehicle V1 (X axis is the vehicle width direction), the target X coordinate value corresponding to the current position, and the feedback gain. Calculate a target control value related to a steering angle, a steering angular velocity, etc. required to move the vehicle.
  • the processor 11 outputs the target control value to the on-vehicle apparatus 200.
  • the vehicle V1 travels on a target route defined by the target lateral position.
  • the processor 11 calculates a target Y coordinate value (Y axis is the traveling direction of the vehicle) along the route.
  • the processor 11 compares the current Y coordinate value of the vehicle V1, the vehicle speed and acceleration / deceleration at the current position, the target Y coordinate value corresponding to the current Y coordinate value, and the vehicle speed and acceleration / deceleration at the target Y coordinate value. Based on the above, the feedback gain related to the Y coordinate value is calculated. The processor 11 calculates a target control value related to the Y coordinate value based on the vehicle speed and the acceleration / deceleration according to the target Y coordinate value, and the feedback gain of the Y coordinate value.
  • the target control value in the Y-axis direction is the operation of the drive mechanism for achieving the acceleration / deceleration and the vehicle speed according to the target Y coordinate value (the operation of the internal combustion engine in In the case of a hybrid vehicle, the control value for the braking operation is also included in the case of a hybrid vehicle, including the torque distribution between the internal combustion engine and the electric motor.
  • the control function calculates the target intake air amount (the target opening of the throttle valve) and the target fuel injection amount based on the current and target acceleration / deceleration and vehicle speed values. , This is sent to the drive unit 270.
  • the control function calculates the acceleration / deceleration and the vehicle speed, sends them to the vehicle controller 210, and the operation of the drive mechanism for realizing the acceleration / deceleration and the vehicle speed in the vehicle controller 210 (internal engine internal combustion engine)
  • the control values for the operation of the engine, the electric motor system in the electric motor system and the electric motor operation, and in the hybrid vehicle, the torque distribution between the internal combustion engine and the electric motor may be calculated respectively.
  • the processor 11 outputs the calculated target control value in the Y-axis direction to the on-vehicle apparatus 200.
  • the vehicle controller 210 executes steering control and drive control, and causes the vehicle to travel on a target route defined by the target X coordinate value and the target Y coordinate value. The process is repeated each time target Y coordinate values are acquired, and control values for each of the acquired target X coordinate values are output to the on-vehicle apparatus 200.
  • step S18 the vehicle controller 210 executes the driving control instruction according to the instruction of the processor 11 until the destination is reached.
  • the operation control apparatus 100 is configured and operates as described above, and therefore, the following effects can be obtained.
  • the operation control method sequentially extracts a plurality of events encountered by the vehicle based on detection information acquired according to the detection condition, and rearranges the plurality of events in the order in which the vehicle encounters.
  • a method of judging driving behavior based on detected information acquired in an event drawing up a driving plan in which the judged driving behavior is defined for each event, and causing a vehicle to execute a driving control command according to the driving plan,
  • a second detection condition for one or more second events encountered after the first event is determined based on the content of the driving action defined for the first event encountered earlier.
  • An appropriate detection condition can be set by determining a second detection condition regarding the second event based on the content of the driving action in the first event.
  • the movement of the vehicle to be controlled changes, and the surrounding situation also changes.
  • the detection condition according to the driving action it is possible to accurately grasp the change of the object to be detected during the operation control and the change of the condition of the object.
  • the detection condition corresponding to the change of the situation on the upstream side is determined. It can be reflected in the detection process on the side. Thereby, necessary detection information according to the situation can be acquired. Since the detection condition according to the driving action is applied instead of applying the uniform detection condition, the detection information of the appropriate content is acquired, and the detection processing of the object based on the detection information of the appropriate information amount And so on.
  • the second detection condition regarding the second event when the driving behavior in the first event is "progress” is the case where the driving behavior in the first event is "stop"
  • the detection condition is to detect an object whose arrival time to reach the event is relatively short. It is appropriate to intensively monitor the objects OB which are in a near range in which the distance to the second event is less than the first predetermined value or the arrival time to the event PA is less than the predetermined value.
  • By switching the second detection condition it is possible to exclude from the determination object the object OB in which the distance to the second event is at least a predetermined value and the arrival time to the second event is in a distant range of at least a predetermined value. Unnecessary detection information can be prevented from being acquired while maintaining the detection accuracy of the object OB. As a result, computational load can be reduced and system resources can be used effectively.
  • the second detection condition regarding the second event when the driving behavior in the first event is “stop” is when the driving behavior in the first event is “progress”
  • the detection condition is to detect an object having a relatively long arrival time until the event is reached.
  • the state of the object OB is likely to change before the vehicle V1 arrives at the second event, and the distance to the second event is less than the second predetermined value (> the first predetermined value) or the arrival time to the event PA It is appropriate to monitor widely the object OB which exists in the near range below 2nd predetermined value (> 1st predetermined value).
  • the distance to the second event is at least the first predetermined value and less than the second predetermined value, and the arrival time to the second event is relatively distant from the first predetermined value to the second predetermined value.
  • the object OB present in the range can be determined.
  • the processor 11 monitors a wide range including the object OB which may move within that time. As a result, it is possible to obtain detection information of a range necessary for a scene where the driving action is “stop”.
  • the second detection condition regarding the second event when the driving behavior in the first event is “stop” is when the driving behavior in the first event is “progress”
  • the traveling condition of the vehicle is changed so as to relatively widen the detection range for detecting the object when compared with the second detection condition regarding the second event.
  • the state of the object OB is likely to change before the vehicle V1 arrives at the second event, and the distance to the second event is less than the second predetermined value (> the first predetermined value) or at the second event It is appropriate to monitor widely the object OB which exists in the vicinity range below time 2nd predetermined value (> 1st predetermined value).
  • the processor 11 monitors a wide range including the object OB which may move within that time. As a result, it is possible to obtain detection information of a range necessary for a scene where the driving action is “stop”.
  • the second detection condition regarding the second event when the driving behavior in the first event is “progress” is the case where the driving behavior in the first event is “stop”
  • the detection condition is obtained by changing the path trajectory of the vehicle so that the detection range for detecting the object becomes relatively narrow when compared with the second detection condition regarding the second event. It is appropriate to intensively monitor the objects OB which exist in a near range in which the distance to the second event is less than the first predetermined value or the arrival time to the second event is less than the first predetermined value.
  • the object OB By switching the second detection condition, it is possible to exclude from the determination object the object OB in which the distance to the second event is at least a predetermined value and the arrival time to the second event is in a distant range of at least a predetermined value. Unnecessary detection information can be prevented from being acquired while maintaining the detection accuracy of the object OB. As a result, computational load can be reduced and system resources can be used effectively.
  • the second detection condition regarding the second event when the driving behavior in the first event is progressing relates to the second event when the driving behavior in the first event is stopping
  • the detection condition has a low probability that the object is determined to touch the vehicle. That is, the second detection condition regarding the second event when the driving behavior in the first event is progressing is a detection result in which the probability that the object contacts the vehicle is relatively low even if the situation of the object is the same Lead. If the driving behavior in the first event is "progress", the object OB whose possibility of approaching the vehicle V1 in the second event to be encountered next is considered. An object to be watched can be appropriately detected according to the content of driving behavior in the event.
  • the second detection condition regarding the second event when the driving behavior in the first event is a stop is the second event PB when the driving behavior in the first event is progressing
  • the second detection condition regarding the second event when the driving behavior in the first event is the stop is a detection result in which the probability that the object contacts the vehicle is relatively high even if the situation of the object is the same Lead. If the driving behavior in the first event is "stop", the possibility of approaching the vehicle V1 in the second event is increased to consider the object OB present in a wide range. An object to be watched can be appropriately detected according to the content of driving behavior in the event.
  • the second detection condition is a detection condition including a detection range related to the second event. If the first event is "progress”, it is expected that the arrival time to the next event to be encountered next will be short. Triggered by the fact that the first event PA is "progressive”, the detection range of the second event is included in the detection range of the second detection condition, thereby quickly acquiring detection information around the necessary second event PB it can. Since detection information suitable for the operation plan can be acquired at an appropriate timing, the accuracy of the operation plan can be maintained.
  • the second detection condition is set as the detection condition excluding the detection range related to the second event. If the driving behavior of the first event PA encountered earlier is “stop”, the vehicle will decelerate, so that the processor 11 does not analyze the detection information of the second event PB, It may stop according to the driving action in the event PA.
  • the driving action in the first event PA is “stop”, acquisition of detection information on the event B to be encountered next is not performed, so acquisition of detection information having a low degree of importance is prohibited, and information to be processed is The amount can be reduced. As a result, computational load can be reduced and system resources can be used effectively.
  • the detection condition is to detect an object whose arrival time to an event is shorter.
  • the vehicle speed it is possible to selectively detect an object whose arrival time to an event is short.
  • the higher the vehicle speed the shorter the time to reach an event may be.
  • the vehicle speed it is possible to detect an object whose arrival time to an event is short.
  • the first detection condition applied earlier is switched to the second detection condition based on the change amount of the movement of the object obtained from the temporal change of the detection information. Determine if it is or not. If the change amount of the movement of the object is less than the predetermined value, the determination of the driving behavior is unlikely to be changed. If the determination of the driving behavior is not changed, the setting of the detection condition is likely to be maintained. As a result, the determination to change / maintain the detection condition can be appropriately made, so it is possible to execute the operation control suitable for the actual situation. By changing the detection condition frequently, it is possible to suppress that the occupant feels uncomfortable.
  • the second detection condition is set at the timing when the driving action in the first event switches from stop to progress.
  • the first event it is determined that the arrival time to the next second event is short, so by applying the second detection condition at this timing, the condition suitable for the situation can be obtained. It can be applied at the determined timing. Since appropriate detection conditions are set at appropriate timings, it is possible to acquire only necessary information and not to acquire unnecessary information. As a result, it is possible to reduce the computational load during automatic operation when passing through a scene including an event.
  • the driving action defined for the second event is cancelled.
  • the processor 11 predicts that the situation of the second event to be encountered next will change because the time to reach the second event of the vehicle changes due to the switching of the driving behavior of the first event to be encountered first.
  • the processor 11 does not review the driving behavior of the second event after approaching the second event, but cancels the content of the driving behavior of the second event triggered by the switching of the driving behavior of the first event. This makes it possible to determine a highly accurate driving behavior according to the situation. Since the re-decision is performed based on the change in the driving behavior of the first event rather than re-decision after approaching the second event, processing delay can be prevented.
  • the driving action of the second event is defined based on a previously defined rule.
  • the change rule in advance, it is possible to respond promptly to the change in the driving behavior of the first event. Since the driving behavior of the second event is determined quickly, steps such as speed change amount, acceleration change amount, steering change amount, and steering speed change amount can be reduced, and smooth automatic driving can be realized, and the occupant feels discomfort. You can not let it go.
  • the second event Change driving behavior to stop.
  • the driving behavior of the first event changes from “progressing” to “stopping”
  • the driving plan transitions from “stopping” to "progressing”
  • deceleration to acceleration Driving is performed and a speed step occurs.
  • the driving behavior of the first event is “stopped”
  • the arrival time to the first event may be long, and the driving behavior of the second event may also be “stopped” due to the change of the situation.
  • the arrival time to the 1st event may become long.
  • the driving behavior of the second event By setting the driving behavior of the second event to "stop" in preparation for the possibility of a change in the situation, appropriate judgment can be made even if the situation changes.
  • the driving behavior of the first event becomes "progress”
  • the driving behavior of the second event is "stopped”, thereby realizing a driving with a sense of security in which the speed step is suppressed. it can.
  • the driving action in the second event is set to progress.
  • the driving behavior of the second event is "stopped", but the movement is small when the movement amount (speed, acceleration) of an object such as another vehicle is less than a predetermined amount It can be judged. Driving that stops even though the movement of the object is small makes the user who is checking the situation feel uncomfortable.
  • the driving behavior of the second event is set to "progress”, smooth automatic driving is realized.
  • the driving plan is formulated based on the driving behavior of the event after the change.
  • the operation planning process is repeated at predetermined intervals. Since the vehicle moves and the situation changes every moment, the detection, analysis, and determination of the driving behavior of the object are repeated based on new detection information, detection results of a new object, and the like.
  • a new driving plan is formulated based on the changed driving behavior. Thereby, it is possible to make a driving plan in which the driving behavior optimum for the current situation is defined.
  • the driving action based on the new detection / judgment result is defined, so that the user who confirms the situation does not feel discomfort.
  • the operation control apparatus 100 of the present embodiment exhibits the same operation and effect as the above-described operation control method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Navigation (AREA)

Abstract

車両の運転を制御するプロセッサ(11)が、地点ごとに設定可能な検出条件に基づいて、車両V1の周囲の検出情報を取得し、検出情報に基づいて車両V1が遭遇する事象を遂次抽出し、抽出された複数の前記事象を前記車両が遭遇する順序に沿って並べ替え、事象において取得された検出情報に基づいて運転行動が事象ごとに規定された一連の運転計画を立案し、運転計画に従って車両の運転制御命令を実行し、車両が先に遭遇する第1事象について規定された運転行動の内容に基づいて、第1事象の後に遭遇する第2事象に関する第2検出条件を決定する運転制御方法を提供する。

Description

運転制御方法及び運転制御装置
 本発明は、運転制御方法及び運転制御装置に関する。
 この種の装置に関し、マルチスケール認知を利用して、自車及び障害物の動線群を算出し、各動線ごとに自車と障害物の経路交点における両者の存在確率に基づいたリスクを予測し、運転行動を選択する技術が知られている(特許文献1)。
特開2011-96105号公報
 しかしながら、従来の技術では、車両及び障害物の動線が、マルチスケール認知によって細分化された数だけ作成されるため、処理対象の数が膨大となり、運転行動をリアルタイムに決定することが難しい。車両及び障害物の検出条件が画一的である場合には、常に処理負荷が高い状態となるため、リアルタイムの判断がさらに困難になるという問題がある。
 本発明が解決しようとする課題は、経路を走行する車両が順次遭遇する事象における運転行動に応じた検出条件を設定することである。
 本発明は、検出条件に従って取得した検出情報に基づいて車両が遭遇する事象を抽出し、抽出された事象ごとに運転行動が規定された運転計画を立案する手法であって、事象における運転行動の内容に基づいて検出条件を決定することにより、上記課題を解決する。
 本発明によれば、運転行動に応じて検出情報の内容及び量を制御するので、処理負荷を低減させつつも必要な情報を取得することにより、リアルタイムの判断に基づく高精度の運転計画を立案できる。
本実施形態に係る運転制御システムのブロック構成図である。 運転計画の例を説明するための図である。 運転計画の表示例を示す図である。 本実施形態の運転制御システムの制御手順を示すフローチャート図である。 検出条件の設定方法を説明するための図である。 図3に示す制御手順のステップS15のサブルーチンを示すフローチャートである。 検出条件の決定方法の第1例を説明するための第1の図である。 検出条件の決定方法の第1例を説明するための第2の図である。 検出条件の決定方法の第2例を説明するための第1の図である。 検出条件の決定方法の第2例を説明するための第2の図である。 検出条件の決定方法の第3例を説明するための第1の図である。 検出条件の決定方法の第3例を説明するための第2の図である。 検出条件の決定方法の第4例を説明するための第1の図である。 検出条件の決定方法の第4例を説明するための第2の図である。 検出条件の決定方法の第5例を説明するための第1の図である。 検出条件の決定方法の第5例を説明するための第2の図である。 運転計画の立案処理の第1例を説明するための第1の図である。 運転計画の立案処理の第1例を説明するための第2の図である。 運転計画の立案処理の第2例を説明するための第1の図である。 運転計画の立案処理の第2例を説明するための第2の図である。 図3に示す制御手順のステップS16のサブルーチンを示すフローチャートである。
 以下、本発明の実施形態を図面に基づいて説明する。本実施形態では、本発明に係る運転制御方法及び運転制御装置を、車両に搭載された車載装置200と協動する運転制御システムに適用した場合を例にして説明する。
 図1は、運転制御システム1のブロック構成を示す図である。本実施形態の運転制御システム1は、運転制御装置100と車載装置200を備える。本発明の運転制御装置100の実施の形態は限定されず、車両に搭載してもよいし、車載装置200と情報の授受が可能な可搬の端末装置に適用してもよい。端末装置は、スマートフォン、PDAなどの機器を含む。運転制御システム1、運転制御装置100、車載装置200、及びこれらが備える各装置は、CPUなどの演算処理装置を備え、演算処理を実行するコンピュータである。
 まず、車載装置200について説明する。
 本実施形態の車載装置200は、車両コントローラ210、ナビゲーション装置220、検出装置230、レーンキープ装置240、及び出力装置250を備える。車載装置200を構成する各装置は、相互に情報の授受を行うためにCAN(Controller Area Network)その他の車載LANによって接続されている。車載装置200は、車載LANを介して運転制御装置100と情報の授受を行うことができる。
 本実施形態の車両コントローラ210は、プロセッサ11が立案する運転計画に従って車両の運転を制御する。車両コントローラ210は、センサ260、駆動装置270、及び操舵装置280を動作させる。車両コントローラ210は、センサ260から車両情報を取得する。センサ260は、舵角センサ261、車速センサ262、姿勢センサ263を有する。舵角センサ261は、操舵量、操舵速度、操舵加速度などの情報を検出し、車両コントローラ210へ出力する。車速センサ262は、車両の速度及び/又は加速度を検出し、車両コントローラ210へ出力する。姿勢センサ263は、車両の位置、車両のピッチ角、車両のヨー角車両のロール角を検出し、車両コントローラ210へ出力する。姿勢センサ263は、ジャイロセンサを含む。
 本実施形態の車両コントローラ210は、エンジンコントロールユニット(Electric Control Unit, ECU)などの車載コンピュータであり、車両の運転/動作を電子的に制御する。車両としては、電動モータを走行駆動源として備える電気自動車、内燃機関を走行駆動源として備えるエンジン自動車、電動モータ及び内燃機関の両方を走行駆動源として備えるハイブリッド自動車を例示できる。なお、電動モータを走行駆動源とする電気自動車やハイブリッド自動車には、二次電池を電動モータの電源とするタイプや燃料電池を電動モータの電源とするタイプのものも含まれる。
 本実施形態の駆動装置270は、車両の駆動機構を備える。駆動機構には、上述した走行駆動源である電動モータ及び/又は内燃機関、これら走行駆動源からの出力を駆動輪に伝達するドライブシャフトや自動変速機を含む動力伝達装置、及び車輪を制動する制動装置271などが含まれる。駆動装置270は、アクセル操作及びブレーキ操作による入力信号、車両コントローラ210又は運転制御装置100から取得した制御信号に基づいてこれら駆動機構の各制御信号を生成し、車両の加減速を含む運転制御を実行する。駆動装置270に制御情報を送出することにより、車両の加減速を含む運転制御を自動的に行うことができる。なお、ハイブリッド自動車の場合には、車両の走行状態に応じた電動モータと内燃機関とのそれぞれに出力するトルク配分も駆動装置270に送出される。
 本実施形態の操舵装置280は、ステアリングアクチュエータを備える。ステアリングアクチュエータは、ステアリングのコラムシャフトに取り付けられるモータ等を含む。操舵装置280は、車両コントローラ210から取得した制御信号、又はステアリング操作により入力信号に基づいて車両の進行方向の変更制御を実行する。車両コントローラ210は、操舵量を含む制御情報を操舵装置280に送出することにより、進行方向の変更制御を実行する。駆動装置270の制御、操舵装置280の制御は、完全に自動で行われてもよいし、ドライバの駆動操作(進行操作)を支援する態様で行われてもよい。駆動装置270の制御及び操舵装置280の制御は、ドライバの介入操作により中断/中止させることができる。
 本実施形態の車載装置200は、ナビゲーション装置220を備える。ナビゲーション装置220は、車両の現在位置から目的地までの経路を出願時に知られた手法を用いて算出する。算出した経路は、車両の運転制御に用いるために、車両コントローラ210へ送出される。算出した経路は、経路案内情報として後述する出力装置250を介して出力される。ナビゲーション装置220は、位置検出装置221を備える。位置検出装置221は、グローバル・ポジショニング・システム(Global Positioning System, GPS)の受信機を備え、走行中の車両の走行位置(緯度・経度)を検出する。
 ナビゲーション装置220は、アクセス可能な地図情報222と、道路情報223と、交通規則情報224を備える。地図情報222、道路情報223、交通規則情報224は、ナビゲーション装置220が読み込むことができればよく、ナビゲーション装置220とは物理的に別体として構成してもよいし、通信装置30(又は車載装置200に設けられた通信装置)を介して読み込みが可能なサーバに格納してもよい。地図情報222は、いわゆる電子地図であり、緯度経度と地図情報が対応づけられた情報である。地図情報222は、各地点に対応づけられた道路情報223を有する。
 道路情報223は、ノードと、ノード間を接続するリンクにより定義される。道路情報223は、道路の位置/領域により道路を特定する情報と、道路ごとの道路種別、道路ごとの道路幅、道路の形状情報とを含む。道路情報223は、各道路リンクの識別情報ごとに、交差点の位置、交差点の進入方向、交差点の種別その他の交差点に関する情報を対応づけて記憶する。交差点は、合流点、分岐点を含む。また、道路情報223は、各道路リンクの識別情報ごとに、道路種別、道路幅、道路形状、直進の可否、進行の優先関係、追い越しの可否(隣接レーンへの進入の可否)その他の道路に関する情報を対応づけて記憶する。
 ナビゲーション装置220は、位置検出装置221により検出された車両の現在位置に基づいて、車両が走行する第1経路を特定する。第1経路はユーザが指定した目的地に至る経路であってもよいし、車両/ユーザの走行履歴に基づいて推測された目的地に至る経路であってもよい。車両が走行する第1経路は、道路ごとに特定してもよいし、上り/下りの方向が特定されたリンクごとに特定してもよいし、車両が実際に走行するレーンごとに特定してもよい。ナビゲーション装置220は、後述する道路情報223を参照して、車両が走行する第1経路を、リンク及びレーンにより特定する。
 第1経路は、車両が将来通過する一つ又は複数の地点の特定情報(座標情報)を含む。第1経路は、車両が将来存在する走行位置を示す点を少なくとも含む。第1経路は、連続した線により構成されてもよいし、離散的な点により構成されてもよい。特に限定されないが、第1経路は、道路識別子、車線識別子、レーン識別子、リンク識別子により特定される。これらの車線識別子、レーン識別子、リンク識別子は、地図情報222、道路情報223において定義される。
 交通規則情報224は、経路上における一時停止、駐車/停車禁止、徐行、制限速度などの車両が走行時に遵守すべき交通上の規則である。各規則は、地点(緯度、経度)ごと、リンクごとに定義される。交通規則情報224には、道路側に設けられた装置から取得する交通信号の情報を含めてもよい。
 車載装置200は、検出装置230を備える。検出装置230は、経路を走行する車両の周囲の検出情報を取得する。車両の検出装置230は、車両の周囲に存在する障害物を含む対象物の存在及びその存在位置を検出する。特に限定されないが、検出装置230はカメラ231を含む。カメラ231は、例えばCCD等の撮像素子を備える撮像装置である。カメラ231は、赤外線カメラ、ステレオカメラでもよい。カメラ231は車両の所定の位置に設置され、車両の周囲の対象物を撮像する。車両の周囲は、車両の前方、後方、前方側方、後方側方を含む。対象物は、路面に表記された停止線などの二次元の標識を含む。対象物は三次元の物体を含む。対象物は、標識などの静止物を含む。対象物は、歩行者、二輪車、四輪車(他車両)などの移動体を含む。対象物は、ガードレール、中央分離帯、縁石などの道路構造物を含む。
 検出装置230は、画像データを解析し、その解析結果に基づいて対象物の種別を識別してもよい。検出装置230は、パターンマッチング技術などを用いて、画像データに含まれる対象物が、車両であるか、歩行者であるか、標識であるか否かを識別する。検出装置230は、取得した画像データを処理し、車両の周囲に存在する対象物の位置に基づいて、車両から対象物までの距離を取得する。検出装置230は、車両の周囲に存在する対象物の位置及び時間に基づいて、車両が対象物に到達する時間を取得する。
 なお、検出装置230は、レーダー装置232を用いてもよい。レーダー装置232としては、ミリ波レーダー、レーザーレーダー、超音波レーダー、レーザーレンジファインダーなどの出願時に知られた方式のものを用いることができる。検出装置230は、レーダー装置232の受信信号に基づいて対象物の存否、対象物の位置、対象物までの距離を検出する。検出装置230は、レーザーレーダーで取得した点群情報のクラスタリング結果に基づいて、対象物の存否、対象物の位置、対象物までの距離を検出する。
 検出装置230は、通信装置233を介して外部の装置から検出情報を取得してもよい。通信装置233が他車両と車両とが車車間通信をすることが可能であれば、検出装置230は、他車両の車速センサが検出した他車両の車速、加速度を、他車両が存在する旨を対象物情報として取得してもよい。もちろん、検出装置230は、高度道路交通システム(Intelligent Transport Systems:ITS)の外部装置から通信装置233を介して、他車両の位置、速度、加速度を含む対象物情報を取得することもできる。検出装置230は、車両近傍の情報は車載装置200により取得し、車両から所定距離以上の遠い領域の情報は路側に設けられた外部装置から通信装置233を介して取得してもよい。
 検出装置230は、検出結果をプロセッサ11へ逐次出力する。
 上述した検出情報の取得、すなわち検出処理は、所定の検出条件に基づいて実行される。検出条件は、地点ごとに設定可能な条件である。プロセッサ11は、検出条件を演算し、検出装置230に設定を指令する。
 検出装置230は、地点ごとに検出条件の設定が可能である。地点は事象において定義された地点(位置情報)であってもよいし、第1経路上の任意の地点であってもよい。プロセッサ11は、設定すべき検出条件に地点の情報を含める。
 本実施形態の車載装置200は、レーンキープ装置240を備える。レーンキープ装置240は、カメラ241、道路情報242を備える。カメラ241は、検出装置のカメラ231を共用してもよい。道路情報242は、ナビゲーション装置の道路情報223を共用してもよい。レーンキープ装置240は、カメラ241の撮像画像から車両が走行する第1経路の車線(レーン)を検出する。レーンキープ装置240は、車線のレーンマーカの位置と車両の位置とが所定の関係を維持するように車両の動きを制御する車線逸脱防止機能(レーンキープサポート機能)を備える。運転制御装置100は車線の中央を車両が走行するように、車両の動きを制御する。なお、レーンマーカは、レーンを規定する機能を有するものであれば限定されず、路面に描かれた線図であってもよいし、レーンの間に存在する植栽であってもよいし、レーンの路肩側に存在するガードレール、縁石、歩道、二輪車専用道路などの道路構造物であってもよい。また、レーンマーカは、レーンの路肩側に存在する看板、標識、店舗、街路樹などの不動の物体であってもよい。
 後述するプロセッサ11は、検出装置230により検出された対象物を、事象及び/又は経路に対応づけて記憶する。プロセッサ11は、事象の所定距離以内に存在し、事象において遭遇する可能性のある対象物を、その事象に対応づけて記憶する。事象において遭遇するプロセッサ11は、対象物を経路に対応づけて記憶する。プロセッサ11は、どの経路のどの位置に対象物が存在するかを把握する。これにより、事象において車両が遭遇する対象物を迅速に判断できる。一の事象に対応づけられる対象物は一つであってもよいし、複数であってもよい。場所として特定された事象において車両と遭遇すると判断された対象物は、共通の事象に対応づけられる。例えば、一つの事象として定義される横断歩道に複数の歩行者が存在する場合には、各歩行者は横断歩道の事象に対応づけられる。各歩行者は独立の対象物として対応づけられてもよいし、位置及び速度が共通する(所定値域内である)一群の対象物として対応づけられてもよい。
 車載装置200は、出力装置250を備える。出力装置250は、ディスプレイ251、スピーカ252を備える。出力装置250は、運転制御に関する各種の情報をユーザ又は周囲の車両の乗員に向けて出力する。出力装置250は、立案された運転行動計画、その運転行動計画に基づく運転制御に関する情報を出力する。第1経路(目標経路)上を車両に走行させる制御情報に応じた情報として、操舵操作や加減速が実行されることをディスプレイ251、スピーカ252を介して、車両の乗員に予め知らせる。また、これらの運転制御に関する情報を車室外ランプ、車室内ランプを介して、車両の乗員又は他車両の乗員に予め知らせてもよい。また、出力装置250は、通信装置を介して、高度道路交通システムなどの外部装置に運転制御に関する各種の情報を出力してもよい。
 次に、運転制御装置100について説明する。
 運転制御装置100は、制御装置10と、出力装置20と、通信装置30を備える。出力装置20は、先述した車載装置200の出力装置250と同様の機能を有する。ディスプレイ251、スピーカ252を、出力装置20の構成として用いてもよい。制御装置10と、出力装置20とは、有線又は無線の通信回線を介して互いに情報の授受が可能である。通信装置30は、車載装置200との情報授受、運転制御装置100内部の情報授受、外部装置と運転制御システム1との情報授受を行う。
 まず、制御装置10について説明する。
 制御装置10は、プロセッサ11を備える。プロセッサ11は、車両の運転計画の立案を含む運転制御処理を行う演算装置である。具体的に、プロセッサ11は、運転計画の立案を含む運転制御処理を実行させるプログラムが格納されたROM(Read Only Memory)と、このROMに格納されたプログラムを実行することで、制御装置10として機能する動作回路としてのCPU(Central Processing Unit)と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)と、を備えるコンピュータである。
 本実施形態に係るプロセッサ11は、以下の方法に係る処理を実行する。
(1)車両の周囲の検出情報を取得する、
(2)検出情報に基づいて車両が遭遇する事象を抽出する、
(3)抽出された複数の事象を車両が遭遇する順序に沿って並べ替え、
(4)事象において取得された検出情報に基づいて運転行動を判断する、
(5)運転行動が事象ごとに規定された一連の運転計画を立案する、
(6)運転計画に従う運転制御命令を車両に実行させる。
さらに、プロセッサ11は、
(7)先に遭遇する第1事象について規定された運転行動の内容に基づいて、第1事象の後に遭遇する一又は複数の第2事象に関する第2検出条件を決定する、処理を実行する。
 プロセッサ11は、運転計画の立案/再立案機能を実現する第1ブロックと、運転計画の実行機能を実現する第2ブロックと、実行中の運転計画の運転行動の内容又はその変化に応じて、検出条件を設定する設定機能を実現する第3ブロックとを有する。プロセッサ11は、上記各機能を実現するため、又は各処理を実行するためのソフトウェアと、上述したハードウェアとの協働により各機能を実行する。
 まず、図2Aに基づいて、本実施形態に係るプロセッサ11が実行する運転計画の立案処理について説明する。運転計画の立案処理は、運転制御システム1が実行する基本的な処理である。運転計画の立案処理は、車両が走行する第1経路の算出処理、第1経路を走行する際に遭遇する事象の抽出処理、事象における運転行動の決定処理、各事象と運転行動が対応付けられた運転計画の立案処理とを含む。
 まず、第1経路の算出処理について説明する。
 プロセッサ11は、車両の走行中又は走行が予定されている経路(第1経路と記すこともある)を算出する。プロセッサ11は、第1経路を算出するために、自車情報を取得する。プロセッサ11は、位置検出装置221から車両の現在位置を取得する。プロセッサ11は、地図情報222を参照し、取得した現在位置、進行方向を用いて第1経路を算出する。プロセッサ11は、ナビゲーション装置220が求めた車両の走行予定経路を第1経路として取得してもよい。プロセッサ11は、ナビゲーション装置220が求めた、現在位置から目的地に至るまでの案内経路を第1経路として取得してもよい。車両の経路の算出処理は、本願出願時において知られた手法を適宜に用いることができる。
 事象の抽出処理について説明する。
 プロセッサ11は、第1経路を走行する車両が遭遇する事象を取得(検出/抽出)する。本実施形態における事象(イベント)とは、運転制御の判断処理のトリガとなる事物(事柄/物体の存在)である。実行される運転制御とは、車両の加減速、車両の操舵を含む。つまり、事象(イベント)とは、車両の加減速や操舵を実行せしめる原因となるものである。事象は、第1経路上の交差点、第1経路上の停止線、第1経路上の横断歩道、第1経路を走行する車両の周囲の対象物である。対象物は、平面/立体の交通標識、歩行者、二輪車、四輪車などの移動体、ガードレール、中央分離帯、縁石などの道路構造物を含む。プロセッサ11は事象(イベント)の位置を特定する。
 プロセッサ11は、地図情報222を参照し、車両の走行中又は走行が予定されている第1経路と交点を有する他の経路を抽出する。第1経路と交点を有する経路とは、第1経路と交わる経路、第1経路に流入する経路、第1経路から流入する経路、第1経路と交差する経路を含む。他の経路が検出された場合には、その他の経路との交点が、第1経路の交差点であり、事象として取得される。プロセッサ11は、交通規則情報224を参照して、第1経路上の交通標識の存在及び位置を取得する。交通規則情報224は、一時停止位置、進入禁止、一方通行などの情報がリンク(経路)や位置情報に対応づけられた情報である。プロセッサ11は、停止の交通規則を事象として認識する。プロセッサ11は、停止が定義されている位置を、車両が事象と遭遇する位置として抽出する。抽出された事象の位置は、経路(リンクを含む)に対応づけられる。同様に、プロセッサ11は、進入禁止の交通規則を事象として認識する。プロセッサ11は、進入禁止が定義されている位置よりも上流側の位置(走行方向の上流側)を、車両が事象と遭遇する位置として抽出する。抽出された事象の位置は、経路(リンクを含む)に対応づけられる。交通規則情報224は、信号機が示す交通信号を含む。このとき、地図情報222、道路情報223を参照してもよい。
 また、プロセッサ11は、検出装置230の検出情報に基づいて、第1経路を走行する車両が遭遇する動的な事象を抽出する。検出情報に基づいて検出される事象の情報は、第1経路上の対象物の存在及び位置を含んでもよい。プロセッサ11は、検出装置230により検出された対象物(歩行者、他車両、道路構造物などを含む物体、いわゆる障害物)が存在することを、車両が遭遇する事象として認識する。プロセッサ11は、車両と検出された対象物との距離が所定値未満であるときに、その対象物の存在を事象として抽出するようにしてもよい。プロセッサ11は、車両と検出された対象物とが接触するまでの予測時間が所定値未満であるときに、その対象物の存在を事象として抽出するようにしてもよい。
 プロセッサ11は、対象物の位置情報を用いて、第1経路を走行する車両が遭遇する事象を抽出する。対象物には、工事現場、故障車、回避領域などの一時的に通行を規制する対象を含む。この種の対象物の情報は、道路情報223に含めてもよい。対象物が存在する位置の情報は、ITSなどの路側の情報提供装置から受信してもよい。
 プロセッサ11は、検出装置230の出力結果に基づいて、第1経路上の障害物を含む対象物の存在及び位置を取得する。プロセッサ11は、道路情報223を参照して、第1経路上の道路構造物の存在及び位置を取得する。このとき、地図情報222、道路情報223を参照してもよい。
 プロセッサ11は、取得した事象の情報(存在及び位置)と車両との関係に基づいて第1経路を走行するための第1運転計画を立案する。第1運転計画の立案は、所定周期で行ってもよいし、車両と交差点(事象)との距離が所定距離未満となったタイミングで行ってもよい。
 プロセッサ11は、抽出された複数の事象との遭遇位置を、車両の経路に対応づける。プロセッサ11は、抽出された複数の事象を車両が遭遇する順序に沿って並べ替える。プロセッサ11は、第1経路を走行する車両の位置の遷移と事象の位置とから、遭遇する事象の順序を求め、事象を車両が遭遇する順序に沿って並べ替える。この事象を遭遇する時系列に並べた情報は、後述する出力装置20を介してユーザに提示してもよい。
 続いて、プロセッサ11は、経路を走行する車両の運転行動を計画する。プロセッサ11は、車両が第1経路を走行する際に経時的に遭遇する複数の事象と車両との関係(評価結果)を用いて、車両が第1経路を走行する際の運転計画を立案する。プロセッサ11は、検出装置230により検出された対象物の存在を考慮して運転計画を立案する。
 ちなみに、プロセッサ11は、複数の事象を車両が遭遇する順序に沿って並べ替え、事象ごとに運転行動が規定された一連の運転計画に従う制御指令を作成する。このような一次元マップ(ODSM:One Dimensional Situation Map)を用いた手法では、上流側又は下流側の事象の運転行動が、下流側又は上流側の事象の運転行動に影響を与える。例えば、一度決定された一連の運転計画において、いずれかの運転行動が、新たな対象物(他車両)の出現により変化すると、他の運転行動も影響を受ける。一の事象における運転行動の変化は、車両の事象への到達時間を変化させるため、経時的に並べられた各事象に到達するタイミングに影響を与える。事象への到達タイミングが変化すると、対象物の移動量も変化するため各事象における状況も変化する。例えば、上流側の事象の運転行動が停止である場合には、下流側の事象の運転行動にかかわらず車両は減速させられる。さらに、下流側の事象の運転行動が停止である場合には、上流側の事象の運転行動が進行であっても、車両は少なくとも減速が求められる。車速が低速となり、減速による事象への到達時間の延長は、遭遇する事象における状況の変化をもたらすため、上流側の運転行動も影響を受ける。このような技術的な特徴のある運転計画においては、時系列に並べられた各運転行動の内容/その変化に対応することが求められるという独特の課題がある。これに対し、本実施形態では、時系列に並べられた各運転行動の内容に応じて検出条件の適正化を実行する。
 プロセッサ11は、抽出した各事象の種類(交差点、交通規則、対象物)と、事象との位置及び位置の変化(距離、接触に至る時間、接近速度、所定時間後の距離)、事象の内容(交通規則の内容、対象物の属性)、等を評価する。プロセッサ11は、車速センサ262から取得した車両の車速を用いて、事象との距離及び距離の変化を求める。
 事象が交通規則である場合には、プロセッサ11は、交通規則情報224、地図情報222、道路情報223、検出装置230の検出結果の一つ以上を参照し、その交通規則の種類、位置/位置の変化、内容を読み込む。事象が信号機である場合には、プロセッサ11は、検出装置230の信号認識機能の認識結果に基づいて、信号機が示す交通規則が進行/注意/停止のいずれであるかを認識する。プロセッサ11は、通信装置30を介して取得した外部のITSが送信する信号情報に基づいて、信号機が示す交通規則を認識してもよい。事象が停止線、一時停止線、停止禁止エリア、車線変更禁止などの交通標識である場合には、プロセッサ11は、交通規則情報224、道路情報223、地図情報222を参照して、検出装置230が検出した交通標識の位置、内容を認識する。
 事象が歩行者、他車両、道路構造物などの対象物である場合には、プロセッサ11は、検出装置230が検出した対象物の位置、移動速度に基づいて、車両と対象物の種類、位置/位置の変化、内容を求める。
 プロセッサ11は、抽出された複数の事象に対してそれぞれ一つの運転行動を決定する。決定される行動は、運転に関する進行行動と停止行動とを含む。プロセッサ11は、各事象に対して、進行行動又は停止行動の何れか一方を決定する。事象が交通規則であり、その交通規則が停止を求めるものである場合には、プロセッサ11は、その事象に対する運転行動を「停止」と決定する。他方、その交通規則が通過を許可するものである場合には、プロセッサ11は、その事象に対する運転行動を「進行」と決定する。事象が対象物であり、その対象物との距離が所定値未満、距離の変化が所定値以上、接触までの時間が所定値未満の何れかである場合には、プロセッサ11は、その事象に対する運転行動を「停止」と決定する。他方、対象物との距離が所定値以上、距離の変化が所定値未満、接触までの時間が所定値以上の何れかである場合には、プロセッサ11は、その事象に対する運転行動を「進行」と決定する。プロセッサ11は、これら複数の事象に対して決定された各行動の内容に基づいて、一連の運転計画を立案する。
 図2Aに基づいて、プロセッサ11の運転行動の決定を含む運転計画の立案手法の一例を説明する。プロセッサ11は、車両V1が第1経路RT1を走行する際に遭遇する事象に対してとるべき運転行動を判断する。プロセッサ11は、車両V1の目的地を考慮して、車両が走行する経路を算出する。算出された経路は、本実施形態における第1経路RT1である。図2Aに示す第1経路RT1を例に、第1経路RT1を走行する際の運転計画の立案について説明する。第1経路RT1において、車両V1は矢印Fで示す方向に走行し、停止線ST1、信号SG1、横断歩道CR1を通過し、交差点P内で右折する。この第1経路RT1を走行する際に車両V1が遭遇する事象は、停止線ST1、信号SG1、横断歩道CR1、右折車線に進入する際に接近する他車両V2、横断歩道CR4である。プロセッサ11は、一の検出タイミングにおける事象を抽出する。車両V1が遭遇する事象は、刻々に変化するため、タイミングが異なると、対象物の位置、動き(速度等)も変化する。プロセッサ11は、所定周期で刻々に変化する事象に応じて、刻々の運転計画を算出する。プロセッサ11は、車両V1が第1経路上の交差点(他の経路との交点)に所定距離以内に接近したときに運転計画を算出してもよい。
 プロセッサ11は、抽出された各事象の種類(交差点、交通規則、対象物)と、事象との位置及び位置の変化(距離、接触に至る時間、接近速度、所定時間後の距離)、事象の内容(交通規則の内容、対象物の属性)を判断する。
 プロセッサ11は、車両V1から最も近い事象(停止線ST1)を認識する。プロセッサ11は、停止線ST1が交通規則であり、車両V1からの距離がD1、到達時間がS1であり、停止線ST1において一時停止を求める事象であると判断する。プロセッサ11は、停止線ST1に対応し、車両V1から二番目に近い事象(信号SG1)を認識する。プロセッサ11は、号SG1が交通規則であり、車両V1からの距離がD2、到達時間がS2であり、進行を禁止する(赤色/黄色信号)事象であると判断する。停止線ST1は、車両V1が交差点に進入するときに、信号SG1が停止を指示したときに、車両を信号SG1の上流側で停止させる位置を示す事象である。別々の事象として認識される信号SG1と停止線ST1は交通規則情報224において対応づけられている。停止線ST1の内容は、信号SG1が停止を示す信号(赤色/黄色信号)であるときに「停止」となるが、信号SG1が進行を示す信号(青/緑)であるときに「進行」となる。プロセッサ11は、事象(信号SG1)において進行禁止が指示されていることに基づいて、事象(信号SG1)に対応づけられた事象(停止線ST1)についての運転行動は「停止」となる。停止線ST1と信号SG1は、本例の運転制御においては共通の事象としてとらえることもできる。
 プロセッサ11は、車両V1から三番目に近い事象(横断歩道CR1)を認識する。プロセッサ11は、横断歩道CR1が交通規則であり、車両V1からの距離がD2、到達時間がS2であり、進行が許可された(青/緑信号)事象であると判断する。横断歩道の交通規則は、信号が進入禁止を示す場合には「停止」であり、信号が進入許可を示す場合には「進行」である。また横断歩道の交通規則は、横断歩道に歩行者が存在する場合には「停止」であり、横断歩道に歩行者が不在である場合には「進行」である。プロセッサ11は、事象(信号SG1)において進行禁止が指示されているので、事象(横断歩道CR1)は「停止」となる。また、横断歩道CR1を歩行中の歩行者H1が存在する。検出装置230は歩行者H1を検出する。プロセッサ11は、検出装置230の検出結果(歩行者H1の存在)に基づいて、事象(横断歩道CR1)についての運転行動は「停止」となる。
 プロセッサ11は、交差点P内で右折する際に、第1経路が別の道路と交差する地点(交差点)を事象として抽出する。プロセッサは、車両V1から三番目に近い事象(交差点MX12)を認識する。プロセッサは、交差点MX12が交差点であり、車両V1からの距離がD3、到達時間がS3であると判断する。また、交差点MX12に接近する他車両V2が存在する。検出装置230は交差点MX12に接近する他車両V2を検出する。検出装置230は車両V1を基準とするTTC(time to collision)が所定時間以内である物体を対象物として認識する。プロセッサ11は、検出装置230の検出結果(他車両V2の存在)に基づいて、事象(交差点MX12)についての運転行動は「停止」となる。
 プロセッサ11は、交差点P内で右折後に進入する横断歩道CR4を事象として抽出する。プロセッサ11は、車両V1から四番目に近い事象(横断歩道CR4)を認識する。プロセッサ11は、横断歩道CR4が交通規則であり、車両V1からの距離がD4、到達時間がS4であると判断する。交差点領域から退出する場合には、横断歩道への進入前に停止は求められない。ただし、周囲の対象物の存在については常に配慮する必要がある。当然であるが、横断歩道CR4を通過する際、プロセッサ11は、検出装置230の検出結果を監視し、周囲に対象物が存在しないことを確認する。事象(横断歩道CR4)進入前のタイミングで検出装置230が対象物を検出しないことを条件として、プロセッサ11は、事象(横断歩道CR4)についての運転行動を「進行」と判断する。
 プロセッサ11は、車両V1が経時的に遭遇する複数の事象と車両V1との関係に基づいて、各事象に対して進行行動又は停止行動いずれかの行動をそれぞれ決定し、各事象に対して決定された行動の内容を用いて、一連の運転計画を立案する。プロセッサ11は、車両V1が第1経路を走行する際に経時的に遭遇する複数の事象と車両V1との関係を用いて、各事象に関する一連の運転計画を立案する。これにより、最終的な運転計画を立案するまでのプロセスを簡素化できる。必要な事象を考慮した精度の高い運転計画を立案しつつ、演算負荷の低減を図ることができる。
 上述したとおり、事象の状態の変化に伴い、事象と車両V1との関係は刻々に変化する。事象の状態が変化すれば、運転行動も変化する。プロセッサ11は、継続的に(所定周期で)各事象と車両V1との関係を用いて、第1経路を走行する車両V1の運転計画を立案する。
 運転制御装置100は、立案した運転計画をユーザに提示する。出力装置20は、プロセッサ11により抽出され、遭遇する順序に沿って並べられた事象を表示する。出力装置20は、ディスプレイ251を用いて、運転計画に関する情報を表示する。出力装置20は、並び替えられた複数の事象を、スピーカ252を用いて音声出力してもよい。
 図2Bは、事象を経時的に示す表示例である。矢印Tは、第1経路における車両V1の進行方向を示す。出力装置20は、抽出された事象、つまり、停止線ST1及び信号SG1、横断歩道CR1、交差点MX12、及び横断歩道CR4を、車両V1が遭遇する順に、時間軸である矢印Tに沿って表示する。事象を示す情報は、記号であってもよいし、テキスト情報であってもよいし、抽象的なマークであってもよい。彩色、大きさ等は任意に決定できる。
 出力装置20は、プロセッサ11により決定された各事象の運転行動を、各事象に対応づけて表示する。図2Bに示す情報VWにおいては、矢印Tに沿う位置が各事象と共通するように、各事象の下にその事象の運転行動を表示する。運転行動を示す情報は、記号であってもよいし、テキスト情報であってもよいし、抽象的なマークであってもよい。彩色、大きさ等は任意に決定できる。
 出力装置20は、事象が、経路の交点、交通規則上の停止位置、道路構造物などの静止物、歩行者、他車両などの移動体を含む場合であっても、抽出された複数の事象に含まれる静止物と移動体を、車両V1が遭遇する順序という共通の時間軸に沿って並べ替える。他車両には、後方から接近する他車両も含まれる。
 このように、第1経路を走行する車両V1が遭遇する事象を、車両V1が遭遇する順序に沿って並べて表示することにより、車両V1のドライバは、どのような事象に、どのような順序で遭遇し、どのような運転行動をとるのかを、視覚的に認識できる。
 続いて、本実施形態の運転制御システム1の処理手順を、図3のフローチャートに基づいて説明する。なお、各ステップでの処理の概要は、上述したとおりである。ここでは処理の流れを中心に説明する。
 まず、ステップS1において、プロセッサ11は、制御対象となる車両の車両情報を取得する。車両情報は、現在位置、進行方向、速度、加速度、制動量、操舵量、操舵速度、操舵加速度、などの車両の運転に関する情報と、車両の諸元情報、車両の性能情報を含む。車両情報は車載装置200から取得する。
 ステップS2において、プロセッサ11は、検出情報を取得する。検出情報は事象の有無、事象の位置を含む。事象の位置は、交差点、対象物などの運転制御の判断処理のトリガとなる事物の位置である。検出情報は、車両の周囲の物体の存在の有無、対象物の属性(静止物又は移動体)、対象物の位置、対象物の速度・加速度、対象物の進行方向を含む。検出情報は、検出装置230、ナビゲーション装置220を含む車載装置200から取得できる。
 ステップS3において、プロセッサ11は、車両V1がこれから遭遇する直近のシーンに変更があるか判断する。シーンはこれから通過する交差点などの場面である。例えば通過する交差点がシーンである場合には、シーンは、交差点侵入から、他の経路との交差、交差点退出までの事象を含む。シーンは複数の事象を含む。遭遇するシーンは、事象に応じた一群の制御命令が適用される単位としても定義できる。プロセッサ11は、走行経路に変更がないこと、運転制御の対象であるシーンを通過したか否かを判断する。新たな(次の)シーンの設定の要否を判断するためである。プロセッサ11は、既に計算された経路上に車両の現在位置が属している場合には、走行経路に変更がないと判断する。プロセッサ11は、既に計算された経路上に車両の現在位置が属していない場合には、走行経路に変更があったと判断する。プロセッサ11は、直前に通過するシーンとして設定された領域に車両の現在位置が属していない場合には、シーンを通過したと判断する。プロセッサ11は、直前に通過するシーンとして設定された領域に車両V1の現在位置が属している場合には、シーンを通過していないと判断する。シーンを通過した場合には、次のシーン又は事象についての運転計画の立案、実行を繰り返す。
 プロセッサ11は、ステップS3において、走行経路が変更された場合又はシーンを通過した場合には、シーンに変更があると判断し、S4~S9の処理を実行する。プロセッサ11は、走行経路が変更された場合又はシーンを通過した場合には、シーンに変更があると判断し、S4~S9の処理を実行する。走行経路が変更されておらず、かつシーンを通過していない場合には、シーンに変更が無いと判断し、S11に進む。
 ステップS4において、プロセッサ11は、車両V1が走行する第1経路を算出する。第1経路は、ナビゲーション装置220が算出したものを利用してもよい。第1経路は、道路識別子、車線識別子、レーン識別子、リンク識別子により特定される。これらの車線識別子、レーン識別子、リンク識別子は、地図情報222、道路情報223において定義される。
 ステップS5において、プロセッサ11は、第1経路を走行する車両V1が遭遇するシーンを設定する。シーンは、第1経路と他の経路との交点が存在する地点を含む領域である。第1経路との交点の態様は限定されることなく、合流、分岐、交差、T字交差、隣接のいずれでもよい。シーンは、交通規則情報224に従い第1経路上において停止が求められる地点を含む領域である。プロセッサ11は、地図情報222、道路情報223、交通規則情報224を参照して、車両V1が事象に遭遇する可能性の高いシーンを領域R1として設定する(図2参照)。車両V1が遭遇するシーンとしては、例えば、交差点の近傍領域、車線の合流地点の近傍領域、横断歩道の近傍領域、停止線の近傍領域、踏切の近傍領域、工事現場の近傍領域などである。
 ステップS6において、プロセッサ11は、第1経路と交点を有する第2経路を抽出する。プロセッサ11は、地図情報222、道路情報223、を参照して、第1経路と交点を有する第2経路を抽出する。プロセッサ11は、地図情報222において定義されたリンク情報(ノード情報)を参照する。複数の経路が交わる場所では、リンク情報(ノード情報)が他の複数のリンクに接続される。プロセッサ11は、リンク情報(ノード情報)の接続状況から第1経路と交わる第2経路を抽出する。
 ステップS7において、プロセッサ11は、設定されたシーンにおいて、車両V1が遭遇する事象を抽出する。プロセッサ11は、第1経路と第2経路との交点を事象として抽出する。ちなみに、経路の合流地点においては、複数のリンクが一つのリンクに接続される。交差点においては、交差点への入口付近が車線の分岐地点に対応し、交差点の出口付近が車線の合流地点に対応する。このように、一つのリンクが複数のリンクに接続されている地点は、交差点の出口側において第1経路と第2経路とが交わる事象として抽出できる。つまり、一つのリンクが複数のリンクに接続されている地点の存在を検出することによって交差点の出口における第2経路を検出できる。また、横断歩道にもリンク情報が定義されており、第1経路のリンクと横断歩道のリンクの交差判定を行うことにより、第1経路と交わる横断歩道を第2経路として検出できる。プロセッサ11は、交通規則情報224に従い第1経路上において一時停止が求められる事物を事象として抽出する。
 抽出した事象の位置は、経路と対応づけて記憶する。抽出した事象の位置を地図情報222、道路情報223に対応づけて記憶してもよい。後に行われる運転計画の立案においては、抽出した事象(事象の位置)ごとに運転行動が決定される。
 ステップS8において、プロセッサ11は、各事象に対する運転行動をそれぞれ決定する。運転行動は「停止」「進行」を含む。事象が進行を禁じている場所(一時停止線、停止信号)などである場合には、その事象の運転行動は「停止」となる。また、事象において対象物と接触する可能性が高い場合には、その事象の運転行動も「停止」となる。他方、事象が進行を許可する場所(進行信号)などである場合には、その事象の運転行動は「進行」となる。また、事象において対象物と接触する可能性が低い場合には、その事象の運転行動も「進行」となる。接触の可能性は、車両が事象に到達する時間と、対象物が事象に到達する時間との時間差に基づいて判断する。
 ステップS9において、プロセッサ11は、抽出した複数の事象を、車両V1が遭遇する順序に従い並び替える。出力装置20は、並び替えられた複数の事象をディスプレイ251に表示する(図2B参照)。出力装置20は、並び替えられた複数の事象を、スピーカ252を用いて音声出力してもよい。この表示は運転計画立案後に行ってもよい。
 ステップS11において、プロセッサ11は、新たに取得した検出情報を検証する。走行車両の周囲の状況は刻々と変化する。車両自体が動くこと、他車両との位置関係が変化すること、歩行者の位置が変化すること、新たな対象物が現れること、位置の変化により検出精度が変化することなど、周囲の状況が一定となることはない。つまり、ステップS2において取得した検出情報に基づいて抽出された事象の存在、事象の有無は、逐次再検討されなければならない。ステップS11で検証する検出情報は、ステップS2で取得した検出情報よりも後のタイミングで取得された検出情報である。プロセッサ11は、新たな検出情報に基づいて、第1経路を走行する車両が遭遇する対象物を抽出する。プロセッサ11は、ステップS2で得た対象物情報のうち、第1経路と交差する第2経路に存在する対象物の情報を抽出する。
 ステップ12において、プロセッサ11は、新たに検出された対象物と事象を対応づける。事象としての横断歩道と対象物としての歩行者とを対応づけてもよいし、第2経路との交点を事象とし、第2経路を走行する他車両を対応づけてもよい。第1経路に存在する対象物を事象として定義してもよい。
 ステップS13において、プロセッサ11は、新たに検出された事象を考慮して、事象ごとに運転行動を決定する。運転行動は、上述したとおり、事象における交通規則、車両と対象物との接触の可能性に基づいて決定する。接触の可能性は、車両と対象物との距離又は両者が接触するまでの時間に基づいて判断される。両者が接触する時間は、車両と対象物の速度を用いて算出する。接触の可能性は、車両と対象物とが事象に到達する時間に基づいて算出する。事象における接触の可能性に基づいて、事象における運転行動を判断する。
 ステップS11~ステップS13の処理は、所定周期で行われることが好ましい。条件によっては、ステップS8からステップS14へスキップすることも不可能ではない。
 車両が事象に到達するタイミングと、対象物が事象に到達するタイミングとが所定時間以上である場合には、接触の可能性は低いため、その事象には運転行動「進行」が規定される。他方、車両が事象に到達するタイミングと、対象物が事象に到達するタイミングとが所定時間未満である場合には、接触の可能性が高いため、その事象には運転行動「停止」が規定される。距離についても同様に、事象に到達する車両と対象物との距離が所定距離以上である場合には、接触の可能性は低いため、その事象には運転行動「進行」が規定される。他方、事象に到達する車両と対象物との距離が所定距離未満である場合には、接触の可能性が高いため、その事象には運転行動「停止」が規定される。事象が対象物である場合いは、車両と対象物との位置関係に基づいて、その接触の可能性を判断する。
 プロセッサ11は、検出情報又は検出情報の経時的変化に基づいて対象物の動きを判断する。この判断において、プロセッサ11は、対象物の動く方向、対象物の速度を仮定して、対象物を車両又は事象との位置関係を予測する。対象物の移動方向の自由度(分散値)は、道路を走行する車両、二輪車、歩行者などの対象物の属性に応じて異なる。プロセッサ11は、撮像画像などから分析した対象物の属性に基づいて、対象物の移動方向を予測し、予測された移動方向と車両の存在方向が一致する確率を算出する。対象物の移動方向の絞り込み、その移動方向と車両の存在方向の一致度の閾値を変更することにより、予測された移動方向と車両の存在方向が一致する確率の値の高低をコントロールできる。
 対象物の予測速度の範囲(分散値)は、道路を走行する車両、二輪車、歩行者などの対象物の属性に応じて異なる。プロセッサ11は、対象物の予測速度の範囲に応じて対象物が事象に到達する時間を算出し、車両情報に基づいて算出された車両が事象に到達する時間と比較して、車両と対象物とが事象に到達する時間差が所定時間以内である確率を算出する。対象物の予測速度の範囲の絞り込み、時間差を評価する閾値を変更することにより、車両と対象物とが略同時に事象に到達する確率の値の高低をコントロールできる。
 プロセッサ11は、撮像画像などから分析した対象物の属性に基づいて対象物の進行方向と速度を予測し、予測される速度で移動する車両と接触する確率を算出する。この車両と接触する確率は、対象物の挙動(進行方向、速度等)に係数を乗じて算出される。プロセッサ11は、この確率が閾値としての所定確率以上であるときには、車両と接触する可能性のある注目するべき対象物として処理し、確率が所定確率未満であるときには、車両と接触しない対象物として処理する。プロセッサ11は、対象物が車両へ向って移動する確率、対象物の予測速度の範囲(分散値)、対象物を評価する閾値を調節することにより検出条件を変更する。対象物が車両へ向って移動する確率を高くすること、対象物の予測速度の範囲を広くすること、又は対象物を評価する閾値を低く変更することにより、対象物が車両に接触すると判断される確率が高い検出条件を設定できる。
 プロセッサ11は、車両の周囲の対象物の挙動により、対象物が車両と接触する確率を算出し、対象物が車両と接触する確率が予め定めた閾値より高い場合に、対象物を注意対象物として認識するために、閾値を検出条件として決定する。
 プロセッサ11は、車両の周囲の対象物の挙動により、対象物が車両と接触する確率を算出し、対象物が車両と接触する確率が予め定めた閾値より高い場合に、対象物を注意対象物として認識するという、確率の算出方法を検出条件として決定する。
 本実施形態のプロセッサ11は、事象における運転行動の内容に応じて、対象物と車両とが接触する確率及びその閾値を設定する。プロセッサ11は、検出情報の経時的な変化や対象物の属性などに基づいて判断された対象物の移動方向や移動速度を、運転行動の内容に応じて調節(補正)する。具体的な手法については、後述する。
 ステップS14において、プロセッサ11は、運転行動が事象ごとに規定された運転計画を立案する。プロセッサ11は、シーンとして設定された領域Q1に属する複数の事象のそれぞれに運転行動が対応づけられた運転計画を立案する。本例の運転計画は、抽出された複数の事象を車両が遭遇する順序に沿って並べ替え、事象ごとに運転行動が規定された一連の命令群である。運転計画の単位は特に限定されない。本例では交差点に遭遇するシーンを運転計画の対象としたが、目的地に至るまでの運転計画を暫定的に作成してもよいし、所定数の事象を単位として運転計画を立案してもよい。
 ステップS15において、プロセッサ11は、事象における運転行動の内容に基づいて、検出条件を設定する。プロセッサ11は、決定された検出条件に従う検出処理を車載装置に実行させる。本実施形態における検出条件は、地点ごとに設定可能である。地点ごとに設定できるので、地点が特定される事象ごとに検出条件を設定できる。図4は地点ごとに検出条件が設定されることを説明するための概念図である。図4に示すように、制御対象となる車両V1が進行する第1経路RT1に設定された各地点P1~P6について、それぞれの検出条件R1~R6を設定できる。検出条件R1~R6は、共通であってもよいし、異なる条件であってもよい。すなわち、ある地点では広い検出範囲を設定し、ある地点では狭い検出範囲を設定することができる。検出条件を含む設定命令は、検出範囲(走行方向に沿う距離、車幅方向に沿う距離、高さ、スキャン範囲、撮像画角、焦点距離)、適用事象(適用位置)、又は適用タイミング(通過地点、時刻)を含ませることができる。
 プロセッサ11は、車両が先に遭遇する第1事象について規定された運転行動の内容に基づいて、第1事象の後に遭遇する一又は複数の第2事象に関する第2検出条件を決定し、現在適用されている第1検出条件に代えて設定する。第2事象は、第1事象の次に遭遇する事象であってもよい。第2事象は、第1事象の後に引き続き遭遇する複数の事象であってもよい。
 プロセッサ11は、第1事象PAの上流側に区間OVAを定義し、区間OVAに属する位置に存在する際に取得した第1事象について規定された運転行動の内容に基づいて、次に遭遇する第2事象に関する第2検出条件を決定するようにしてもよい。区間OVAは、事象を基準として上流側(車両側)の第1所定距離の第1地点から第2距離の第2地点までの間の区間として定義できる。第1地点を事象の位置としてもよい。
 プロセッサ11は、複数の事象を車両が遭遇する順序に沿って並べ替え、事象ごとに運転行動が規定された一連の運転計画に従う制御指令を作成する。先述したとおり、このような一次元マップを用いた手法では、上流側又は下流側の事象の運転行動が、下流側又は上流側の事象の運転行動に影響を与える。例えば、下流側の事象の運転行動が停止である場合には、上流側の事象の運転行動が進行であっても、減速による到達時間の延長により状況の変化が起こる。上流側の事象の運転行動が停止である場合には、下流側の運転行動にかかわらず減速させられるので、事象への到達時間は遅延する。このとき、車両は低速走行である。
 プロセッサ11は、相対的に上流側の事象における運転行動に基づいて、次に遭遇する事象の検出条件を設定する。これにより、直近の事象の運転行動に応じて、車両が次に遭遇する事象の検出条件を設定することができるので、先に遭遇する事象の運転行動に影響を受けた次の事象の運転行動に適した検出条件を設定できる。適切な検出条件に従う検出情報を用いて運転行動及び運転計画を立案できるので、運転計画の成功率(完遂率)を高めることができる。
 本処理において、プロセッサ11は、車両が先に遭遇する第1事象における運転行動が停止から進行に切り替わったタイミングで、第2検出条件を設定する。第1事象が進行である場合には、次の第2事象までの到着時間は短いことが確定するので、このタイミングで第2検出条件を適用することにより、状況に適した検出条件を状況が確定したタイミングで適用できる。適切な検出条件が適切なタイミングで設定されるので、必要な情報のみを取得し、不要な情報を取得しないようにすることができる。これにより、事象を含むシーンを通過する際の自動運転時の演算負荷を低減させることができる。
 検出条件のファクタについて説明する。
 検出条件のファクタは、(1)検出範囲、(2)対象物との接触確率の算出方法、(3)抽出する対象物の絞り込み、を含む。プロセッサ11は、検出条件のファクタを指定して、検出装置230における検出条件のファクタを変更させる。各ファクタについて説明する。
 (1)「検出範囲」は、検出条件において指定される検出領域の広さ(面積)、長さ(進行方向に沿う長さ)、幅(車幅方向に沿う長さ)、高さ(走行面に対して略鉛直方向の長さ)、スキャン範囲(角度)、画角、又は焦点距離を含む。
 (2)「対象物との接触確率の算出方法」は、検出条件において指定される、車両と接触する対象物の存在を判断する際の対象物の移動方向、対象物の速度、対象物の移動範囲の設定条件である。先述したように、対象物の移動方向、対象物の速度、対象物の移動範囲は、対象物の属性によって異なる。移動方向の自由度が高い歩行者は、車両に向かって移動するか車両から離隔する方向に移動するかの判断によって、対象物とするか否かの結論が異なる。プロセッサ11は、所定の確からしさに基づいて設定された規定値としての対象物の移動方向、対象物の速度、対象物の移動範囲、それに係数を用いて、対象物と車両との接触確率を算出する。第1事象における運転行動が進行の場合には停止の場合より係数を低くし、逆に第1事象における運転行動が停止の場合には進行の場合より係数を高くする。本実施形態のプロセッサ11は、対象物が車両に接触する確率が高くなる又は低くなるように、規定値としての対象物の移動方向、対象物の速度、対象物の移動範囲を変更する。また、第1事象における運転行動が進行の場合には停止の場合より高くし、逆に第1事象の運転行動が停止の場合には進行の場合より係数を低くする。これにより、車両と接触する対象物が注意対象物とするか、しないか調整することができるようになる。
 (3)「抽出する対象物の絞り込み」は、検出情報に含まれるすべての対象物の中から、車両と接触する可能性の高い対向車や交差車両のみを抽出するという検出条件である。例えば、車両が事象に到達する前に、すでにその事象を通過している対象物は、対象物として抽出しない。
 次に、検出条件の決定手法について説明する。検出条件は、事象について規定された運転行動の内容に基づいて決定される。
 図5は、図3のステップS15(検出条件の変更)のサブルーチンを示す。
 まずは、ステップS21において、検出条件の変更処理の必要性を検討する。プロセッサ11は、検出情報の経時的な変化から求めた対象物の動きの変化量に基づいて、検出条件を現在適用されている第1検出条件から第2検出条件に切り替えるか否かを判断する。プロセッサ11は、対象物の動きの変化量が所定値以上である場合には、ステップS15の検出条件の変更処理を実行し、そうでない場合には、検出条件の変更処理を実行しない。対象物の動きに変化がない場合には、検出条件を変化する必要がないと判断する。例えば、歩行者や他車両などがほとんど存在しない又はその動きが定速であるような状況(場所や時間)においては、検出条件の再設定処理を行わない。他方、横断歩道近くの歩行者が急に走り出したような場合には運転行動が変更されるので、検出条件も見直される。
 対象物の動きの変化量が所定値未満である場合には、運転行動の決定が変更される可能性が低い。運転行動の決定が変更されなければ、検出条件の設定も維持される可能性が高い。これにより、検出条件を変更/維持する判断を適切に下せるので、実際の状況に適した運転制御を実行することが可能となる。検出条件が頻繁に変更されることにより乗員に違和感を覚えさせることを抑制できる。
 ステップ22において、プロセッサ11は、運転行動が「進行」であるか否かを判断する。「進行」と判断された場合にはステップS23に進む。
 ステップS23において、プロセッサ11は、運転行動「進行」に応じて、以下の検出条件A(パターンA)を設定する。本実施形態において、第1検出条件、第2検出条件のいずれもが「検出条件A」と後述する「検出条件B」とを有する。
(1)対象事象への到達時間が相対的に短い対象物を検出できる検出条件
(2)対象物を検出するための検出範囲が相対的に狭い検出条件
(3)対象物が車両に接触すると判断される確率が相対的に低く設定された(低く判断される)検出条件
 ステップ22において、運転行動が「進行」ではないと判断された場合には、運転行動は「停止」であり(ステップS24)、ステップS25に進む。
 ステップS25において、プロセッサ11は、運転行動が「停止」であると判断されたことに応じて、以下の検出条件B(パターンB)を設定する。
(1)対象事象への到達時間が相対的に長い対象物を検出できる検出条件
(2)対象物を検出するための検出範囲が相対的に広い検出条件
(3)対象物が車両に接触すると判断される確率が相対的に高く設定された(高く判断される)検出条件
 検出条件の設定が完了したら、ステップS16に進む。プロセッサ11は、運転計画の立案を行う。ステップS16においては、変更後の検出条件に従って取得された検出情報に基づいて、ステップS11~S13の処理を行い、新たな運転計画を再立案する。ステップS16において行われる、検出情報の検証、すなわち新たな対象物の抽出、事象への対応づけ、事象についての運転行動の決定は、先に行ったステップS4~S8、前回行ったステップS11~S13と同じ処理であってもよいし、異なる処理であってもよい。
 運転行動の内容に基づいて検出条件を決定することにより、適切な検出条件を設定できる。運転制御の実行中においては、制御対象となる車両の動きが変化し、周囲の状況も変化する。運転行動に応じた検出条件を設定することにより、運転制御の際に検出すべき対象及び対象の状況変化を正確に把握できる。新たな検出条件においては、運転行動に応じた対象物を検出できるので、実際の状況に沿った適切な運転制御を実行できる。一般に運転経験のある乗員は、状況に応じて視点や視野を変えたり、状況に応じて判断結果を調整したりする。本実施形態では、運転計画において規定された運転行動に応じた検出条件に従って検出情報を取得し、それに基づいて運転計画を設定又は改訂するので、状況の変化を認知している乗員に違和感を覚えさせることを抑制できる。先に規定した運転行動に応じて検出条件を設定する手法によれば、状況の変化に臨機応変に対応する運転計画を立案できるので、交差点などの複雑なシーンをスムーズに通過できる。また、画一的な検出条件を適用するのではなく、運転行動に応じた検出条件を適用するので、適切な検出情報を取得し、適切な情報量の検出情報に基づいて対象物の検出処理等を実行できる。言い換えると、過剰な検出情報を取得することを抑制でき、必要最小限の情報量の検出情報に基づいて対象物の検出処理等を実行できる。適切な検出条件の設定により、システムリソースの効率的活用も実現できる。交差点などの複雑な交通路における自動運転制御技術において、情報処理負荷が膨大である一方で、その処理の遅延は許されず、重要な技術的な課題である。一瞬でも判断が遅れると、交差点内で車両が停止してしまうといった事態が起こる可能性もある。事象における運転行動に応じて検出条件を適宜に設定することにより、情報処理の負荷を低減させ、処理速度の高速化にも寄与できる。
 本実施形態では、第1事象の運転行動に基づいて第2事象の第2検出条件を設定するので、上流側の状況の変化に応じた検出条件を求め、それをいち早く下流側の検出処理に反映することができる。これにより、状況に応じた必要な検出情報を取得することができる。
 以下、図面に基づいて、具体的に検出条件の設定方法を説明する。運転行動の内容として「進行」は「GO」「丸印」で示し、「停止」は「No GO」「X印」で示す。第1~第5設定例を示す角都において、車両V1は、第1経路に沿って交差点のシーンQ1を右折する。シーンQ1において、車両V1は、横断歩道を通過(交差)する事象PA、対向車の走行路と交差する事象PB、横断歩道を通過(交差)する事象PCと遭遇する。
<第1設定例>
 図6A及び図6Bに基づいて、第1設定例を説明する。図6A及び図6Bに示す事象PA,PB,PCはそれぞれ事象として共通する。
 図6Aは、タイミングT0における第2事象PBの検出範囲を示す図であり、図6BはタイミングT0よりも後のタイミングT1における第2事象PBの検出範囲R1を示す図である。ここで示す検出範囲R1,R2は、センサ260の検出範囲としてもよく、プロセッサ11が対象物OBを検出する範囲としてもよい。本例では交差点Pの領域Q1を運転制御が実行されるシーンとして説明する。タイミングT0及びT1のいずれにおいても車両V1は事象PAの上流側の所定距離以内である区間OVA内を走行する。タイミングT0及びT1のいずれにおいても、プロセッサ11は、共通の事象PAについての運転行動を算出し、事象PAにおける検出条件を設定する。
 図6Aに示すように、制御対象となる車両V1は、交差点Q1を通過する経路RT1を走行する。車両V1は、地点PAに規定された事象PA(地点と同じ符号を付する)を通過する。先に遭遇する事象PAである横断歩道の近傍には、対象物OBAである歩行者M1が存在する。プロセッサ11は、歩行者M1と横断歩道との距離は所定距離以上であると判断し、事象PAにおける運転行動を「進行」と判断する。
 図6Bに示すように、制御対象となる車両V1は、経路RT1を進む。プロセッサ11は、経時的に対象物の動きを監視する。タイミングT0においては、対象物としては評価されなかった歩行者M1が移動しており、タイミングT1においては横断歩道に侵入している。プロセッサ11は、歩行者M1と横断歩道との距離は所定距離未満であると判断し、事象PAにおける運転行動を「停止」と判断する。
 プロセッサ11は、第1事象PAにおける運転行動が「進行」である場合の第2事象に関する第2検出条件は、第1事象における運転行動が「停止」である場合の第2事象に関する第2検出条件と比較したときに、第2事象PBに到達するまでの到達時間が相対的に短い対象物を検出するパターンAの検出条件とする。車両V1の運転行動が「進行」である場合には、第1事象PA、第2事象PBに到達するまでの時間が短い。このような場合には、車両V1は第2事象PBに短時間で到着する対象物OBを認識できれば十分である。すなわち、車両V1の運転行動が「進行」である場合には、第2事象PBの周囲に存在していても、所定時間以内に第2事象PBへ到着しない位置に存在する対象物OBを除外して検出処理を行う。
 対象物OBの到着時間が短いとは、第2事象PBと対象物OBとの距離が短い、又は対象物OBの速度が速いという要因に基づいて判断できる。プロセッサ11は、第1事象PAにおける運転行動が「進行」である場合の第2事象に関する第2検出条件は、第1事象における運転行動が「停止」である場合の第2事象に関する第2検出条件と比較したときに、対象物OBを検出するための検出範囲が相対的に狭い検出条件とする。検出範囲の広狭は、検出領域の面積により評価してもよいし、車両V1の進行方向に沿う長さにより評価してもよいし、車両V1の車幅方向に沿う長さにより評価してもよい。同様の観点から、プロセッサ11は、第1事象PAにおける運転行動が「進行」である場合の第2事象に関する第2検出条件は、第1事象における運転行動が「停止」である場合の第2事象に関する第2検出条件と比較したときに、第2事象PBへの接近速度が相対的に速い対象物OBを抽出する検出条件としてもよい。
 プロセッサ11は、対象物OBを検出するための検出範囲が相対的に狭くなる検出条件とするために、車両V1の走行する経路における走行軌跡を調整する。プロセッサ11は、第1事象における運転行動が進行である場合における第2事象における第2検出条件は、第1事象における運転行動が停止である場合における第2事象における第2検出条件と比較したときに、対象物を検出するための検出範囲が相対的に狭くなるように、車両の走行軌跡を変更させる。
 走行中における検出範囲は死角(オクルージョン)を含むことがある。死角は対象物を検出できないから、実施的には検出範囲とは言えず、実質的な検出範囲は狭い。プロセッサ11は、事象における運転行動が進行である場合において、オクルージョンを含む場合であっても、検出範囲が狭くなったとしてもその状態を受け入れ、結果として、対象物を検出するための検出範囲が相対的に狭くなるように、車両の走行軌跡を設定する。つまり、プロセッサ11は、オクルージョンの存在にかかわらず、目的地に至る経路に含まれる各レーンにおいて最適な基準移動軌跡(経路)を算出して、その走行軌跡を自動運転制御に適用する。自動運転処理における基準移動軌跡(経路)は、走行するレーンの略中央に位置する軌跡、含まれる曲率が所定値以下である軌跡、又は含まれる曲率の変化量が所定値以下である軌跡のいずれかを含む。
 このように、第1事象PAにおける運転行動が「進行」である場合には、第1事象PAにおける運転行動が「停止」である場合よりも、第2事象PBに近い又は到着時間が短い対象物OBを選択的に検出することができる。車両V1の第1事象における運転行動が「進行」であるときには、車両V1の第1事象PA及び第2事象PBへの到着時間が、第1事象における運転行動が「停止」である場合よりも相対的に短い。このような場合には、第2事象PBまでの距離が第1所定値未満又は第2事象PBまでの到達時間が第1所定値未満の近傍範囲に限定して、存在する対象物OBを集中的に監視することが適切である。検出条件を切り替えることにより、第2事象PBまでの距離が第1所定値以上及び第2事象PBまでの到達時間が第1所定値以上の遠い範囲に存在する対象物OBを判断対象から除外することができる。対象物OBの検出精度を維持しつつ、不要な検出情報を取得しないようにすることができる。この結果、演算負荷を低減させ、システムリソースを有効に活用できる。
 また、プロセッサ11は、第1事象PAにおける運転行動が「進行」である場合には、第2検出条件を、第2事象PBに関する検出範囲を含む検出条件とする。第2事象PBに関する検出範囲とは、第2事象PBの基準位置から所定の範囲の領域である。検出範囲の形状は特に限定されず、走行方向に沿う長さ、道路幅に沿う長さなどに応じて適宜に定義される。第1事象が「進行」である場合には、次に遭遇する第2事象への到着時間が短いことが予測される。第1事象PAが「進行」であることを契機として、第2検出条件の検出範囲に第2事象に関する検出範囲を含ませることにより、いち早く、必要な第2事象PBの周囲の検出情報を取得できる。運転計画に適した検出情報を適切なタイミングで取得できるので、運転計画の精度を保つことができる。
<第2設定例>
 図7A及び図7Bに基づいて、第2設定例を説明する。図7A及び図7Bに示す事象PA,PB,PCはそれぞれ事象として共通する。
 図7Aは、タイミングT0における第2事象PBにおける検出範囲を示す図であり、図7BはタイミングT0よりも後のタイミングT1における第2事象PBにおける検出範囲R1を示す図である。ここで示す検出範囲R1,R2は、センサ260の検出範囲としてもよく、プロセッサ11が対象物OBを検出する範囲としてもよい。本例では交差点Pの領域Q1を運転制御が実行されるシーンとして説明する。タイミングT0及びT1のいずれにおいても車両V1は事象PAの上流側の所定距離以内である区間OVA内を走行する。タイミングT0及びT1のいずれにおいても、プロセッサ11は、共通の第1事象PAについての運転行動を算出し、第2事象PBにおける検出条件を設定する。
 図7Aに示すように、制御対象となる車両V1は、交差点Q1を通過する経路RT1を走行する。車両V1は、地点PAに規定された第1事象PA(地点と同じ符号を付する)を通過する。先に遭遇する第1事象PAである横断歩道には、対象物OBAである歩行者M1が通行中である。プロセッサ11は、歩行者M1と横断歩道との距離は所定距離未満であると判断し、第1事象PAにおける運転行動を「停止」と判断する。
 図7Bに示すように、制御対象となる車両V1は、経路RT1を進む。プロセッサ11は、経時的に対象物の動きを監視する。タイミングT0においては、横断歩道を歩行していた歩行者M1が、タイミングT1においては横断歩道から離れている。プロセッサ11は、歩行者M1と横断歩道との距離は所定距離以上であると判断し、第1事象PAにおける運転行動を「進行」と判断する。
 プロセッサ11は、第1事象PAにおける運転行動が「停止」である場合の第2事象PBに関する第2検出条件は、第1事象PAにおける運転行動が「進行」である場合の第2事象PBに関する第2検出条件と比較したときに、第2事象PBに到達するまでの到達時間が相対的に短い対象物を検出するパターンBの検出条件とする。車両V1の第1事象PAにおける運転行動が「停止」である場合には、第1事象PA、第2事象に到達するまでの時間が長い。このような場合には、車両V1は第2事象PBに短時間で到着する対象物OBだけではなく、離れた対象物OBまでをも監視する。車両V1の第1事象での運転行動が「停止」となり、車両V1の速度が低下することに伴い、車両V1が交差点で次の第2事象PBに到達するまでに、図7Aに示す歩行者OBDが横断歩道に進入する可能性までをも考慮できる。すなわち、車両V1の運転行動が「停止」である場合には、検出条件Aにおいて、到着時間が所定時間T1以内の対象物OBを検出するという条件であったが、検出条件Bにおいて、到着時間が所定時間T2(>T1)以内の対象物OBを検出する条件とする。運転行動が「停止」である場合には遠くまで観察するという必要性に沿った検出条件を設定できる。
 対象物OBの到着時間が長いとは、第2事象PBと対象物OBとの距離が長い、又は対象物OBの速度が遅いという要因に基づいて判断できる。プロセッサ11は、第1事象PAにおける運転行動が「停止」である場合の第2事象PBに関する第2検出条件は、第1事象PAにおける運転行動が「進行」である場合の第2事象PBに関する第2検出条件と比較したときに、対象物OBを検出するための検出範囲を相対的に広い検出条件とする。検出範囲の広狭の定義は上述のとおりである。検出範囲比較したときに車両の進行方向の距離を長くする場合には、センサ260の検出範囲を超える可能性がある。その場合には、通信装置30を介して、路側の検出装置から対象物の検出情報を取得してもよい。
 プロセッサ11は、第1事象PAにおける運転行動が「停止」である場合の第2事象PBに関する第2検出条件は、第1事象PAにおける運転行動が「進行」である場合の第2事象PBに関する第2検出条件と比較したときに、第2事象PBへの接近速度が相対的に遅い対象物OBを抽出する検出条件としてもよい。
 プロセッサ11は、対象物OBを検出するための検出範囲を相対的に広い検出条件とするために、車両V1の走行する経路を調整する。プロセッサ11は、第1事象における運転行動が停止である場合の第2事象に関する第2検出条件は、第1事象における運転行動が進行である場合の第2事象に関する第2検出条件と比較したときに、車両の周囲の対象物を検出するための検出範囲が相対的に広くなるように、車両の走行軌跡を変更させた検出条件を設定する。プロセッサ11は、目的地に至る第1経路としては共通するが、レーンにおける位置を含む走行軌跡(路幅方向の位置/走行方向の位置)を変更する。走行軌跡の調整には、経路に含まれる地点の通過タイミングを含む。経路に含まれる地点通過のタイミングを調節することにより、前方対象物との距離を調節できる。調整後の経路の一又は複数の曲率は所定曲率未満であるようにする。操舵変化量の大きい運転制御を避けるためである。
 プロセッサ11は、車両の自動運転処理において、目的地に至る経路に含まれる各レーンにおいて最適な基準移動軌跡(経路)を算出する。基準移動軌跡(経路)とは、走行するレーンの略中央に位置する軌跡、含まれる曲率が所定値以下である軌跡、及び/又は含まれる曲率の変化量が所定値以下である軌跡である。プロセッサ11は、理想的な状況においては基準移動軌跡を適用して車両を移動させ、検出された現実の状況に応じて基準移動軌跡を変更した軌跡を適用して車両を移動させる。
 検出処理における検出範囲は、死角(オクルージョン)を含むことがある。死角は非検出となるから、実施的には検出範囲とは言えない。ここでは、死角を除いた領域を検出範囲として説明する。検出範囲に死角が含まれる場合には、実質的な検出範囲を広くするためには死角の領域を狭くする必要があり、プロセッサ11は、死角領域の面積を低減させるように、車両V1の走行する経路を調整する。第1例として、経路のカーブ部分においては、先行車両が前方の検出範囲を遮るので、プロセッサ11は、路幅方向に沿って先行車両をよけるように左右にシフトさせた位置を含む走行軌跡を算出し、変更走行軌跡上を車両に走行させる。カーブ部分では外側にシフトさせることが好ましい。第2例として、停止線の位置が信号機の真下であるときには、自車両が前方の信号機を含む検出範囲を遮るので、プロセッサ11は、停止線から走行方向上流側にシフトさせた位置を含む走行軌跡を算出し、変更走行軌跡上を車両に走行させる。第3例として、直進路において先行車両が前方の検出範囲を遮る場合には、プロセッサ11は、先行車両から所定距離だけ離隔した位置を含む変更走行軌跡を算出し、走行軌跡上を車両に走行させる。第4例として、直進路において先行車両が前方の検出範囲を遮る場合には、プロセッサ11は、先行車両の背後を認識できる位置を含む走行軌跡を算出し、変更走行軌跡上を車両に走行させる。結果としてオクルージョンを低減させた検出範囲を設定することができる。走行軌跡を変更することにより、検出条件における視点(センサ位置又はカメラ位置)を調整する。
 プロセッサ11は、第1事象における運転行動が「停止」から「進行」に変更された場合に第2事象において適用される第2検出条件は、第1事象における運転行動が停止である場合の第2事象に関する第2検出条件と比較したときに、車両の周囲の対象物を検出するための検出範囲が相対的に狭くなるように、車両の走行軌跡を変更させる検出条件である。この場合には、第1事象における運転行動が「停止」と判断されたときに変更された走行軌跡をもとに戻す変更をする。例えば、死角の領域を狭くするために横位置を変更した走行軌跡を、元の横位置(中央)に戻した走行軌跡に変更する。
 このように、第1事象PAにおける運転行動が「停止」である場合には、第1事象PAにおける運転行動が「進行」である場合よりも、第2事象PBから遠い又は到着時間が長い対象物OBを選択的に検出することができる。車両V1の第1事象PAにおける運転行動が「停止」であるときには、車両V1の第1事象PA及び第2事象PBへの到着時間が、第1事象PAにおける運転行動が「進行」である場合よりも相対的に長い。このような場合には、車両V1が第1事象PA乃至第2事象PBに到着するまでに対象物OBの状態が変動する可能性が高く、第2事象PBまでの距離が第2所定値(>第1所定値)未満又は第2事象PBまでの到達時間が第2所定値(>第1所定値)未満の近傍範囲に存在する対象物OBを広く監視することが適切である。第2検出条件をパターンBに切り替えることにより、第2事象PBまでの距離が第1所定値以上第2所定値未満及び第2事象PBまでの到達時間が第1所定値以上第2所定値未満の相対的に遠い範囲に存在する対象物OBを判断対象とすることができる。プロセッサ11は、車両V1が第2事象PBに到着するまでの時間が相対的に長くなることを考慮し、その時間内に移動する可能性のある対象物OBまでをも含む広い範囲を監視する。第2事象PBにおけるパターンBの第2検出条件においては、それ以前に設定されていた検出条件では除外された範囲の対象物OBを広く監視する。この結果、運転行動が「停止」の場面で必要な範囲の検出情報を取得できる。
 プロセッサ11は、第1事象PAにおける運転行動が「停止」である場合には、第2検出条件を、第2事象PBに関する検出範囲が除外された検出条件としてもよい。第2事象PBに関する検出範囲とは、第2事象PBの基準位置から所定の範囲の領域である。先に遭遇する第1事象PAの運転行動が「停止」である場合には、車両は減速することになるので、次に遭遇する第2事象PBの運転行動の内容は運転計画にあまり影響を与えない。つまり、第2事象PBに関係する検出範囲の検出情報の重要性は低い。プロセッサ11は、第1事象PAの運転行動が「停止」であるときには、第2事象PBの検出情報を分析するまでもなく、第1事象PAにおける運転行動に従って停止すればよい。減速乃至停止までの時間は長いので(処理時間に比較して)、次の判断結果を待機する。この制御は、車両が停止したとき、減速後に所定速度未満となったとき、第1事象PAに所定距離未満に接近したときに解除することができる。
 第1事象PAにおける運転行動が「停止」である場合には、次に遭遇する事象Bに関する検出情報の取得を行わないようにするので、重要度の低い検出情報の取得を禁止して、処理対象となる情報量を低減することができる。この結果、演算負荷を低減させ、システムリソースを有効に活用できる。
<第3設定例>
 図8A及び図8Bに基づいて、第3設定例を説明する。図8A及び図8Bに示す事象PA,PB,PCはそれぞれ事象として共通する。
 図8Aは、タイミングT0における運転行動を示す図であり、図8Bは、タイミングT0よりも後のタイミングT1における運転行動を示す図である。図8Aに示すように、車両V1は交差点を右折する。同図に示すように、横断歩道である事象PA、第2経路と交差する事象PBにおいては、接触する対象物が検出されなかったため、運転行動「進行」が規定されている。右折後、交差点脱出前の事象PCにおいて、他車両OBCと所定距離以内に接近するため、事象PCにおいて運転行動「停止」が規定されている。
 図8Bに示すように、タイミングT1において、歩行者OBAが横断歩道に進入する。プロセッサ11は、事象PAの運転行動を「停止」に変更する。事象PAの運転行動が「停止」になったことに伴い、車両V1は減速するので、事象PA、PB及びPCに到達するまでの時間が延びる。その結果、事象PBにおいて対象物OBBと接触する可能性が高まるため、事象PBの運転行動は「停止」となる。また、対象物OBCは、事象PBを車両V1よりも先に通過してしまうため、事象PCの運転行動は「進行」となる。このように、事象PAの運転行動が変化すると、事象PAの後に連なる事象の運転行動が変化することがある。
 プロセッサ11は、第1事象PAにおける運転行動が「停止」である場合の第2事象PBに関する第2検出条件は、第1事象PAにおける運転行動が「進行」である場合の第2事象PBに関する第2検出条件と比較したときに、第2事象PBにおいて対象物OBが車両V1に接触すると判断される確率が高いパターンBの検出条件とする。対象物OBの属性(車両、二輪車、歩行者など)に応じて、その移動方向の自由度、移動速度のばらつき(域値)は異なる。プロセッサ11は、運転行動が「停止」である場合には、対象物OBの移動方向が車両V1の方向である確率を高く設定し、対象物OBが車両V1と接触する確率が高く算出されるように検出条件を設定する。プロセッサ11は、運転行動が「停止」である場合には、対象物OBの移動速度が車両V1と事象において接触する速度域となる確率を高く設定し、対象物OBが車両V1と接触する確率が高く算出されるように検出条件を設定する。
 プロセッサ11は、第1事象における運転行動が停止である場合の第2事象に関する第2検出条件は、第1事象における運転行動が進行である場合の第2事象に関する第2検出条件と比較したときに、対象物OBを検出するときに検出条件として適用される閾値を低くする。
 事象における運転行動が「停止」である場合には、事象において車両V1と対象物とが接近する可能性を高めるので、事象における運転行動の内容に応じて、注視すべき対象物を適切に検出することができる。
<第4設定例>
 図9A及び図9Bに基づいて、第4設定例を説明する。図9A及び図9Bに示す事象PA,PB,PCはそれぞれ事象として共通する。
 図9Aは、タイミングT0における運転行動を示す図であり、図9Bは、タイミングT0よりも後のタイミングT1における運転行動を示す図である。図9Aに示すように、車両V1は交差点を右折する。同図に示すように、横断歩道である事象PA、第2経路と交差する事象PBにおいて、接触する対象物が検出されたため、運転行動「停止」が規定されている。右折後、交差点脱出前の事象PCにおいて、他車両OBCは車両V1よりも先に事象PCを通過するため、事象PCにおいて運転行動「進行」が規定されている。
 図9Bに示すように、タイミングT1において、歩行者OBAが横断歩道から離れる。プロセッサ11は、事象PAの運転行動を「進行」に変更する。事象PAの運転行動が「進行」になったことに伴い、車両V1は現在の速度を維持又は加速するので、事象PA、PB及びPCに到達するまでの時間は早まる。その結果、車両V1が事象PBに到達するタイミングにおいては、対象物OBBは事象PBに到達しないので、対象物OBBと車両V1は事象PBにおいて接触する可能性が低くなり、事象PBの運転行動は「進行」となる。他方、事象PCに到達する時間も早まるので、対象物OBCが事象PCに到達するタイミングで、車両V1も事象PCに到達するので、対象物OBCと車両V1は事象PCにおいて接触する可能性が高くなり、事象PCの運転行動は「停止」となる。このように、事象PAの運転行動が変化すると、事象PAの後に連なる事象の運転行動が変化することがある。
 プロセッサ11は、第1事象PAにおける運転行動が「進行」である場合の第2事象PBに関する第2検出条件は、第1事象PAにおける運転行動が停止である場合の第2事象PBに関する第2検出条件と比較したときに、対象物が第2事象PBにおいて車両V1に接触すると判断される確率が低いパターンAの検出条件とする。対象物OBの属性(車両、二輪車、歩行者など)に応じて、その移動方向の自由度、移動速度のばらつき(域値)は異なる。プロセッサ11は、第1事象PAにおける運転行動が「進行」である場合には、対象物OBの移動方向が車両V1の方向である確率を低く設定し、対象物OBが車両V1と接触する確率が低く算出されるように検出条件を設定する。プロセッサ11は、運転行動が「進行」である場合には、対象物OBの移動速度が車両V1と事象において接触する速度域となる確率を低く設定し、対象物OBが車両V1と接触する確率が低く算出されるように検出条件を設定する。先述したように、事象PAの運転行動が「進行」となるので、検出範囲を狭くするなど、事象PAへの到達時間が短い対象物を検出できる検出条件を設定してもよい。
 プロセッサ11は、第1事象における運転行動が進行である場合の第2事象に関する第2検出条件は、第1事象における運転行動が停止である場合の第2事象に関する第2検出条件と比較したときに、対象物OBを検出するときに検出条件として適用される閾値を高くする。
 事象における運転行動が「進行」である場合には、第2事象において車両V1と接近する可能性が低い対象物OBについても対象物として考慮できる。事象における運転行動の内容に応じて、注視すべき対象物を適切に検出することができる。
<第5設定例>
 図10A及び図10Bに基づいて、第5設定例を説明する。図10A及び図10Bに示す事象PA,PB,PCはそれぞれ事象として共通する。
 図10Aは、制御対象である車両V1の車速が相対的に低速であるVS1(<VS2)である場合の対象物OBを検出する範囲RV1を示す図であり、図10Bは車速がVS2(>VS1)である場合の対象物OBを検出する範囲RV2を示す図である。ここで示す範囲RV1,RV2は、センサ260の検出範囲ではなく、プロセッサ11が対象物OBを検出する範囲である。
 プロセッサ11は、車両V1の車速が高いほど、事象への到達時間が短い対象物を検出する検出条件とする。車両V1の速度が相対的に低い場合には、事象への到達時間が相対的に長い対象物を検出するため、図10Aに示すように対象物OBを広い範囲で検出する。車両V1の速度が相対的に高い場合には、速度が相対的に低い場合よりも、事象への到達時間が相対的に短い対象物を検出するため、図10Bに示すように対象物OBを狭い範囲で検出する。
 車両V1の速度が相対的に低い場合には、対象物の移動速度の予測範囲を広く設定して(移動速度の分散を広く/分散度を大きく設定して)、対象物との接触の可能性を判断する。対象物の移動速度の予測範囲を広く設定することにより、対象物との接触の確率は高く算出される。これにより、低速時においては、事象から遠い位置に存在する対象物についても接触の可能性を考慮できる。
 また、車両V1の速度が相対的に高い場合には、対象物の移動速度の予測範囲を狭く設定して(移動速度の分散を狭く/分散度小さく設定して)、対象物との接触の可能性を判断する。対象物の移動速度の予測範囲を狭く設定することにより、対象物との接触の確率は低く算出される。これにより、高速時においては、事象から近い位置に存在する対象物に絞って接触の可能性を考慮できる。
 図10Aと図10Bとは、車両V1の速度が異なる。対象物の位置や速度は共通する。
 図10Aに示す例では、対象物OBCの存在が予測される範囲を存在領域OBC-R1で示し、対象物OBBの存在が予測される範囲を存在領域OBB-R1で示し、対象物OBDの存在が予測される範囲を存在領域OBD-R1で示す。図10Aに示す例では、対象物OBC、OBB,OBDの存在領域が範囲RV1に属するので、対象物OBC、OBB,OBDが対象物として処理される。
 図10Bに示す例では、対象物OBCの存在が予測される範囲を存在領域OBC-R2で示し、対象物OBBの存在が予測される範囲を存在領域OBB-R2で示し、対象物OBDの存在が予測される範囲を存在領域OBD-R2で示す。車両V1の車速が低い図10Bに示す存在領域のほうが、車速が高い図10Aに示す存在領域よりも狭い。図10Bに示す例では、対象物OBDのみの存在領域が範囲RV2に属するので、対象物OBDのみが対象物として処理され、対象物OBB、OBCは対象物として検討されない。
 車速が高いほど、事象への到達時間が短い対象物を選択的に検出できる。車速が高いほど、事象に到達するまでの時間が短くなる可能性がある。本発明では、車速が高いほど、事象までの到達時間が短い物体を検出できる。言い換えると、事象までの到達時間が所定値以上の遠い範囲に存在する対象物OBを判断対象から除外することができる。対象物OBの検出精度を維持しつつ、不要な検出情報を取得しないようにすることができる。この結果、演算負荷を低減させ、システムリソースを有効に活用できる。
 続いて、運転行動の決定手法について説明する。
 プロセッサ11は、運転計画の実行が開始された後、つまり運転制御命令の実行中において、事象の運転行動の切り替りを監視する。上述したとおり、一次元マップを用いた手法では、上流側又は下流側の事象の運転行動が、下流側又は上流側の事象の運転行動に影響を与える。一連の運転計画の実行が開始された後、新たな対象物(他車両)の出現により、実行中の運転計画の基礎となる状況が変化してしまうこともある。運転計画に関する状況が変化して、事象の運転行動が実行中の運転計画のものから別の運転行動に変化することがある。一の事象の運転行動が「進行」から「停止」へ又は「停止」から「進行」に切り替わることにより、運転計画における各事象の運転行動は変更され、運転計画は再度立案されることになる。
 プロセッサ11は、運転制御命令の実行中において、第1事象における運転行動が切り替わった場合には、第2事象について規定された運転行動を取り消す。プロセッサ11は、先に遭遇する第1事象の運転行動の切り替えにより、車両の第2事象への到達時間が変化するため、次に遭遇する第2事象の状況が変化することを予測する。プロセッサ11は、第2事象に接近してから第2事象の運転行動を見直すのではなく、第1事象の運転行動の切り替えをトリガとして第2事象の運転行動の内容を取り消す。つまり、実行中の運転計画における第2事象の運転行動にそのまま従うのではなく、一時的に空欄(UNKNOWN)とする。プロセッサ11は、新たな検出情報に基づいて運転行動を再決定する。これにより、状況に応じた精度の高い運転行動を決定できる。第2事象に接近してから再決定するのではなく、第1事象の運転行動の変化に基づいて再決定を行うので、処理の遅延を防止できる。
 プロセッサ11は、運転制御命令の実行中において、第1事象における運転行動が切り替わった場合には、予め定義されたルールに基づいて第2事象の運転行動を規定する。上述のように、一時的に運転行動を保留することもできるが、予めルールを定めておくこともできる。予め変更のルールを定義しておくことにより、第1事象の運転行動の変更にいち早く対応できる。第2事象の運転行動が迅速に決定されるため、速度変化量、加速度変化量、操舵変化量、操舵速度変化量などの段差を低減させ、滑らかな自動運転を実現でき、乗員が違和感を覚えさせないようにできる。
 以下、運転行動の決定例を説明する。
<第1決定例>
 第1事象の運転行動が「進行」である運転計画の実行中において、第1事象における運転行動が進行から「停止」に変更された場合には、第2事象における運転行動を「停止」にする。
 第1事象の運転行動が「進行」から「停止」となったときに、第2事象の運転行動を「進行」とすると、運転計画では「停止」から「進行」へ遷移し、減速から加速運転がなされ、速度段差が発生する。また、第1事象の運転行動が「停止」となると、第1事象に至る到達時間は長くなり、状況の変化によって第2事象の運転行動も「停止」となる可能性がある。そうすると、「停止」「進行」「停止」となり、減速と加速が繰り返されることになり、乗員にとっては不快な運転となる。本例では、第1事象の運転行動が「停止」となったことを契機に、第2事象の運転行動も「停止」とするので、このような不具合の発生を防止できる。
 図11A及び図11Bに基づいて、第1決定例を説明する。図11A及び図11Bに示す事象PA,PB,PCはそれぞれ事象として共通する。プロセッサ11は、各事象PA,PB,PCについての運転行動を算出する。
 本例では、第1事象及び第2事象における運転行動が「進行」であり、第1事象の運転行動が「停止」に変更された場合には、第2事象における運転行動を「進行」から「停止」にする。
 図11Aに示すように、タイミングT0において、事象PAの運転行動は「進行:Go」、事象PBの運転行動は「進行:Go」、事象PCの運転行動は「進行:Go」である。しかし、タイミングT1において、歩行者M1が事象Aである横断歩道に進入する。まず、歩行者M1の存在により、事象Aの運転行動は「停止:No Go」となる。停止指令に伴い車両は減速するので、車両が事象Aに至る到達時間は長くなる。このような場合においては、事象Bの運転行動を「停止:No Go」とする。本例では事象Cの運転行動も「停止:No Go」とする。
 車両が他車両よりも第1事象を先に通過する場合、他車両が車両よりも第1事象を先に通過するとき、その事象の運転行動は「進行」となる。
 車両が他車両よりも第1事象を先に通過すると判断されて、運転行動が「進行」となった場合に、状況の変化により運転行動が「進行」から「停止」に変更されることがある。減速に伴い、車両が第1事象に到達するまでの時間が長くなる。このような状況下において、第1事象においては、先の判断では接触しないとされた他車両と接触する可能性が高くなることを検討しなければならない。本例では、第2事象の運転行動を「停止」として、他車両との接近に備える。このような手当により、安全な自動運転を実現できる。
 また、他車両が車両よりも第1事象を先に通過すると判断されて、運転行動が「進行」となった場合に、状況の変化により運転行動が「進行」から「停止」に変更されることがある。減速に伴い、車両が第1事象に到達するまでの時間が長くなる。このような状況下において、先の判断で第1事象を通過した他車両ではなく、別の他車両の出現及び接触について検討しなければならない。本例では、第2事象の運転行動を「停止」として、新たな他車両との接近に備える。このような手当により、安全な自動運転を実現できる。
 また、センサレンジが足りずに、事象B、事象Cに関する検出情報が得られない場合には、事象B、事象Cについても「停止:No Go」としておき、その後検出が可能になり検出情報を取得したときに運転行動を判断する。
<第2決定例>
 第1事象の運転行動が進行である運転計画の実行中において、第1事象における運転行動が「停止」から「進行」に変更された場合には、第2事象における運転行動を「停止」にする。
 第1事象の運転行動が「停止」から「進行」となったときに、第2事象の運転行動を「進行」とすると、連続する「進行」指示により、減速後の大きな加速となり、乗員に違和感を覚えさせる可能性がある。第2事象の運転行動を「停止」とすることにより、第1事象の運転行動が「進行」と変化しても次の「停止」が考慮された緩やかな加速が計画される。このように急な加速が抑制されるので、速度段差のない滑らかな運転を実現できる。また、一度は「停止」となっていたため、第1事象に至る到達時間は長くなる可能性がある。状況の変化の可能性に備えて第2事象の運転行動を「停止」にしておくことにより、状況が変化しても適切な判断をすることができる。本例では、第1事象の運転行動が「進行」となったことを契機に、第2事象の運転行動を「停止」とすることにより、速度段差が抑制された安心感のある運転を実現できる。
 第1事象において運転行動が停止から進行に変化した場合であって、第1事象において検出された対象物の移動量が所定量未満である場合には、第2事象の運転行動を「進行」とすることが好ましい。上述したように原則としては、第2事象の運転行動は「停止」とするが、他車両などの対象物の移動量(速度、加速度)が所定量未満である場合には、その動きは小さいと判断できる。このような場合には、車両を進行させて第2事象も通過することが好ましい。対象物の動きが小さいにもかかわらず停止してしまう運転は状況を確認しているユーザに違和感を覚えさせる。本例では、対象物の動きが小さいときに限って、第2事象の運転行動を「進行」とすることにより、円滑な自動運転を実現する。
 図12A及び図12Bに基づいて、第1決定例を説明する。図12A及び図12Bに示す事象PA,PB,PCはそれぞれ事象として共通する。プロセッサ11は、各事象PA,PB,PCについての運転行動を算出する。図11Aに示すように、タイミングT0において、事象Aである横断歩道に歩行者M1が存在するため、事象PAの運転行動は「停止:No Go」である。上流側の事象PAが「停止:No Go」であるため、それに続く事象B、事象Cの運転行動を「停止:No Go」とする。
 タイミングT1において、歩行者M1が事象Aである横断歩道から離れたため、事象PAの運転行動は「進行:Go」に変化する。このときプロセッサ11は、事象PAの運転行動が停止から進行に変化した場合には、事象B、事象Cの運転行動を「停止:No Go」とする。事象PAの運転行動が「停止」から「進行:Go」に変化すると、車両は加速して事象PAに向かう。ここでは、事象B、事象Cの運転行動を「停止:No Go」とし、車両の加速を抑制し、車両が事象Aに至る到達時間を確保する。事象B,Cの検出情報の取得、分析、対象物の検出、対象物の事象B,Cへの到達時間を算出する。制御対象車両の事象B,Cへの到達時間と比較して、事象B,Cにおける接触の可能性を判断する。
時間差が所定値未満である場合には運転行動は「停止:No Go」となり、時間差が所定値以上である場合には運転行動は「進行:Go」となる。
 運転計画実行開始後に、運転行動が変更された場合には、変更後の事象の運転行動に基づいて運転計画を立案する。運転計画の立案処理は所定周期で繰り返される。車両は移動し、状況も刻々と変化するため、新たな検出情報、新たな対象物の検出結果などに基づいて対象物の検出、分析、運転行動の決定は繰り返される。運転行動が変化した場合には、変化後の運転行動に基づいて新たな運転計画を立案する。これにより、現在の状況に最適な運転行動が規定された運転計画を立案することができる。新たに立案される運転計画は、新たな検出・判断結果に基づく運転行動が規定されているので、状況を確認するユーザにも違和感を覚えさせることがない。
 運転行動の決定処理(図3 ステップS16)の一例を図13に示す。
 ステップS31において、プロセッサ11は、第1事象の運転行動が変更されたか否かを判断する。ステップS32において、プロセッサ11は、さらに、第1事象の運転行動が「進行」から「停止」に変更されたか否かを判断する。そうであれば、ステップS33に進み、プロセッサ11は、第2事象の運転行動が「進行」であるか否かを確認し、「進行」である場合には、ステップS34に進んで、第2事象の運転行動を「停止」にする。
 その後、プロセッサ11は、ステップS35において第1事象の運転行動が「停止」から「進行」に変化したか否かを判断する。プロセッサ11は、第1事象の運転行動が「進行」となっても、第2事象の運転行動は「停止」のままとする。ただし、ステップS37において、プロセッサ11は、検出された対象物の移動量が所定量未満であり、動きの少ない物体であることを確認した場合に限り、ステップS38に進んで、第2事象の運転行動を「進行」に変更する。対象物の移動量が所定量以上である場合には、ステップS39に進んで第2事象の運転行動を「停止」のままとする。
 図3のフローチャートに戻り、検出条件の変更後に再度抽出された事象に対する運転行動が決定されたらステップS16に進み、運転計画を立案する。刻々と変化する状況に適した運転計画を実行する。
 続くステップS17において、立案された運転計画に基づいて、運転制御を実行する。プロセッサ11は、車両コントローラ210を介して、車両に運転計画を実行させる。
 プロセッサ11は、自車両V1の実際のX座標値(X軸は車幅方向)と、現在位置に対応する目標X座標値と、フィードバックゲインとに基づいて、目標X座標値の上を車両V1に移動させるために必要な操舵角や操舵角速度等に関する目標制御値を算出する。プロセッサ11は、目標制御値を車載装置200に出力する。車両V1は、目標横位置により定義される目標経路上を走行する。プロセッサ11は、経路に沿う目標Y座標値(Y軸は車両の進行方向)を算出する。プロセッサ11は、車両V1の現在のY座標値、現在位置における車速及び加減速と、現在のY座標値に対応する目標Y座標値、その目標Y座標値における車速及び加減速との比較結果に基づいて、Y座標値に関するフィードバックゲインを算出する。プロセッサ11は、目標Y座標値に応じた車速および加減速度と、Y座標値のフィードバックゲインとに基づいて、Y座標値に関する目標制御値が算出される。
 ここで、Y軸方向の目標制御値とは、目標Y座標値に応じた加減速度および車速を実現するための駆動機構の動作(エンジン自動車にあっては内燃機関の動作、電気自動車系にあっては電動モータ動作を含み、ハイブリッド自動車にあっては内燃機関と電動モータとのトルク配分も含む)およびブレーキ動作についての制御値である。たとえば、エンジン自動車にあっては、制御機能は、現在および目標とするそれぞれの加減速度および車速の値に基づいて、目標吸入空気量(スロットルバルブの目標開度)と目標燃料噴射量を算出し、これを駆動装置270へ送出する。なお、制御機能は、加減速度および車速を算出し、これらを車両コントローラ210へ送出し、車両コントローラ210において、これら加減速度および車速を実現するための駆動機構の動作(エンジン自動車にあっては内燃機関の動作、電気自動車系にあっては電動モータ動作を含み、ハイブリッド自動車にあっては内燃機関と電動モータとのトルク配分も含む)およびブレーキ動作についての制御値をそれぞれ算出してもよい。
 プロセッサ11は、算出されたY軸方向の目標制御値を車載装置200に出力する。車両コントローラ210は、操舵制御及び駆動制御を実行し、自車両に目標X座標値及び目標Y座標値によって定義される目標経路上を走行させる。目標Y座標値を取得する度に処理を繰り返し、取得した目標X座標値のそれぞれについての制御値を車載装置200に出力する。ステップS18において、車両コントローラ210は、目的地に至るまで、プロセッサ11の指令に従い運転制御命令を実行する。
 本発明の実施形態の運転制御装置100は、以上のように構成され動作するので、以下の効果を奏する。
[1]本実施形態の運転制御方法は、検出条件に従って取得された検出情報に基づいて車両が遭遇する複数の事象を逐次抽出し、複数の事象を車両が遭遇する順序に沿って並べ替え、事象において取得された検出情報に基づいて運転行動を判断し、判断された運転行動が事象ごとに規定された運転計画を立案し、運転計画に従う運転制御命令を車両に実行させる方法であり、車両が先に遭遇する第1事象について規定された運転行動の内容に基づいて、第1事象の後に遭遇する一又は複数の第2事象に関する第2検出条件を決定する。
 第1事象における運転行動の内容に基づいて、第2事象に関する第2検出条件を決定することにより、適切な検出条件を設定できる。運転制御の実行中においては、制御対象となる車両の動きが変化し、周囲の状況も変化する。運転行動に応じた検出条件を設定することにより、運転制御の際に検出すべき対象及び対象の状況変化を正確に把握できる。新たな検出条件においては、上流側の第1事象の運転行動に基づいて第2事象の第2検出条件を設定するので、上流側の状況の変化に応じた検出条件を求め、それをいち早く下流側の検出処理に反映することができる。これにより、状況に応じた必要な検出情報を取得することができる。
 画一的な検出条件を適用するのではなく、運転行動に応じた検出条件を適用するので、適切な内容の検出情報を取得し、適切な情報量の検出情報に基づいて対象物の検出処理等を実行できる。言い換えると、過剰な情報量の検出情報を取得することを抑制することができ、必要最小限の情報量の検出情報に基づいて対象物の検出処理等を実行できる。適切な内容及び検出範囲を指定する適切な検出条件の設定により、システムリソースの効率的活用も実現できる。
[2]本実施形態の運転制御方法では、第1事象における運転行動が「進行」である場合の第2事象に関する第2検出条件は、第1事象における運転行動が「停止」である場合の第2事象に関する第2検出条件と比較したときに、事象に到達するまでの到達時間が相対的に短い対象物を検出する検出条件とする。
 第2事象までの距離が第1所定値未満又は事象PAまでの到達時間が所定値未満の近傍範囲に存在する対象物OBを集中的に監視することが適切である。第2検出条件を切り替えることにより、第2事象までの距離が所定値以上及び第2事象までの到達時間が所定値以上の遠い範囲に存在する対象物OBを判断対象から除外することができる。対象物OBの検出精度を維持しつつ、不要な検出情報を取得しないようにすることができる。この結果、演算負荷を低減させ、システムリソースを有効に活用できる。
[3]本実施形態の運転制御方法では、第1事象における運転行動が「停止」である場合の第2事象に関する第2検出条件は、第1事象における運転行動が「進行」である場合の第2事象に関する第2検出条件と比較したときに、事象に到達するまでの到達時間が相対的に長い対象物を検出する検出条件とする。
 車両V1が第2事象に到着するまでに対象物OBの状態が変動する可能性が高く、第2事象までの距離が第2所定値(>第1所定値)未満又は事象PAまでの到達時間が第2所定値(>第1所定値)未満の近傍範囲に存在する対象物OBを広く監視することが適切である。第2検出条件を切り替えることにより、第2事象までの距離が第1所定値以上第2所定値未満及び第2事象までの到達時間が第1所定値以上第2所定値未満の相対的に遠い範囲に存在する対象物OBを判断対象とすることができる。プロセッサ11は、車両V1が第2事象に到着するまでの時間が相対的に長くなることを考慮し、その時間内に移動する可能性のある対象物OBまでをも含む広い範囲を監視する。この結果、運転行動が「停止」の場面で必要な範囲の検出情報を取得できる。
[4]本実施形態の運転制御方法では、第1事象における運転行動が「停止」である場合の第2事象に関する第2検出条件は、第1事象における運転行動が「進行」である場合の第2事象に関する第2検出条件と比較したときに、対象物を検出するための検出範囲が相対的に広くなるように、車両の走行軌跡を変更させた検出条件とする。
 車両V1が第2事象に到着するまでに対象物OBの状態が変動する可能性が高く、第2事象までの距離が第2所定値(>第1所定値)未満又は第2事象までの到達時間が第2所定値(>第1所定値)未満の近傍範囲に存在する対象物OBを広く監視することが適切である。第2検出条件を切り替えることにより、第2事象までの距離が第1所定値以上第2所定値未満及び事象PAまでの到達時間が第1所定値以上第2所定値未満の相対的に遠い範囲に存在する対象物OBを判断対象とすることができる。プロセッサ11は、車両V1が第2事象に到着するまでの時間が相対的に長くなることを考慮し、その時間内に移動する可能性のある対象物OBまでをも含む広い範囲を監視する。この結果、運転行動が「停止」の場面で必要な範囲の検出情報を取得できる。
[5]本実施形態の運転制御方法では、第1事象における運転行動が「進行」である場合の第2事象に関する第2検出条件は、第1事象における運転行動が「停止」である場合の第2事象に関する第2検出条件と比較したときに、対象物を検出するための検出範囲が相対的に狭くなるように、車両の経路軌跡を変更させた検出条件とする。
 第2事象までの距離が第1所定値未満又は第2事象までの到達時間が第1所定値未満の近傍範囲に存在する対象物OBを集中的に監視することが適切である。第2検出条件を切り替えることにより、第2事象までの距離が所定値以上及び第2事象までの到達時間が所定値以上の遠い範囲に存在する対象物OBを判断対象から除外することができる。対象物OBの検出精度を維持しつつ、不要な検出情報を取得しないようにすることができる。この結果、演算負荷を低減させ、システムリソースを有効に活用できる。
[6]本実施形態の運転制御方法では、第1事象における運転行動が進行である場合の第2事象に関する第2検出条件は、第1事象における運転行動が停止である場合の第2事象に関する第2検出条件と比較したときに、対象物が車両に接触すると判断される確率が低い検出条件とする。つまり、第1事象における運転行動が進行である場合の第2事象に関する第2検出条件は、対象物の状況が同じであっても、対象物が車両に接触する確率が相対的に低い検出結果を導く。
 第1事象における運転行動が「進行」である場合には、次に遭遇する第2事象において車両V1と接近する可能性が絞り込まれた対象物OBについて考慮する。事象における運転行動の内容に応じて、注視すべき対象物を適切に検出することができる。
[7]本実施形態の運転制御方法では、第1事象における運転行動が停止である場合の第2事象に関する第2検出条件は、第1事象における運転行動が進行である場合の第2事象PBに関する第2検出条件と比較したときに、対象物が車両に接触すると判断される確率が高い検出条件とする。つまり、第1事象における運転行動が停止である場合の第2事象に関する第2検出条件は、対象物の状況が同じであっても、対象物が車両に接触する確率が相対的に高い検出結果を導く。
 第1事象における運転行動が「停止」である場合には、第2事象において車両V1と接近する可能性を高めて広い範囲に存在する対象物OBについて考慮する。事象における運転行動の内容に応じて、注視すべき対象物を適切に検出することができる。
[8]本実施形態の運転制御方法では、第1事象における運転行動が進行である場合には、第2検出条件を、第2事象に関する検出範囲を含む検出条件とする。第1事象が「進行」である場合には、次に遭遇する第2事象への到着時間が短いことが予測される。第1事象PAが「進行」であることを契機として、第2検出条件の検出範囲に第2事象に関する検出範囲を含ませることにより、いち早く、必要な第2事象PBの周囲の検出情報を取得できる。運転計画に適した検出情報を適切なタイミングで取得できるので、運転計画の精度を保つことができる。
[9]本実施形態の運転制御方法では、第1事象における運転行動が停止である場合には、第2検出条件を、第2事象に関する検出範囲が除外された検出条件とする。先に遭遇する第1事象PAの運転行動が「停止」である場合には、車両は減速することになるので、プロセッサ11は、第2事象PBの検出情報を分析するまでもなく、第1事象PAにおける運転行動に従って停止すればよい。第1事象PAにおける運転行動が「停止」である場合に、次に遭遇する事象Bに関する検出情報の取得を行わないので、重要度の低い検出情報の取得を禁止して、処理対象となる情報量を低減できる。この結果、演算負荷を低減させ、システムリソースを有効に活用できる。
[10]本実施形態の運転制御方法では、車速が高いほど、事象への到達時間が短い対象物を検出する検出条件とする。車速が高いほど、事象への到達時間が短い対象物を選択的に検出できる。車速が高いほど、事象に到達するまでの時間が短くなる可能性がある。本発明では、車速が高いほど、事象までの到達時間が短い物体を検出できる。言い換えると、事象までの到達時間が所定値以上の遠い範囲に存在する対象物OBを判断対象から除外することができる。対象物OBの検出精度を維持しつつ、不要な検出情報を取得しないようにすることができる。この結果、演算負荷を低減させ、システムリソースを有効に活用できる。
[11]本実施形態の運転制御方法では、検出情報の経時的な変化から求めた対象物の動きの変化量に基づいて、先に適用されていた第1検出条件を第2検出条件に切り替えるか否かを判断する。
 対象物の動きの変化量が所定値未満である場合には、運転行動の決定が変更される可能性が低い。運転行動の決定が変更されなければ、検出条件の設定も維持される可能性が高い。これにより、検出条件を変更/維持する判断を適切に下せるので、実際の状況に適した運転制御を実行することが可能となる。検出条件が頻繁に変更されることにより乗員に違和感を覚えさえることを抑制できる。
[12]本実施形態の運転制御方法では、第1事象における運転行動が停止から進行に切り替わったタイミングで、第2検出条件を設定する。第1事象が進行である場合には、次の第2事象までの到着時間は短いことが確定するので、このタイミングで第2検出条件を適用することにより、状況に適した検出条件を状況が確定したタイミングで適用できる。適切な検出条件が適切なタイミングで設定されるので、必要な情報のみを取得し、不要な情報を取得しないようにすることができる。これにより、事象を含むシーンを通過する際の自動運転時の演算負荷を低減させることができる。
[13]本実施形態の運転制御方法では、運転計画の実行中において、第1事象における運転行動が切り替わった場合には、第2事象について規定された運転行動を取り消す。プロセッサ11は、先に遭遇する第1事象の運転行動の切り替えにより、車両の第2事象への到達時間が変化するため、次に遭遇する第2事象の状況が変化することを予測する。プロセッサ11は、第2事象に接近してから第2事象の運転行動を見直すのではなく、第1事象の運転行動の切り替えをトリガとして第2事象の運転行動の内容を取り消す。これにより、状況に応じた精度の高い運転行動を決定できる。第2事象に接近してから再決定するのではなく、第1事象の運転行動の変化に基づいて再決定を行うので、処理の遅延を防止できる。
[14]本実施形態の運転制御方法では、運転計画の実行中において、第1事象における運転行動が切り替わった場合には、予め定義されたルールに基づいて第2事象の運転行動を規定する。予め変更のルールを定義しておくことにより、第1事象の運転行動の変更にいち早く対応できる。第2事象の運転行動が迅速に決定されるため、速度変化量、加速度変化量、操舵変化量、操舵速度変化量などの段差を低減させ、滑らかな自動運転を実現でき、乗員が違和感を覚えさせないようにできる。
[15]本実施形態の運転制御方法では、第1事象の運転行動が進行である運転計画の実行中において、第1事象における運転行動が進行から停止に変更された場合には、第2事象における運転行動を停止に変更する。第1事象の運転行動が「進行」から「停止」となったときに、第2事象の運転行動を「進行」とすると、運転計画では「停止」から「進行」へ遷移し、減速から加速運転がなされ、速度段差が発生する。また、第1事象の運転行動が「停止」となると、第1事象に至る到達時間は長くなり、状況の変化によって第2事象の運転行動も「停止」となる可能性がある。そうすると、「停止」「進行」「停止」となり、減速と加速が繰り返されることになり、乗員にとっては不快な運転となる。本例では、第1事象の運転行動が「停止」となったことを契機に、第2事象の運転行動も「停止」とするので、このような不具合の発生を防止できる。
[16]本実施形態の運転制御方法では、第1事象における運転行動が停止から進行に変更された場合には、第2事象における運転行動は停止とする。第1事象の運転行動が「停止」から「進行」となったときに、第2事象の運転行動を「進行」とすると、連続する「進行」指示により、減速後の大きな加速となり、乗員に違和感を覚えさせる可能性がある。第2事象の運転行動を「停止」とすることにより、第1事象の運転行動が「進行」と変化しても次の「停止」が考慮された緩やかな加速が計画される。このように急な加速が抑制されるので、速度段差のない滑らかな運転を実現できる。また、一度は「停止」となっていたため、第1事象に至る到達時間は長くなる可能性がある。状況の変化の可能性に備えて第2事象の運転行動を「停止」にしておくことにより、状況が変化しても適切な判断をすることができる。本例では、第1事象の運転行動が「進行」となったことを契機に、第2事象の運転行動を「停止」とすることにより、速度段差が抑制された安心感のある運転を実現できる。
[17]本実施形態の運転制御方法では、第1事象において検出された対象物の移動量が所定量未満である場合には、第2事象における運転行動を進行とする。上述したように原則としては、第2事象の運転行動は「停止」とするが、他車両などの対象物の移動量(速度、加速度)が所定量未満である場合には、その動きは小さいと判断できる。対象物の動きが小さいにもかかわらず停止してしまう運転は状況を確認しているユーザに違和感を覚えさせる。本例では、対象物の動きが小さいときに限って、第2事象の運転行動を「進行」とすることにより、円滑な自動運転を実現する。
[18]本実施形態の運転制御方法では、運転行動が変更された場合には、変更後の事象の運転行動に基づいて運転計画を立案する。運転計画の立案処理は所定周期で繰り返される。車両は移動し、状況も刻々と変化するため、新たな検出情報、新たな対象物の検出結果などに基づいて対象物の検出、分析、運転行動の決定は繰り返される。運転行動が変化した場合には、変化後の運転行動に基づいて新たな運転計画を立案する。これにより、現在の状況に最適な運転行動が規定された運転計画を立案することができる。新たに立案される運転計画は、新たな検出・判断結果に基づく運転行動が規定されているので、状況を確認するユーザにも違和感を覚えさせることがない。
[19]本実施形態の運転制御装置100は、上述した運転制御方法と同様の作用及び効果を奏する。
 なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
1…運転制御システム
100…運転制御装置
10…制御装置
11…プロセッサ
20…出力装置
30…通信装置
200…車載装置
210…車両コントローラ
220…ナビゲーション装置
 221…位置検出装置
 222…地図情報
 223…道路情報
 224…交通規則情報
230…検出装置
 231…カメラ
 232…レーダー装置
240…レーンキープ装置
 241…カメラ
 242…道路情報
250…出力装置
 251…ディスプレイ
 252…スピーカ
260…センサ
 261…舵角センサ
 262…車速センサ
 263…姿勢センサ
270…駆動装置
 271…制動装置
280…操舵装置

Claims (19)

  1.  車両の運転を制御するプロセッサに実行させる運転制御方法であって、
     地点ごとに設定可能な検出条件に基づいて、前記車両の周囲の検出情報を取得し、
     前記検出情報に基づいて前記車両が遭遇する事象を抽出し、
     前記抽出された複数の前記事象を前記車両が遭遇する順序に沿って並べ替え、
     前記事象において取得された前記検出情報に基づいて運転行動が前記事象ごとに規定された一連の運転計画を立案し、
     前記運転計画に従って前記車両の運転制御命令を実行し、
     前記車両が先に遭遇する第1事象について規定された前記運転行動の内容に基づいて、前記第1事象の後に遭遇する一又は複数の第2事象に関する第2検出条件を決定する運転制御方法。
  2.  前記検出条件を決定する処理において、
     前記第1事象における前記運転行動が進行である場合の前記第2事象に関する前記第2検出条件は、前記第1事象における前記運転行動が停止である場合の前記第2事象に関する前記第2検出条件と比較したときに、前記第2事象に到達するまでの到達時間が相対的に短い対象物を検出する前記検出条件である請求項1に記載の運転制御方法。
  3.  前記検出条件を決定する処理において、
     前記第1事象における前記運転行動が停止である場合の前記第2事象に関する前記第2検出条件は、前記第1事象における前記運転行動が進行である場合の前記第2事象に関する前記第2検出条件と比較したときに、前記第2事象に到達するまでの到達時間が相対的に長い対象物を検出する前記検出条件である請求項1に記載の運転制御方法。
  4.  前記検出条件を決定する処理において、
     前記第1事象における前記運転行動が停止である場合の前記第2事象に関する前記第2検出条件は、前記第1事象における前記運転行動が進行である場合の前記第2事象に関する前記第2検出条件と比較したときに、前記車両の周囲の対象物を検出するための検出範囲が相対的に広くなるように、前記車両の走行軌跡を変更させた前記検出条件である請求項1~3の何れか一項に記載の運転制御方法。
  5.  前記検出条件を決定する処理において、
     前記第1事象における前記運転行動が進行である場合の前記第2事象に関する前記第2検出条件は、前記第1事象における前記運転行動が停止である場合の前記第2事象に関する前記第2検出条件と比較したときに、前記車両の周囲の対象物を検出するための検出範囲が相対的に狭くなるように、前記車両の走行軌跡を変更させた前記検出条件である請求項1~4の何れか一項に記載の運転制御方法。
  6.  前記検出条件を決定する処理において、
     前記第1事象における前記運転行動が進行である場合の前記第2事象に関する前記第2検出条件は、前記第1事象における前記運転行動が停止である場合の前記第2事象に関する前記第2検出条件と比較したときに、前記車両の周囲の対象物が前記車両に接触すると判断される確率が低く設定された前記検出条件である請求項1~5の何れか一項に記載の運転制御方法。
  7.  前記検出条件を決定する処理において、
     前記第1事象における前記運転行動が停止である場合の前記第2事象に関する前記第2検出条件は、前記第1事象における前記運転行動が進行である場合の前記第2事象に関する前記第2検出条件と比較したときに、前記車両に対象物が接触すると判断される確率が高く設定された前記検出条件である請求項1~5の何れか一項に記載の運転制御方法。
  8.  前記第1事象における前記運転行動が進行である場合には、前記第2検出条件を、前記第2事象に関する検出範囲を含む前記検出条件とする請求項1~7の何れか一項に記載の運転制御方法。
  9.  前記第1事象における前記運転行動が停止である場合には、前記第2検出条件を、前記第2事象に関する検出範囲が除外された前記検出条件とする請求項1~8の何れか一項に記載の運転制御方法。
  10.  前記車両の車速を取得し、
     前記車速が高いほど、前記事象への到達時間が短い対象物を検出する前記検出条件とする請求項1~9の何れか一項に記載の運転制御方法。
  11.  前記検出条件を決定する処理において、
     前記検出情報の経時的な変化から求めた対象物の動きの変化量に基づいて、先に適用されていた第1検出条件を前記第2検出条件に切り替えるか否かを判断する請求項1~10の何れか一項に記載の運転制御方法。
  12.  前記第1事象における前記運転行動が停止から進行に切り替わったタイミングで、前記第2検出条件を設定する請求項1~11の何れか一項に記載の運転制御方法。
  13.  前記運転計画の実行中において、前記第1事象における前記運転行動が切り替わった場合には、前記第2事象について規定された前記運転行動を取り消す請求項1~12の何れか一項に記載の運転制御方法。
  14.  前記運転計画の実行中において、前記第1事象における前記運転行動が切り替わった場合には、予め定義されたルールに基づいて前記第2事象の前記運転行動を規定する請求項1~12の何れか一項に記載の運転制御方法。
  15.  前記第1事象の前記運転行動が進行である前記運転計画の実行中において、
     前記第1事象における前記運転行動が進行から停止に変更された場合には、前記第2事象における前記運転行動を停止に変更する請求項14に記載の運転制御方法。
  16.  前記第1事象における前記運転行動が停止から進行に変更された場合には、前記第2事象における前記運転行動は停止とする請求項14又は15に記載の運転制御方法。
  17.  前記第1事象において検出された対象物の移動量が所定量未満である場合には、前記第2事象における前記運転行動を進行とする請求項16に記載の運転制御方法。
  18.  前記運転行動が変更された場合には、変更後の前記事象の前記運転行動に基づいて前記運転計画を立案する請求項14~17の何れか一項に記載の運転制御方法。
  19.  車両の周囲の検出情報を取得する通信装置と、
     運転制御処理を実行するプロセッサを備え、
     前記プロセッサは、
     地点ごとに設定可能な検出条件に基づいて、前記検出情報を取得する処理、
     前記検出情報に基づいて前記車両が遭遇する事象を抽出する処理、
     前記抽出された複数の前記事象を前記車両が遭遇する順序に沿って並べ替える処理、
     前記事象において取得された前記検出情報に基づいて運転行動が前記事象ごとに規定された運転計画を立案する処理、
     前記運転計画に従って前記車両の運転制御命令を実行する処理、
     前記車両が先に遭遇する第1事象について規定された前記運転行動の内容に基づいて、前記第1事象の後に遭遇する一又は複数の第2事象に関する第2検出条件を決定する処理を実行する運転制御装置。
PCT/JP2017/036695 2017-10-10 2017-10-10 運転制御方法及び運転制御装置 WO2019073525A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN201780095676.5A CN111448597B (zh) 2017-10-10 2017-10-10 驾驶控制方法以及驾驶控制装置
JP2019547817A JP6854357B2 (ja) 2017-10-10 2017-10-10 運転制御方法及び運転制御装置
PCT/JP2017/036695 WO2019073525A1 (ja) 2017-10-10 2017-10-10 運転制御方法及び運転制御装置
RU2020115453A RU2744018C1 (ru) 2017-10-10 2017-10-10 Способ управления вождением и оборудование управления вождением
US16/754,974 US11458963B2 (en) 2017-10-10 2017-10-10 Driving control method and driving control apparatus
EP17928107.6A EP3696788B1 (en) 2017-10-10 2017-10-10 Driving control method and driving control apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/036695 WO2019073525A1 (ja) 2017-10-10 2017-10-10 運転制御方法及び運転制御装置

Publications (1)

Publication Number Publication Date
WO2019073525A1 true WO2019073525A1 (ja) 2019-04-18

Family

ID=66100471

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/036695 WO2019073525A1 (ja) 2017-10-10 2017-10-10 運転制御方法及び運転制御装置

Country Status (6)

Country Link
US (1) US11458963B2 (ja)
EP (1) EP3696788B1 (ja)
JP (1) JP6854357B2 (ja)
CN (1) CN111448597B (ja)
RU (1) RU2744018C1 (ja)
WO (1) WO2019073525A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113135183A (zh) * 2020-01-20 2021-07-20 本田技研工业株式会社 车辆的控制系统、车辆的控制系统的控制方法、车辆以及计算机可读记录介质
US20240182005A1 (en) * 2021-04-12 2024-06-06 Nissan Motor Co., Ltd. Braking Control Method and Braking Control Device

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018204500A1 (de) * 2018-03-23 2019-09-26 Continental Automotive Gmbh System zur Erzeugung von Konfidenzwerten im Backend
JP6947293B2 (ja) * 2018-03-27 2021-10-13 日産自動車株式会社 自動運転車両の制御方法および制御装置
CN112470200B (zh) * 2018-07-16 2022-06-07 日产自动车株式会社 行驶辅助方法和行驶辅助装置
US10909866B2 (en) * 2018-07-20 2021-02-02 Cybernet Systems Corp. Autonomous transportation system and methods
CN110874926A (zh) * 2018-08-31 2020-03-10 百度在线网络技术(北京)有限公司 智能路侧单元
JP7243227B2 (ja) * 2019-01-29 2023-03-22 トヨタ自動車株式会社 車両制御装置
FR3095404B1 (fr) * 2019-04-25 2021-10-22 Transdev Group Dispositif électronique de communication, appareil de surveillance, installation de supervision, procédé de communication et programme d’ordinateur associés
JP7289760B2 (ja) * 2019-09-18 2023-06-12 日立Astemo株式会社 電子制御装置
CN111775961B (zh) * 2020-06-29 2022-01-04 阿波罗智能技术(北京)有限公司 自动驾驶车辆规划方法、装置、电子设备及存储介质
CN114572240B (zh) * 2020-11-30 2023-11-14 北京百度网讯科技有限公司 车辆行驶控制方法、装置、车辆、电子设备及存储介质
CN112560972B (zh) * 2020-12-21 2021-10-08 北京航空航天大学 基于毫米波雷达先验定位和视觉特征融合的目标检测方法
JP2022156078A (ja) * 2021-03-31 2022-10-14 本田技研工業株式会社 交通システム
CN115246415A (zh) * 2021-04-26 2022-10-28 华为技术有限公司 一种决策方法、装置和车辆
CN117949995B (zh) * 2024-03-26 2024-06-28 徐州众图智控通信科技有限公司 一种基于测距雷达的煤矿车辆定位监测方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008181419A (ja) * 2007-01-25 2008-08-07 Toyota Motor Corp 衝突予知装置及び衝突予知方法
JP2011096105A (ja) 2009-10-30 2011-05-12 Toyota Motor Corp 運転支援装置
WO2017010264A1 (ja) * 2015-07-10 2017-01-19 本田技研工業株式会社 車両制御装置、車両制御方法、および車両制御プログラム

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3324421B2 (ja) 1996-12-09 2002-09-17 三菱自動車工業株式会社 車両の後側方警報装置
AU2003220396A1 (en) * 2002-03-19 2003-10-08 Automotive Systems Laboratory, Inc. Vehicle rollover detection system
JP4434224B2 (ja) * 2007-03-27 2010-03-17 株式会社デンソー 走行支援用車載装置
US9665781B2 (en) * 2011-08-02 2017-05-30 Nissan Motor Co., Ltd. Moving body detection device and moving body detection method
MY172250A (en) * 2012-02-23 2019-11-19 Nissan Motor Three-dimensional object detection device
US8718861B1 (en) * 2012-04-11 2014-05-06 Google Inc. Determining when to drive autonomously
JP6115335B2 (ja) * 2013-06-10 2017-04-19 ノーリツプレシジョン株式会社 情報処理装置、情報処理方法、及び、プログラム
MX345733B (es) * 2013-07-19 2017-02-14 Nissan Motor Dispositivo de asistencia a la conduccion para vehiculo y metodo de asistencia a la conduccion para vehiculo.
JP6011489B2 (ja) * 2013-08-26 2016-10-19 トヨタ自動車株式会社 車載制御装置
CN104423381B (zh) * 2013-08-30 2017-09-29 联想(北京)有限公司 一种电子设备及其保护方法
JP6320050B2 (ja) * 2014-01-17 2018-05-09 オムロンオートモーティブエレクトロニクス株式会社 レーザレーダ装置
US10078136B2 (en) * 2014-03-25 2018-09-18 Amazon Technologies, Inc. Sense and avoid for automated mobile vehicles
JP6252316B2 (ja) * 2014-03-31 2017-12-27 株式会社デンソー 車両用表示制御装置
JP5788048B2 (ja) * 2014-04-07 2015-09-30 株式会社小松製作所 作業車両用周辺監視システム及び作業車両
JP6537780B2 (ja) * 2014-04-09 2019-07-03 日立オートモティブシステムズ株式会社 走行制御装置、車載用表示装置、及び走行制御システム
CN103927878B (zh) * 2014-04-10 2016-05-25 中海网络科技股份有限公司 一种用于违章停车的自动抓拍装置及自动抓拍方法
JP6190758B2 (ja) * 2014-05-21 2017-08-30 本田技研工業株式会社 物体認識装置及び車両
EP3187388B1 (en) * 2014-08-28 2019-03-06 Nissan Motor Co., Ltd Travel control device and travel control method
JP6100222B2 (ja) * 2014-09-12 2017-03-22 アイシン精機株式会社 駐車支援装置
JP6303975B2 (ja) * 2014-10-22 2018-04-04 株式会社デンソー 障害物警報装置
CN106295459A (zh) * 2015-05-11 2017-01-04 青岛若贝电子有限公司 基于机器视觉和级联分类器的车辆检测和预警方法
KR102053552B1 (ko) * 2015-07-21 2019-12-06 닛산 지도우샤 가부시키가이샤 운전 계획 장치, 주행 지원 장치, 운전 계획 방법
CN107226091B (zh) * 2016-03-24 2021-11-26 松下电器(美国)知识产权公司 物体检测装置、物体检测方法以及记录介质
US9535423B1 (en) 2016-03-29 2017-01-03 Adasworks Kft. Autonomous vehicle with improved visual detection ability
JPWO2017175361A1 (ja) * 2016-04-07 2018-04-12 株式会社小松製作所 走行車両及び走行車両の制御方法
JP6799150B2 (ja) * 2017-05-25 2020-12-09 本田技研工業株式会社 車両制御装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008181419A (ja) * 2007-01-25 2008-08-07 Toyota Motor Corp 衝突予知装置及び衝突予知方法
JP2011096105A (ja) 2009-10-30 2011-05-12 Toyota Motor Corp 運転支援装置
WO2017010264A1 (ja) * 2015-07-10 2017-01-19 本田技研工業株式会社 車両制御装置、車両制御方法、および車両制御プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3696788A4

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113135183A (zh) * 2020-01-20 2021-07-20 本田技研工业株式会社 车辆的控制系统、车辆的控制系统的控制方法、车辆以及计算机可读记录介质
US11814081B2 (en) 2020-01-20 2023-11-14 Honda Motor Co., Ltd. Control system, control method, vehicle, and computer-readable storage medium
CN113135183B (zh) * 2020-01-20 2023-12-29 本田技研工业株式会社 车辆的控制系统、车辆的控制系统的控制方法、车辆以及计算机可读记录介质
US20240182005A1 (en) * 2021-04-12 2024-06-06 Nissan Motor Co., Ltd. Braking Control Method and Braking Control Device
US12084023B2 (en) * 2021-04-12 2024-09-10 Nissan Motor Co., Ltd. Braking control method and braking control device

Also Published As

Publication number Publication date
CN111448597A (zh) 2020-07-24
CN111448597B (zh) 2022-06-10
RU2744018C1 (ru) 2021-03-02
JP6854357B2 (ja) 2021-04-07
EP3696788A4 (en) 2020-10-21
US20200298842A1 (en) 2020-09-24
EP3696788A1 (en) 2020-08-19
US11458963B2 (en) 2022-10-04
JPWO2019073525A1 (ja) 2020-11-26
EP3696788B1 (en) 2022-08-10

Similar Documents

Publication Publication Date Title
JP6854357B2 (ja) 運転制御方法及び運転制御装置
JP6779590B2 (ja) 運転制御方法及び運転制御装置
JP6819177B2 (ja) 運転支援方法及び運転支援装置
JP6443550B2 (ja) シーン評価装置、走行支援装置、シーン評価方法
JP6451847B2 (ja) 運転計画装置、走行支援装置、運転計画方法
JP6308233B2 (ja) 車両制御装置及び車両制御方法
JP6451848B2 (ja) 運転計画装置、走行支援装置、運転計画方法
US10796574B2 (en) Driving assistance method and device
JP6443552B2 (ja) シーン評価装置、走行支援装置、シーン評価方法
JP6468261B2 (ja) 自動運転システム
US20190035278A1 (en) Driving Assistance Method and Device
JP6451211B2 (ja) 走行制御装置
JP6809087B2 (ja) 運転支援方法及び運転支援装置
JP7154914B2 (ja) 運転制御方法及び運転制御装置
JP6443551B2 (ja) シーン評価装置、走行支援装置、シーン評価方法
JP2020052673A (ja) 運転制御方法及び運転制御装置
WO2018033949A1 (ja) 運転支援方法及び運転支援装置
JP7258677B2 (ja) 運転制御方法及び運転制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17928107

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019547817

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017928107

Country of ref document: EP

Effective date: 20200511