JP2020504860A - Navigation systems with imposed liability constraints - Google Patents

Navigation systems with imposed liability constraints Download PDF

Info

Publication number
JP2020504860A
JP2020504860A JP2019527180A JP2019527180A JP2020504860A JP 2020504860 A JP2020504860 A JP 2020504860A JP 2019527180 A JP2019527180 A JP 2019527180A JP 2019527180 A JP2019527180 A JP 2019527180A JP 2020504860 A JP2020504860 A JP 2020504860A
Authority
JP
Japan
Prior art keywords
host vehicle
vehicle
navigation
accident liability
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019527180A
Other languages
Japanese (ja)
Other versions
JP6708793B2 (en
Inventor
シャレブ−シュワルツ,シャイ
シャマ,シェイクド
シャシュア,アムノン
Original Assignee
モービルアイ ビジョン テクノロジーズ リミテッド
モービルアイ ビジョン テクノロジーズ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by モービルアイ ビジョン テクノロジーズ リミテッド, モービルアイ ビジョン テクノロジーズ リミテッド filed Critical モービルアイ ビジョン テクノロジーズ リミテッド
Publication of JP2020504860A publication Critical patent/JP2020504860A/en
Application granted granted Critical
Publication of JP6708793B2 publication Critical patent/JP6708793B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/08Insurance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0953Predicting travel path or likelihood of collision the prediction being responsive to vehicle dynamic parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0016Planning or execution of driving tasks specially adapted for safety of the vehicle or its occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • B60W60/00276Planning or execution of driving tasks using trajectory prediction for other traffic participants for two or more other traffic participants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/025Active steering aids, e.g. helping the driver by actively influencing the steering system after environment evaluation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/025Active steering aids, e.g. helping the driver by actively influencing the steering system after environment evaluation
    • B62D15/0265Automatic obstacle avoidance by steering
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/3415Dynamic re-routing, e.g. recalculating the route when the user deviates from calculated route or after detecting real-time traffic data or accidents
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3446Details of route searching algorithms, e.g. Dijkstra, A*, arc-flags, using precalculated routes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/006Indicating maintenance
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/02Registering or indicating driving, working, idle, or waiting time only
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/163Decentralised systems, e.g. inter-vehicle communication involving continuous checking
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • B60W2050/009Priority selection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2400/00Indexing codes relating to detected, measured or calculated conditions or factors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/50Barriers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4023Type large-size vehicles, e.g. trucks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4026Cycles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4046Behavior, e.g. aggressive or erratic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/60Traversable objects, e.g. speed bumps or curbs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/804Relative longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/18Braking system

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Business, Economics & Management (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Operations Research (AREA)
  • Human Resources & Organizations (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Technology Law (AREA)
  • Development Economics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Diaphragms For Electromechanical Transducers (AREA)
  • Prostheses (AREA)

Abstract

ホスト車両をナビゲートするためのシステム及び方法が提供される。幾つかの実施形態では、システムは、ホスト車両の環境を表す少なくとも1つの画像を画像捕捉装置から受信することと、ホスト車両のナビゲーション目標を達成するための計画されたナビゲーション動作を少なくとも1つの運転ポリシに基づいて決定することと、少なくとも1つの画像を分析してホスト車両の環境内の目標車両を識別することと、識別された目標車両に対するホスト車両の潜在的な事故責任を決定するために、計画されたナビゲーション動作を少なくとも1つの事故責任規則に対してテストすることと、少なくとも1つの事故責任規則に対する計画されたナビゲーション動作のテストが、計画されたナビゲーション動作が行われる場合にホスト車両について潜在的な事故責任があることを示す場合、計画されたナビゲーション動作をホスト車両に実施させないことと、少なくとも1つの事故責任規則に対する計画されたナビゲーション動作のテストが、計画されたナビゲーション動作が行われる場合にホスト車両について事故責任が生じないであろうことを示す場合、計画されたナビゲーション動作をホスト車両に実施させることとを行うようにプログラムされる少なくとも1つの処理デバイスを含み得る。Systems and methods are provided for navigating a host vehicle. In some embodiments, the system receives at least one image representative of the environment of the host vehicle from the image capture device and performs at least one driving operation of the planned navigation action to achieve the host vehicle's navigation goals. Determining based on the policy, analyzing the at least one image to identify a target vehicle in the environment of the host vehicle, and determining a potential accident liability of the host vehicle with respect to the identified target vehicle. Testing the planned navigation action against at least one accident liability rule, and testing the planned navigation action against the at least one accident liability rule is performed on the host vehicle when the planned navigation action is performed. Planned navigation should be used to indicate potential accident liability. That the host vehicle does not perform any navigation actions and that testing of the planned navigation actions for at least one accident liability rule will not result in accident liability for the host vehicle if the planned navigation actions are performed. If indicated, it may include at least one processing device programmed to cause the host vehicle to perform a planned navigation operation.

Description

関連出願の相互参照
[001] 本願は、2016年12月23日に出願された米国仮特許出願第62/438,563号、2017年8月16日に出願された米国仮特許出願第62/546,343号、2017年9月29日に出願された米国仮特許出願第62/565,244号及び2017年11月7日に出願された米国仮特許出願第62/582,687号の優先権の利益を主張するものである。上記の出願の全ては、参照によりその全体が本明細書に援用される。
Cross-reference of related applications
[001] This application is related to US Provisional Patent Application No. 62 / 438,563, filed December 23, 2016, US Provisional Patent Application No. 62 / 546,343, filed August 16, 2017, Claims the priority benefit of US Provisional Patent Application No. 62 / 565,244 filed September 29, 2017 and US Provisional Patent Application No. 62 / 582,687 filed November 7, 2017. Is what you do. All of the above applications are incorporated herein by reference in their entirety.

背景
技術分野
[002] 本開示は、概して、自律車両ナビゲーションに関する。加えて、本開示は、潜在的な(生じ得る)事故責任の制約に従ってナビゲートするためのシステム及び方法に関する。
Background technology field
[002] The present disclosure relates generally to autonomous vehicle navigation. In addition, the present disclosure relates to systems and methods for navigating according to potential (possible) accident liability constraints.

背景情報
[003] 技術が進化し続けるにつれ、路上でナビゲート可能な完全自律車両という目標が現実味を帯びてきている。自律車両は、様々な要因を考慮する必要があり得、それらの要因に基づいて、意図される目的地に安全且つ正確に到達するのに適切な判断を下し得る。例えば、自律車両は、視覚的情報(例えば、カメラから捕捉される情報)、レーダ、又はライダからの情報を処理して解釈する必要があり得ると共に、他のソース(例えば、GPSデバイス、速度センサ、加速度計、サスペンションセンサ等)から得られる情報を使用することもある。同時に、目的地にナビゲートするために、自律車両は、特定の道路(例えば、複数レーン道路内の特定のレーン)内の自らの位置を識別し、他の車両と並んでナビゲートし、障害物及び歩行者を回避し、交通信号及び標識を観測し、適切な交差点又はインターチェンジで、ある道路から別の道路に進み、車両の動作中に起こるか又は展開する他の任意の状況に応答する必要もあり得る。更に、ナビゲーションシステムは、一定の課された制約に従わなければならない場合がある。幾つかの場合、それらの制約は、ホスト車両と、他の車両や歩行者等の1つ又は複数の他の物体との間の相互作用に関係する場合がある。他の事例では、それらの制約は、ホスト車両のための1つ又は複数のナビゲーション動作を実施する際に従うべき責任規則に関係し得る。
Background information
[003] As technology continues to evolve, the goal of a fully autonomous vehicle navigable on the road is becoming a reality. An autonomous vehicle may need to consider various factors and, based on those factors, may make appropriate decisions to safely and accurately reach the intended destination. For example, an autonomous vehicle may need to process and interpret visual information (eg, information captured from a camera), radar, or lidar, as well as other sources (eg, GPS devices, speed sensors). , Accelerometers, suspension sensors, etc.). At the same time, to navigate to the destination, the autonomous vehicle identifies its location on a particular road (eg, a particular lane in a multi-lane road), navigates alongside other vehicles, Avoid objects and pedestrians, observe traffic signals and signs, go from one road to another at appropriate intersections or interchanges, and respond to any other situations that occur or evolve during vehicle operation It may be necessary. Further, navigation systems may have to adhere to certain imposed constraints. In some cases, those constraints may relate to interactions between the host vehicle and one or more other objects, such as other vehicles or pedestrians. In other cases, those constraints may relate to liability rules to be followed when performing one or more navigation operations for the host vehicle.

[004] 自律運転の分野では、存立可能な自律車両システムにとって2つの重要な検討事項がある。1つ目の検討事項は、安全を保証するために全ての自動運転車両が満たさなければならない要件を含む安全保証の標準化、及びそれらの要件をどのように検証できるかである。2つ目の検討事項は、スケーラビリティであり、なぜなら、コストが上昇する原因となるエンジニアリングの解決策は、何百万台もの車に合わせてスケーリングすることにならず、自律車両の広範な採用又は更にはそれほど広範でない採用さえ妨げる可能性があるからである。従って、安全保証のための解釈可能な数学モデル及び何百万台もの車に合わせてスケーリング可能でありながら、安全保証の要件に従うシステムの設計が求められている。   [004] In the field of autonomous driving, there are two important considerations for a viable autonomous vehicle system. The first consideration is the standardization of security assurance, including the requirements that all autonomous vehicles must meet to ensure safety, and how those requirements can be verified. The second consideration is scalability, because the engineering solutions that drive up costs do not scale to millions of vehicles, but rather the widespread adoption of autonomous vehicles or Furthermore, even less widespread recruitment can be hindered. Therefore, there is a need for an interpretable mathematical model for security and the design of a system that is scalable to millions of vehicles while complying with security requirements.

概要
[005] 本開示による実施形態は、自律車両ナビゲーションのシステム及び方法を提供する。開示される実施形態は、カメラを使用して、自律車両ナビゲーション特徴を提供し得る。例えば、本開示の実施形態によれば、開示されるシステムは、車両の環境を監視する1つ、2つ、又は3つ以上のカメラを含み得る。開示されるシステムは、例えば、カメラの1つ又は複数により捕捉された画像の分析に基づいて、ナビゲーション応答を提供し得る。ナビゲーション応答は、例えば、全地球測位(GPS)データ、センサデータ(例えば、加速度計、速度センサ、サスペンションセンサ等から)、及び/又は他の地図データを含む他のデータを考慮することもできる。
Overview
[005] Embodiments according to the present disclosure provide systems and methods for autonomous vehicle navigation. The disclosed embodiments may use a camera to provide autonomous vehicle navigation features. For example, according to embodiments of the present disclosure, the disclosed system may include one, two, or more than one camera that monitors the environment of the vehicle. The disclosed system may provide a navigation response based on, for example, an analysis of images captured by one or more of the cameras. The navigation response may also take into account other data, including, for example, global positioning (GPS) data, sensor data (eg, from accelerometers, speed sensors, suspension sensors, etc.), and / or other map data.

[006] ホスト車両をナビゲートするためのシステム及び方法が提供される。幾つかの実施形態では、システムは、ホスト車両の環境を表す少なくとも1つの画像を画像捕捉装置から受信することと、ホスト車両のナビゲーション目標を達成するための計画されたナビゲーション動作を少なくとも1つの運転ポリシに基づいて決定することと、少なくとも1つの画像を分析してホスト車両の環境内の目標車両を識別することと、識別された目標車両に対するホスト車両の潜在的な事故責任を決定するために、計画されたナビゲーション動作を少なくとも1つの事故責任規則に対してテストすることと、少なくとも1つの事故責任規則に対する計画されたナビゲーション動作のテストが、計画されたナビゲーション動作が行われる場合にホスト車両について潜在的な事故責任があることを示す場合、計画されたナビゲーション動作をホスト車両に実施させないことと、少なくとも1つの事故責任規則に対する計画されたナビゲーション動作のテストが、計画されたナビゲーション動作が行われる場合にホスト車両について事故責任が生じないであろうことを示す場合、計画されたナビゲーション動作をホスト車両に実施させることとを行うようにプログラムされる少なくとも1つの処理デバイスを含み得る。   [006] Systems and methods for navigating a host vehicle are provided. In some embodiments, the system receives at least one image representative of the environment of the host vehicle from the image capture device and performs at least one driving operation of the planned navigation action to achieve the host vehicle's navigation goals. Determining based on the policy, analyzing at least one image to identify a target vehicle in the environment of the host vehicle, and determining a potential accident liability of the host vehicle with respect to the identified target vehicle. Testing the planned navigation action against at least one accident liability rule, and testing the planned navigation action against the at least one accident liability rule, for the host vehicle when the planned navigation action is performed Planned navigation should be used to indicate potential accident liability. That the host vehicle does not perform any of the planned navigation actions, and that testing of the planned navigation actions for at least one accident liability rule will not result in accident liability for the host vehicle if the planned navigation actions are performed. If indicated, it may include at least one processing device programmed to cause the host vehicle to perform the planned navigation operation.

[007] 幾つかの実施形態では、ホスト車両のためのナビゲーションシステムは、ホスト車両の環境を表す少なくとも1つの画像を画像捕捉装置から受信することと、ホスト車両のための複数の潜在的な(選択し得る)ナビゲーション動作を少なくとも1つの運転ポリシに基づいて決定することと、少なくとも1つの画像を分析してホスト車両の環境内の目標車両を識別することと、識別された目標車両に対するホスト車両の潜在的な事故責任を決定するために、複数の潜在的なナビゲーション動作を少なくとも1つの事故責任規則に対してテストすることと、潜在的なナビゲーション動作の1つを選択することであって、潜在的なナビゲーション動作のその1つについて、テストは、選択された潜在的なナビゲーション動作が行われる場合にホスト車両について事故責任が生じないであろうことを示す、選択することと、選択された潜在的なナビゲーション動作をホスト車両に実施させることとを行うようにプログラムされる少なくとも1つの処理デバイスを含み得る。   [007] In some embodiments, a navigation system for a host vehicle receives at least one image representing an environment of the host vehicle from an image capture device, and a plurality of potential images for the host vehicle. Determining a (possible) navigation action based on at least one driving policy; analyzing at least one image to identify a target vehicle in the environment of the host vehicle; and a host vehicle for the identified target vehicle. Testing a plurality of potential navigation actions against at least one accident liability rule, and selecting one of the potential navigation actions to determine a potential accident liability of For that one of the potential navigation actions, the test is executed when the selected potential navigation action is taken. Including at least one processing device programmed to perform a selection and to cause the host vehicle to perform the selected potential navigation action, indicating that no liability will occur for the strike vehicle. obtain.

[008] 幾つかの実施形態では、ホスト車両をナビゲートするためのシステムは、ホスト車両の環境を表す少なくとも1つの画像を画像捕捉装置から受信することと、ホスト車両のナビゲーション目標を達成するための2つ以上の計画されたナビゲーション動作を少なくとも1つの運転ポリシに基づいて決定することと、少なくとも1つの画像を分析してホスト車両の環境内の目標車両を識別することと、潜在的な事故責任を決定するために、2つ以上の計画されたナビゲーション動作のそれぞれを少なくとも1つの事故責任規則に対してテストすることと、2つ以上の計画されたナビゲーション動作のそれぞれについて、テストが、2つ以上の計画されたナビゲーション動作の特定の1つが行われる場合にホスト車両について潜在的な事故責任があることを示す場合、計画されたナビゲーション動作の特定の1つをホスト車両に実施させないことと、2つ以上の計画されたナビゲーション動作のそれぞれについて、テストが、2つ以上の計画されたナビゲーション動作の特定の1つが行われる場合にホスト車両について事故責任が生じないであろうことを示す場合、2つ以上の計画されたナビゲーション動作の特定の1つを、実施のための存立可能な候補として識別することと、少なくとも1つのコスト関数に基づき、実施のための存立可能な候補の中から行われるナビゲーション動作を選択することと、選択されたナビゲーション動作をホスト車両に実施させることとを行うようにプログラムされる少なくとも1つの処理デバイスを含み得る。   [008] In some embodiments, a system for navigating a host vehicle includes receiving at least one image representative of an environment of the host vehicle from an image capture device and achieving a navigation goal for the host vehicle. Determining at least one planned navigation behavior based on at least one driving policy, analyzing at least one image to identify a target vehicle within the environment of the host vehicle, Testing each of the two or more planned navigation actions against at least one accident liability rule to determine responsibilities; and for each of the two or more planned navigation actions, testing Potential accident liability for the host vehicle if a particular one of more than one planned navigation action is taken If there is, the host vehicle is not allowed to perform a particular one of the planned navigation actions, and for each of the two or more planned navigation actions, a test is performed for two or more planned navigation actions. If one of the actions indicates that no accident liability will occur for the host vehicle, a particular one of the two or more planned navigation actions is a viable candidate for implementation. And selecting a navigation action to be performed from among the viable candidates for implementation based on at least one cost function, and causing the host vehicle to perform the selected navigation action. At least one processing device programmed as follows.

[009] 幾つかの実施形態では、ホスト車両のための事故責任追跡システムは、ホスト車両の環境を表す少なくとも1つの画像を画像捕捉装置から受信することと、少なくとも1つの画像を分析してホスト車両の環境内の目標車両を識別することと、少なくとも1つの画像の分析に基づき、識別された目標車両のナビゲーション状態の1つ又は複数の特性を決定することと、識別された目標車両のナビゲーション状態の決定された1つ又は複数の特性を少なくとも1つの事故責任規則と比較することと、識別された目標車両のナビゲーション状態の決定された1つ又は複数の特性の少なくとも1つの事故責任規則との比較に基づき、識別された目標車両側の潜在的な事故責任を示す少なくとも1つの値を記憶することと、ホスト車両と少なくとも1つの目標車両との間の事故後、事故の責任を決定するために、記憶された少なくとも1つの値を出力することとを行うようにプログラムされる少なくとも1つの処理デバイスを含み得る。   [009] In some embodiments, the accident liability tracking system for the host vehicle receives at least one image representative of the environment of the host vehicle from an image capture device, and analyzes the at least one image to analyze the host vehicle. Identifying a target vehicle in the environment of the vehicle; determining one or more characteristics of a navigation state of the identified target vehicle based on analysis of the at least one image; and navigating the identified target vehicle. Comparing the determined one or more characteristics of the state to at least one accident liability rule; and comparing the determined one or more characteristics of the identified target vehicle navigation state to the at least one accident liability rule. Storing at least one value indicative of the potential accident liability of the identified target vehicle based on the comparison of After an accident with one target vehicle, it may include at least one processing device programmed to output at least one stored value to determine responsibility for the accident.

[010] 幾つかの実施形態では、ホスト車両をナビゲートするためのシステムは、ホスト車両の環境を表す少なくとも1つの画像を画像捕捉装置から受信することと、ホスト車両のナビゲーション目標を達成するための計画されたナビゲーション動作を少なくとも1つの運転ポリシに基づいて決定することと、少なくとも1つの画像を分析してホスト車両の環境内の目標車両を識別することと、潜在的な事故責任を決定するために、計画されたナビゲーション動作を少なくとも1つの事故責任規則に対してテストすることと、少なくとも1つの事故責任規則に対する計画されたナビゲーション動作のテストが、計画されたナビゲーション動作が行われる場合にホスト車両について潜在的な事故責任があることを示す場合、計画されたナビゲーション動作をホスト車両に実施させないことと、少なくとも1つの事故責任規則に対する計画されたナビゲーション動作のテストが、計画されたナビゲーション動作が行われる場合にホスト車両について事故責任が生じないであろうことを示す場合、計画されたナビゲーション動作をホスト車両に実施させることとを行うようにプログラムされる少なくとも1つの処理デバイスを含むことができ、少なくとも1つの処理デバイスは、少なくとも1つの画像の分析に基づき、識別された目標車両のナビゲーション状態の1つ又は複数の特性を決定することと、識別された目標車両のナビゲーション状態の決定された1つ又は複数の特性を少なくとも1つの事故責任規則と比較することと、識別された目標車両のナビゲーション状態の決定された1つ又は複数の特性の少なくとも1つの事故責任規則との比較に基づき、識別された目標車両の側の潜在的な事故責任を示す少なくとも1つの値を記憶することとを行うように更にプログラムされる。   [010] In some embodiments, a system for navigating a host vehicle includes receiving at least one image representative of an environment of the host vehicle from an image capture device and achieving a navigation goal for the host vehicle. Determining at least one planned navigation behavior based on at least one driving policy, analyzing at least one image to identify a target vehicle in the environment of the host vehicle, and determining potential accident liability. Testing the planned navigation action against at least one accident liability rule, and testing the planned navigation action against the at least one accident liability rule, when the planned navigation action occurs. Planned navigation to indicate potential liability for the vehicle That the host vehicle does not perform any of the planned navigation actions, and that testing of the planned navigation actions for at least one accident liability rule will not result in accident liability for the host vehicle if the planned navigation actions are performed. When indicated, it may include at least one processing device programmed to cause the host vehicle to perform a planned navigation operation, wherein the at least one processing device is based on an analysis of the at least one image, Determining one or more characteristics of the identified target vehicle navigation state and comparing the determined one or more characteristics of the identified target vehicle navigation state to at least one accident liability rule. And the determined one of the navigation states of the identified target vehicle Based on a comparison of the at least one accident liability rules more properties, is further programmed to perform the method comprising: storing at least one value indicating a potential accident responsibility of the identified side of the target vehicle.

[011] 幾つかの実施形態では、ホスト車両をナビゲートするためのシステムは、ホスト車両の環境を表す少なくとも1つの画像を画像捕捉装置から受信することと、ホスト車両のナビゲーション目標を達成するための計画されたナビゲーション動作を少なくとも1つの運転ポリシに基づいて決定することと、少なくとも1つの画像を分析してホスト車両の環境内の目標車両を識別することと、計画されたナビゲーション動作が行われた場合に生じることになる、ホスト車両と目標車両との間の次の状態の距離を決定することと、ホスト車両の現在の最大ブレーキ能力及びホスト車両の現在の速度を決定することと、目標車両の現在の速度を決定し、且つ目標車両の少なくとも1つの認識された特性に基づいて目標車両の最大ブレーキ能力を仮定することと、ホスト車両の最大ブレーキ能力及びホスト車両の現在の速度を所与として、目標車両の現在の速度及び目標車両の仮定された最大ブレーキ能力に基づいて決定される目標車両の移動距離に、決定された次の状態の距離を加算したもの未満である停止距離内でホスト車両が停止され得る場合、計画されたナビゲーション動作を実施することとを行うようにプログラムされる少なくとも1つの処理デバイスを含み得る。   [011] In some embodiments, a system for navigating a host vehicle includes receiving at least one image representative of an environment of the host vehicle from an image capture device, and achieving a navigation goal for the host vehicle. Determining at least one planned navigation action based on at least one driving policy; analyzing at least one image to identify a target vehicle within the environment of the host vehicle; and performing the planned navigation action. Determining the distance of the next state between the host vehicle and the target vehicle, which would occur if Determining the current speed of the vehicle and assuming a maximum braking capability of the target vehicle based on at least one recognized characteristic of the target vehicle Given the maximum braking capacity of the host vehicle and the current speed of the host vehicle, the distance traveled by the target vehicle determined based on the current speed of the target vehicle and the assumed maximum braking capacity of the target vehicle At least one processing device programmed to perform a planned navigation operation if the host vehicle can be stopped within a stopping distance that is less than the determined next state distance sum. May be included.

[012] 幾つかの実施形態では、ホスト車両をナビゲートするためのシステムは、ホスト車両の環境を表す少なくとも1つの画像を画像捕捉装置から受信することと、ホスト車両のナビゲーション目標を達成するための計画されたナビゲーション動作を少なくとも1つの運転ポリシに基づいて決定することと、少なくとも1つの画像を分析して、ホスト車両の前方の第1の目標車両及び第1の目標車両の前方の第2の目標車両を識別することと、計画されたナビゲーション動作が行われた場合に生じることになる、ホスト車両と第2の目標車両との間の次の状態の距離を決定することと、ホスト車両の現在の最大ブレーキ能力及びホスト車両の現在の速度を決定することと、ホスト車両の最大ブレーキ能力及びホスト車両の現在の速度を所与として、ホスト車両と第2の目標車両との間の決定された次の状態の距離未満である停止距離内でホスト車両が停止され得る場合、計画されたナビゲーション動作を実施することを行うようにプログラムされる少なくとも1つの処理デバイスを含み得る。   [012] In some embodiments, a system for navigating a host vehicle includes receiving at least one image representing an environment of the host vehicle from an image capture device and achieving a navigation goal for the host vehicle. Determining a planned navigation behavior of the vehicle based on at least one driving policy, and analyzing the at least one image to determine a first target vehicle ahead of the host vehicle and a second target vehicle ahead of the first target vehicle. Identifying the next target vehicle between the host vehicle and the second target vehicle, which will occur when a planned navigation operation is performed; and Determining the current maximum braking capability of the host vehicle and the current speed of the host vehicle, and assuming the maximum braking capability of the host vehicle and the current speed of the host vehicle as given. Performing the planned navigation action if the host vehicle can be stopped within a stopping distance that is less than the determined next state distance between the host vehicle and the second target vehicle. It may include at least one processing device to be programmed.

[013] 幾つかの実施形態では、ホスト車両をナビゲートするためのシステムは、ホスト車両の環境を表す少なくとも1つの画像を画像捕捉装置から受信することと、少なくとも1つの画像を分析してホスト車両の環境内の目標車両を識別することと、ホスト車両のナビゲーション目標を達成するための2つ以上の潜在的なナビゲーション動作を決定することと、2つ以上の潜在的なナビゲーション動作のそれぞれについて、ホスト車両と識別された目標車両との間の潜在的な事故責任のインジケータを決定するために2つ以上の潜在的なナビゲーション動作のそれぞれを少なくとも1つの事故責任規則に対してテストすることと、2つ以上の潜在的なナビゲーション動作の1つを実施のために選択することであって、前記選択された動作に関連する潜在的な事故責任のインジケータが、前記選択された動作を実施する結果として潜在的な事故責任がホスト車両に伴わないことを示す場合にのみ、前記1つを選択することとを行うようにプログラムされる少なくとも1つの処理デバイスを含み得る。   [013] In some embodiments, a system for navigating a host vehicle includes receiving at least one image representative of an environment of the host vehicle from an image capture device, analyzing the at least one image, and analyzing the at least one image. For identifying a target vehicle in the environment of the vehicle, determining two or more potential navigation actions to achieve the host vehicle's navigation goals, and for each of the two or more potential navigation actions. Testing each of the two or more potential navigation actions to at least one accident liability rule to determine an indicator of potential accident liability between the host vehicle and the identified target vehicle; Selecting one of two or more potential navigation actions for implementation, wherein the one is associated with the selected action. Selecting the one only if the potential accident liability indicator indicates that no potential accident liability is associated with the host vehicle as a result of performing the selected action. It may include at least one processing device to be programmed.

[014] 幾つかの実施形態では、ホスト車両をナビゲートするためのシステムは、ホスト車両の環境を表す少なくとも1つの画像を画像捕捉装置から受信することと、ホスト車両の現在のナビゲーション状態のインジケータを少なくとも1つのセンサから受信することと、少なくとも1つの画像の分析及びホスト車両の現在のナビゲーション状態のインジケータに基づき、ホスト車両と1つ又は複数の物体との間の衝突が不可避であると決定することと、少なくとも1つの運転ポリシに基づき、第1の物体との予期される衝突を伴うホスト車両のための第1の計画されたナビゲーション動作と、第2の物体との予期される衝突を伴うホスト車両のための第2の計画されたナビゲーション動作とを決定することと、潜在的な事故責任を決定するために、第1の計画されたナビゲーション動作及び第2の計画されたナビゲーション動作を少なくとも1つの事故責任規則に対してテストすることと、少なくとも1つの事故責任規則に対する第1の計画されたナビゲーション動作のテストが、第1の計画されたナビゲーション動作が行われる場合にホスト車両について潜在的な事故責任があることを示す場合、第1の計画されたナビゲーション動作をホスト車両に実施させないことと、少なくとも1つの事故責任規則に対する第2の計画されたナビゲーション動作のテストが、第2の計画されたナビゲーション動作が行われる場合にホスト車両について事故責任が生じないであろうことを示す場合、第2の計画されたナビゲーション動作をホスト車両に実施させることとを行うようにプログラムされる少なくとも1つの処理デバイスを含み得る。   [014] In some embodiments, a system for navigating a host vehicle includes receiving at least one image representative of an environment of the host vehicle from an image capture device, and an indicator of a current navigation state of the host vehicle. Determining from the at least one sensor and analyzing the at least one image and an indicator of a current navigational state of the host vehicle that a collision between the host vehicle and one or more objects is inevitable. Performing a first planned navigation action for the host vehicle with an expected collision with the first object and an expected collision with the second object based on at least one driving policy. Determining a second planned navigation action for the accompanying host vehicle and determining potential accident liability Testing the first planned navigation action and the second planned navigation action against at least one accident liability rule; and detecting the first planned navigation action against the at least one accident liability rule. If the test indicates that there is potential accident liability for the host vehicle when the first planned navigation operation is performed, then causing the host vehicle to not perform the first planned navigation operation; If the test of the second planned navigation action for one accident liability rule indicates that no accident liability will occur for the host vehicle if the second planned navigation action is performed, the second planned Causing the host vehicle to perform the selected navigation operation. It may include at least one processing device is.

[015] 開示される他の実施形態によれば、非一時的コンピュータ可読記憶媒体は、少なくとも1つの処理デバイスにより実行可能であり、且つ本明細書に記載される任意のステップ及び/又は方法を実行するプログラム命令を記憶し得る。   [015] According to another disclosed embodiment, the non-transitory computer-readable storage medium is executable by at least one processing device and implements any of the steps and / or methods described herein. Program instructions to be executed may be stored.

[016] 上述した概説及び以下に詳述する説明は、単に例示的及び説明的なものであり、特許請求の範囲の限定ではない。   [0161] The above summary and the following detailed description are merely exemplary and explanatory and are not restrictive of the claims.

図面の簡単な説明
[017] 本開示に組み込まれ、本明細書の一部をなす添付図面は、開示される様々な実施形態を示す。
BRIEF DESCRIPTION OF THE FIGURES
[017] The accompanying drawings, which are incorporated in and constitute a part of this specification, illustrate various disclosed embodiments.

[018]開示される実施形態による例示的なシステムの図表現である。[018] FIG. 18 is a diagrammatic representation of an exemplary system according to the disclosed embodiments. [019]開示される実施形態によるシステムを含む例示的な車両の側面図表現である。[019] FIG. 9 is a side view representation of an exemplary vehicle including a system according to the disclosed embodiments. [020]開示される実施形態による図2Aに示される車両及びシステムの上面図表現である。[020] FIG. 2B is a top view representation of the vehicle and system shown in FIG. 2A according to a disclosed embodiment; [021]開示される実施形態によるシステムを含む車両の別の実施形態の上面図表現である。[021] FIG. 26 is a top view representation of another embodiment of a vehicle including a system according to the disclosed embodiments. [022]開示される実施形態によるシステムを含む車両の更に別の実施形態の上面図表現である。[022] FIG. 21 is a top view representation of yet another embodiment of a vehicle including a system according to the disclosed embodiments. [023]開示される実施形態によるシステムを含む車両の更に別の実施形態の上面図表現である。[023] FIG. 26 is a top view representation of yet another embodiment of a vehicle including a system according to the disclosed embodiments. [024]開示される実施形態による例示的な車両制御システムの図表現である。1 is a diagrammatic representation of an exemplary vehicle control system according to a disclosed embodiment; [025]バックミラーと、開示される実施形態による車両撮像システムのユーザインタフェースとを含む車両の内部の図表現である。[025] FIG. 14 is a diagrammatic representation of the interior of a vehicle including a rearview mirror and a user interface of a vehicle imaging system according to the disclosed embodiments. [026]開示される実施形態による、バックミラーの背後に、車両フロントガラスと対向して位置決めされるように構成されるカメラマウントの例の図である。[026] FIG. 25 is an illustration of an example of a camera mount configured to be positioned behind a rearview mirror and opposite a vehicle windshield according to a disclosed embodiment. [027]開示される実施形態による、異なる視点からの図3Bに示されるカメラマウントの図である。[027] FIG. 3B is an illustration of the camera mount shown in FIG. 3B from a different perspective, according to a disclosed embodiment. [028]開示される実施形態による、バックミラーの背後に、車両フロントガラスと対向して位置決めされるように構成されるカメラマウントの例の図である。[028] FIG. 28 is an illustration of an example of a camera mount configured to be positioned opposite a vehicle windshield behind a rearview mirror, according to a disclosed embodiment; [029]開示される実施形態による1つ又は複数の動作を実行する命令を記憶するように構成されるメモリの例示的なブロック図である。[029] FIG. 9 is an exemplary block diagram of a memory configured to store instructions for performing one or more operations according to the disclosed embodiments. [030]開示される実施形態による、単眼画像分析に基づいて1つ又は複数のナビゲーション応答を生じさせる例示的なプロセスを示すフローチャートである。[030] FIG. 10 is a flowchart illustrating an exemplary process for generating one or more navigation responses based on monocular image analysis, according to a disclosed embodiment; [031]開示される実施形態による、画像の組内の1つ又は複数の車両及び/又は歩行者を検出する例示的なプロセスを示すフローチャートである。[031] FIG. 10 is a flowchart illustrating an example process for detecting one or more vehicles and / or pedestrians in a set of images, according to a disclosed embodiment; [032]開示される実施形態による、画像の組内の道路マーク及び/又はレーンジオメトリ情報を検出する例示的なプロセスを示すフローチャートである。[032] FIG. 16 is a flowchart illustrating an exemplary process for detecting road marks and / or lane geometry information in a set of images, according to a disclosed embodiment; [033]開示される実施形態による、画像の組内の信号機を検出する例示的なプロセスを示すフローチャートである。[033] FIG. 16 is a flowchart illustrating an exemplary process for detecting traffic lights in a set of images, according to a disclosed embodiment; [034]開示される実施形態による、車両経路に基づいて1つ又は複数のナビゲーション応答を生じさせる例示的なプロセスのフローチャートである。[034] FIG. 10 is a flowchart of an exemplary process for generating one or more navigation responses based on a vehicle path, according to a disclosed embodiment; [035]開示される実施形態による、先行車両がレーンを変更中であるか否かを特定する例示的なプロセスを示すフローチャートである。[035] FIG. 16 is a flowchart illustrating an exemplary process for determining whether a preceding vehicle is changing lanes, in accordance with a disclosed embodiment. [036]開示される実施形態による、立体画像分析に基づいて1つ又は複数のナビゲーション応答を生じさせる例示的なプロセスを示すフローチャートである。[036] FIG. 40 is a flowchart illustrating an exemplary process for generating one or more navigation responses based on stereoscopic image analysis, in accordance with a disclosed embodiment. [037]開示される実施形態による、3組の画像の分析に基づいて1つ又は複数のナビゲーション応答を生じさせる例示的なプロセスを示すフローチャートである。[037] FIG. 7 is a flowchart illustrating an exemplary process for generating one or more navigation responses based on an analysis of three sets of images, according to a disclosed embodiment; [038]開示される実施形態による、自律車両のためのナビゲーションシステムの1つ又は複数の具体的にプログラムされた処理デバイスによって実装され得るモジュールのブロック図表現である。[038] FIG. 40 is a block diagram representation of a module that may be implemented by one or more specifically programmed processing devices of a navigation system for an autonomous vehicle, according to a disclosed embodiment. [039]開示される実施形態による、ナビゲーションの選択肢のグラフである。[039] FIG. 6 is a graph of navigation options according to a disclosed embodiment; [040]開示される実施形態による、ナビゲーションの選択肢のグラフである。[040] FIG. 40 is a graph of navigation options according to a disclosed embodiment; [041]開示される実施形態による、合流区域内のホスト車両のナビゲーションの選択肢の概略図を示す。[041] FIG. 16 illustrates a schematic diagram of a navigation option for a host vehicle in a junction area according to a disclosed embodiment; [041]開示される実施形態による、合流区域内のホスト車両のナビゲーションの選択肢の概略図を示す。[041] FIG. 16 illustrates a schematic diagram of a navigation option for a host vehicle in a junction area according to a disclosed embodiment; [041]開示される実施形態による、合流区域内のホスト車両のナビゲーションの選択肢の概略図を示す。[041] FIG. 16 illustrates a schematic diagram of a navigation option for a host vehicle in a junction area according to a disclosed embodiment; [042]開示される実施形態による二重合流シナリオの図表現を示す。[042] FIG. 4 illustrates a graphical representation of a dual polymerization flow scenario according to a disclosed embodiment. [043]開示される実施形態による二重合流シナリオにおいて潜在的に有用な選択肢のグラフを示す。[043] Figure 4 illustrates a graph of potentially useful options in a dual polymerization flow scenario according to disclosed embodiments. [044]開示される実施形態による、潜在的なナビゲーション制約と共にホスト車両の環境について捕捉した代表的な画像の図を示す。[044] FIG. 41 illustrates a diagram of a representative image captured of a host vehicle environment with potential navigation constraints, according to a disclosed embodiment. [045]開示される実施形態による、車両をナビゲートするためのアルゴリズムのフローチャートを示す。[045] FIG. 9 illustrates a flowchart of an algorithm for navigating a vehicle, according to a disclosed embodiment; [046]開示される実施形態による、車両をナビゲートするためのアルゴリズムのフローチャートを示す。[046] FIG. 7 illustrates a flowchart of an algorithm for navigating a vehicle, according to a disclosed embodiment; [047]開示される実施形態による、車両をナビゲートするためのアルゴリズムのフローチャートを示す。[047] FIG. 9 illustrates a flowchart of an algorithm for navigating a vehicle, according to a disclosed embodiment; [048]開示される実施形態による、車両をナビゲートするためのアルゴリズムのフローチャートを示す。4 illustrates a flowchart of an algorithm for navigating a vehicle, according to a disclosed embodiment. [049]開示される実施形態による、環状交差路内にナビゲートするホスト車両の図を示す。[049] FIG. 10 illustrates a view of a host vehicle navigating in a roundabout, according to a disclosed embodiment. [049]開示される実施形態による、環状交差路内にナビゲートするホスト車両の図を示す。[049] FIG. 10 illustrates a view of a host vehicle navigating in a roundabout, according to a disclosed embodiment. [050]開示される実施形態による、車両をナビゲートするためのアルゴリズムのフローチャートを示す。[050] FIG. 9 illustrates a flowchart of an algorithm for navigating a vehicle, according to a disclosed embodiment; [051]開示される実施形態による、複数レーン高速道路上を走行するホスト車両の一例を示す。[051] FIG. 14 illustrates an example of a host vehicle traveling on a multi-lane highway, according to a disclosed embodiment. [052]開示される実施形態による、別の車両の前に割り込む車両の一例を示す。[052] FIG. 18 illustrates an example of a vehicle interrupting another vehicle in accordance with a disclosed embodiment. [052]開示される実施形態による、別の車両の前に割り込む車両の一例を示す。[052] FIG. 18 illustrates an example of a vehicle interrupting another vehicle in accordance with a disclosed embodiment. [053]開示される実施形態による、別の車両を追走する車両の一例を示す。[053] FIG. 52 illustrates an example of a vehicle following another vehicle, according to a disclosed embodiment. [054]開示される実施形態による、駐車場を出て、場合により交通量が多い道路に合流する車両の一例を示す。[054] FIG. 18 illustrates an example of a vehicle exiting a parking lot and merging on a potentially busy road, according to a disclosed embodiment. [055]開示される実施形態による、道路上を進む車両を示す。[055] FIG. 55 illustrates a vehicle traveling on a road, according to a disclosed embodiment. [056]開示される実施形態によるシナリオの一例を示す。[056] shows an example of a scenario according to the disclosed embodiments. [056]開示される実施形態によるシナリオの一例を示す。[056] shows an example of a scenario according to the disclosed embodiments. [056]開示される実施形態によるシナリオの一例を示す。[056] shows an example of a scenario according to the disclosed embodiments. [056]開示される実施形態によるシナリオの一例を示す。[056] shows an example of a scenario according to the disclosed embodiments. [057]開示される実施形態によるシナリオの一例を示す。[057] shows an example of a scenario according to the disclosed embodiments. [058]開示される実施形態によるシナリオの一例を示す。[058] FIG. 19 illustrates an example of a scenario according to the disclosed embodiments. [059]開示される実施形態によるシナリオの一例を示す。[059] shows an example of a scenario according to the disclosed embodiments. [060]開示される実施形態による、車両が別の車両を追走するシナリオの一例を示す。[060] FIG. 10 illustrates an example of a scenario in which a vehicle follows another vehicle according to a disclosed embodiment. [060]開示される実施形態による、車両が別の車両を追走するシナリオの一例を示す。[060] FIG. 10 illustrates an example of a scenario in which a vehicle follows another vehicle according to a disclosed embodiment. [061]開示される実施形態による、割り込みシナリオにおける過失の一例を示す。[061] FIG. 14 illustrates an example of negligence in an interrupt scenario, according to a disclosed embodiment. [061]開示される実施形態による、割り込みシナリオにおける過失の一例を示す。[061] FIG. 14 illustrates an example of negligence in an interrupt scenario, according to a disclosed embodiment. [062]開示される実施形態による、割り込みシナリオにおける過失の一例を示す。[062] FIG. 14 illustrates an example of negligence in an interrupt scenario, according to a disclosed embodiment. [062]開示される実施形態による、割り込みシナリオにおける過失の一例を示す。[062] FIG. 14 illustrates an example of negligence in an interrupt scenario, according to a disclosed embodiment. [063]開示される実施形態による、ドリフトシナリオにおける過失の一例を示す。[063] FIG. 14 illustrates an example of negligence in a drift scenario, according to disclosed embodiments. [063]開示される実施形態による、ドリフトシナリオにおける過失の一例を示す。[063] FIG. 14 illustrates an example of negligence in a drift scenario, according to disclosed embodiments. [063]開示される実施形態による、ドリフトシナリオにおける過失の一例を示す。[063] FIG. 14 illustrates an example of negligence in a drift scenario, according to disclosed embodiments. [063]開示される実施形態による、ドリフトシナリオにおける過失の一例を示す。[063] FIG. 14 illustrates an example of negligence in a drift scenario, according to disclosed embodiments. [064]開示される実施形態による、双方向交通シナリオにおける過失の一例を示す。[064] FIG. 9 illustrates an example of negligence in a two-way traffic scenario, according to a disclosed embodiment. [064]開示される実施形態による、双方向交通シナリオにおける過失の一例を示す。[064] FIG. 9 illustrates an example of negligence in a two-way traffic scenario, according to a disclosed embodiment. [065]開示される実施形態による、ルート優先権シナリオにおける過失の一例を示す。[065] FIG. 9 illustrates an example of negligence in a root priority scenario, in accordance with the disclosed embodiments. [065]開示される実施形態による、ルート優先権シナリオにおける過失の一例を示す。[065] FIG. 9 illustrates an example of negligence in a root priority scenario, in accordance with the disclosed embodiments. [066]開示される実施形態による、ルート優先権シナリオにおける過失の一例を示す。[066] FIG. 9 illustrates an example of negligence in a root priority scenario, in accordance with a disclosed embodiment. [066]開示される実施形態による、ルート優先権シナリオにおける過失の一例を示す。[066] FIG. 9 illustrates an example of negligence in a root priority scenario, in accordance with a disclosed embodiment. [067]開示される実施形態による、ルート優先権シナリオにおける過失の一例を示す。[067] FIG. 9 illustrates an example of negligence in a root priority scenario, according to a disclosed embodiment. [067]開示される実施形態による、ルート優先権シナリオにおける過失の一例を示す。[067] FIG. 9 illustrates an example of negligence in a root priority scenario, according to a disclosed embodiment. [068]開示される実施形態による、ルート優先権シナリオにおける過失の一例を示す。[068] FIG. 9 illustrates an example of negligence in a route priority scenario, according to a disclosed embodiment. [068]開示される実施形態による、ルート優先権シナリオにおける過失の一例を示す。[068] FIG. 9 illustrates an example of negligence in a route priority scenario, according to a disclosed embodiment. [069]開示される実施形態による、ルート優先権シナリオにおける過失の一例を示す。[069] FIG. 9 illustrates an example of negligence in a root priority scenario, in accordance with a disclosed embodiment. [069]開示される実施形態による、ルート優先権シナリオにおける過失の一例を示す。[069] FIG. 9 illustrates an example of negligence in a root priority scenario, in accordance with a disclosed embodiment. [070]開示される実施形態による、ルート優先権シナリオにおける過失の一例を示す。[070] FIG. 7 illustrates an example of negligence in a root priority scenario, in accordance with a disclosed embodiment. [070]開示される実施形態による、ルート優先権シナリオにおける過失の一例を示す。[070] FIG. 7 illustrates an example of negligence in a root priority scenario, in accordance with a disclosed embodiment. [071]開示される実施形態による、信号機シナリオにおける過失の一例を示す。[071] FIG. 7 illustrates an example of negligence in a traffic light scenario, according to a disclosed embodiment. [071]開示される実施形態による、信号機シナリオにおける過失の一例を示す。[071] FIG. 7 illustrates an example of negligence in a traffic light scenario, according to a disclosed embodiment. [072]開示される実施形態による、信号機シナリオにおける過失の一例を示す。[072] FIG. 7 illustrates an example of negligence in a traffic light scenario, in accordance with the disclosed embodiments. [072]開示される実施形態による、信号機シナリオにおける過失の一例を示す。[072] FIG. 7 illustrates an example of negligence in a traffic light scenario, in accordance with the disclosed embodiments. [073]開示される実施形態による、信号機シナリオにおける過失の一例を示す。[073] FIG. 7 illustrates an example of negligence in a traffic light scenario, in accordance with a disclosed embodiment. [073]開示される実施形態による、信号機シナリオにおける過失の一例を示す。[073] FIG. 7 illustrates an example of negligence in a traffic light scenario, in accordance with a disclosed embodiment. [074]開示される実施形態による、交通弱者(VRU)シナリオの一例を示す。[074] FIG. 7 illustrates an example of a traffic vulnerable (VRU) scenario according to a disclosed embodiment. [074]開示される実施形態による、交通弱者(VRU)シナリオの一例を示す。[074] FIG. 7 illustrates an example of a traffic vulnerable (VRU) scenario according to a disclosed embodiment. [074]開示される実施形態による、交通弱者(VRU)シナリオの一例を示す。[074] FIG. 7 illustrates an example of a traffic vulnerable (VRU) scenario according to a disclosed embodiment. [075]開示される実施形態による、交通弱者(VRU)シナリオの一例を示す。[075] FIG. 17 illustrates an example of a traffic vulnerable (VRU) scenario according to a disclosed embodiment. [075]開示される実施形態による、交通弱者(VRU)シナリオの一例を示す。[075] FIG. 17 illustrates an example of a traffic vulnerable (VRU) scenario according to a disclosed embodiment. [075]開示される実施形態による、交通弱者(VRU)シナリオの一例を示す。[075] FIG. 17 illustrates an example of a traffic vulnerable (VRU) scenario according to a disclosed embodiment. [076]開示される実施形態による、交通弱者(VRU)シナリオの一例を示す。9 illustrates an example of a traffic vulnerable (VRU) scenario according to a disclosed embodiment. [076]開示される実施形態による、交通弱者(VRU)シナリオの一例を示す。9 illustrates an example of a traffic vulnerable (VRU) scenario according to a disclosed embodiment. [076]開示される実施形態による、交通弱者(VRU)シナリオの一例を示す。9 illustrates an example of a traffic vulnerable (VRU) scenario according to a disclosed embodiment. [077]開示される実施形態による、交通弱者(VRU)シナリオの一例を示す。[077] FIG. 17 illustrates an example of a traffic vulnerable (VRU) scenario according to a disclosed embodiment. [077]開示される実施形態による、交通弱者(VRU)シナリオの一例を示す。[077] FIG. 17 illustrates an example of a traffic vulnerable (VRU) scenario according to a disclosed embodiment. [077]開示される実施形態による、交通弱者(VRU)シナリオの一例を示す。[077] FIG. 17 illustrates an example of a traffic vulnerable (VRU) scenario according to a disclosed embodiment. [077]開示される実施形態による、交通弱者(VRU)シナリオの一例を示す。[077] FIG. 17 illustrates an example of a traffic vulnerable (VRU) scenario according to a disclosed embodiment.

詳細な説明
[078] 以下の詳細な説明は、添付図面を参照する。可能な場合には常に、図面及び以下の説明において、同じ又は同様の部分を指すのに同じ参照番号が使用される。幾つかの例示的な実施形態は本明細書で説明されるが、変更形態、適応形態、及び他の実装形態が可能である。例えば、図面に示される構成要素に対する置換形態、追加形態、又は変更形態がなされ得、本明細書に記載される例示的な方法は、開示される方法のステップの置換、順序替え、削除、又は追加により変更することができる。従って、以下の詳細な説明は、開示される実施形態及び例に限定されない。その代わり、適切な範囲は、添付の特許請求の範囲により規定される。
Detailed description
[078] The following detailed description refers to the accompanying drawings. Wherever possible, the same reference numbers will be used in the drawings and the description to refer to the same or like parts. Some example embodiments are described herein, but modifications, adaptations, and other implementations are possible. For example, substitutions, additions, or modifications to the components shown in the figures may be made, and the exemplary methods described herein may replace, reorder, delete, or replace the steps of the disclosed methods. It can be changed by addition. Accordingly, the following detailed description is not limited to the disclosed embodiments and examples. Instead, the proper scope is defined by the appended claims.

[079] 自律車両の概要
[080] 本開示の全体を通して使用するとき、「自律車両」という用語は、ドライバーの入力なしで少なくとも1つのナビゲーション変更を実施することができる車両を指す。「ナビゲーション変更」は、車両の操舵、ブレーキ、又は加速/減速の1つ又は複数の変更を指す。自律的であるために、車両は、完全に自動である(例えば、ドライバー又はドライバー入力なしに完全に動作可能である)必要はない。むしろ、自律車両は、特定の時間期間中にドライバーの制御下で動作し、他の時間期間中にドライバーの制御なしで動作することができる車両を含む。自律車両は、(例えば、車両レーン制約間に車両コースを維持するために)操舵等の車両ナビゲーションの幾つかの側面のみを制御するか、又は(あらゆる状況下ではなく)一定の状況下で幾つかの操舵動作を制御する一方、他の側面(例えば、ブレーキ又は一定の状況下でのブレーキ)をドライバーに任せ得る車両を含むこともできる。幾つかの場合、自律車両は、車両のブレーキ、速度制御及び/又は操舵の幾つかの又は全ての側面を扱い得る。
[079] Overview of autonomous vehicles
[080] As used throughout this disclosure, the term "autonomous vehicle" refers to a vehicle that can implement at least one navigation change without driver input. "Navigation change" refers to one or more changes in steering, braking, or accelerating / decelerating a vehicle. To be autonomous, the vehicle does not need to be fully automatic (eg, fully operational without a driver or driver input). Rather, autonomous vehicles include vehicles that can operate under the control of a driver during certain periods of time and operate without control of the driver during other periods of time. An autonomous vehicle may control only some aspects of vehicle navigation, such as steering, (eg, to maintain a vehicle course between vehicle lane constraints), or may operate under certain (but not all) circumstances. It may also include a vehicle that controls the steering operation while leaving other aspects (eg, braking or braking under certain circumstances) to the driver. In some cases, an autonomous vehicle may handle some or all aspects of vehicle braking, speed control, and / or steering.

[081] 人間のドライバーは、通常、車両を制御するために視覚的手掛かり及び観測に依存することから、交通基盤は、それに従って構築されており、レーンマーク、交通標識、及び信号機は、視覚的情報をドライバーに提供するように設計されている。交通基盤のこれらの設計特徴に鑑みて、自律車両は、カメラと、車両の環境から捕捉される視覚的情報を分析する処理ユニットとを含み得る。視覚的情報は、例えば、ドライバーにより観測可能な交通基盤の構成要素(例えば、レーンマーク、交通標識、信号機等)及び他の障害物(例えば、他の車両、歩行者、瓦礫等)を表す画像を含み得る。更に、自動車両は、ナビゲート時、車両の環境のモデルを提供する情報等の記憶された情報を使用することもできる。例えば、車両は、GPSデータ、センサデータ(例えば、加速度計、速度センサ、サスペンションセンサ等からの)、及び/又は他の地図データを使用して、車両が走行している間、車両の環境に関連する情報を提供し得、車両(及び他の車両)は情報を使用して、モデル上で自身の位置を特定し得る。一部の車両は、車両間の通信、情報の共有、車両の周囲の危険又は変化のピア車両の変更等も可能であり得る。   [081] Since human drivers usually rely on visual cues and observations to control vehicles, the traffic infrastructure is built accordingly, and lane markings, traffic signs, and traffic lights are Designed to provide information to drivers. In view of these design features of the traffic infrastructure, an autonomous vehicle may include a camera and a processing unit that analyzes visual information captured from the environment of the vehicle. The visual information is, for example, an image representing traffic infrastructure components (eg, lane marks, traffic signs, traffic lights, etc.) and other obstacles (eg, other vehicles, pedestrians, rubble, etc.) observable by the driver. May be included. Furthermore, motor vehicles can use stored information, such as information that provides a model of the vehicle's environment when navigating. For example, a vehicle may use GPS data, sensor data (e.g., from accelerometers, speed sensors, suspension sensors, etc.), and / or other map data to control the environment of the vehicle while the vehicle is traveling. Related information may be provided, and the vehicle (and other vehicles) may use the information to locate itself on the model. Some vehicles may also be capable of communicating between vehicles, sharing information, changing peer vehicles for dangers or changes around the vehicle, and the like.

[082] システム概要
[083] 図1は、開示される例示的な実施形態によるシステム100のブロック図表現である。システム100は、特定の実施要件に応じて様々な構成要素を含み得る。幾つかの実施形態では、システム100は、処理ユニット110、画像取得ユニット120、位置センサ130、1つ又は複数のメモリユニット140、150、地図データベース160、ユーザインタフェース170、及び無線送受信機172を含み得る。処理ユニット110は、1つ又は複数の処理デバイスを含み得る。幾つかの実施形態では、処理ユニット110は、アプリケーションプロセッサ180、画像プロセッサ190、又は他の任意の適切な処理デバイスを含み得る。同様に、画像取得ユニット120は、特定の用途の要件に応じて任意の数の画像取得デバイス及び構成要素を含み得る。幾つかの実施形態では、画像取得ユニット120は、画像捕捉デバイス122、画像捕捉デバイス124、画像捕捉デバイス126等の1つ又は複数の画像捕捉デバイス(例えば、カメラ、CCD、他の任意の種類の画像センサ)を含み得る。システム100は、処理ユニット110を画像取得ユニット120に通信可能に接続するデータインタフェース128を含むこともできる。例えば、データインタフェース128は、画像取得ユニット120によって取得された画像データを処理ユニット110に伝送するための1つ又は複数の任意の有線リンク及び/又は無線リンクを含み得る。
[082] System overview
[083] FIG. 1 is a block diagram representation of a system 100 according to a disclosed exemplary embodiment. System 100 may include various components depending on particular implementation requirements. In some embodiments, system 100 includes a processing unit 110, an image acquisition unit 120, a position sensor 130, one or more memory units 140, 150, a map database 160, a user interface 170, and a wireless transceiver 172. obtain. Processing unit 110 may include one or more processing devices. In some embodiments, processing unit 110 may include application processor 180, image processor 190, or any other suitable processing device. Similarly, image acquisition unit 120 may include any number of image acquisition devices and components depending on the requirements of a particular application. In some embodiments, the image acquisition unit 120 includes one or more image capture devices (eg, a camera, a CCD, any other type of image capture device 122, an image capture device 124, an image capture device 126, etc.). Image sensor). The system 100 can also include a data interface 128 that communicatively connects the processing unit 110 to the image acquisition unit 120. For example, data interface 128 may include one or more optional wired and / or wireless links for transmitting image data acquired by image acquisition unit 120 to processing unit 110.

[084] 無線送受信機172は、無線周波数、赤外線周波数、磁場、又は電場の使用により無線インタフェースを介して伝送を1つ又は複数のネットワーク(例えば、セルラやインターネット等)と交換するように構成される1つ又は複数のデバイスを含み得る。無線送受信機172は、任意の既知の標準を使用してデータを送信及び/又は受信し得る(例えば、Wi-Fi(登録商標)、Bluetooth(登録商標)、Bluetooth Smart、802.15.4、ZigBee(登録商標)等)。かかる伝送は、ホスト車両から1つ又は複数の遠隔設置されたサーバへの通信を含み得る。かかる伝送は、(例えば、ホスト車両の環境内の目標車両を考慮して又はかかる目標車両と共にホスト車両のナビゲーションの調整を促進するための)ホスト車両とホスト車両の環境内の1つ又は複数の目標車両との間の(単方向又は双方向)通信、更には伝送側の車両の付近にある未指定の受け手へのブロードキャスト伝送も含み得る。   [084] The wireless transceiver 172 is configured to exchange transmissions with one or more networks (e.g., cellular or Internet, etc.) over a wireless interface using radio frequency, infrared frequency, magnetic or electric fields. One or more devices. Wireless transceiver 172 may transmit and / or receive data using any known standard (e.g., Wi-Fi, Bluetooth, Bluetooth Smart, 802.15.4, ZigBee ( Registered trademark) etc.). Such transmission may include communication from the host vehicle to one or more remotely located servers. Such transmissions may include one or more of the host vehicle and one or more of the host vehicle's environments (e.g., to facilitate coordination of the host vehicle's navigation with or in relation to the target vehicle in the host vehicle's environment). It may include communication (unidirectional or bidirectional) with the target vehicle, as well as broadcast transmission to unspecified recipients near the transmitting vehicle.

[085] アプリケーションプロセッサ180及び画像プロセッサ190の両方は、様々なタイプのハードウェアベースの処理デバイスを含み得る。例えば、アプリケーションプロセッサ180及び画像プロセッサ190のいずれか一方又は両方は、マイクロプロセッサ、プリプロセッサ(画像プリプロセッサ等)、グラフィックスプロセッサ、中央演算処理装置(CPU)、サポート回路、デジタル信号プロセッサ、集積回路、メモリ、又はアプリケーションを実行し、画像を処理して分析するのに適する任意の他のタイプのデバイスを含み得る。幾つかの実施形態では、アプリケーションプロセッサ180及び/又は画像プロセッサ190は、任意のタイプのシングルコア又はマルチコアプロセッサ、モバイルデバイスマイクロコントローラ、中央演算処理装置等を含み得る。例えば、Intel(登録商標)、AMD(登録商標)等の製造業者から入手可能なプロセッサを含め、様々な処理デバイスが使用可能であり、様々なアーキテクチャ(例えば、x86プロセッサ、ARM(登録商標)等)を含み得る。   [085] Both the application processor 180 and the image processor 190 may include various types of hardware-based processing devices. For example, one or both of the application processor 180 and the image processor 190 include a microprocessor, a preprocessor (such as an image preprocessor), a graphics processor, a central processing unit (CPU), a support circuit, a digital signal processor, an integrated circuit, and a memory. Or any other type of device suitable for running an application and processing and analyzing the images. In some embodiments, application processor 180 and / or image processor 190 may include any type of single-core or multi-core processor, mobile device microcontroller, central processing unit, etc. Various processing devices are available, including, for example, processors available from manufacturers such as Intel®, AMD®, etc., and various architectures (eg, x86 processors, ARM®, etc.). ).

[086] 幾つかの実施形態では、アプリケーションプロセッサ180及び/又は画像プロセッサ190は、Mobileye(登録商標)から入手可能な任意のEyeQシリーズのプロセッサを含み得る。これらのプロセッサ設計は、それぞれローカルメモリ及び命令セットを有する複数の処理ユニットを含む。そのようなプロセッサは、複数の画像センサから画像データを受信するビデオ入力を含み得ると共に、ビデオ出力機能を含むこともできる。一例では、EyeQ2(登録商標)は、332MHzで動作する90nm−ミクロン技術を使用する。EyeQ2(登録商標)アーキテクチャは、2つの浮動小数点ハイパースレッド32ビットRISC CPU(MIPS32(登録商標)34K(登録商標)コア)、5つのビジョン計算エンジン(VCE)、3つのベクトルマイクロコードプロセッサ(VMP(登録商標))、Denali64ビットモバイルDDRコントローラ、128ビット内部音響相互接続、デュアル16ビットビデオ入力及び18ビットビデオ出力コントローラ、16チャネルDMA、及び幾つかの周辺機器からなる。MIPS34K CPUは、5つのVCE、3つのVMP(商標)及びDMA、第2のMIPS34K CPU及びマルチチャネルDMA、並びに他の周辺機器を管理する。5つのVCE、3つのVMP(登録商標)、及びMIPS34K CPUは、多機能バンドルアプリケーションにより要求される集中的なビジョン計算を実行することができる。別の例では、開示される実施形態において、第三世代プロセッサであり、EyeQ2(登録商標)よりも6倍強力なEyeQ3(登録商標)を使用し得る。他の例では、EyeQ4(登録商標)及び/又はEyeQ5(登録商標)を開示する実施形態で使用することができる。当然ながら、それよりも新しい又は将来のEyeQ処理デバイスは、開示する実施形態と共に使用され得る。   [086] In some embodiments, the application processor 180 and / or the image processor 190 may include any of the EyeQ series processors available from Mobileye®. These processor designs include a plurality of processing units each having a local memory and an instruction set. Such a processor may include a video input for receiving image data from multiple image sensors, and may also include a video output function. In one example, EyeQ2® uses 90 nm-micron technology operating at 332 MHz. The EyeQ2® architecture includes two floating point hyperthreaded 32-bit RISC CPUs (MIPS32® 34K® core), five vision computation engines (VCE), and three vector microcode processors (VMP ( ®), a Denali 64-bit mobile DDR controller, a 128-bit internal audio interconnect, dual 16-bit video input and 18-bit video output controllers, a 16-channel DMA, and some peripherals. The MIPS34K CPU manages five VCEs, three VMPs and DMAs, a second MIPS34K CPU and multi-channel DMA, and other peripherals. Five VCEs, three VMPs, and a MIPS34K CPU can perform the intensive vision calculations required by multi-functional bundled applications. As another example, in a disclosed embodiment, a third generation processor, EyeQ3®, which is six times stronger than EyeQ2®, may be used. In other examples, EyeQ4® and / or EyeQ5® can be used in the disclosed embodiments. Of course, newer or future EyeQ processing devices may be used with the disclosed embodiments.

[087] 本明細書で開示する処理デバイスのいずれも特定の機能を実行するように構成することができる。記載のEyeQプロセッサ又は他のコントローラ若しくはマイクロプロセッサのいずれか等の処理デバイスを、特定の機能を実行するように構成することは、コンピュータ実行可能命令をプログラムし、処理デバイスの動作中に実行するためにそれらの命令を処理デバイスに提供することを含み得る。幾つかの実施形態では、処理デバイスを構成することは、処理デバイスにアーキテクチャ的命令を直接プログラムすることを含み得る。他の実施形態では、処理デバイスを構成することは、動作中に処理デバイスがアクセス可能なメモリ上に実行可能命令を記憶することを含み得る。例えば、処理デバイスは、動作中にメモリにアクセスして、記憶された命令を取得及び実行し得る。いずれにせよ、本明細書で開示する検知、画像分析、及び/又はナビゲーション機能を実行するように構成される処理デバイスは、ホスト車両の複数のハードウェアベースの構成要素を制御する専用のハードウェアベースのシステムを表す。   [087] Any of the processing devices disclosed herein can be configured to perform a particular function. Configuring a processing device, such as the described EyeQ processor or any other controller or microprocessor, to perform a particular function is to program computer-executable instructions to execute during operation of the processing device. Providing the instructions to the processing device. In some embodiments, configuring the processing device may include directly programming the processing device with architectural instructions. In other embodiments, configuring the processing device may include storing the executable instructions on a memory accessible by the processing device during operation. For example, a processing device may access memory during operation to retrieve and execute stored instructions. In any event, the processing device configured to perform the sensing, image analysis, and / or navigation functions disclosed herein requires dedicated hardware to control multiple hardware-based components of the host vehicle. Represents the base system.

[088] 図1は、処理ユニット110に含まれる2つの別個の処理デバイスを示すが、より多数又はより少数の処理デバイスを使用することもできる。例えば、幾つかの実施形態では、単一の処理デバイスを使用して、アプリケーションプロセッサ180及び画像プロセッサ190のタスクを達成し得る。他の実施形態では、これらのタスクは、3つ以上の処理デバイスにより実行し得る。更に、幾つかの実施形態では、システム100は、画像取得ユニット120等の他の構成要素を含まず、処理ユニット110の1つ又は複数を含み得る。   [088] Although FIG. 1 shows two separate processing devices included in the processing unit 110, more or fewer processing devices may be used. For example, in some embodiments, a single processing device may be used to accomplish the tasks of application processor 180 and image processor 190. In other embodiments, these tasks may be performed by more than two processing devices. Further, in some embodiments, the system 100 may include one or more of the processing units 110 without including other components such as the image acquisition unit 120.

[089] 処理ユニット110は、様々なタイプのデバイスを含み得る。例えば、処理ユニット110は、コントローラ、画像プリプロセッサ、中央演算処理装置(CPU)、サポート回路、デジタル信号プロセッサ、集積回路、メモリ、又は画像を処理し分析する任意の他のタイプのデバイス等の様々なデバイスを含み得る。画像プリプロセッサは、画像センサから画像を捕捉し、デジタル化し、処理するビデオプロセッサを含み得る。CPUは、任意の数のマイクロコントローラ又はマイクロプロセッサを含み得る。サポート回路は、キャッシュ、電源、クロック、及び入出力回路を含め、当技術分野で一般に周知の任意の数の回路であり得る。メモリは、プロセッサにより実行されると、システムの動作を制御するソフトウェアを記憶し得る。メモリは、データベース及び画像処理ソフトウェアを含み得る。メモリは、任意の数のランダムアクセスメモリ、読み取り専用メモリ、フラッシュメモリ、ディスクドライブ、光学記憶装置、テープ記憶装置、リムーバブル記憶装置、及び他のタイプの記憶装置を含み得る。一例では、メモリは、処理ユニット110とは別個であり得る。別の例では、メモリは、処理ユニット110に統合し得る。   [089] The processing unit 110 may include various types of devices. For example, processing unit 110 may include a variety of controllers, image preprocessors, central processing units (CPUs), support circuits, digital signal processors, integrated circuits, memories, or any other type of device that processes and analyzes images. It may include a device. The image preprocessor may include a video processor that captures, digitizes, and processes images from the image sensor. A CPU may include any number of microcontrollers or microprocessors. The support circuits can be any number of circuits commonly known in the art, including cache, power, clock, and input / output circuits. The memory may store software that, when executed by the processor, controls the operation of the system. The memory may include a database and image processing software. The memory may include any number of random access memory, read only memory, flash memory, disk drives, optical storage, tape storage, removable storage, and other types of storage. In one example, the memory can be separate from the processing unit 110. In another example, the memory may be integrated into the processing unit 110.

[090] 各メモリ140、150は、プロセッサ(例えば、アプリケーションプロセッサ180及び/又は画像プロセッサ190)によって実行されるとき、システム100の様々な態様の動作を制御し得るソフトウェア命令を含み得る。これらのメモリユニットは、様々なデータベース及び画像処理ソフトウェア、並びに例えばニューラルネットワーク又はディープニューラルネットワーク等のトレーニング済みシステムを含み得る。メモリユニットは、ランダムアクセスメモリ、読み取り専用メモリ、フラッシュメモリ、ディスクドライブ、光学記憶装置、テープ記憶装置、リムーバブル記憶装置、及び/又は他の任意の種類の記憶装置を含み得る。幾つかの実施形態では、メモリユニット140、150は、アプリケーションプロセッサ180及び/又は画像プロセッサ190とは別個であり得る。他の実施形態では、これらのメモリユニットは、アプリケーションプロセッサ180及び/又は画像プロセッサ190に統合され得る。   [090] Each memory 140, 150 may include software instructions that, when executed by a processor (eg, application processor 180 and / or image processor 190), may control the operation of various aspects of system 100. These memory units may include various databases and image processing software, as well as trained systems such as, for example, neural networks or deep neural networks. The memory unit may include random access memory, read-only memory, flash memory, disk drive, optical storage, tape storage, removable storage, and / or any other type of storage. In some embodiments, memory units 140, 150 may be separate from application processor 180 and / or image processor 190. In other embodiments, these memory units may be integrated into application processor 180 and / or image processor 190.

[091] 位置センサ130は、システム100の少なくとも1つの構成要素に関連付けられた位置を特定するのに適する任意のタイプのデバイスを含み得る。幾つかの実施形態では、位置センサ130はGPS受信機を含み得る。そのような受信機は、全地球測位システム衛星によりブロードキャストされる信号を処理することにより、ユーザの位置及び速度を特定することができる。位置センサ130からの位置情報は、アプリケーションプロセッサ180及び/又は画像プロセッサ190に提供し得る。   [091] The position sensor 130 may include any type of device suitable for determining a position associated with at least one component of the system 100. In some embodiments, position sensor 130 may include a GPS receiver. Such a receiver can determine the position and speed of the user by processing the signal broadcast by the Global Positioning System satellite. Position information from position sensor 130 may be provided to application processor 180 and / or image processor 190.

[092] 幾つかの実施形態では、システム100は、車両200の速度を測定するための速度センサ(例えば、速度計)等の構成要素を含み得る。システム100は、1つ又は複数の軸に沿って車両200の加速度を測定するための1つ又は複数の(単軸又は多軸の)加速度計も含み得る。   [092] In some embodiments, the system 100 may include components such as a speed sensor (eg, a speedometer) for measuring the speed of the vehicle 200. System 100 may also include one or more (single-axis or multi-axis) accelerometers for measuring acceleration of vehicle 200 along one or more axes.

[093] メモリユニット140、150は、既知の陸標の位置を示すデータベース又は他の任意の形式で編成されるデータを含み得る。環境のセンサ情報(画像、レーダ信号、2つ以上の画像をライダ又は立体処理することによる深度情報等)をGPS座標や車両の自己運動等の位置情報と一緒に処理して、既知の陸標に対する車両の現在位置を求め、車両の位置を洗練させることができる。この技術の特定の側面は、本願の譲受人によって販売されているREM(商標)として知られる位置特定技術に含まれる。   [093] The memory units 140, 150 may include data organized in a database or any other format that indicates locations of known landmarks. Processing environmental sensor information (images, radar signals, depth information obtained by lidaring or stereoscopically processing two or more images, etc.) together with position information such as GPS coordinates and vehicle self-motion, to obtain a known landmark The current position of the vehicle with respect to is obtained, and the position of the vehicle can be refined. A particular aspect of this technology is included in the location technology known as REM ™ sold by the assignee of the present application.

[094] ユーザインタフェース170は、情報を提供するか、又はシステム100の1人若しくは複数のユーザから入力を受信するのに適する任意のデバイスを含み得る。幾つかの実施形態では、ユーザインタフェース170は、例えば、タッチスクリーン、マイクロフォン、キーボード、ポインタデバイス、トラックホィール、カメラ、つまみ、ボタン等を含め、ユーザ入力デバイスを含み得る。そのような入力デバイスを用いて、ユーザは、命令若しくは情報をタイプし、音声コマンドを提供し、ボタン、ポインタ、若しくは目追跡機能を使用して、又は情報をシステム100に通信する任意の他の適する技法を通して画面上のメニュー選択肢を選択することにより、システム100に情報入力又はコマンドを提供可能であり得る。   [094] User interface 170 may include any device suitable for providing information or receiving input from one or more users of system 100. In some embodiments, the user interface 170 may include user input devices, including, for example, a touch screen, microphone, keyboard, pointer device, track wheel, camera, knob, buttons, and the like. With such an input device, a user can type commands or information, provide voice commands, use buttons, pointers, or eye tracking features, or communicate any other information to the system 100. By selecting on-screen menu choices through suitable techniques, it may be possible to provide information input or commands to the system 100.

[095] ユーザインタフェース170は、ユーザに情報を提供するか、又はユーザから情報を受信し、例えば、アプリケーションプロセッサ180による使用のためにその情報を処理するように構成される1つ又は複数の処理デバイスを備え得る。幾つかの実施形態では、そのような処理デバイスは、目の動きを認識して追跡する命令、音声コマンドを受信して解釈する命令、タッチスクリーンで行われたタッチ及び/又はジェスチャを認識して解釈する命令、キーボード入力又はメニュー選択に応答する命令等を実行し得る。幾つかの実施形態では、ユーザインタフェース170は、ディスプレイ、スピーカ、触覚デバイス、及び/又は出力情報をユーザに提供する任意の他のデバイスを含み得る。   [095] The user interface 170 may provide one or more processes to provide information to or receive information from the user, for example, process the information for use by the application processor 180. A device may be provided. In some embodiments, such a processing device recognizes and tracks eye movements, receives and interprets voice commands, recognizes touches and / or gestures made on a touch screen. Commands to interpret, commands to respond to keyboard input or menu selections, etc. may be executed. In some embodiments, user interface 170 may include a display, speakers, haptic devices, and / or any other device that provides output information to a user.

[096] 地図データベース160は、システム100にとって有用な地図データを記憶する任意のタイプのデータベースを含み得る。幾つかの実施形態では、地図データベース160は、道路、水特徴、地理的特徴、ビジネス、関心点、レストラン、ガソリンスタンド等を含め、様々な項目の、基準座標系での位置に関連するデータを含み得る。地図データベース160は、そのような項目の位置のみならず、例えば、記憶された特徴のいずれかに関連付けられた名称を含め、それらの項目に関連する記述子も記憶し得る。幾つかの実施形態では、地図データベース160は、システム100の他の構成要素と共に物理的に配置し得る。代替又は追加として、地図データベース160又はその一部は、システム100の他の構成要素(例えば、処理ユニット110)に関してリモートに配置し得る。そのような実施形態では、地図データベース160からの情報は、有線又は無線データ接続を介してネットワークにダウンロードし得る(例えば、セルラネットワーク及び/又はインターネット等を介して)。幾つかの場合、地図データベース160は、特定の道路の特徴(例えば、レーンマーク)又はホスト車両の目標軌道の多項式表現を含む疎なデータモデルを記憶し得る。地図データベース160は、目標軌道に対するホスト車両の既知の位置を決定又は更新するために使用され得る様々な認識された陸標の記憶された表現も含み得る。陸標表現は、潜在的な識別子の中でも、陸標の種類や陸標の位置等のデータフィールドを特に含み得る。   [096] The map database 160 may include any type of database that stores map data useful to the system 100. In some embodiments, the map database 160 stores data relating to locations in the reference coordinate system of various items, including roads, water features, geographic features, businesses, points of interest, restaurants, gas stations, and the like. May be included. Map database 160 may store not only the locations of such items, but also descriptors associated with those items, including, for example, the names associated with any of the stored features. In some embodiments, the map database 160 may be physically located with other components of the system 100. Alternatively or additionally, map database 160 or a portion thereof may be located remotely with respect to other components of system 100 (eg, processing unit 110). In such embodiments, information from the map database 160 may be downloaded to a network via a wired or wireless data connection (eg, via a cellular network and / or the Internet, etc.). In some cases, map database 160 may store a sparse data model that includes a polynomial representation of a particular road feature (eg, a lane mark) or a target trajectory of the host vehicle. Map database 160 may also include a stored representation of various recognized landmarks that may be used to determine or update the known position of the host vehicle with respect to the target trajectory. The landmark representation may include, among other potential identifiers, data fields such as landmark type and landmark location.

[097] 画像捕捉デバイス122、124、及び126は、それぞれ環境から少なくとも1つの画像を捕捉するのに適する任意のタイプのデバイスを含み得る。更に、任意の数の画像捕捉デバイスを使用して、画像プロセッサに入力する画像を取得し得る。幾つかの実施形態は、単一の画像捕捉デバイスのみを含み得、一方、他の実施形態は、2つ、3つ、更には4つ以上の画像捕捉デバイスを含み得る。画像捕捉デバイス122、124、及び126については、図2B〜図2Eを参照して更に以下に説明する。   [097] The image capture devices 122, 124, and 126 may each include any type of device suitable for capturing at least one image from an environment. Further, any number of image capture devices may be used to acquire images for input to an image processor. Some embodiments may include only a single image capture device, while other embodiments may include two, three, or even four or more image capture devices. Image capture devices 122, 124, and 126 are further described below with reference to FIGS. 2B-2E.

[098] 1つ又は複数のカメラ(例えば、画像捕捉装置122、124、及び126)は、車両上に含まれる検知ブロックの一部であり得る。他の様々なセンサが検知ブロックに含まれ得、車両の検知されたナビゲーション状態を開発するためにセンサのいずれか又は全てを利用することができる。カメラ(前向き、横向き、後向き等)に加えて、レーダ、ライダ、音響センサ等の他のセンサが検知ブロックに含まれ得る。加えて、検知ブロックは、車両の環境に関係する情報を伝達し、送受信するように構成される1つ又は複数の構成要素を含み得る。例えば、かかる構成要素は、ホスト車両に対して遠隔設置されたソースからホスト車両の環境に関係するセンサベースの情報又は他の任意の種類の情報を受信し得る無線送受信機(RF等)を含み得る。かかる情報は、ホスト車両以外の車両システムから受信されるセンサ出力情報又は関連情報を含み得る。幾つかの実施形態では、かかる情報は、遠隔計算装置や集中サーバ等から受信される情報を含み得る。更に、カメラは、単一のカメラユニット、複数のカメラ、カメラクラスタ、長いFOV、短いFOV、広角、魚眼等の多くの異なる構成を取ることができる。   [098] One or more cameras (eg, image capture devices 122, 124, and 126) may be part of a sensing block included on the vehicle. Various other sensors may be included in the sensing block, and any or all of the sensors may be utilized to develop a sensed navigation condition for the vehicle. In addition to the camera (front-facing, side-facing, back-facing, etc.), other sensors such as radar, lidar, acoustic sensors, etc. may be included in the sensing block. In addition, the sensing block may include one or more components configured to communicate and transmit and receive information related to the environment of the vehicle. For example, such components include a radio transceiver (eg, RF) that can receive sensor-based information or any other type of information related to the environment of the host vehicle from a source remotely located with respect to the host vehicle. obtain. Such information may include sensor output information or related information received from a vehicle system other than the host vehicle. In some embodiments, such information may include information received from remote computing devices, centralized servers, and the like. Further, the cameras can take many different configurations, such as a single camera unit, multiple cameras, camera clusters, long FOV, short FOV, wide angle, fisheye, and the like.

[099] システム100又はシステム100の様々な構成要素は、様々な異なるプラットフォームに組み込み得る。幾つかの実施形態では、システム100は、図2Aに示されるように、車両200に含め得る。例えば、車両200は、図1に関して上述したように、処理ユニット110及びシステム100の任意の他の構成要素を備え得る。幾つかの実施形態では、車両200は単一の画像捕捉デバイス(例えば、カメラ)のみを備え得、一方、図2B〜図2Eに関連して考察した実施形態等の他の実施形態では、複数の画像捕捉デバイスが使用可能である。例えば、図2Aに示されるように、車両200の画像捕捉デバイス122及び124のいずれかは、ADAS(最新運転者支援システム)撮像セットの一部であり得る。   [099] The system 100 or various components of the system 100 may be incorporated into a variety of different platforms. In some embodiments, system 100 may be included in vehicle 200, as shown in FIG. 2A. For example, vehicle 200 may include processing unit 110 and any other components of system 100, as described above with respect to FIG. In some embodiments, vehicle 200 may include only a single image capture device (e.g., a camera), while in other embodiments, such as the embodiments discussed in connection with FIGS. Image capture devices can be used. For example, as shown in FIG. 2A, either of the image capture devices 122 and 124 of the vehicle 200 may be part of an ADAS (Advanced Driver Assistance System) imaging set.

[0100] 画像取得ユニット120の一部として車両200に含まれる画像捕捉デバイスは、任意の適する位置に位置し得る。幾つかの実施形態では、図2A〜図2E及び図3A〜図3Cに示されるように、画像捕捉デバイス122は、バックミラーの近傍に配置し得る。この位置は、車両200のドライバーと同様の視線を提供し得、ドライバーにとって何が見え、何が見えないかの判断を支援し得る。画像捕捉デバイス122は、バックミラーの近傍の任意の位置に位置し得るが、画像捕捉デバイス122をミラーのドライバー側に配置することは、ドライバーの視野及び/又は視線を表す画像の取得を更に支援し得る。   [0100] The image capture device included in the vehicle 200 as part of the image acquisition unit 120 may be located at any suitable location. In some embodiments, as shown in FIGS. 2A-2E and 3A-3C, image capture device 122 may be located near a rearview mirror. This location may provide a line of sight similar to the driver of vehicle 200 and may assist the driver in determining what is visible and what is not. Although the image capture device 122 may be located at any location near the rearview mirror, locating the image capture device 122 on the driver side of the mirror further assists in obtaining images representing the driver's field of view and / or gaze. I can do it.

[0101] 画像取得ユニット120の画像捕捉デバイスに他の位置を使用することもできる。例えば、画像捕捉デバイス124は、車両200のバンパー上又はバンパー内に配置し得る。そのような位置は、広視野を有する画像捕捉デバイスに特に適し得る。バンパーに配置される画像捕捉デバイスの視線は、ドライバーの視線と異なることができ、従って、バンパー画像捕捉デバイス及びドライバーは、同じ物体を常に見ているわけではない。画像捕捉デバイス(例えば、画像捕捉デバイス122、124、及び126)は、他の位置に配置することもできる。例えば、画像捕捉デバイスは、車両200のサイドミラーの一方又は両方、車両200のルーフ、車両200のフード、車両200のトランク、車両200の側部に配置し得、車両200の任意のウィンドウに搭載、背後に位置決め、又は前に位置決めし得、車両200の前部及び/又は後部のライト又はその近傍等に搭載し得る。   [0101] Other locations may be used for the image capture device of the image acquisition unit 120. For example, the image capture device 124 may be located on or in a bumper of the vehicle 200. Such a location may be particularly suitable for image capture devices having a wide field of view. The line of sight of the image capture device located on the bumper can be different from the line of sight of the driver, so the bumper image capture device and the driver do not always see the same object. Image capture devices (eg, image capture devices 122, 124, and 126) can be located at other locations. For example, the image capture device may be located on one or both of the side mirrors of the vehicle 200, the roof of the vehicle 200, the hood of the vehicle 200, the trunk of the vehicle 200, the side of the vehicle 200, and mounted on any window of the vehicle 200. , Behind, or forward, and may be mounted at or near the front and / or rear lights of the vehicle 200.

[0102] 画像捕捉デバイスに加えて、車両200は、システム100の様々な他の構成要素を含み得る。例えば、処理ユニット110は、車両のエンジン制御ユニット(ECU)に統合されるか、又はECUとは別個に車両200に含まれ得る。車両200には、GPS受信機等の位置センサ130を備えることもでき、車両200は、地図データベース160並びにメモリユニット140及び150を含むこともできる。   [0102] In addition to the image capture device, the vehicle 200 may include various other components of the system 100. For example, the processing unit 110 may be integrated into an engine control unit (ECU) of the vehicle or included in the vehicle 200 separately from the ECU. The vehicle 200 may include a position sensor 130 such as a GPS receiver, and the vehicle 200 may include a map database 160 and memory units 140 and 150.

[0103] 上述したように、無線送受信機172は、1つ又は複数のネットワーク(例えば、セルラネットワーク、インターネット等)を介してデータを及び/又は受信し得る。例えば、無線送受信機172は、システム100により収集されたデータを1つ又は複数のサーバにアップロードし、データを1つ又は複数のサーバからダウンロードし得る。無線送受信機172を介して、システム100は、例えば、定期的に又は需要時に地図データベース160、メモリ140、及び/又はメモリ150に記憶されたデータへの更新を受信し得る。同様に、無線送受信機172は、システム100からの任意のデータ(例えば、画像取得ユニット120により捕捉された画像、位置センサ130、他のセンサ、又は車両制御システムにより受信されたデータ等)及び/又は処理ユニット110により処理された任意のデータを1つ又は複数のサーバにアップロードし得る。   [0103] As described above, wireless transceiver 172 may receive and / or receive data via one or more networks (eg, a cellular network, the Internet, etc.). For example, wireless transceiver 172 may upload data collected by system 100 to one or more servers and download data from one or more servers. Via wireless transceiver 172, system 100 may receive updates to data stored in map database 160, memory 140, and / or memory 150, for example, periodically or on demand. Similarly, wireless transceiver 172 may include any data from system 100 (eg, images captured by image acquisition unit 120, position sensors 130, other sensors, or data received by vehicle control systems, etc.) and / or Or, any data processed by the processing unit 110 may be uploaded to one or more servers.

[0104] システム100は、プライバシーレベル設定に基づいてデータをサーバ(例えば、クラウド)にアップロードし得る。例えば、システム100は、サーバに送信される、車両及び/又は車両のドライバー/所有者を一意に識別し得るタイプのデータ(メタデータを含む)を規制又は制限するプライバシーレベル設定を実施し得る。そのような設定は、例えば、無線送受信機172を介してユーザにより設定されてもよく、工場デフォルト設定により初期化されてもよく、又は無線送受信機172により受信されるデータにより設定されてもよい。   [0104] The system 100 may upload data to a server (eg, cloud) based on privacy level settings. For example, the system 100 may implement a privacy level setting that regulates or restricts data (including metadata) transmitted to the server that may uniquely identify the vehicle and / or the driver / owner of the vehicle. Such settings may be set by a user, for example, via wireless transceiver 172, may be initialized by factory default settings, or may be set by data received by wireless transceiver 172. .

[0105] 幾つかの実施形態では、システム100は、「高」プライバシーレベルに従ってデータをアップロードし得、設定下において、システム100は、特定の車両及び/又はドライバー/所有者についてのいかなる詳細もないデータ(例えば、ルートに関連する位置情報、捕捉画像等)を送信し得る。例えば、「高」プライバシーレベルに従ってデータをアップロードする場合、システム100は、車両識別番号(VIN)又は車両のドライバー若しくは所有者の氏名を含まず、代わりに、捕捉画像及び/又はルートに関連する限られた位置情報等のデータを送信し得る。   [0105] In some embodiments, the system 100 may upload data according to a "high" privacy level, and under settings, the system 100 does not have any details about a particular vehicle and / or driver / owner. Data (eg, location information related to the route, captured images, etc.) may be transmitted. For example, when uploading data according to a “high” privacy level, the system 100 does not include the vehicle identification number (VIN) or the name of the driver or owner of the vehicle, but instead, as long as it is associated with the captured image and / or route. Data such as the obtained location information may be transmitted.

[0106] 他のプライバシーレベルも意図される。例えば、システム100は、「中」プライバシーレベルに従ってデータをサーバに送信し得、車両及び/又は車両タイプのメーカー及び/又はモデル(例えば、乗用車、スポーツユーティリティ車、トラック等)等の「高」プライバシーレベル下では含まれない追加情報を含み得る。幾つかの実施形態では、システム100は、「低」プライバシーレベルに従ってデータをアップロードし得る。「低」プライバシーレベル設定下では、システム100は、特定の車両、所有者/ドライバー、及び/又は車両が走行したルートの一部又は全体を一意に識別するのに十分なデータをアップロードし、そのような情報を含み得る。そのような「低」プライバシーレベルデータは、例えば、VIN、ドライバー/所有者氏名、出発前の車両の出発点、車両の意図される目的地、車両のメーカー及び/又はモデル、車両のタイプ等の1つ又は複数を含み得る。   [0106] Other privacy levels are also contemplated. For example, the system 100 may send data to a server according to a “medium” privacy level, and “high” privacy, such as the make and / or model of the vehicle and / or vehicle type (eg, passenger car, sports utility vehicle, truck, etc.). It may include additional information not included below the level. In some embodiments, system 100 may upload data according to a "low" privacy level. Under the “low” privacy level setting, the system 100 uploads enough data to uniquely identify a particular vehicle, owner / driver, and / or part or all of the route the vehicle has traveled, Such information may be included. Such “low” privacy level data may include, for example, VIN, driver / owner name, point of departure of the vehicle prior to departure, intended destination of the vehicle, make and / or model of the vehicle, type of vehicle, etc. It may include one or more.

[0107] 図2Aは、開示される実施形態による例示的な車両撮像システムの側面図表現である。図2Bは、図2Aに示される実施形態の上面図表現である。図2Bに示されるように、開示される実施形態は、バックミラーの近傍及び/又は車両200のドライバー近傍に位置決めされた第1の画像捕捉デバイス122と、車両200のバンパー領域(例えば、バンパー領域210の1つ)上又はバンパー領域内に位置決めされる第2の画像捕捉デバイス124と、処理ユニット110とを有するシステム100を本体内に含む車両200を示し得る。   [0107] FIG. 2A is a side view representation of an exemplary vehicle imaging system according to the disclosed embodiments. FIG. 2B is a top view representation of the embodiment shown in FIG. 2A. As shown in FIG. 2B, the disclosed embodiment includes a first image capture device 122 positioned near a rearview mirror and / or near a driver of the vehicle 200 and a bumper region of the vehicle 200 (eg, a bumper region). One of 210) may show a vehicle 200 that includes in its body a system 100 having a second image capture device 124 positioned on or in the bumper area and a processing unit 110.

[0108] 図2Cに示されるように、画像捕捉デバイス122及び124の両方は、車両200のバックミラーの近傍及び/又はドライバーの近傍に位置決めし得る。更に、2つの画像捕捉デバイス122及び124が図2B及び図2Cに示されているが、他の実施形態が3つ以上の画像捕捉デバイスを含み得ることを理解されたい。例えば、図2D及び図2Eに示される実施形態では、第1の画像捕捉デバイス122、第2の画像捕捉デバイス124、及び第3の画像補足デバイス126が車両200のシステム100に含まれる。   [0108] As shown in FIG. 2C, both image capture devices 122 and 124 may be positioned near the rearview mirror of vehicle 200 and / or near the driver. Further, while two image capture devices 122 and 124 are shown in FIGS. 2B and 2C, it should be understood that other embodiments may include more than two image capture devices. For example, in the embodiment shown in FIGS. 2D and 2E, a first image capture device 122, a second image capture device 124, and a third image capture device 126 are included in system 100 of vehicle 200.

[0109] 図2Dに示されるように、画像捕捉デバイス122は、車両200のバックミラーの近傍及び/又はドライバーの近傍に位置決めし得、画像補足デバイス124及び126は、車両200のバンパー領域(例えば、バンパー領域210の1つ)上に位置決めし得る。また、図2Eに示されるように、画像補足デバイス122、124、及び126は、車両200のバックミラーの近傍及び/又はドライバーシートの近傍に位置決めし得る。開示される実施形態は、いかなる特定の数及び構成の画像捕捉デバイスにも限定されず、画像捕捉デバイスは、車両200内及び/又は車両200上の任意の適する位置に位置決めし得る。   As shown in FIG. 2D, the image capture device 122 may be positioned near the rearview mirror of the vehicle 200 and / or near the driver, and the image capture devices 124 and 126 may be positioned near the bumper area of the vehicle 200 (eg, , One of the bumper regions 210). Also, as shown in FIG. 2E, the image supplement devices 122, 124, and 126 may be positioned near the rearview mirror of the vehicle 200 and / or near the driver's seat. The disclosed embodiments are not limited to any particular number and configuration of image capture devices, which may be positioned within and / or on the vehicle 200 at any suitable location.

[0110] 開示される実施形態が車両に限定されず、他の状況でも適用可能なことを理解されたい。開示される実施形態が特定のタイプの車両200に限定されず、自動車、トラック、トレーラー、及び他のタイプの車両を含む全てのタイプの車両に適用可能であり得ることも理解されたい。   [0110] It should be understood that the disclosed embodiments are not limited to vehicles and are applicable in other situations. It should also be understood that the disclosed embodiments are not limited to a particular type of vehicle 200, but may be applicable to all types of vehicles, including automobiles, trucks, trailers, and other types of vehicles.

[0111] 第1の画像捕捉デバイス122は、任意の適するタイプの画像捕捉デバイスを含み得る。画像捕捉デバイス122は光軸を含み得る。一例では、画像捕捉デバイス122は、グローバルシャッタを有するAptina M9V024 WVGAセンサを含み得る。他の実施形態では、画像捕捉デバイス122は、1280×960ピクセルの解像度を提供し得、ローリングシャッタを含み得る。画像捕捉デバイス122は、様々な光学要素を含み得る。幾つかの実施形態では、1枚又は複数枚のレンズが含まれて、例えば、画像捕捉デバイスの所望の焦点距離及び視野を提供し得る。幾つかの実施形態では、画像捕捉デバイス122に6mmレンズ又は12mmレンズを関連付け得る。幾つかの実施形態では、画像捕捉デバイス122は、図2Dに示されるように、所望の視野(FOV)202を有する画像を捕捉するように構成し得る。例えば、画像捕捉デバイス122は、46度FOV、50度FOV、52度FOV、又は52度FOVを超える度数を含め、40度〜56度の範囲内等の通常のFOVを有するように構成し得る。代替的には、画像捕捉デバイス122は、28度FOV又は36度FOV等の23〜40度の範囲の狭いFOVを有するように構成し得る。加えて、画像捕捉デバイス122は、100〜180度の範囲の広いFOVを有するように構成し得る。幾つかの実施形態では、画像捕捉デバイス122は、広角バンパーカメラ又は最高で180度FOVを有するバンパーカメラを含み得る。幾つかの実施形態では、画像捕捉デバイス122は、約100度の水平FOVを有するアスペクト比約2:1(例えば、H×V=3800×1900ピクセル)の7.2Mピクセル画像捕捉デバイスであり得る。そのような画像捕捉デバイスは、三次元画像捕捉デバイス構成の代わりに使用し得る。大きいレンズ歪みに起因して、そのような画像捕捉デバイスの垂直FOVは、画像捕捉デバイスが半径方向に対称なレンズを使用する実装形態では、50度よりはるかに低くなり得る。例えば、そのようなレンズは、半径方向で対称ではなく、それにより、水平FOV100度で、50度よりも大きい垂直FOVが可能である。   [0111] The first image capture device 122 may include any suitable type of image capture device. Image capture device 122 may include an optical axis. In one example, image capture device 122 may include an Aptina M9V024 WVGA sensor with a global shutter. In other embodiments, image capture device 122 may provide a resolution of 1280 × 960 pixels and may include a rolling shutter. Image capture device 122 may include various optical components. In some embodiments, one or more lenses may be included, for example, to provide a desired focal length and field of view of the image capture device. In some embodiments, a 6 mm lens or a 12 mm lens may be associated with the image capture device 122. In some embodiments, image capture device 122 may be configured to capture an image having a desired field of view (FOV) 202, as shown in FIG. 2D. For example, the image capture device 122 may be configured to have a normal FOV, such as in the range of 40 degrees to 56 degrees, including 46 degrees FOV, 50 degrees FOV, 52 degrees FOV, or more than 52 degrees FOV. . Alternatively, the image capture device 122 may be configured to have a narrow FOV in the range of 23-40 degrees, such as a 28 degree FOV or a 36 degree FOV. In addition, image capture device 122 may be configured to have a wide FOV in the range of 100-180 degrees. In some embodiments, the image capture device 122 may include a wide-angle bumper camera or a bumper camera with a maximum 180 degree FOV. In some embodiments, image capture device 122 may be a 7.2 M pixel image capture device with an aspect ratio of about 2: 1 (eg, H × V = 3800 × 1900 pixels) having a horizontal FOV of about 100 degrees. . Such an image capture device may be used instead of a three-dimensional image capture device configuration. Due to the large lens distortion, the vertical FOV of such an image capture device can be much lower than 50 degrees in implementations where the image capture device uses radially symmetric lenses. For example, such lenses are not radially symmetric, which allows a vertical FOV of greater than 50 degrees with a horizontal FOV of 100 degrees.

[0112] 第1の画像捕捉デバイス122は、車両200に関連付けられたシーンに対して複数の第1の画像を取得し得る。複数の第1の画像は、それぞれ一連の画像走査線として取得し得、これらはローリングシャッタを使用して捕捉し得る。各走査線は複数のピクセルを含み得る。   [0112] The first image capture device 122 may acquire a plurality of first images for a scene associated with the vehicle 200. The plurality of first images may each be acquired as a series of image scan lines, which may be captured using a rolling shutter. Each scan line may include multiple pixels.

[0113] 第1の画像捕捉デバイス122は、第1の一連の画像走査線のそれぞれの取得に関連付けられた走査レートを有し得る。走査レートは、画像センサが、特定の走査線に含まれる各ピクセルに関連付けられた画像データを取得することができるレートを指し得る。   [0113] The first image capture device 122 may have a scan rate associated with acquiring each of the first series of image scan lines. The scan rate may refer to the rate at which the image sensor can acquire image data associated with each pixel included in a particular scan line.

[0114] 画像捕捉デバイス122、124、及び126は、例えば、CCDセンサ又はCMOSセンサを含む、任意の適するタイプ及び数の画像センサを含み得る。一実施形態では、CMOS画像センサはローリングシャッタと共に利用し得、それにより、行内の各ピクセルは一度に1つずつ読み取られ、行の走査は、画像フレーム全体が捕捉されるまで行毎に進められる。幾つかの実施形態では、行は、フレームに対して上から下に順次捕捉し得る。   [0114] The image capture devices 122, 124, and 126 may include any suitable type and number of image sensors, including, for example, a CCD sensor or a CMOS sensor. In one embodiment, a CMOS image sensor may be utilized with a rolling shutter, whereby each pixel in a row is read one at a time, and scanning of the row is advanced row by row until the entire image frame is captured. . In some embodiments, rows may be captured sequentially from top to bottom with respect to the frame.

[0115] 幾つかの実施形態では、本明細書に開示される画像捕捉デバイス(例えば、画像捕捉デバイス122、124、及び126)の1つ又は複数は、高解像度イメージャを構成し得、5Mピクセル超、7Mピクセル超、10Mピクセル超、又はそれを超える解像度を有し得る。   [0115] In some embodiments, one or more of the image capture devices (e.g., image capture devices 122, 124, and 126) disclosed herein may constitute a high-resolution imager and may have 5M pixels. It can have a resolution of more than 7M pixels, more than 10M pixels, or more.

[0116] ローリングシャッタの使用により、異なる行内のピクセルは異なるときに露出され捕捉されることになり得、それにより、スキュー及び他の画像アーチファクトが捕捉画像フレームで生じ得る。他方、画像捕捉デバイス122がグローバル又は同期シャッタを用いて動作するように構成される場合、全ピクセルは、同量の時間にわたり、共通の露出期間中に露出し得る。その結果、グローバルシャッタを利用するシステムから収集されるフレーム内の画像データは、特定のときのFOV全体(FOV202等)のスナップショットを表す。それとは逆に、ローリングシャッタを適用する場合、フレーム内の各行が露出され、データは異なる時間に捕捉される。従って、移動中の物体は、ローリングシャッタを有する画像捕捉デバイスでは歪んで見えることがある。この現象について以下により詳細に説明する。   [0116] Through the use of a rolling shutter, pixels in different rows may be exposed and captured at different times, thereby causing skew and other image artifacts in the captured image frames. On the other hand, if the image capture device 122 is configured to operate with a global or synchronous shutter, all pixels may be exposed during a common exposure period for the same amount of time. As a result, image data in a frame collected from a system utilizing a global shutter represents a snapshot of the entire FOV (such as FOV 202) at a particular time. Conversely, when applying a rolling shutter, each row in the frame is exposed and data is captured at different times. Thus, a moving object may appear distorted on an image capture device having a rolling shutter. This phenomenon will be described in more detail below.

[0117] 第2の画像捕捉デバイス124及び第3の画像捕捉デバイス126は、任意のタイプの画像捕捉デバイスであり得る。第1の画像捕捉デバイス122のように、画像捕捉デバイス124及び126のそれぞれは、光軸を含み得る。一実施形態では、画像捕捉デバイス124及び126のそれぞれは、グローバルシャッタを有するAptina M9V024 WVGAセンサを含み得る。代替的には、画像捕捉デバイス124及び126のそれぞれは、ローリングシャッタを含み得る。画像捕捉デバイス122のように、画像捕捉デバイス124及び126は、様々なレンズ及び光学要素を含むように構成し得る。幾つかの実施形態では、画像捕捉デバイス124及び126に関連付けられたレンズは、画像捕捉デバイス122に関連付けられたFOV(FOV202等)と同じであるか、又は狭いFOV(FOV204及び206等)を提供し得る。例えば、画像捕捉デバイス124及び126は、40度、30度、26度、23度、20度、又は20度未満のFOVを有し得る。   [0117] The second image capture device 124 and the third image capture device 126 can be any type of image capture device. Like the first image capture device 122, each of the image capture devices 124 and 126 may include an optical axis. In one embodiment, each of the image capture devices 124 and 126 may include an Aptina M9V024 WVGA sensor with a global shutter. Alternatively, each of the image capture devices 124 and 126 may include a rolling shutter. Like image capture device 122, image capture devices 124 and 126 may be configured to include various lenses and optical elements. In some embodiments, the lenses associated with image capture devices 124 and 126 provide the same or narrower FOV (such as FOVs 204 and 206) as the FOV associated with image capture device 122 (such as FOV 202). I can do it. For example, image capture devices 124 and 126 may have a FOV of 40 degrees, 30 degrees, 26 degrees, 23 degrees, 20 degrees, or less than 20 degrees.

[0118] 画像捕捉デバイス124及び126は、車両200に関連付けられたシーンに対して複数の第2及び第3の画像を取得し得る。複数の第2及び第3の画像のそれぞれは、第2及び第3の一連の画像走査線として取得し得、これらはローリングシャッタを使用して捕捉し得る。各走査線又は各行は、複数のピクセルを有し得る。画像捕捉デバイス124及び126は、第2及び第3の一連内に含まれる各画像走査線の取得に関連付けられた第2及び第3の走査レートを有し得る。   [0118] Image capture devices 124 and 126 may acquire a plurality of second and third images for a scene associated with vehicle 200. Each of the plurality of second and third images may be acquired as a second and third series of image scan lines, which may be captured using a rolling shutter. Each scan line or each row may have multiple pixels. Image capture devices 124 and 126 may have second and third scan rates associated with acquiring each image scan line included in the second and third series.

[0119] 各画像捕捉デバイス122、124、及び126は、任意の適する位置に、車両200に対して任意の適する向きで位置決めし得る。画像捕捉デバイス122、124、及び126の相対位置は、画像捕捉デバイスから取得される情報を一緒に融合させることを支援するように選択し得る。例えば、幾つかの実施形態では、画像捕捉デバイス124に関連付けられたFOV(FOV204)は、画像捕捉デバイス122に関連付けられたFOV(FOV202等)及び画像捕捉デバイス126に関連付けられたFOV(FOV206等)と部分的又は完全に重複し得る。   [0119] Each image capture device 122, 124, and 126 may be positioned at any suitable location with respect to the vehicle 200 and in any suitable orientation. The relative positions of the image capture devices 122, 124, and 126 may be selected to assist in fusing information obtained from the image capture devices together. For example, in some embodiments, the FOV associated with image capture device 124 (FOV 204) is associated with image capture device 122 (eg, FOV 202) and FOV associated with image capture device 126 (eg, FOV 206). And may partially or completely overlap.

[0120] 画像捕捉デバイス122、124、及び126は、任意の適する相対高さで車両200に配置し得る。一例では、画像捕捉デバイス122、124、及び126間に高さ差があり得、高さ差は、立体分析を可能にするのに十分な視差情報を提供し得る。例えば、図2Aに示されるように、2つの画像捕捉デバイス122及び124は異なる高さにある。画像捕捉デバイス122、124、及び126間には横方向変位差もあり得、例えば、処理ユニット110による立体分析に追加の視差情報を与える。横方向変位差は、図2C及び図2Dに示されるように、dで示し得る。幾つかの実施形態では、前部変位又は後部変位(例えば、範囲変位)が、画像捕捉デバイス122、124、126間に存在し得る。例えば、画像捕捉デバイス122は、画像捕捉デバイス124及び/又は画像捕捉デバイス126の0.5〜2メートル以上背後に配置し得る。このタイプの変位では、画像捕捉デバイスの1つが、他の画像捕捉デバイスの潜在的なブラインドスポットをカバー可能であり得る。 [0120] Image capture devices 122, 124, and 126 may be positioned on vehicle 200 at any suitable relative height. In one example, there can be a height difference between the image capture devices 122, 124, and 126, and the height difference can provide sufficient disparity information to enable stereo analysis. For example, as shown in FIG. 2A, the two image capture devices 122 and 124 are at different heights. There may also be lateral displacement differences between the image capture devices 122, 124, and 126, for example, to provide additional parallax information to the stereo analysis by the processing unit 110. Lateral displacement difference, as shown in FIGS. 2C and 2D, may indicate at d x. In some embodiments, a front displacement or a rear displacement (eg, a range displacement) may be present between the image capture devices 122, 124, 126. For example, image capture device 122 may be located more than 0.5 to 2 meters behind image capture device 124 and / or image capture device 126. With this type of displacement, one of the image capture devices may be able to cover a potential blind spot of another image capture device.

[0121] 画像捕捉デバイス122は、任意の適する解像度能力(例えば、画像センサに関連付けられたピクセル数)を有し得、画像捕捉デバイス122に関連付けられた画像センサの解像度は、画像捕捉デバイス124及び126に関連付けられた画像センサの解像度よりも高くてもよく、低くてもよく、又は同じであってもよい。幾つかの実施形態では、画像捕捉デバイス122及び/又は画像捕捉デバイス124及び126に関連付けられた画像センサは、解像度640×480、1024×768、1280×960、又は任意の他の適する解像度を有し得る。   [0121] The image capture device 122 may have any suitable resolution capability (eg, the number of pixels associated with the image sensor), and the resolution of the image sensor associated with the image capture device 122 may include the image capture device 124 and The resolution of the image sensor associated with 126 may be higher, lower, or the same. In some embodiments, the image capture device 122 and / or the image sensors associated with the image capture devices 124 and 126 have a resolution of 640 × 480, 1024 × 768, 1280 × 960, or any other suitable resolution. I can do it.

[0122] フレームレート(例えば、画像捕捉デバイスが、次の画像フレームに関連付けられたピクセルデータの捕捉に移る前に、1つの画像フレームのピクセルデータの組を取得するレート)は、制御可能であり得る。画像捕捉デバイス122に関連付けられたフレームレートは、画像捕捉デバイス124及び126に関連付けられたフレームレートよりも高くてもよく、低くてもよく、又は同じであってもよい。画像捕捉デバイス122、124、及び126に関連付けられたフレームレートは、フレームレートのタイミングに影響を及ぼし得る様々なファクタに依存し得る。例えば、画像捕捉デバイス122、124、及び126の1つ又は複数は、画像捕捉デバイス122、124、及び/又は126内の画像センサの1つ又は複数のピクセルに関連付けられた画像データの取得前又は取得後に課される選択可能なピクセル遅延期間を含み得る。一般に、各ピクセルに対応する画像データは、デバイスのクロックレート(例えば、1クロックサイクル当たり1ピクセル)に従って取得し得る。更に、ローリングシャッタを含む実施形態では、画像捕捉デバイス122、124、及び126の1つ又は複数は、画像捕捉デバイス122、124、及び/又は126内の画像センサのピクセル行に関連付けられた画像データの取得前又は取得後に課される選択可能な水平ブランク期間を含み得る。更に、画像捕捉デバイス122、124、及び/又は126の1つ又は複数は、画像捕捉デバイス122、124、及び126の画像フレームに関連付けられた画像データの取得前又は取得後に課される選択可能な垂直ブランク期間を含み得る。   [0122] The frame rate (eg, the rate at which an image capture device acquires a set of pixel data for one image frame before moving on to capture the pixel data associated with the next image frame) is controllable. obtain. The frame rate associated with image capture device 122 may be higher, lower, or the same as the frame rate associated with image capture devices 124 and 126. The frame rate associated with image capture devices 122, 124, and 126 may depend on various factors that can affect the timing of the frame rate. For example, one or more of the image capture devices 122, 124, and 126 may be prior to or before the acquisition of image data associated with one or more pixels of an image sensor in the image capture devices 122, 124, and / or 126. It may include a selectable pixel delay period imposed after acquisition. In general, image data corresponding to each pixel may be obtained according to the clock rate of the device (eg, one pixel per clock cycle). Further, in embodiments that include a rolling shutter, one or more of the image capture devices 122, 124, and 126 may include image data associated with pixel rows of image sensors within the image capture devices 122, 124, and / or 126. And a selectable horizontal blanking period imposed before or after the acquisition of Further, one or more of the image capture devices 122, 124, and / or 126 may be selectable imposed before or after the acquisition of image data associated with the image frames of the image capture devices 122, 124, and 126. A vertical blanking period may be included.

[0123] これらのタイミング制御により、各画像捕捉デバイスの線走査レートが異なる場合でも、画像捕捉デバイス122、124、及び126に関連付けられたフレームレートを同期させることができ得る。更に、以下に更に詳細に考察するように、ファクタ(例えば、画像センサ解像度、最高線走査レート等)の中でも特に、これらの選択可能なタイミング制御により、画像捕捉デバイス122の視野が画像捕捉デバイス124及び126のFOVと異なる場合でも、画像捕捉デバイス122のFOVが画像捕捉デバイス124及び126の1つ又は複数のFOVと重複するエリアからの画像捕捉を同期させることが可能になり得る。   [0123] With these timing controls, the frame rates associated with the image capture devices 122, 124, and 126 may be synchronized even when the line scan rates of each image capture device are different. Further, as discussed in more detail below, among these factors (eg, image sensor resolution, maximum line scan rate, etc.), these selectable timing controls allow the field of view of image capture device 122 to be increased by image capture device 124. And 126 may be able to synchronize image capture from an area where the FOV of image capture device 122 overlaps with one or more FOVs of image capture devices 124 and 126.

[0124] 画像捕捉デバイス122、124、及び126でのフレームレートタイミングは、関連付けられた画像センサの解像度に依存し得る。例えば、両デバイスの線走査レートが同様であると仮定し、一方のデバイスが解像度640×480を有する画像センサを含み、他方のデバイスが解像度1280×960を有する画像センサを含む場合、高い解像度を有するセンサからの画像データのフレーム取得ほど、長い時間が必要になる。   [0124] Frame rate timing at the image capture devices 122, 124, and 126 may depend on the resolution of the associated image sensor. For example, assuming that the line scan rates of both devices are similar, and one device includes an image sensor having a resolution of 640 × 480 and the other device includes an image sensor having a resolution of 1280 × 960, a higher resolution may be used. A longer time is required to acquire a frame of image data from a sensor having the same.

[0125] 画像捕捉デバイス122、124、及び126での画像データ取得のタイミングに影響を及ぼし得る他のファクタは、最高線走査レートである。例えば、画像捕捉デバイス122、124、及び126に含まれる画像センサからの画像データ行の取得は、何らかの最小時間量を必要とする。ピクセル遅延期間が追加されないと仮定すると、画像データ行を取得するこの最小時間量は、特定のデバイスの最高線走査レートに関連することになる。高い最高線走査レートを提供するデバイスほど、より低い最高線走査レートを有するデバイスよりも高いフレームレートを提供する潜在性を有する。幾つかの実施形態では、画像捕捉デバイス124及び126の一方又は両方は、画像捕捉デバイス122に関連付けられた最高線走査レートよりも高い最高線走査レートを有し得る。幾つかの実施形態では、画像捕捉デバイス124及び/又は126の最高線走査レートは、画像捕捉デバイス122の最高線走査レートの1.25倍、1.5倍、1.75倍、又は2倍以上であり得る。   [0125] Another factor that can affect the timing of image data acquisition at the image capture devices 122, 124, and 126 is the maximum line scan rate. For example, obtaining rows of image data from image sensors included in image capture devices 122, 124, and 126 requires some minimum amount of time. Assuming no additional pixel delay period, this minimum amount of time to acquire a row of image data will be related to the maximum line scan rate for a particular device. Devices that provide higher maximum line scan rates have the potential to provide higher frame rates than devices that have lower maximum line scan rates. In some embodiments, one or both of image capture devices 124 and 126 may have a higher line scan rate than the maximum line scan rate associated with image capture device 122. In some embodiments, the highest line scan rate of image capture device 124 and / or 126 is 1.25, 1.5, 1.75, or 2 times the highest line scan rate of image capture device 122. Or more.

[0126] 別の実施形態では、画像捕捉デバイス122、124、及び126は、同じ最高線走査レートを有し得るが、画像捕捉デバイス122は、その最高走査レート以下の走査レートで動作し得る。システムは、画像捕捉デバイス124及び126の一方又は両方が画像捕捉デバイス122の線走査レートと等しい線走査レートで動作するように構成し得る。他の例では、システムは、画像捕捉デバイス124及び/又は126の線走査レートが、画像捕捉デバイス122の線走査レートの1.25倍、1.5倍、1.75倍、又は2倍以上であり得るように構成し得る。   [0126] In another embodiment, image capture devices 122, 124, and 126 may have the same highest line scan rate, but image capture device 122 may operate at a scan rate that is less than or equal to its highest scan rate. The system may be configured such that one or both of the image capture devices 124 and 126 operate at a line scan rate equal to the line scan rate of the image capture device 122. In other examples, the system may be configured such that the line scan rate of the image capture device 124 and / or 126 is 1.25 times, 1.5 times, 1.75 times, or more than 2 times the line scan rate of the image capture device 122. May be configured.

[0127] 幾つかの実施形態では、画像捕捉デバイス122、124、及び126は非対称であり得る。すなわち、これら画像捕捉デバイスは、異なる視野(FOV)及び焦点距離を有するカメラを含み得る。画像捕捉デバイス122、124、及び126の視野は、例えば、車両200の環境に対する任意の所望のエリアを含み得る。幾つかの実施形態では、画像捕捉デバイス122、124、及び126の1つ又は複数は、車両200の前の環境、車両200の背後の環境、車両200の両側の環境、又はそれらの組合せから画像データを取得するように構成し得る。   [0127] In some embodiments, image capture devices 122, 124, and 126 may be asymmetric. That is, these image capture devices may include cameras having different fields of view (FOV) and focal lengths. The field of view of the image capture devices 122, 124, and 126 may include any desired area for the environment of the vehicle 200, for example. In some embodiments, one or more of the image capture devices 122, 124, and 126 may capture images from an environment in front of the vehicle 200, an environment behind the vehicle 200, an environment on both sides of the vehicle 200, or a combination thereof. It can be configured to obtain data.

[0128] 更に、各画像捕捉デバイス122、124、及び/又は126に関連付けられた焦点距離は、各デバイスが車両200から所望の距離範囲にある物体の画像を取得するように選択可能であり得る(例えば、適切なレンズの包含等により)。例えば、幾つかの実施形態では、画像捕捉デバイス122、124、及び126は、車両から数メートル以内の近接物体の画像を取得し得る。画像捕捉デバイス122、124、126は、車両からより離れた範囲(例えば、25m、50m、100m、150m、又はそれを超える)における物体の画像を取得するように構成することもできる。更に、画像捕捉デバイス122、124、及び126の焦点距離は、ある画像捕捉デバイス(例えば、画像捕捉デバイス122)が車両に比較的近い(例えば、10m以内又は20m以内)物体の画像を取得することができ、一方、その他の画像捕捉デバイス(例えば、画像捕捉デバイス124及び126)が、車両200からより離れた物体(例えば、20m超、50m超、100m超、150m超等)の画像を取得することができるように選択し得る。   [0128] Further, the focal length associated with each image capture device 122, 124, and / or 126 may be selectable such that each device acquires an image of an object within a desired distance range from vehicle 200. (Eg, by inclusion of a suitable lens, etc.). For example, in some embodiments, image capture devices 122, 124, and 126 may capture images of nearby objects within a few meters of the vehicle. The image capture devices 122, 124, 126 can also be configured to capture images of objects at a greater distance from the vehicle (eg, 25m, 50m, 100m, 150m or more). Further, the focal length of the image capture devices 122, 124, and 126 may be such that some image capture devices (eg, image capture device 122) capture images of objects relatively close to the vehicle (eg, within 10 meters or 20 meters). While other image capture devices (e.g., image capture devices 124 and 126) capture images of objects further away from vehicle 200 (e.g., greater than 20 m, greater than 50 m, greater than 100 m, greater than 150 m, etc.). You can choose to be.

[0129] 幾つかの実施形態によれば、1つ又は複数の画像捕捉デバイス122、124、及び126のFOVは、広角を有し得る。例えば、特に車両200の近傍エリアの画像取得に使用し得る画像捕捉デバイス122、124、及び126には140度のFOVを有することが有利であり得る。例えば、画像捕捉デバイス122は、車両200の右又は左のエリアの画像の捕捉に使用し得、そのような実施形態では、画像捕捉デバイス122が広いFOV(例えば、少なくとも140度)を有することが望ましいことがある。   [0129] According to some embodiments, the FOV of one or more image capture devices 122, 124, and 126 may have a wide angle. For example, it may be advantageous to have a 140 degree FOV for image capture devices 122, 124, and 126, which may be used, in particular, for image capture of areas near vehicle 200. For example, image capture device 122 may be used to capture an image of the right or left area of vehicle 200, and in such embodiments, image capture device 122 may have a wide FOV (eg, at least 140 degrees). It may be desirable.

[0130] 画像捕捉デバイス122、124、及び126のそれぞれに関連付けられた視野は、各焦点距離に依存し得る。例えば、焦点距離が増大するにつれて、対応する視野は低減する。   [0130] The field of view associated with each of the image capture devices 122, 124, and 126 may depend on each focal length. For example, as the focal length increases, the corresponding field of view decreases.

[0131] 画像捕捉デバイス122、124、及び126は、任意の適する視野を有するように構成し得る。特定の一例では、画像捕捉デバイス122は、水平FOV46度を有し得、画像捕捉デバイス124は水平FOV23度を有し得、画像捕捉デバイス126は水平FOV23〜46度を有し得る。別の例では、画像捕捉デバイス122は水平FOV52度を有し得、画像捕捉デバイス124は水平FOV26度を有し得、画像捕捉デバイス126は、水平FOV26〜52度を有し得る。幾つかの実施形態では、画像捕捉デバイス122のFOVと画像捕捉デバイス124及び/又は画像捕捉デバイス126のFOVとの比率は、1.5〜2.0で変化し得る。他の実施形態では、この比率は1.25〜2.25で変化し得る。   [0131] Image capture devices 122, 124, and 126 may be configured to have any suitable field of view. In one particular example, image capture device 122 may have a horizontal FOV of 46 degrees, image capture device 124 may have a horizontal FOV of 23 degrees, and image capture device 126 may have a horizontal FOV of 23-46 degrees. In another example, image capture device 122 may have a horizontal FOV of 52 degrees, image capture device 124 may have a horizontal FOV of 26 degrees, and image capture device 126 may have a horizontal FOV of 26-52 degrees. In some embodiments, the ratio of the FOV of image capture device 122 to the FOV of image capture device 124 and / or image capture device 126 may vary between 1.5 and 2.0. In other embodiments, this ratio can vary from 1.25 to 2.25.

[0132] システム100は、画像捕捉デバイス122の視野が、画像捕捉デバイス124及び/又は画像捕捉デバイス126の視野と少なくとも部分的に又は完全に重複するように構成し得る。幾つかの実施形態では、システム100は、画像捕捉デバイス124及び126の視野が、例えば、画像捕捉デバイス122の視野内に入り(例えば、画像捕捉デバイス122の視野よりも小さく)、画像捕捉デバイス122の視野と共通の中心を共有するように構成し得る。他の実施形態では、画像捕捉デバイス122、124、及び126は、隣接するFOVを捕捉してもよく、又は部分的に重複するFOVを有してもよい。幾つかの実施形態では、画像捕捉デバイス122、124、及び126の視野は、FOVのより狭い画像捕捉デバイス124及び/又は126の中心が、FOVがより広いデバイス122の視野の下半分に配置され得るように位置合わせし得る。   [0132] System 100 may be configured such that the field of view of image capture device 122 at least partially or completely overlaps the field of view of image capture device 124 and / or image capture device 126. In some embodiments, the system 100 may be configured such that the field of view of the image capture devices 124 and 126 falls within, for example, the field of view of the image capture device 122 (eg, is smaller than the field of view of the image capture device 122). Can be configured to share a common center with the field of view. In other embodiments, image capture devices 122, 124, and 126 may capture adjacent FOVs or have partially overlapping FOVs. In some embodiments, the field of view of the image capture devices 122, 124, and 126 is such that the center of the narrower FOV image capture devices 124 and / or 126 is located in the lower half of the field of view of the wider FOV device 122. Can be aligned to obtain.

[0133] 図2Fは、開示される実施形態による例示的な車両制御システムの図表現である。図2Fに示されるように、車両200は、スロットルシステム220、ブレーキシステム230、及び操舵システム240を含み得る。システム100は、1つ又は複数のデータリンク(例えば、任意の有線及び/又は無線リンク又はデータを伝送するリンク)を介して、スロットルシステム220、ブレーキシステム230、及び操舵システム240の1つ又は複数に入力(例えば、制御信号)を提供し得る。例えば、画像捕捉デバイス122、124、及び/又は126により取得された画像の分析に基づいて、システム100は、車両200をナビゲートする制御信号をスロットルシステム220、ブレーキシステム230、及び操舵システム240の1つ又は複数に提供し得る(例えば、加速、ターン、レーンシフト等を行わせることにより)。更に、システム100は、車両200の動作状況を示す入力(例えば、速度、車両200がブレーキ中及び/又はターン中であるか否か等)をスロットルシステム220、ブレーキシステム230、及び操舵システム24の1つ又は複数から受信し得る。以下では、更なる詳細を図4〜図7に関連して提供する。   [0133] FIG. 2F is a diagrammatic representation of an exemplary vehicle control system according to the disclosed embodiments. As shown in FIG. 2F, vehicle 200 may include a throttle system 220, a brake system 230, and a steering system 240. The system 100 may include one or more of a throttle system 220, a brake system 230, and a steering system 240 via one or more data links (eg, any wired and / or wireless links or data transmission links). (Eg, a control signal). For example, based on an analysis of images acquired by the image capture devices 122, 124, and / or 126, the system 100 may provide control signals for navigating the vehicle 200 to the throttle system 220, the brake system 230, and the steering system 240. One or more may be provided (eg, by accelerating, turning, lane shifting, etc.). Further, the system 100 may provide inputs (e.g., speed, whether the vehicle 200 is braking and / or turning, etc.) indicative of the operating status of the vehicle 200 to the throttle system 220, the braking system 230, and the steering system 24. It may be received from one or more. In the following, further details will be provided in connection with FIGS.

[0134] 図3Aに示されるように、車両200は、車両200のドライバー又は乗員と対話するユーザインタフェース170を含むこともできる。例えば、車両アプリケーション内のユーザインタフェース170は、タッチスクリーン320、つまみ330、ボタン340、及びマイクロフォン350を含み得る。車両200のドライバー又は乗員は、ハンドル(例えば、例えばウィンカーハンドルを含め、車両200のステアリングコラム上又はその近傍に配置される)及びボタン(例えば、車両200のハンドルに配置される)等を使用して、システム100と対話することもできる。幾つかの実施形態では、マイクロフォン350はバックミラー310に隣接して位置決めし得る。同様に、幾つかの実施形態では、画像捕捉デバイス122は、バックミラー310の近傍に配置し得る。幾つかの実施形態では、ユーザインタフェース170は、1つ又は複数のスピーカ360(例えば、車両オーディオシステムのスピーカ)を含むこともできる。例えば、システム100は、スピーカ360を介して様々な通知(例えば、アラート)を提供し得る。   As shown in FIG. 3A, vehicle 200 may also include a user interface 170 that interacts with a driver or occupant of vehicle 200. For example, the user interface 170 in the vehicle application may include a touch screen 320, a knob 330, a button 340, and a microphone 350. The driver or occupant of the vehicle 200 uses a handle (eg, located on or near the steering column of the vehicle 200, including, for example, a turn signal handle) and a button (eg, located on the handle of the vehicle 200). To interact with the system 100. In some embodiments, microphone 350 may be positioned adjacent to rearview mirror 310. Similarly, in some embodiments, the image capture device 122 may be located near the rearview mirror 310. In some embodiments, user interface 170 may also include one or more speakers 360 (eg, speakers of a vehicle audio system). For example, system 100 may provide various notifications (eg, alerts) via speaker 360.

[0135] 図3B〜図3Dは、開示される実施形態による、バックミラー(例えば、バックミラー310)の背後に、車両フロントガラスと対向して位置決めされるように構成される例示的なカメラマウント370の図である。図3Bに示されるように、カメラマウント370は、画像捕捉デバイス122、124、及び126を含み得る。画像捕捉デバイス124及び126は、グレアシールド380の背後に位置決めし得、グレアシールド380は、フロントガラスに直接接触し得、フィルム及び/又は反射防止材料の組成物を含み得る。例えば、グレアシールド380は、一致する傾斜を有するフロントガラスと対向して位置合わせされるように位置決めし得る。幾つかの実施形態では、画像捕捉デバイス122、124、及び126のそれぞれは、例えば、図3Dに示されるように、グレアシールド380の背後に位置決めし得る。開示される実施形態は、画像捕捉デバイス122、124及び126、カメラマウント370、並びにグレアシールド380のいかなる特定の構成にも限定されない。図3Cは、前から見た図3Bに示されるカメラマウント370の図である。   [0135] FIGS. 3B-3D illustrate an example camera mount configured to be positioned against a vehicle windscreen behind a rearview mirror (eg, rearview mirror 310), according to disclosed embodiments. 370 is a diagram of FIG. As shown in FIG. 3B, camera mount 370 may include image capture devices 122, 124, and 126. Image capture devices 124 and 126 may be positioned behind glare shield 380, which may directly contact the windshield and may include a composition of film and / or anti-reflective material. For example, glare shield 380 may be positioned to be aligned against a windshield having a matching slope. In some embodiments, each of image capture devices 122, 124, and 126 may be positioned behind glare shield 380, for example, as shown in FIG. 3D. The disclosed embodiments are not limited to any particular configuration of the image capture devices 122, 124 and 126, camera mount 370, and glare shield 380. FIG. 3C is a view of the camera mount 370 shown in FIG. 3B as viewed from the front.

[0136] 本開示の恩恵を受ける当業者により理解されるように、上記開示された実施形態に対する多くの変形形態及び/又は変更形態がなされ得る。例えば、全ての構成要素がシステム100の動作にとって必須であるわけではない。更に、任意の構成要素がシステム100の任意の適切な部分に配置し得、構成要素は、開示される実施形態の機能を提供しながら、様々な構成に再配置し得る。従って、上述した構成は例であり、上述した構成に関係なく、システム100は、車両200の周囲を分析し、分析に応答して車両200をナビゲートする広範囲の機能を提供することができる。   [0136] As will be appreciated by those skilled in the art having the benefit of this disclosure, many variations and / or modifications to the above disclosed embodiments may be made. For example, not all components are required for operation of system 100. Further, any components may be located in any suitable portion of system 100, and the components may be rearranged into various configurations while providing the functionality of the disclosed embodiments. Thus, the above-described configuration is an example, and regardless of the configuration described above, system 100 may provide a wide range of functions for analyzing the surroundings of vehicle 200 and navigating vehicle 200 in response to the analysis.

[0137] 以下に更に詳細に考察するように、様々な開示される実施形態により、システム100は、自律運転及び/又はドライバー支援技術に関連する様々な特徴を提供し得る。例えば、システム100は、画像データ、位置データ(例えば、GPS位置情報)、地図データ、速度データ、及び/又は車両200に含まれるセンサからのデータを分析し得る。システム100は、例えば、画像取得ユニット120、位置センサ130、及び他のセンサから、分析のためにデータを収集し得る。更に、システム100は、収集されたデータを分析して、車両200が特定の行動をとるべきか否かを特定し、次に、人間の介入なしで、判断された動作を自動的にとり得る。例えば、車両200が人間の加入なしでナビゲートする場合、システム100は、車両200のブレーキ、加速度、及び/又は操舵を自動的に制御し得る(例えば、制御信号をスロットルシステム220、ブレーキシステム230、及び操舵システム240の1つ又は複数に送信することにより)。更に、システム100は、収集されたデータを分析し、収集されたデータの分析に基づいて警告及び/又はアラートを車両の搭乗者に発行し得る。システム100により提供される様々な実施形態に関する更なる詳細を以下に提供する。   [0137] As discussed in further detail below, in accordance with various disclosed embodiments, system 100 may provide various features related to autonomous driving and / or driver assistance technology. For example, the system 100 may analyze image data, location data (eg, GPS location information), map data, speed data, and / or data from sensors included in the vehicle 200. System 100 may, for example, collect data for analysis from image acquisition unit 120, position sensor 130, and other sensors. Further, the system 100 may analyze the collected data to determine whether the vehicle 200 should take a particular action and then automatically take the determined action without human intervention. For example, if the vehicle 200 navigates without human recruitment, the system 100 may automatically control the braking, acceleration, and / or steering of the vehicle 200 (eg, control signals may be transmitted to the throttle system 220, the brake system 230). , And by sending to one or more of the steering systems 240). Further, the system 100 may analyze the collected data and issue warnings and / or alerts to vehicle occupants based on the analysis of the collected data. Further details regarding various embodiments provided by the system 100 are provided below.

[0138] 前向きマルチ撮像システム
[0139] 上述したように、システム100は、マルチカメラシステムを使用する運転支援機能を提供し得る。マルチカメラシステムは、車両の前方方向を向いた1つ又は複数のカメラを使用し得る。他の実施形態では、マルチカメラシステムは、車両の側部又は車両の後方を向いた1つ又は複数のカメラを含み得る。一実施形態では、例えば、システム100は2カメラ撮像システムを使用し得、その場合、第1のカメラ及び第2のカメラ(例えば、画像捕捉デバイス122及び124)は、車両(例えば、車両200)の前部及び/又は側部に位置決めし得る。他のカメラの構成も開示する実施形態と合致し、本明細書で開示する構成は、例である。例えば、システム100は、任意の数(例えば、1つ、2つ、3つ、4つ、5つ、6つ、7つ、8つ等)のカメラの構成を含み得る。更に、システム100は、カメラの「クラスタ」を含み得る。例えば、(任意の適切な数、例えば1つ、4つ、8つ等のカメラを含む)カメラのクラスタは、車両に対して前向きとすることができ、又は他の任意の方向を向いていることができる(例えば、後向き、横向き、斜め等)。従って、各クラスタが車両の環境の特定の領域から画像を捕捉するように特定の方向に向けられた状態で、システム100は、カメラの複数のクラスタを含み得る。
[0138] Forward-looking multi-imaging system
[0139] As described above, the system 100 can provide a driving assistance function using a multi-camera system. A multi-camera system may use one or more cameras facing the front of the vehicle. In other embodiments, a multi-camera system may include one or more cameras facing the side of the vehicle or the rear of the vehicle. In one embodiment, for example, system 100 may use a two-camera imaging system, where the first camera and the second camera (eg, image capture devices 122 and 124) are connected to a vehicle (eg, vehicle 200). May be positioned at the front and / or sides. Other camera configurations are consistent with the disclosed embodiments, and the configurations disclosed herein are examples. For example, system 100 may include any number (eg, one, two, three, four, five, six, seven, eight, etc.) of camera configurations. Further, system 100 may include a "cluster" of cameras. For example, a cluster of cameras (including any suitable number, e.g., one, four, eight, etc. cameras) may be forward facing the vehicle, or facing any other direction. (Eg, backwards, sideways, oblique, etc.). Thus, system 100 may include multiple clusters of cameras, with each cluster oriented in a particular direction to capture images from a particular region of the vehicle's environment.

[0140] 第1のカメラは、第2のカメラの視野よりも大きい、小さい、又は部分的に重複する視野を有し得る。更に、第1のカメラは、第1の画像プロセッサに接続されて、第1のカメラにより提供される画像の単眼画像分析を実行し得、第2のカメラは第2の画像プロセッサに接続されて、第2のカメラにより提供される画像の単眼画像分析を実行し得る。第1及び第2の画像プロセッサの出力(例えば、処理された情報)は結合し得る。幾つかの実施形態では、第2の画像プロセッサは、第1のカメラ及び第2のカメラの両方からの画像を受信して、立体分析を実行し得る。別の実施形態では、システム100は3カメラ撮像システムを使用し得、この場合、各カメラは異なる視野を有する。従って、そのようなシステムは、車両の前方及び側部の両方の様々な距離にある物体から導出される情報に基づいて判断を下し得る。単眼画像分析との言及は、画像分析が単一視点から(例えば、単一のカメラ)から捕捉される画像に基づいて画像分析が実行される場合を指し得る。立体画像分析は、画像捕捉パラメータの1つ又は複数を変更した状態で捕捉された2つ以上の画像に基づいて画像分析が実行される場合を指し得る。例えば、立体画像分析の実行に適した捕捉画像は、2つ以上の異なる位置から捕捉される画像、異なる視野から捕捉される画像、異なる焦点距離を使用して捕捉される画像、視差情報付きで捕捉される画像等を含み得る。   [0140] The first camera may have a field of view that is larger, smaller, or partially overlapping than the field of view of the second camera. Further, the first camera may be connected to the first image processor to perform monocular image analysis of an image provided by the first camera, and the second camera may be connected to the second image processor. , May perform a monocular image analysis of the image provided by the second camera. Outputs (eg, processed information) of the first and second image processors may be combined. In some embodiments, the second image processor may receive images from both the first camera and the second camera and perform stereo analysis. In another embodiment, system 100 may use a three camera imaging system, where each camera has a different field of view. Accordingly, such systems may make decisions based on information derived from objects at various distances, both forward and side of the vehicle. References to monocular image analysis may refer to cases where the image analysis is performed based on images captured from a single viewpoint (eg, a single camera). Stereoscopic image analysis may refer to the case where image analysis is performed based on two or more images captured with one or more of the image capture parameters changed. For example, captured images suitable for performing stereoscopic image analysis include images captured from two or more different locations, images captured from different fields of view, images captured using different focal lengths, with disparity information. It may include captured images and the like.

[0141] 例えば、一実施形態では、システム100は、画像捕捉デバイス122〜126を使用する3カメラ構成を実施し得る。そのような構成では、画像捕捉デバイス122は、狭視野(例えば、34度又は約20〜45度の範囲から選択される他の値等)を提供し得、画像捕捉デバイス124は、広視野(例えば、150度又は約100〜約180度の範囲から選択される他の値)を提供し得、画像捕捉デバイス126は、中視野(例えば、46度又は約35〜約60度の範囲から選択される他の値)を提供し得る。幾つかの実施形態では、画像捕捉デバイス126は、主又は一次カメラとして動作し得る。画像捕捉デバイス122〜126は、バックミラー310の背後に、実質的に並んで(例えば、6cm離間)位置決めし得る。更に、幾つかの実施形態では、上述したように、画像捕捉デバイス122〜126の1つ又は複数は、車両200のフロントガラスと同一平面のグレアシールド380の背後に搭載し得る。そのようなシールドは、車内部からのいかなる反射の画像捕捉デバイス122〜126への影響も最小にするように動作し得る。   [0141] For example, in one embodiment, system 100 may implement a three-camera configuration that uses image capture devices 122-126. In such a configuration, image capture device 122 may provide a narrow field of view (e.g., 34 degrees or other value selected from a range of about 20-45 degrees, etc.) and image capture device 124 may provide a wide field of view ( For example, the image capture device 126 may provide a 150 degree or other value selected from a range of about 100 to about 180 degrees, and the image capture device 126 may provide a medium field of view (e.g., 46 degrees or selected from a range of about 35 to about 60 degrees). Other values). In some embodiments, the image capture device 126 may operate as a primary or primary camera. Image capture devices 122-126 may be positioned substantially side-by-side (eg, 6 cm apart) behind rear-view mirror 310. Further, in some embodiments, as described above, one or more of the image capture devices 122-126 may be mounted behind a glare shield 380 that is flush with the windshield of the vehicle 200. Such a shield may operate to minimize the effect of any reflections from the interior of the vehicle on the image capture devices 122-126.

[0142] 別の実施形態では、図3B及び図3Cに関連して上述したように、広視野カメラ(例えば、上記例では画像捕捉デバイス124)は、狭い主視野カメラ(例えば、上記例では画像捕捉デバイス122及び126)よりも低く搭載し得る。この構成は、広視野カメラからの自由な視線を提供し得る。反射を低減するために、カメラは、車両200のフロントガラス近くに搭載し得、反射光を弱める偏光器をカメラに含み得る。   [0142] In another embodiment, as described above in connection with FIGS. 3B and 3C, a wide-field camera (eg, image capture device 124 in the above example) is a narrow main-field camera (eg, image in the above example). It may be mounted lower than the capture devices 122 and 126). This configuration can provide free gaze from a wide-field camera. To reduce reflections, the camera may be mounted near the windshield of vehicle 200 and may include a polarizer in the camera to reduce reflected light.

[0143] 3カメラシステムは、特定の性能特徴を提供し得る。例えば、幾つかの実施形態は、あるカメラによる物体の検出を別のカメラからの検出結果に基づいて検証する機能を含み得る。上述した3カメラ構成では、処理ユニット110は、例えば、3つの処理デバイス(例えば、上述したように3つのEyeQシリーズのプロセッサチップ)を含み得、各処理デバイスは、画像捕捉デバイス122〜126の1つ又は複数により捕捉される画像の処理に向けられる。   [0143] A three-camera system may provide certain performance features. For example, some embodiments may include the ability to verify detection of an object by one camera based on detection results from another camera. In the three camera configuration described above, the processing unit 110 may include, for example, three processing devices (eg, three EyeQ series processor chips as described above), each processing device being one of the image capture devices 122-126. One or more of the images captured.

[0144] 3カメラシステムでは、第1の処理デバイスは、主カメラ及び狭視野カメラの両方から画像を受信し得、狭FOVカメラのビジョン処理を実行して、例えば、他の車両、歩行者、レーンマーク、交通標識、信号機、及び他の道路物体を検出し得る。更に、第1の処理デバイスは、主カメラからの画像と狭カメラからの画像との間でのピクセルの視差を計算し、車両200の環境の3D再構築を作成し得る。次に、第1の処理デバイスは、3D再構築を3Dマップデータ又は別のカメラからの情報に基づいて計算される3D情報と結合し得る。   [0144] In a three camera system, the first processing device may receive images from both the main camera and the narrow field of view camera and perform vision processing of the narrow FOV camera, for example, for other vehicles, pedestrians, Lane marks, traffic signs, traffic lights, and other road objects can be detected. Further, the first processing device may calculate the parallax of the pixels between the image from the main camera and the image from the narrow camera, and create a 3D reconstruction of the environment of the vehicle 200. Next, the first processing device may combine the 3D reconstruction with the 3D map data or 3D information calculated based on information from another camera.

[0145] 第2の処理デバイスは、主カメラから画像を受信し得、ビジョン処理を実行して、他の車両、歩行者、レーンマーク、交通標識、信号機、及び他の道路物体を検出し得る。更に、第2の処理デバイスは、カメラ変位を計算し、変位に基づいて、連続画像間のピクセルの視差を計算し、シーンの3D再構築(例えば、ストラクチャーフロムモーション)を作成し得る。第2の処理デバイスは、3D再構築に基づくストラクチャーフロムモーションを第1の処理デバイスに送信し、ストラクチャーフロムモーションを立体3D画像と結合し得る。   [0145] The second processing device may receive images from the main camera and perform vision processing to detect other vehicles, pedestrians, lane marks, traffic signs, traffic lights, and other road objects. . Further, the second processing device may calculate camera displacement, calculate pixel disparity between successive images based on the displacement, and create a 3D reconstruction of the scene (eg, structure from motion). The second processing device may send the structure from motion based on the 3D reconstruction to the first processing device and combine the structure from motion with the stereoscopic 3D image.

[0146] 第3の処理デバイスは、画像を広FOVカメラから受信し、画像を処理して、車両、歩行者、レーンマーク、交通標識、信号機、及び他の道路物体を検出し得る。第3の処理デバイスは、追加の処理命令を更に実行して、画像を分析し、レーン変更中の車両、歩行者等の画像内の移動中の物体を識別し得る。   [0146] A third processing device may receive the image from the wide FOV camera and process the image to detect vehicles, pedestrians, lane marks, traffic signs, traffic lights, and other road objects. The third processing device may further execute additional processing instructions to analyze the image and identify moving objects in the image, such as vehicles changing lanes, pedestrians, and the like.

[0147] 幾つかの実施形態では、画像に基づく情報ストリームを独立して捕捉させ、処理させることは、システムで冗長性を提供する機会を提供し得る。そのような冗長性は、例えば、第1の画像捕捉デバイス及びそのデバイスから処理された画像を使用して、少なくとも第2の画像捕捉デバイスから画像情報を捕捉し処理することにより得られる情報を検証及び/又は補足し得る。   [0147] In some embodiments, independently capturing and processing image-based information streams may provide an opportunity to provide redundancy in the system. Such redundancy verifies information obtained by capturing and processing image information from at least a second image capture device, for example, using a first image capture device and images processed from the device. And / or supplement.

[0148] 幾つかの実施形態では、システム100は、車両200にナビゲーション支援を提供するに当たり2つの画像捕捉デバイス(例えば、画像捕捉デバイス122及び124)を使用し得、第3の画像捕捉デバイス(例えば、画像捕捉デバイス126)を使用して、冗長性を提供し、他の2つの画像捕捉デバイスから受信されるデータの分析を検証し得る。例えば、そのような構成では、画像捕捉デバイス122及び124は、車両200をナビゲートするためのシステム100による立体分析のために画像を提供し得、一方、画像捕捉デバイス126は、システム100による単眼分析のために画像を提供して、画像捕捉デバイス123及び/又は画像捕捉デバイス124から補足された画像に基づいて得られる情報の冗長性及び検証を提供し得る。すなわち、画像捕捉デバイス126(及び対応する処理デバイス)は、(例えば、自動緊急ブレーキ(AEB)システムを提供するために)画像捕捉デバイス122及び124から導出された分析へのチェックを提供する冗長サブシステムを提供すると見なし得る。更に幾つかの実施形態では、1つ又は複数のセンサ(例えば、レーダ、ライダ、音響センサ、車外の1つ又は複数の送受信機から受信される情報等)から受信される情報に基づいて受信データの冗長性及び検証を補うことができる。   [0148] In some embodiments, the system 100 may use two image capture devices (eg, image capture devices 122 and 124) in providing navigation assistance to the vehicle 200 and a third image capture device (e.g., For example, an image capture device 126) may be used to provide redundancy and verify analysis of data received from the other two image capture devices. For example, in such a configuration, the image capture devices 122 and 124 may provide images for stereoscopic analysis by the system 100 for navigating the vehicle 200, while the image capture device 126 may provide a monocular by the system 100. Images may be provided for analysis to provide redundancy and verification of information obtained based on images captured from image capture device 123 and / or image capture device 124. That is, the image capture device 126 (and corresponding processing device) may provide a redundant sub that provides a check on the analysis derived from the image capture devices 122 and 124 (eg, to provide an automatic emergency braking (AEB) system). It can be considered to provide a system. Further, in some embodiments, the received data is based on information received from one or more sensors (eg, radar, lidar, acoustic sensors, information received from one or more transceivers outside the vehicle, etc.). Redundancy and verification.

[0149] 上記カメラ構成、カメラ配置、カメラ数、カメラ位置等が単なる例示であることを当業者は認識するであろう。全体システムに対して説明されるこれらの構成要素等は、開示される実施形態の範囲から逸脱せずに、様々な異なる構成で組み立て且つ使用し得る。ドライバー支援及び/又は自律車両機能を提供するためのマルチカメラシステムの使用に関する更なる詳細が以下に続く。   [0149] Those skilled in the art will recognize that the above camera configurations, camera locations, number of cameras, camera positions, etc. are merely exemplary. These components and the like described for the overall system may be assembled and used in a variety of different configurations without departing from the scope of the disclosed embodiments. Further details regarding the use of the multi-camera system to provide driver assistance and / or autonomous vehicle functions follow.

[0150] 図4は、開示される実施形態による1つ又は複数の動作を実行する命令を記憶/プログラムされ得るメモリ140及び/又は150の例示的な機能ブロック図である。以下ではメモリ140を参照するが、当業者は、命令がメモリ140及び/又は150に記憶可能なことを認識するであろう。   [0150] FIG. 4 is an exemplary functional block diagram of a memory 140 and / or 150 that can store / program instructions for performing one or more operations in accordance with the disclosed embodiments. While reference is made below to memory 140, those skilled in the art will recognize that instructions can be stored in memory 140 and / or 150.

[0151] 図4に示されるように、メモリ140は、単眼画像分析モジュール402、立体画像分析モジュール404、速度及び加速度モジュール406、並びにナビゲーション応答モジュール408を記憶し得る。開示される実施形態は、いかなる特定の構成のメモリ140にも限定されない。更に、アプリケーションプロセッサ180及び/又は画像プロセッサ190は、メモリ140に含まれる任意のモジュール402〜408に記憶された命令を実行し得る。以下の考察での処理ユニット110の参照が、アプリケーションプロセッサ180及び画像プロセッサ190を個々に又はまとめて指し得ることを当業者は理解するであろう。従って、以下のプロセスのいずれかのステップは、1つ又は複数の処理デバイスにより実行し得る。   [0151] As shown in FIG. 4, the memory 140 may store a monocular image analysis module 402, a stereoscopic image analysis module 404, a speed and acceleration module 406, and a navigation response module 408. The disclosed embodiments are not limited to any particular configuration of the memory 140. Further, application processor 180 and / or image processor 190 may execute instructions stored in any of modules 402-408 included in memory 140. Those skilled in the art will understand that references to processing unit 110 in the following discussion may refer to application processor 180 and image processor 190 individually or collectively. Accordingly, any step of the following process may be performed by one or more processing devices.

[0152] 一実施形態では、単眼画像分析モジュール402は命令(コンピュータビジョンソフトウェア等)を記憶し得、命令は、処理ユニット110により実行されると、画像捕捉デバイス122、124、及び126の1つにより取得された画像の組の単眼画像分析を実行する。幾つかの実施形態では、処理ユニット110は、画像の組からの情報を追加のセンサ情報(例えば、レーダからの情報)と結合して、単眼画像分析を実行し得る。以下の図5A〜図5Dに関連して説明するように、単眼画像分析モジュール402は、レーンマーク、車両、歩行者、道路標識、高速道路出口ランプ、信号機、危険物、及び車両の環境に関連付けられた任意の他の特徴等、画像の組内の特徴の組を検出する命令を含み得る。分析に基づいて、システム100は、ナビゲーション応答モジュール408に関連して以下で考察するように、ターン、レーンシフト、及び加速度変更等の1つ又は複数のナビゲーション応答を車両200において生じさせ得る(例えば、処理ユニット110を介して)。   [0152] In one embodiment, the monocular image analysis module 402 may store instructions (such as computer vision software) that, when executed by the processing unit 110, cause one of the image capture devices 122, 124, and 126 to execute. Performs a monocular image analysis of the set of images acquired by In some embodiments, processing unit 110 may combine information from the set of images with additional sensor information (eg, information from radar) to perform monocular image analysis. As described below in connection with FIGS. 5A-5D, monocular image analysis module 402 associates lane marks, vehicles, pedestrians, road signs, highway exit ramps, traffic lights, dangerous goods, and vehicle environments. May include instructions for detecting a set of features in the set of images, such as any other features provided. Based on the analysis, the system 100 may generate one or more navigation responses in the vehicle 200, such as turns, lane shifts, and acceleration changes, as discussed below in connection with the navigation response module 408 (e.g., , Via the processing unit 110).

[0153] 一実施形態では、単眼画像分析モジュール402は、処理ユニット110によって実行されるとき、画像捕捉装置122、124、及び126の1つによって取得される画像の組の単眼画像分析を実行する命令(コンピュータビジョンソフトウェア等)を記憶し得る。幾つかの実施形態では、処理ユニット110は、画像の組からの情報を追加のセンサ情報(例えば、レーダやライダ等からの情報)と結合して単眼画像分析を実行し得る。図5A〜図5Dに関連して以下で説明するように、単眼画像分析モジュール402は、レーンマーク、車両、歩行者、道路標識、高速道路出口ランプ、信号機、危険物、及び車両の環境に関連する他の任意の特徴等、画像の組内の特徴の組を検出するための命令を含み得る。分析に基づいて、システム100は、(例えば、処理ユニット110によって)ナビゲーション応答を決定することに関連して以下で考察するように、ターン、レーンシフト、加速度変更等の1つ又は複数のナビゲーション応答を車両200において生じさせ得る。   [0153] In one embodiment, the monocular image analysis module 402, when performed by the processing unit 110, performs monocular image analysis of a set of images acquired by one of the image capture devices 122, 124, and 126. Instructions (such as computer vision software) may be stored. In some embodiments, processing unit 110 may combine information from the set of images with additional sensor information (eg, information from radar, lidar, etc.) to perform monocular image analysis. As described below in connection with FIGS. 5A-5D, the monocular image analysis module 402 relates to lane marks, vehicles, pedestrians, road signs, highway exit ramps, traffic lights, hazardous materials, and vehicle environments. May include instructions for detecting a set of features in the set of images, such as any other feature to be performed. Based on the analysis, system 100 may include one or more navigation responses, such as turns, lane shifts, acceleration changes, etc., as discussed below in connection with determining the navigation responses (eg, by processing unit 110). May be caused in the vehicle 200.

[0154] 一実施形態では、立体画像分析モジュール404は命令(コンピュータビジョンソフトウェア等)を記憶し得、命令は、処理ユニット110により実行されると、画像捕捉デバイス122、124、及び126から選択された画像捕捉デバイスの組合せにより取得される第1及び第2の組の画像の立体画像分析を実行する。幾つかの実施形態では、処理ユニット110は、第1及び第2の組の画像からの情報を追加のセンサ情報(例えば、レーダからの情報)と結合して、立体画像分析を実行し得る。例えば、立体画像分析モジュール404は、画像捕捉デバイス124により取得される第1の組の画像及び画像捕捉デバイス126により取得される第2の組の画像に基づいて、立体画像分析を実行する命令を含み得る。以下で図6に関連して説明するように、立体画像分析モジュール404は、レーンマーク、車両、歩行者、道路標識、高速道路出口ランプ、信号機、及び危険物等の第1及び第2の組の画像内の特徴の組を検出する命令を含み得る。分析に基づいて、処理ユニット110は、ナビゲーション応答モジュール408に関連して後述するように、ターン、レーンシフト、及び加速度変更等の1つ又は複数のナビゲーション応答を車両200において生じさせ得る。更に、幾つかの実施形態では、立体画像分析モジュール404は、トレーニング済みシステム(ニューラルネットワーク又はディープニューラルネットワーク等)又はトレーニングされていないシステムに関連する技法を実装することができる。   [0154] In one embodiment, the stereoscopic image analysis module 404 may store instructions (such as computer vision software) that, when executed by the processing unit 110, are selected from the image capture devices 122, 124, and 126. Performing a stereoscopic image analysis of the first and second sets of images acquired by the combined image capture device. In some embodiments, processing unit 110 may combine information from the first and second sets of images with additional sensor information (eg, information from radar) to perform stereoscopic image analysis. For example, the stereoscopic image analysis module 404 may issue an instruction to perform stereoscopic image analysis based on a first set of images acquired by the image capture device 124 and a second set of images acquired by the image capture device 126. May be included. As described below in connection with FIG. 6, the stereoscopic image analysis module 404 includes a first and a second set of lane marks, vehicles, pedestrians, road signs, highway exit ramps, traffic lights, dangerous goods, and the like. May include instructions for detecting a set of features in the image. Based on the analysis, processing unit 110 may generate one or more navigation responses in vehicle 200, such as turns, lane shifts, and acceleration changes, as described below in connection with navigation response module 408. Further, in some embodiments, the stereoscopic image analysis module 404 can implement techniques associated with a trained system (such as a neural network or deep neural network) or an untrained system.

[0155] 一実施形態では、速度及び加速度モジュール406は、車両200の速度及び/又は加速度を変更させるように構成される車両200内の1つ又は複数の計算及び電気機械デバイスから受信されるデータを分析するように構成されるソフトウェアを記憶し得る。例えば、処理ユニット110は、速度及び加速度モジュール406に関連付けられた命令を実行して、単眼画像分析モジュール402及び/又は立体画像分析モジュール404の実行から導出されるデータに基づいて、車両200の目標速度を計算し得る。そのようなデータとしては、例えば、目標位置、速度、及び/又は加速度、付近の車両、歩行者、又は道路物体に対する車両200の位置及び/又は速度、及び道路のレーンマークに対する車両200の位置情報等を挙げ得る。加えて、処理ユニット110は、センサ入力(例えば、レーダからの情報)と、車両200のスロットルシステム220、ブレーキシステム230、及び/又は操舵システム240等の車両200の他のシステムからの入力とに基づいて、車両200の目標速度を計算し得る。計算された目標速度に基づいて、処理ユニット110は、電子信号を車両200のスロットルシステム220、ブレーキシステム230、及び/又は操舵システム240に送信して、例えば、車両200のブレーキを物理的に弱めるか、又はアクセルを弱めることにより速度及び/又は加速度の変更をトリガーし得る。   [0155] In one embodiment, the speed and acceleration module 406 includes data received from one or more computational and electromechanical devices in the vehicle 200 that are configured to change the speed and / or acceleration of the vehicle 200. Can be stored. For example, the processing unit 110 may execute instructions associated with the speed and acceleration module 406 to target the vehicle 200 based on data derived from execution of the monocular image analysis module 402 and / or the stereoscopic image analysis module 404. Speed can be calculated. Such data includes, for example, target position, speed, and / or acceleration, position and / or speed of vehicle 200 with respect to nearby vehicles, pedestrians, or road objects, and position information of vehicle 200 with respect to road lane marks. And the like. In addition, processing unit 110 may convert sensor inputs (eg, information from radar) and inputs from other systems of vehicle 200, such as throttle system 220, brake system 230, and / or steering system 240 of vehicle 200. Based on this, the target speed of the vehicle 200 can be calculated. Based on the calculated target speed, the processing unit 110 sends an electronic signal to the throttle system 220, the brake system 230, and / or the steering system 240 of the vehicle 200, for example, to physically weaken the brake of the vehicle 200. Alternatively, a change in speed and / or acceleration may be triggered by weakening the accelerator.

[0156] 一実施形態では、ナビゲーション応答モジュール408は、処理ユニット110により実行可能であり、単眼画像分析モジュール402及び/又は立体画像分析モジュール404の実行から導出されるデータに基づいて、所望のナビゲーション応答を決定するソフトウェアを記憶し得る。そのようなデータは、付近の車両、歩行者、及び道路物体に関連付けられた位置及び速度情報並びに車両200の目標位置情報等を含み得る。更に、幾つかの実施形態では、ナビゲーション応答は、地図データ、車両200の所定の位置、及び/又は車両200と、単眼画像分析モジュール402及び/又は立体画像分析モジュール404の実行から検出される1つ又は複数の物体との間の相対速度又は相対加速度に基づき得る(部分的又は完全に)。ナビゲーション応答モジュール408は、センサ入力(例えば、レーダからの情報)と、車両200のスロットルシステム220、ブレーキシステム230、及び操舵システム240等の車両200の他のシステムからの入力とに基づいて、所望のナビゲーション応答を決定することもできる。所望のナビゲーション応答に基づいて、処理ユニット110は、電子信号を車両200のスロットルシステム220、ブレーキシステム230、及び操舵システム240に送信して、例えば、車両200のハンドルをターンさせ、所定の角度の回転を達成することにより、所望のナビゲーション応答をトリガーし得る。幾つかの実施形態では、処理ユニット110は、車両200の速度変更を計算するための速度及び加速度モジュール406の実行への入力として、ナビゲーション応答モジュール408の出力(例えば、所望のナビゲーション応答)を使用し得る。   [0156] In one embodiment, the navigation response module 408 is executable by the processing unit 110 and based on data derived from execution of the monocular image analysis module 402 and / or the stereoscopic image analysis module 404, a desired navigation. Software for determining the response may be stored. Such data may include position and speed information associated with nearby vehicles, pedestrians, and road objects, target position information for vehicle 200, and the like. Further, in some embodiments, the navigation response is detected 1 from the map data, the predetermined location of the vehicle 200, and / or from the execution of the vehicle 200 and the monocular image analysis module 402 and / or the stereo image analysis module 404. It may be based (partially or completely) on the relative speed or relative acceleration between one or more objects. The navigation response module 408 may generate a desired response based on sensor inputs (eg, information from radar) and inputs from other systems of the vehicle 200, such as the throttle system 220, the brake system 230, and the steering system 240 of the vehicle 200. Navigation response can be determined. Based on the desired navigation response, the processing unit 110 sends an electronic signal to the throttle system 220, the brake system 230, and the steering system 240 of the vehicle 200, for example, to turn the steering wheel of the vehicle 200, Achieving the rotation may trigger a desired navigation response. In some embodiments, the processing unit 110 uses the output of the navigation response module 408 (eg, the desired navigation response) as input to the execution of the speed and acceleration module 406 to calculate the speed change of the vehicle 200. I can do it.

[0157] 更に、本明細書で開示するモジュール(例えば、モジュール402、404、及び406)のいずれも、トレーニング済みシステム(ニューラルネットワーク又はディープニューラルネットワーク等)又はトレーニングされていないシステムに関連する技法を実装することができる。   [0157] Further, any of the modules disclosed herein (eg, modules 402, 404, and 406) may utilize techniques associated with trained systems (such as neural networks or deep neural networks) or untrained systems. Can be implemented.

[0158] 図5Aは、開示される実施形態による、単眼画像分析に基づいて1つ又は複数のナビゲーション応答を生じさせる例示的なプロセス500Aを示すフローチャートである。ステップ510において、処理ユニット110は、処理ユニット110と画像取得ユニット120との間のデータインタフェース128を介して、複数の画像を受信し得る。例えば、画像取得ユニット120に含まれるカメラ(視野202を有する画像捕捉デバイス122等)は、車両200の前方(又は例えば車両の側部若しくは後方)のエリアの複数の画像を捕捉し、データ接続(例えば、デジタル、有線、USB、無線、Bluetooth等)を介して処理ユニット110に送信し得る。処理ユニット110は、単眼画像分析モジュール402を実行して、ステップ520において、以下で図5B〜図5Dに関連して更に詳細に説明するように、複数の画像を分析し得る。分析を実行することにより、処理ユニット110は、レーンマーク、車両、歩行者、道路標識、高速道路出口ランプ、及び信号機等の画像の組内の特徴の組を検出し得る。   [0158] FIG. 5A is a flowchart illustrating an example process 500A for generating one or more navigation responses based on monocular image analysis, according to a disclosed embodiment. At step 510, processing unit 110 may receive a plurality of images via data interface 128 between processing unit 110 and image acquisition unit 120. For example, a camera included in the image acquisition unit 120 (such as an image capture device 122 having a field of view 202) captures multiple images of an area in front of the vehicle 200 (or, for example, at the side or back of the vehicle), and connects to the data connection ( For example, the data may be transmitted to the processing unit 110 via digital, wired, USB, wireless, Bluetooth, or the like. The processing unit 110 may execute the monocular image analysis module 402 to analyze a plurality of images at step 520, as described in further detail below in connection with FIGS. 5B-5D. By performing the analysis, processing unit 110 may detect a set of features in the set of images such as lane marks, vehicles, pedestrians, road signs, highway exit ramps, and traffic lights.

[0159] 処理ユニット110は、ステップ520において、単眼画像分析モジュール402を実行して、例えばトラックタイヤの部品、落ちた道路標識、緩んだ貨物、及び小動物等の様々な道路危険物を検出することもできる。道路危険物の構造、形状、サイズ、及び色は様々であり得、そのような危険物の検出をより難しくする。幾つかの実施形態では、処理ユニット110は、単眼画像分析モジュール402を実行して、マルチフレーム分析を複数の画像に対して実行して、道路危険物を検出し得る。例えば、処理ユニット110は、連続画像フレーム間でのカメラ移動を推定し、フレーム間のピクセルの視差を計算して、道路の3Dマップを構築し得る。次に、処理ユニット110は、3Dマップを使用して、路面及び路面の上に存在する危険物を検出し得る。   [0159] At step 520, the processing unit 110 executes the monocular image analysis module 402 to detect various road hazards such as truck tire parts, dropped road signs, loose cargo, and small animals. You can also. The structure, shape, size, and color of road hazards can vary, making detection of such hazards more difficult. In some embodiments, processing unit 110 may execute monocular image analysis module 402 to perform multi-frame analysis on multiple images to detect road hazards. For example, processing unit 110 may estimate camera movement between successive image frames, calculate the disparity of pixels between frames, and build a 3D map of the road. Next, the processing unit 110 may use the 3D map to detect a road surface and a dangerous substance existing on the road surface.

[0160] ステップ530において、処理ユニット110は、ナビゲーション応答モジュール408を実行して、ステップ520において実行された分析及び図4に関連して上述した技法に基づいて、車両200に1つ又は複数のナビゲーション応答を生じさせ得る。ナビゲーション応答は、例えば、ターン、レーンシフト、及び加速度変更等を含み得る。幾つかの実施形態では、処理ユニット110は、速度及び加速度モジュール406の実行から導出されるデータを使用して、1つ又は複数のナビゲーション応答を生じさせ得る。更に、複数のナビゲーション応答は同時に生じてもよく、順次生じてもよく、又はそれらの任意の組合せで生じてもよい。例えば、処理ユニット110は、例えば、制御信号を車両200の操舵システム240及びスロットルシステム220に順次送信することにより、車両200に1レーン超えさせ、それから例えば加速させ得る。代替的には、処理ユニット110は、例えば、制御信号を車両200のブレーキシステム230及び操舵システム240に同時に送信することにより、車両200に、ブレーキを掛けさせ、それと同時にレーンをシフトさせ得る。   [0160] At step 530, the processing unit 110 executes the navigation response module 408 to provide the vehicle 200 with one or more based on the analysis performed at step 520 and the techniques described above in connection with FIG. A navigation response may be generated. Navigation responses may include, for example, turns, lane shifts, acceleration changes, and the like. In some embodiments, processing unit 110 may use data derived from execution of velocity and acceleration module 406 to generate one or more navigation responses. Further, multiple navigation responses may occur simultaneously, sequentially, or in any combination thereof. For example, processing unit 110 may cause vehicle 200 to exceed one lane and then, for example, accelerate by, for example, sequentially transmitting control signals to steering system 240 and throttle system 220 of vehicle 200. Alternatively, processing unit 110 may cause vehicle 200 to apply a brake and simultaneously shift lanes, for example, by simultaneously transmitting a control signal to brake system 230 and steering system 240 of vehicle 200.

[0161] 図5Bは、開示される実施形態による、画像の組内の1つ又は複数の車両及び/又は歩行者を検出する例示的なプロセス500Bを示すフローチャートである。処理ユニット110は、単眼画像分析モジュール402を実行して、プロセス500Bを実施し得る。ステップ540において、処理ユニット110は、存在する可能性がある車両及び/又は歩行者を表す候補物体の組を特定し得る。例えば、処理ユニット110は、1つ又は複数の画像を走査し、画像を1つ又は複数の所定のパターンと比較し、各画像内で、対象物体(例えば、車両、歩行者、又はそれらの部分)を含み得る可能性がある位置を識別し得る。所定のパターンは、低率の「偽性ヒット」及び低率の「見逃し」を達成するように指定し得る。例えば、処理ユニット110は、所定のパターンへの低い類似性閾値を使用して、可能性のある車両又は歩行者として候補物体を識別し得る。そうすることにより、処理ユニット110は、車両又は歩行者を表す候補物体を見逃す(例えば、識別しない)確率を低減することができ得る。   [0161] FIG. 5B is a flowchart illustrating an exemplary process 500B for detecting one or more vehicles and / or pedestrians in a set of images, according to a disclosed embodiment. The processing unit 110 may execute the monocular image analysis module 402 to perform the process 500B. At step 540, processing unit 110 may identify a set of candidate objects representing potential vehicles and / or pedestrians. For example, the processing unit 110 scans one or more images, compares the images with one or more predetermined patterns, and within each image, a target object (eg, a vehicle, a pedestrian, or a portion thereof). ) May be identified. The predetermined pattern may be specified to achieve a low rate of “false hits” and a low rate of “missing”. For example, the processing unit 110 may use a low similarity threshold to a predetermined pattern to identify candidate objects as potential vehicles or pedestrians. By doing so, the processing unit 110 may be able to reduce the probability of missing (eg, not identifying) a candidate object representing a vehicle or pedestrian.

[0162] ステップ542において、処理ユニット110は、候補物体の組をフィルタリングして、分類基準に基づいて特定の候補(例えば、無関係又は関係性の低い物体)を除外し得る。そのような基準は、データベース(例えば、メモリ140に記憶されるデータベース)に記憶された物体タイプに関連付けられた様々な特性から導出し得る。特性は、物体の形状、寸法、テクスチャ、及び位置(例えば、車両200に対する)等を含み得る。従って、処理ユニット110は、1つ又は複数の組の基準を使用して、候補物体の組から偽性候補を拒絶し得る。   [0162] At step 542, the processing unit 110 may filter the set of candidate objects to exclude certain candidates (eg, irrelevant or irrelevant objects) based on the classification criteria. Such criteria may be derived from various characteristics associated with the object type stored in a database (eg, a database stored in memory 140). The characteristics may include the shape, size, texture, and location (eg, for the vehicle 200) of the object, and the like. Accordingly, processing unit 110 may reject spurious candidates from the set of candidate objects using one or more sets of criteria.

[0163] ステップ544において、処理ユニット110は、複数の画像フレームを分析して、候補画像の組内の物体が車両及び/又は歩行者を表しているか否かを特定し得る。例えば、処理ユニット110は、連続フレームにわたり検出された候補物体を追跡し、検出された物体に関連付けられたフレーム毎データ(例えば、サイズ、車両200に対する位置等)を蓄積し得る。更に、処理ユニット110は、検出された物体のパラメータを推定し、物体のフレーム毎位置データを予測位置と比較し得る。   [0163] At step 544, the processing unit 110 may analyze the plurality of image frames to determine whether the objects in the set of candidate images represent vehicles and / or pedestrians. For example, processing unit 110 may track detected candidate objects over successive frames and accumulate per-frame data (eg, size, position relative to vehicle 200, etc.) associated with the detected objects. Further, the processing unit 110 may estimate the parameters of the detected object and compare the per-frame position data of the object with the predicted position.

[0164] ステップ546において、処理ユニット110は、検出された物体の測定値の組を構築し得る。そのような測定値は、例えば、検出された物体に関連付けられた位置、速度、及び加速度値(車両200に対する)を含み得る。幾つかの実施形態では、処理ユニット110は、カルマンフィルタ又は線形二次推定(LQE)等の一連の時間ベースの観測値を使用する推定技法及び/又は異なる物体タイプ(例えば、車、トラック、歩行者、自転車、道路標識等)で利用可能なモデリングデータに基づいて、測定値を構築し得る。カルマンフィルタは、物体のスケール測定値に基づき得、ここで、スケール測定値は衝突までの時間(例えば、車両200が物体に達するまでの時間量)に比例する。従って、ステップ540〜546を実行することにより、処理ユニット110は、捕捉画像の組内に現れる車両及び歩行者を識別し、車両及び歩行者に関連付けられた情報(例えば、位置、速度、サイズ)を導出し得る。識別及び導出される情報に基づいて、処理ユニット110は、図5Aに関連して上述したように、車両200で1つ又は複数のナビゲーション応答を生じさせ得る。   [0164] At step 546, processing unit 110 may construct a set of measurements for the detected object. Such measurements may include, for example, the position, velocity, and acceleration values (for vehicle 200) associated with the detected object. In some embodiments, processing unit 110 may include an estimation technique that uses a series of time-based observations, such as a Kalman filter or linear quadratic estimation (LQE) and / or different object types (eg, cars, trucks, pedestrians, etc.). Measurements can be constructed based on the modeling data available for a bicycle, road sign, etc.). The Kalman filter may be based on a scale measurement of the object, where the scale measurement is proportional to the time to collision (eg, the amount of time for the vehicle 200 to reach the object). Thus, by performing steps 540-546, processing unit 110 identifies vehicles and pedestrians appearing in the set of captured images and provides information (eg, position, speed, size) associated with the vehicles and pedestrians. Can be derived. Based on the identified and derived information, processing unit 110 may cause one or more navigation responses at vehicle 200, as described above in connection with FIG. 5A.

[0165] ステップ548において、処理ユニット110は、1つ又は複数の画像のオプティカルフロー分析を実行して、「偽性ヒット」を検出する確率及び車両又は歩行者を表す候補物体を見逃す確率を低減し得る。オプティカルフロー分析は、例えば、他の車両及び歩行者に関連付けられた1つ又は複数の画像内の車両200に対する、路面の動きとは別個の移動パターンを分析することを指し得る。処理ユニット110は、異なる時刻に捕捉された複数の画像フレームにわたる物体の異なる位置を観測することにより、候補物体の移動を計算し得る。処理ユニット110は、位置及び時間値を数学モデルへの入力として使用して、候補物体の移動を計算し得る。従って、オプティカルフロー分析は、車両200の付近にある車両及び歩行者を検出する別の方法を提供し得る。処理ユニット110は、ステップ540〜546と組み合わせてオプティカルフロー分析を実行して、車両及び歩行者を検出する冗長性を提供すると共に、システム100の信頼度を上げ得る。   [0165] At step 548, the processing unit 110 performs an optical flow analysis of the one or more images to reduce the probability of detecting "false hits" and missing candidate objects representing vehicles or pedestrians. I can do it. Optical flow analysis may refer to, for example, analyzing a movement pattern that is separate from road surface movement for vehicle 200 in one or more images associated with other vehicles and pedestrians. Processing unit 110 may calculate the movement of the candidate object by observing different positions of the object over multiple image frames captured at different times. The processing unit 110 may use the position and time values as inputs to the mathematical model to calculate the movement of the candidate object. Thus, optical flow analysis may provide another method of detecting vehicles and pedestrians near vehicle 200. The processing unit 110 may perform optical flow analysis in combination with steps 540-546 to provide redundancy for detecting vehicles and pedestrians and increase the reliability of the system 100.

[0166] 図5Cは、開示される実施形態による、画像の組内の道路マーク及び/又はレーンジオメトリ情報を検出する例示的なプロセス500Cを示すフローチャートである。処理ユニット110は、単眼画像分析モジュール402を実行して、プロセス500Cを実施し得る。ステップ550において、処理ユニット110は、1つ又は複数の画像を走査することにより物体の組を検出し得る。レーンマークのセグメント、レーンジオメトリ情報、及び他の関連道路マークを検出するために、処理ユニット110は、物体の組をフィルタリングして、無関連(例えば、小さい穴、小さい岩等)であると判断されるものを除外し得る。ステップ552において、処理ユニット110は、同じ道路マーク又はレーンマークに属する、ステップ550において検出されたセグメントを一緒にグループ化し得る。グループ化に基づいて、処理ユニット110は、数学モデル等のモデルを開発して、検出されたセグメントを表し得る。   [0166] FIG. 5C is a flowchart illustrating an exemplary process 500C for detecting road marks and / or lane geometry information in a set of images, according to a disclosed embodiment. Processing unit 110 may execute monocular image analysis module 402 to perform process 500C. At step 550, processing unit 110 may detect the set of objects by scanning one or more images. To detect lane mark segments, lane geometry information, and other relevant road marks, processing unit 110 filters the set of objects to determine that they are irrelevant (eg, small holes, small rocks, etc.). May be excluded. At step 552, processing unit 110 may group together the segments detected at step 550 belonging to the same road mark or lane mark. Based on the grouping, processing unit 110 may develop a model, such as a mathematical model, to represent the detected segments.

[0167] ステップ554において、処理ユニット110は、検出されたセグメントに関連付けられた測定値の組を構築し得る。幾つかの実施形態では、処理ユニット110は、画像平面から実世界平面への検出セグメントの射影を作成し得る。射影は、検出された道路の位置、傾斜、曲率、及び曲率微分等の物理特性に対応する係数を有する三次多項式を使用して特徴付け得る。射影を生成するに当たり、処理ユニット110は、路面変化並びに車両200に関連付けられたピッチ及びロール率を考慮に入れ得る。加えて、処理ユニット110は、位置及び路面に存在するモーションキューを分析することにより道路高をモデリングし得る。更に、処理ユニット110は、1つ又は複数の画像での特徴点の組を追跡することにより、車両200に関連付けられたピッチ率及びロール率を推定し得る。   [0167] At step 554, processing unit 110 may construct a set of measurements associated with the detected segment. In some embodiments, processing unit 110 may create a projection of the detected segment from the image plane to the real world plane. The projection may be characterized using a cubic polynomial having coefficients corresponding to physical properties such as detected road position, slope, curvature, and derivative of curvature. In generating the projection, processing unit 110 may take into account road changes and pitch and roll rates associated with vehicle 200. In addition, the processing unit 110 may model the road height by analyzing the position and the motion cues present on the road surface. Further, processing unit 110 may estimate a pitch rate and a roll rate associated with vehicle 200 by tracking the set of feature points in one or more images.

[0168] ステップ556において、処理ユニット110は、例えば、連続した画像フレームにわたり検出セグメントを追跡し、検出セグメントに関連付けられたフレーム毎データを蓄積することにより、マルチフレーム分析を実行し得る。処理ユニット110はマルチフレーム分析を実行する場合、ステップ554において構築された測定値の組はより信頼性の高いものになり得、ますます高い信頼度を関連付け得る。従って、ステップ550〜556を実行することにより、処理ユニット110は、捕捉画像の組内に現れる道路マークを識別し、レーンジオメトリ情報を導出し得る。識別及び導出される情報に基づいて、処理ユニット110は、図5Aに関連して上述したように、車両200で1つ又は複数のナビゲーション応答を生じさせ得る。   [0168] In step 556, the processing unit 110 may perform a multi-frame analysis, for example, by tracking the detected segments over successive image frames and accumulating per-frame data associated with the detected segments. If the processing unit 110 performs a multi-frame analysis, the set of measurements constructed in step 554 may be more reliable and may be associated with more and more confidence. Thus, by performing steps 550-556, processing unit 110 may identify roadmarks that appear in the set of captured images and derive lane geometry information. Based on the identified and derived information, processing unit 110 may cause one or more navigation responses at vehicle 200, as described above in connection with FIG. 5A.

[0169] ステップ558において、処理ユニット110は、追加の情報ソースを考慮して、車両の周囲の状況における車両200の安全モデルを更に開発し得る。処理ユニット110は、安全モデルを使用して、システム100が車両200の自律制御を安全に実行し得る状況を定義し得る。安全モデルを開発するために、幾つかの実施形態では、処理ユニット110は、他の車両の位置及び動き、検出された道路縁部及び障壁、及び/又は地図データ(地図データベース160からのデータ等)から抽出された一般道路形状記述を考慮し得る。追加の情報ソースを考慮することにより、処理ユニット110は、道路マーク及びレーンジオメトリを検出する冗長性を提供し、システム100の信頼性を上げ得る。   [0169] At step 558, the processing unit 110 may further develop a safety model of the vehicle 200 in situations surrounding the vehicle, taking into account additional sources of information. The processing unit 110 may use the safety model to define situations in which the system 100 may safely perform autonomous control of the vehicle 200. To develop a safety model, in some embodiments, processing unit 110 may include the location and movement of other vehicles, detected road edges and barriers, and / or map data (such as data from map database 160). ) May be considered. By considering additional sources of information, processing unit 110 may provide redundancy for detecting road marks and lane geometries, which may increase the reliability of system 100.

[0170] 図5Dは、開示される実施形態による、画像の組内の信号機を検出する例示的なプロセス500Dを示すフローチャートである。処理ユニット110は、単眼画像分析モジュール402を実行して、プロセス500Dを実施し得る。ステップ560において、処理ユニット110は、画像の組を走査し、信号機を含む可能性が高い画像内の位置に現れる物体を識別し得る。例えば、処理ユニット110は、識別された物体をフィルタリングして、信号機に対応する可能性が低い物体を除外した候補物体の組を構築し得る。フィルタリングは、形状、寸法、テクスチャ、及び位置(例えば、車両200に対する)等の信号機に関連付けられた様々な特性に基づいて行い得る。そのような特性は、信号機及び交通制御信号の多くの例に基づき得、データベースに記憶し得る。幾つかの実施形態では、処理ユニット110は、可能性のある信号機を反映した候補物体の組に対してマルチフレーム分析を実行し得る。例えば、処理ユニット110は、連続した画像フレームにわたり候補物体を追跡し、候補物体の現実世界位置を推定し、移動している(信号機である可能性が低い)物体をフィルタリングして除去し得る。幾つかの実施形態では、処理ユニット110は、カラー分析を候補物体に対して実行し、可能性のある信号機内部に表される検出色の相対位置を識別し得る。   [0170] FIG. 5D is a flowchart illustrating an exemplary process 500D for detecting a traffic light in a set of images, according to a disclosed embodiment. Processing unit 110 may execute monocular image analysis module 402 to perform process 500D. At step 560, processing unit 110 may scan the set of images and identify objects that appear at locations in the image that are likely to include traffic lights. For example, the processing unit 110 may filter the identified objects to build a set of candidate objects that exclude objects that are unlikely to correspond to a traffic light. Filtering may be based on various characteristics associated with the traffic light, such as shape, dimensions, texture, and location (eg, for vehicle 200). Such characteristics may be based on many examples of traffic lights and traffic control signals and may be stored in a database. In some embodiments, processing unit 110 may perform a multi-frame analysis on a set of candidate objects reflecting possible traffic lights. For example, processing unit 110 may track the candidate object over successive image frames, estimate the real-world position of the candidate object, and filter out moving (less likely traffic lights) objects. In some embodiments, the processing unit 110 may perform a color analysis on the candidate object to identify the relative positions of the detected colors represented within the potential traffic light.

[0171] ステップ562において、処理ユニット110は、交差点のジオメトリを分析し得る。分析は、(i)車両200の両側で検出されるレーン数、(ii)道路で検出されたマーク(矢印マーク等)、及び(iii)地図データ(地図データベース160からのデータ等)から抽出された交差点の記述の任意の組合せに基づき得る。処理ユニット110は、単眼分析モジュール402の実行から導出される情報を使用して、分析を行い得る。加えて、処理ユニット110は、ステップ560において検出された信号機と、車両200近傍に現れるレーンとの対応性を特定し得る。   [0171] At step 562, processing unit 110 may analyze the geometry of the intersection. The analysis is extracted from (i) the number of lanes detected on both sides of the vehicle 200, (ii) marks (arrow marks etc.) detected on roads, and (iii) map data (data from map database 160 etc.). May be based on any combination of the intersection descriptions. The processing unit 110 may perform the analysis using information derived from the execution of the monocular analysis module 402. In addition, the processing unit 110 may identify the correspondence between the traffic light detected in step 560 and the lane appearing near the vehicle 200.

[0172] 車両200が交差点に近づくにつれて、ステップ564において、処理ユニット110は、分析された交差点ジオメトリ及び検出された信号機に関連付けられた信頼度を更新し得る。例えば、交差点に実際に現れる数と比較した、交差点に現れると推定された信号機の数は、信頼度に影響を及ぼし得る。従って、信頼度に基づいて、処理ユニット110は、車両200のドライバーに制御を委任して、安全状況を改善し得る。ステップ560〜564を実行することにより、処理ユニット110は、捕捉画像の組内に現れる信号機を識別し、交差点ジオメトリ情報を分析し得る。識別及び分析に基づいて、処理ユニット110は、図5Aに関連して上述したように、車両200で1つ又は複数のナビゲーション応答を生じさせ得る。   [0172] As the vehicle 200 approaches the intersection, at step 564, the processing unit 110 may update the analyzed intersection geometry and the confidence associated with the detected traffic light. For example, the number of traffic lights estimated to appear at an intersection, as compared to the number actually appearing at an intersection, can affect reliability. Thus, based on the reliability, the processing unit 110 may delegate control to the driver of the vehicle 200 to improve the safety situation. By performing steps 560-564, processing unit 110 may identify traffic signals appearing in the set of captured images and analyze intersection geometry information. Based on the identification and analysis, the processing unit 110 may generate one or more navigation responses at the vehicle 200, as described above in connection with FIG. 5A.

[0173] 図5Eは、開示される実施形態による、車両経路に基づいて車両200で1つ又は複数のナビゲーション応答を生じさせる例示的なプロセス500Eのフローチャートである。ステップ570において、処理ユニット110は、車両200に関連付けられた初期車両経路を構築し得る。車両経路は、座標(x,y)で表される点の組を使用して表し得、点の組内の2点間距離dは、1〜5メートルの範囲内にあり得る。一実施形態では、処理ユニット110は、左右の道路多項式等の2つの多項式を使用して初期車両経路を構築し得る。処理ユニット110は、2つの多項式間の幾何学的中間点を計算し、所定のオフセットがある場合(オフセット0は、レーンの中央での走行に対応し得る)、所定のオフセット(例えば、スマートレーンオフセット)だけ、結果として生成される車両経路に含まれる各点をオフセットさせ得る。オフセットは、車両経路内の任意の2点間のセグメントに垂直の方向であり得る。別の実施形態では、処理ユニット110は、1つの多項式及び推定レーン幅を使用して、推定レーン幅の半分に所定のオフセット(例えば、スマートレーンオフセット)を加えたものだけ車両経路の各点をオフセットさせ得る。 [0173] FIG. 5E is a flowchart of an exemplary process 500E for producing one or more navigation responses in a vehicle 200 based on a vehicle path, according to a disclosed embodiment. At step 570, processing unit 110 may build an initial vehicle path associated with vehicle 200. Vehicle path, the coordinates (x, y) may represent using a set of points represented by the distance d i between two points in the set of points may be in the range of 1 to 5 meters. In one embodiment, processing unit 110 may construct an initial vehicle path using two polynomials, such as left and right road polynomials. The processing unit 110 calculates the geometric midpoint between the two polynomials and, if there is a predetermined offset (offset 0 may correspond to running in the center of the lane), a predetermined offset (eg, smart lane) Offset) may offset each point included in the resulting vehicle path. The offset may be in a direction perpendicular to the segment between any two points in the vehicle path. In another embodiment, processing unit 110 uses one polynomial and estimated lane width to determine each point in the vehicle path by half the estimated lane width plus a predetermined offset (eg, a smart lane offset). Can be offset.

[0174] ステップ572において、処理ユニット110は、ステップ570において構築された車両経路を更新し得る。処理ユニット110は、車両経路を表す点の組内の2点間距離dが、上述した距離dよりも短くなるように、より高い解像度を使用して、570において構築された車両経路を再構築し得る。例えば、距離dは0.1〜0.3メートルの範囲であり得る。処理ユニット110は、放物線スプラインアルゴリズムを使用して車両経路を再構築し得、これは、車両経路の全長(すなわち、車両経路を表す点の組に基づく)に対応する累積距離ベクトルSをもたらし得る。 [0174] At step 572, the processing unit 110 may update the vehicle route constructed at step 570. Processing unit 110, the distance between two points d k in the set of points representing a vehicle path, to be shorter than the distance d i described above, using a higher resolution, the vehicle path built in 570 Can be rebuilt. For example, the distance d k may range from 0.1 to 0.3 meters. Processing unit 110 may reconstruct the vehicle path using a parabolic spline algorithm, which may result in a cumulative distance vector S corresponding to the overall length of the vehicle path (ie, based on a set of points representing the vehicle path). .

[0175] ステップ574において、処理ユニット110は、ステップ572において行われた更新車両経路に基づいて、先読み点((x,z)として座標で表される)を特定し得る。処理ユニット110は、累積距離ベクトルSから先読み点を抽出し得、先読み点には、先読み距離及び先読み時間を関連付け得る。先読み距離は、下限範囲10〜20メートルを有し得、車両200の速度と先読み時間との積として計算し得る。例えば、車両200の速度が下がるにつれて、先読み距離も短くなり得る(例えば、下限に達するまで)。0.5〜1.5秒の範囲であり得る先読み時間は、進行エラー追跡制御ループ等の車両200でナビゲーション応答を生じさせることに関連付けられた1つ又は複数の制御ループの利得に反比例し得る。例えば、進行エラー追跡制御ループの利得は、ヨー率ループ、操舵アクチュエータループ、及び車横方向ダイナミクス等の帯域幅に依存し得る。従って、進行エラー追跡制御ループの利得が高いほど、先読み時間は短くなる。 [0175] At step 574, the processing unit 110 may identify a look-ahead point (represented by coordinates as ( xl , zl )) based on the updated vehicle path performed at step 572. The processing unit 110 may extract a look-ahead point from the accumulated distance vector S, and may associate the look-ahead point with a look-ahead distance and a look-ahead time. The look-ahead distance may have a lower range of 10-20 meters and may be calculated as the product of the speed of the vehicle 200 and the look-ahead time. For example, as the speed of the vehicle 200 decreases, the look-ahead distance may also decrease (eg, until a lower limit is reached). The look-ahead time, which may be in the range of 0.5 to 1.5 seconds, may be inversely proportional to the gain of one or more control loops associated with producing a navigation response in vehicle 200, such as a progress error tracking control loop. . For example, the gain of the progress error tracking control loop may depend on bandwidths such as yaw rate loops, steering actuator loops, and vehicle lateral dynamics. Therefore, the higher the gain of the progress error tracking control loop, the shorter the look-ahead time.

[0176] ステップ576において、処理ユニット110は、ステップ574において特定される先読み点に基づいて、進行エラー及びヨー率コマンドを決定し得る。処理ユニット110は、先読み点の逆正接、例えばarctan(x/z)を計算することにより、進行エラーを特定し得る。処理ユニット110は、進行エラーと高レベル制御利得との積としてヨー率コマンドを決定し得る。高レベル制御利得は、先読み距離が下限にない場合、(2/先読み時間)に等しい値であり得る。先読み距離が下限である場合、高レベル制御利得は、(2車両200の速度/先読み距離)に等しい値であり得る。 [0176] At step 576, processing unit 110 may determine a progress error and a yaw rate command based on the look-ahead point identified at step 574. Processing unit 110, the inverse tangent of prefetch points, by calculating, for example, arctan (x l / z l) , may identify the progression errors. Processing unit 110 may determine the yaw rate command as a product of the progress error and the high level control gain. The high level control gain may be equal to (2 / look-ahead time) if the look-ahead distance is not at the lower limit. If the look-ahead distance is the lower limit, the high level control gain may be equal to (2 * speed of vehicle 200 / look-ahead distance).

[0177] 図5Fは、開示される実施形態による、先行車両がレーンを変更中であるか否かを特定する例示的なプロセス500Fを示すフローチャートである。ステップ580において、処理ユニット110は、先行車両(例えば、車両200の前を移動中の車両)に関連付けられたナビゲーション情報を特定し得る。例えば、処理ユニット110は、図5A及び図5Bに関連して上述した技法を使用して、先行車両の位置、速度(例えば、方向及び速さ)、及び/又は加速度を特定し得る。処理ユニット110は、図5Eに関連して上述した技法を使用して、1つ又は複数の道路多項式、先読み点(車両200に関連付けられる)、及び/又はスネイルトレイル(例えば、先行車両がとった経路を記述する点の組)を特定することもできる。   [0177] FIG. 5F is a flowchart illustrating an exemplary process 500F for determining whether a preceding vehicle is changing lanes, according to a disclosed embodiment. At step 580, processing unit 110 may identify navigation information associated with a preceding vehicle (eg, a vehicle traveling in front of vehicle 200). For example, processing unit 110 may determine the position, speed (eg, direction and speed), and / or acceleration of a leading vehicle using techniques described above in connection with FIGS. 5A and 5B. Processing unit 110 may use one or more road polynomials, look-ahead points (associated with vehicle 200), and / or snail trails (e.g., taken by a preceding vehicle) using the techniques described above in connection with FIG. 5E. A set of points that describe a route can also be specified.

[0178] ステップ582において、処理ユニット110は、ステップ580において特定されたナビゲーション情報を分析し得る。一実施形態では、処理ユニット110は、スネイルトレイルと道路多項式との間の距離(例えば、トレイルに沿った)を計算し得る。トレイルに沿ったこの距離の相違が所定の閾値(例えば、直線道路では0.1〜0.2メートル、緩くカーブした道路では0.3〜0.4メートル、急カーブの道路では0.5〜0.6メートル)を超える場合、処理ユニット110は、先行車両がレーン変更中である可能性が高いと判断し得る。複数の車両が、車両200の前を走行中であることが検出される場合、処理ユニット110は、各車両に関連付けられたスネイルトレイルを比較し得る。比較に基づいて、処理ユニット110は、スネイルトレイルが他の車両のスネイルトレイルに一致しない車両が、レーン変更中である可能性が高いと判断し得る。処理ユニット110は更に、スネイルトレイル(先行車両に関連付けられた)の曲率を、先行車両が移動中の道路区分の予期される曲率と比較し得る。予期される曲率は、地図データ(例えば、地図データベース160からのデータ)、道路多項式、他の車両のスネイルトレイル、及び道路についての事前知識等から抽出し得る。スネイルトレイルの曲率と道路区分の予期される曲率との差が、所定の閾値を超える場合、処理ユニット110は、先行車両がレーン変更中である可能性が高いと判断し得る。   [0178] At step 582, the processing unit 110 may analyze the navigation information identified at step 580. In one embodiment, processing unit 110 may calculate the distance between the snail trail and the road polynomial (eg, along the trail). This difference in distance along the trail is determined by a predetermined threshold (e.g., 0.1-0.2 m for straight roads, 0.3-0.4 m for loosely curved roads, 0.5-0.4 m for sharply curved roads). If it is greater than 0.6 meters, the processing unit 110 may determine that the preceding vehicle is likely to be changing lanes. If it is detected that multiple vehicles are traveling in front of vehicle 200, processing unit 110 may compare the snail trail associated with each vehicle. Based on the comparison, processing unit 110 may determine that a vehicle whose snail trail does not match the snail trail of another vehicle is likely to be changing lanes. The processing unit 110 may further compare the curvature of the snail trail (associated with the preceding vehicle) with the expected curvature of the road segment on which the preceding vehicle is traveling. The expected curvature may be extracted from map data (eg, data from map database 160), road polynomials, snail trails of other vehicles, prior knowledge of the road, and the like. If the difference between the curvature of the snail trail and the expected curvature of the road segment exceeds a predetermined threshold, the processing unit 110 may determine that the preceding vehicle is likely to be changing lanes.

[0179] 別の実施形態では、処理ユニット110は、特定の時間期間(例えば、0.5〜1.5秒)にわたり、先行車両の瞬間位置を先読み点(車両200に関連付けられた)と比較し得る。特定の時間期間中の先行車両の瞬間位置と先読み点との間の距離の差及び相違の累積和が、所定の閾値(例えば、直線道路では0.3〜0.4メートル、緩くカーブした道路では0.7〜0.8メートル、急カーブの道路では1.3〜1.7メートル)を超える場合、処理ユニット110は、先行車両がレーン変更中である可能性が高いと判断し得る。別の実施形態では、処理ユニット110は、トレイルに沿って移動した横方向距離をスネイルトレイルの予期される曲率と比較することにより、スネイルトレイルの幾何学的形状を分析し得る。予期される曲率半径は、計算:
(δ +δ )/2/(δ
に従って特定し得、式中、σは横方向移動距離を表し、σは縦方向移動距離を表す。横方向移動距離と予期される曲率との差が所定の閾値(例えば、500〜700メートル)を超える場合、処理ユニット110は、先行車両がレーン変更中である可能性が高いと判断し得る。別の実施形態では、処理ユニット110は、先行車両の位置を分析し得る。先行車両の位置が道路多項式を曖昧にする(例えば、先行車両が道路多項式の上に重なる)場合、処理ユニット110は、先行車両がレーン変更中である可能性が高いと判断し得る。先行車両の位置が、別の車両が先行車両の前方で検出され、2つの車両のスネイルトレイルが平行ではないようなものである場合、処理ユニット110は、(より近い)先行車両がレーン変更中である可能性が高いと判断し得る。
[0179] In another embodiment, the processing unit 110 compares the instantaneous position of the preceding vehicle with a look-ahead point (associated with the vehicle 200) over a specific time period (eg, 0.5 to 1.5 seconds). I can do it. The difference between the distance between the instantaneous position of the preceding vehicle and the look-ahead point during a specific time period and the cumulative sum of the differences are determined by a predetermined threshold value (e.g., 0.3 to 0.4 meters for a straight road, a road having a gentle curve). In this case, the processing unit 110 may determine that there is a high possibility that the preceding vehicle is changing lanes. In another embodiment, the processing unit 110 may analyze the snail trail geometry by comparing the lateral distance traveled along the trail with the expected curvature of the snail trail. The expected radius of curvature is calculated as:
z 2 + δ x 2 ) / 2 / (δ x )
Where σ x represents the horizontal travel distance and σ z represents the vertical travel distance. If the difference between the lateral travel distance and the expected curvature exceeds a predetermined threshold (e.g., 500-700 meters), the processing unit 110 may determine that the preceding vehicle is likely to be changing lanes. In another embodiment, processing unit 110 may analyze the position of the leading vehicle. If the location of the preceding vehicle obscures the road polynomial (eg, the preceding vehicle overlaps the road polynomial), processing unit 110 may determine that the preceding vehicle is likely to be changing lanes. If the position of the preceding vehicle is such that another vehicle is detected in front of the preceding vehicle and the snail trails of the two vehicles are not parallel, processing unit 110 may determine that the (closer) preceding vehicle is changing lanes. Can be determined to be high.

[0180] ステップ584において、処理ユニット110は、ステップ582において実行された分析に基づいて、先行車両200がレーン変更中であるか否かを特定し得る。例えば、処理ユニット110は、ステップ582において実行された個々の分析の加重平均に基づいてその判断を下し得る。そのような方式下では、例えば、特定のタイプの分析に基づいた、先行車両がレーン変更中である可能性が高いという処理ユニット110による判断には、値「1」を割り当て得る(「0」は、先行車両がレーン変更中である可能性が低いとの判断を表す)。ステップ582において実行される異なる分析には異なる重みを割り当て得、開示される実施形態は、分析及び重みのいかなる特定の組合せにも限定されない。更に、幾つかの実施形態では、分析は、トレーニング済みシステム(例えば、機械学習又はディープラーニングシステム)を利用でき、かかるシステムは、例えば、現在位置において捕捉した画像に基づいて車両の現在位置よりも先の将来の経路を推定することができる。   [0180] At step 584, processing unit 110 may determine whether preceding vehicle 200 is changing lanes based on the analysis performed at step 582. For example, processing unit 110 may make that determination based on a weighted average of the individual analyzes performed in step 582. Under such a scheme, for example, a determination by the processing unit 110 that the preceding vehicle is likely to be changing lanes based on a particular type of analysis may be assigned a value of “1” (“0”). Indicates that it is unlikely that the preceding vehicle is changing lanes). The different analyzes performed in step 582 may be assigned different weights, and the disclosed embodiments are not limited to any particular combination of analysis and weights. Further, in some embodiments, the analysis may utilize a trained system (e.g., a machine learning or deep learning system), such as a system based on images captured at the current location, rather than the current location of the vehicle. The future future path can be estimated.

[0181] 図6は、開示される実施形態による、立体画像分析に基づいて1つ又は複数のナビゲーション応答を生じさせる例示的なプロセス600を示すフローチャートである。ステップ610において、処理ユニット110は、データインタフェース128を介して第1及び第2の複数の画像を受信し得る。例えば、画像取得ユニット120に含まれるカメラ(視野202及び204を有する画像捕捉デバイス122及び124等)は、車両200の前方のエリアの第1及び第2の複数の画像を捕捉し、デジタル接続(例えば、USB、無線、Bluetooth等)を介して処理ユニット110に送信し得る。幾つかの実施形態では、処理ユニット110は、2つ以上のデータインタフェースを介して第1及び第2の複数の画像を受信し得る。開示される実施形態は、いかなる特定のデータインタフェース構成又はプロトコルにも限定されない。   [0181] FIG. 6 is a flowchart illustrating an example process 600 for generating one or more navigation responses based on stereoscopic image analysis, according to a disclosed embodiment. At step 610, the processing unit 110 may receive the first and second plurality of images via the data interface 128. For example, cameras included in image acquisition unit 120 (such as image capture devices 122 and 124 having fields of view 202 and 204) capture first and second plurality of images of an area in front of vehicle 200 and provide digital connections ( (Eg, USB, wireless, Bluetooth, etc.). In some embodiments, processing unit 110 may receive the first and second plurality of images via more than one data interface. The disclosed embodiments are not limited to any particular data interface configuration or protocol.

[0182] ステップ620において、処理ユニット110は、立体画像分析モジュール404を実行して、第1及び第2の複数の画像の立体画像分析を実行して、車両の前の道路の3Dマップを作成し、レーンマーク、車両、歩行者、道路標識、高速道路出口ランプ、信号機、及び道路危険物等の画像内の特徴を検出し得る。立体画像分析は、図5A〜図5Dに関連して上述したステップと同様に実行し得る。例えば、処理ユニット110は、立体画像分析モジュール404を実行して、第1及び第2の複数の画像内の候補物体(例えば、車両、歩行者、道路マーク、信号機、道路危険物等)を検出し、様々な基準に基づいて候補物体のサブセットをフィルタリングして除外し、マルチフレーム分析を実行し、測定値を構築し、残りの候補物体の信頼度を特定し得る。上記ステップを実行するに当たり、処理ユニット110は、画像の1つの組のみからの情報ではなく、第1及び第2の複数の画像の両方からの情報を考慮し得る。例えば、処理ユニット110は、第1及び第2の複数の画像の両方に現れる候補物体のピクセルレベルデータ(又は捕捉画像の2つのストリームの中からの他のデータサブセット)の差を分析し得る。別の例として、処理ユニット110は、物体が複数の画像の1枚に現れるが、他の画像では現れないことを観測することにより、又は2つの画像ストリームに現れる物体に関して存在し得る他の差に対して、候補物体の位置及び/又は速度(例えば、車両200に対する)を推定し得る。例えば、車両200に対する位置、速度、及び/又は加速度は、画像ストリームの一方又は両方に現れる物体に関連付けられた特徴の軌道、位置、移動特性等に基づいて特定し得る。   [0182] At step 620, the processing unit 110 executes the stereoscopic image analysis module 404 to perform stereoscopic image analysis of the first and second plurality of images to create a 3D map of a road in front of the vehicle. Then, features in the image such as lane marks, vehicles, pedestrians, road signs, highway exit ramps, traffic lights, and road hazards can be detected. Stereoscopic image analysis may be performed similarly to the steps described above in connection with FIGS. 5A-5D. For example, the processing unit 110 executes the stereoscopic image analysis module 404 to detect candidate objects (eg, vehicles, pedestrians, road marks, traffic lights, road hazards, etc.) in the first and second plurality of images. Then, a subset of candidate objects may be filtered out based on various criteria, multi-frame analysis may be performed, measurements may be constructed, and confidence of the remaining candidate objects may be determined. In performing the above steps, processing unit 110 may consider information from both the first and second plurality of images, rather than information from only one set of images. For example, processing unit 110 may analyze differences in pixel-level data (or other data subsets from among the two streams of captured images) of the candidate object appearing in both the first and second plurality of images. As another example, processing unit 110 may detect that the object appears in one of the images but not in the other image, or other differences that may exist for the object appearing in the two image streams. , The position and / or velocity (eg, for vehicle 200) of the candidate object may be estimated. For example, the position, speed, and / or acceleration for vehicle 200 may be determined based on the trajectory, position, movement characteristics, etc., of features associated with objects appearing in one or both of the image streams.

[0183] ステップ630において、処理ユニット110は、ナビゲーション応答モジュール408を実行して、ステップ620において実行された分析及び図4に関連して上述した技法に基づいて、車両200で1つ又は複数のナビゲーション動作を生じさせ得る。ナビゲーション応答は、例えば、ターン、レーンシフト、加速度変更、速度変更、及びブレーキ等を含み得る。幾つかの実施形態では、処理ユニット110は、速度及び加速度モジュール406の実行から導出されるデータを使用して、1つ又は複数のナビゲーション応答を生じさせ得る。更に、複数のナビゲーション応答は、同時に行ってもよく、順次行ってもよく、又はそれらの任意の組合せで行ってもよい。   [0183] At step 630, the processing unit 110 executes the navigation response module 408 to perform one or more operations on the vehicle 200 based on the analysis performed at step 620 and the techniques described above in connection with FIG. A navigation operation may occur. Navigation responses may include, for example, turns, lane shifts, acceleration changes, speed changes, braking, and the like. In some embodiments, processing unit 110 may use data derived from execution of velocity and acceleration module 406 to generate one or more navigation responses. Further, multiple navigation responses may occur simultaneously, sequentially, or in any combination thereof.

[0184] 図7は、開示される実施形態による、3組の画像の分析に基づいて1つ又は複数のナビゲーション応答を生じさせる例示的なプロセス700を示すフローチャートである。ステップ710において、処理ユニット110は、データインタフェース128を介して第1、第2、及び第3の複数の画像を受信し得る。例えば、画像取得ユニット120に含まれるカメラ(視野202、204、及び206を有する画像捕捉デバイス122、124、及び126等)は、車両200の前方及び/又は側部のエリアの第1、第2、及び第3の複数の画像を捕捉し、デジタル接続(例えば、USB、無線、Bluetooth等)を介して処理ユニット110に送信し得る。幾つかの実施形態では、処理ユニット110は、3つ以上のデータインタフェースを介して第1、第2、及び第3の複数の画像を受信し得る。例えば、画像捕捉デバイス122、124、及び126のそれぞれは、処理ユニット110にデータを通信する関連付けられたデータインタフェースを有し得る。開示される実施形態は、いかなる特定のデータインタフェース構成又はプロトコルにも限定されない。   FIG. 7 is a flowchart illustrating an exemplary process 700 for generating one or more navigation responses based on an analysis of three sets of images, according to a disclosed embodiment. At step 710, processing unit 110 may receive the first, second, and third plurality of images via data interface 128. For example, the cameras included in the image acquisition unit 120 (such as image capture devices 122, 124, and 126 having fields of view 202, 204, and 206) may be first, second, and / or second areas of the front and / or side of the vehicle 200. , And a third plurality of images may be captured and transmitted to the processing unit 110 via a digital connection (eg, USB, wireless, Bluetooth, etc.). In some embodiments, processing unit 110 may receive the first, second, and third plurality of images via more than two data interfaces. For example, each of the image capture devices 122, 124, and 126 may have an associated data interface for communicating data to the processing unit 110. The disclosed embodiments are not limited to any particular data interface configuration or protocol.

[0185] ステップ720において、処理ユニット110は、第1、第2、及び第3の複数の画像を分析して、レーンマーク、車両、歩行者、道路標識、高速道路出口ランプ、信号機、及び道路危険物等の画像内の特徴を検出し得る。分析は、図5A〜図5D及び図6に関連して上述したステップと同様に実行し得る。例えば、処理ユニット110は、単眼画像分析を第1、第2、及び第3の複数のそれぞれの画像に対して実行し得る(例えば、単眼画像分析モジュール402の実行及び図5A〜図5Dに関連して上述したステップに基づいて)。代替的には、処理ユニット110は、立体画像分析を第1及び第2の複数の画像、第2及び第3の複数の画像、及び/又は第1及び第3の複数の画像に対して実行し得る(例えば、立体画像分析モジュール404の実行を介して及び図6に関連して上述したステップに基づいて)。第1、第2、及び/又は第3の複数の画像の分析に対応する処理済み情報は、結合し得る。幾つかの実施形態では、処理ユニット110は、単眼画像分析と立体画像分析との組合せを実行し得る。例えば、処理ユニット110は、単眼画像分析を第1の複数の画像に対して実行し(例えば、単眼画像分析モジュール402の実行を介して)、立体画像分析を第2及び第3の複数の画像に対して実行し得る(例えば、立体画像分析モジュール404の実行を介して)。画像捕捉デバイス122、124、及び126の構成 − 各位置及び視野202、204、及び206を含め − は、第1、第2、及び第3の複数の画像に対して行われる分析のタイプに影響を及ぼし得る。開示される実施形態は、画像捕捉デバイス122、124、及び126の特定の構成又は第1、第2、及び第3の複数の画像に対して行われる分析のタイプに限定されない。   [0185] In step 720, the processing unit 110 analyzes the first, second, and third plurality of images to determine lane marks, vehicles, pedestrians, road signs, highway exit ramps, traffic lights, and roads. Features in the image, such as dangerous goods, can be detected. The analysis may be performed similarly to the steps described above in connection with FIGS. 5A-5D and FIG. For example, the processing unit 110 may perform a monocular image analysis on each of a first, second, and third plurality of images (e.g., with reference to performing the monocular image analysis module 402 and FIGS. 5A-5D). And based on the steps described above). Alternatively, processing unit 110 performs stereoscopic image analysis on the first and second plurality of images, the second and third plurality of images, and / or the first and third plurality of images. (Eg, via execution of the stereoscopic image analysis module 404 and based on the steps described above in connection with FIG. 6). The processed information corresponding to the analysis of the first, second, and / or third plurality of images may be combined. In some embodiments, processing unit 110 may perform a combination of monocular image analysis and stereoscopic image analysis. For example, the processing unit 110 may perform monocular image analysis on the first plurality of images (eg, via execution of the monocular image analysis module 402) and perform stereoscopic image analysis on the second and third plurality of images. (Eg, via execution of the stereoscopic image analysis module 404). The configuration of the image capture devices 122, 124 and 126-including each position and field of view 202, 204 and 206-affects the type of analysis performed on the first, second and third plurality of images. Can be effected. The disclosed embodiments are not limited to the particular configuration of the image capture devices 122, 124, and 126 or the type of analysis performed on the first, second, and third plurality of images.

[0186] 幾つかの実施形態では、処理ユニット110は、ステップ710及び720において取得され分析された画像に基づいて、システム100にテストを実行し得る。そのようなテストは、画像捕捉デバイス122、124、及び126の特定の構成でのシステム100の全体性能のインジケータを提供し得る。例えば、処理ユニット110は、「偽性ヒット」(例えば、システム100が車両又は歩行者の存在を誤って判断する場合)及び「見落とし」の割合を特定し得る。   [0186] In some embodiments, processing unit 110 may perform tests on system 100 based on the images acquired and analyzed in steps 710 and 720. Such a test may provide an indicator of the overall performance of the system 100 with a particular configuration of the image capture devices 122, 124, and 126. For example, the processing unit 110 may identify the percentage of “false hits” (eg, when the system 100 incorrectly determines the presence of a vehicle or pedestrian) and “overlooks”.

[0187] ステップ730において、処理ユニット110は、第1、第2、及び第3の複数の画像の2つから導出される情報に基づいて、車両200での1つ又は複数のナビゲーション応答を生じさせ得る。第1、第2、及び第3の複数の画像の2つの選択は、例えば、複数の画像のそれぞれで検出される物体の数、タイプ、及びサイズ等の様々なファクタに依存し得る。処理ユニット110は、画像の品質及び解像度、画像に反映される有効視野、捕捉フレーム数、及び対象となる1つ又は複数の物体が実際にフレームに現れる程度(例えば、物体が現れるフレームのパーセンテージ、物体がそのような各フレームで現れる割合等)等に基づいて選択を行うことができる。   [0187] At step 730, the processing unit 110 generates one or more navigation responses at the vehicle 200 based on information derived from two of the first, second, and third plurality of images. I can make it. The two choices of the first, second, and third plurality of images may depend on various factors, such as, for example, the number, type, and size of objects detected in each of the plurality of images. The processing unit 110 may determine the quality and resolution of the image, the effective field of view reflected in the image, the number of captured frames, and the extent to which the object or objects of interest actually appear in the frames (eg, the percentage of frames in which the objects appear, The selection can be made based on, for example, the rate at which objects appear in each such frame).

[0188] 幾つかの実施形態では、処理ユニット110は、ある画像ソースから導出された情報が、他の画像ソースから導出される情報と一貫する程度を特定することにより、第1、第2、及び第3の複数の画像の2つから導出される情報を選択し得る。例えば、処理ユニット110は、画像捕捉デバイス122、124、及び126のそれぞれから導出される処理済み情報(単眼分析であれ、立体分析であれ、又はそれら2つの任意の組合せであれ関係なく)を結合して、画像捕捉デバイス122、124、及び126のそれぞれから捕捉される画像にわたり一貫する視覚的インジケータ(例えば、レーンマーク、検出された車両及び/又はその位置及び/又は経路、検出された信号機等)を特定し得る。処理ユニット110は、捕捉画像にわたり一貫しない情報(例えば、レーンを変更中の車両、車両200に近過ぎる車両を示すレーンモデル等)を除外することもできる。従って、処理ユニット110は、一貫情報及び非一貫情報の特定に基づいて、第1、第2、及び第3の複数の画像の2つからの導出される情報を選択し得る。   [0188] In some embodiments, the processing unit 110 may determine the degree to which information derived from one image source is consistent with information derived from other image sources, such that the first, second, And information derived from two of the third plurality of images. For example, processing unit 110 combines the processed information (whether monocular analysis, stereoscopic analysis, or any combination of the two) derived from each of image capture devices 122, 124, and 126. In addition, visual indicators (eg, lane marks, detected vehicles and / or their locations and / or paths, detected traffic lights, etc.) that are consistent across the images captured from each of the image capture devices 122, 124, and 126 ) Can be specified. The processing unit 110 may also filter out inconsistent information across the captured images (eg, vehicles changing lanes, lane models indicating vehicles too close to vehicle 200, etc.). Accordingly, the processing unit 110 may select information derived from two of the first, second, and third plurality of images based on the identification of the consistent and inconsistent information.

[0189] ナビゲーション応答は、例えば、ターン、レーンシフト、及び加速度変更を含み得る。処理ユニット110は、ステップ720において実行される分析及び図4に関連して上述した技法に基づいて、1つ又は複数のナビゲーション応答を生じさせ得る。処理ユニット110は、速度及び加速度モジュール406の実行から導出されるデータを使用して、1つ又は複数のナビゲーション応答を生じさせることもできる。幾つかの実施形態では、処理ユニット110は、車両200と第1、第2、及び第3の複数の画像のいずれかで検出される物体との間の相対位置、相対速度、及び/又は相対加速度に基づいて、1つ又は複数のナビゲーション応答を生じさせ得る。複数のナビゲーション応答は、同時に行ってもよく、順次行ってもよく、又はそれらの任意の組合せで行ってもよい。   [0189] Navigation responses may include, for example, turns, lane shifts, and acceleration changes. Processing unit 110 may generate one or more navigation responses based on the analysis performed in step 720 and the techniques described above in connection with FIG. The processing unit 110 may also use the data derived from the execution of the speed and acceleration module 406 to generate one or more navigation responses. In some embodiments, processing unit 110 may include a relative position, relative velocity, and / or relative position between vehicle 200 and an object detected in any of the first, second, and third plurality of images. One or more navigation responses may be generated based on the acceleration. Multiple navigation responses may occur simultaneously, sequentially, or in any combination thereof.

[0190] 強化学習及びトレーニング済みナビゲーションシステム
[0191] 以下の節は、車両の自律制御が完全に自律的(自動運転車両)であろうと、部分的に自律的(例えば、1人又は複数のドライバーがシステム又は機能を支援する)であろうと、車両の自律制御を実現するためのシステム及び方法と共に自律運転について論じる。図8に示すように、自律運転タスクは、検知モジュール801、運転ポリシモジュール803、及び制御モジュール805を含む3つの主なモジュールに分けることができる。幾つかの実施形態では、モジュール801、803、及び805をシステム100のメモリユニット140及び/又はメモリユニット150内に記憶することができ、及び/又はモジュール801、803、及び805(又はその一部)をシステム100から離して記憶する(例えば、無線送受信機172によって例えばシステム100がアクセス可能なサーバ内に記憶する)ことができる。更に、本明細書で開示するモジュール(例えば、モジュール801、803、及び805)のいずれも、トレーニング済みシステム(ニューラルネットワーク又はディープニューラルネットワーク等)又はトレーニングされていないシステムに関連する技法を実装することができる。
[0190] Reinforcement learning and trained navigation system
[0191] The following sections are partially autonomous (eg, one or more drivers assist a system or function), whether autonomous control of the vehicle is fully autonomous (autonomous vehicle). Autonomous driving will be discussed together with systems and methods for achieving autonomous control of vehicles. As shown in FIG. 8, the autonomous driving task can be divided into three main modules including a detection module 801, a driving policy module 803, and a control module 805. In some embodiments, modules 801, 803, and 805 can be stored in memory unit 140 and / or memory unit 150 of system 100 and / or modules 801, 803, and 805 (or a portion thereof). ) Can be stored separately from system 100 (eg, stored in a server accessible by system 100 by wireless transceiver 172). Further, any of the modules disclosed herein (eg, modules 801, 803, and 805) implement techniques associated with trained systems (such as neural or deep neural networks) or untrained systems. Can be.

[0192] 処理ユニット110を使用して実装することができる検知モジュール801は、ホスト車両の環境内のナビゲーション状態の検知に関連する様々なタスクを処理することができる。かかるタスクは、ホスト車両に関連する様々なセンサ及び検知システムからの入力に依存し得る。それらの入力は、1つ又は複数のオンボードカメラからの画像又は画像ストリーム、GPS位置情報、加速度計の出力、ユーザフィードバック、1つ又は複数のユーザインタフェース装置へのユーザ入力、レーダ、ライダ等を含み得る。地図情報と共にカメラ及び/又は他の任意の利用可能なセンサからのデータを含み得る検知データを収集し、分析し、ホスト車両の環境内のシーンから抽出される情報を記述する「検知状態」へと系統立てて表すことができる。検知状態は、任意の潜在的な(可能性のある)検知情報の中でも、目標車両、レーンマーク、歩行者、信号機、道路の幾何学的形状、レーン形状、障害物、他の物体/車両までの距離、相対速度、相対加速度に関係する検知情報を特に含み得る。検知モジュール801に提供される検知データに基づいて検知状態出力を作り出すために、教師あり機械学習を実施することができる。検知モジュールの出力は、ホスト車両の検知ナビゲーション「状態」を表すことができ、それは、運転ポリシモジュール803に送られ得る。   [0192] The detection module 801 that can be implemented using the processing unit 110 can process various tasks related to detecting navigational conditions in the environment of the host vehicle. Such tasks may depend on inputs from various sensors and sensing systems associated with the host vehicle. These inputs include images or image streams from one or more on-board cameras, GPS position information, accelerometer outputs, user feedback, user inputs to one or more user interface devices, radar, lidar, etc. May be included. Collect and analyze sensing data, which may include data from cameras and / or any other available sensors along with map information, and go to a "sensing state" that describes information extracted from scenes in the environment of the host vehicle. And can be systematically represented. The detection state includes, among any potential (possible) detection information, the target vehicle, lane marks, pedestrians, traffic lights, road geometry, lane shapes, obstacles, and other objects / vehicles. Detection information relating to the distance, relative speed, and relative acceleration of the vehicle. Supervised machine learning can be performed to create a detection status output based on the detection data provided to the detection module 801. The output of the sensing module may represent a sensed navigation “state” of the host vehicle, which may be sent to the driving policy module 803.

[0193] ホスト車両に関連する1つ又は複数のカメラ又は画像センサから受信される画像データに基づいて検知状態を決定することができるが、ナビゲーションに使用される検知状態は、任意の適切なセンサ又はセンサの組合せを使用して決定することができる。幾つかの実施形態では、捕捉画像データを使用することなしに検知状態を決定することができる。実際、本明細書に記載のナビゲーション原理のいずれも、捕捉画像データに基づいて決定される検知状態並びに他の非画像ベースのセンサを使用して決定される検知状態に適用可能であり得る。検知状態は、ホスト車両の外部のソースによって決定することもできる。例えば、検知状態は、ホスト車両から離れたソースから受信される情報に基づいて(例えば、他の車両から共有されるか、中央サーバから共有されるか、又はホスト車両のナビゲーション状態に関連する情報の他の任意のソースから共有されるセンサ情報や処理された状態情報等に基づいて)完全に又は部分的に決定することができる。   [0193] Although the detection state can be determined based on image data received from one or more cameras or image sensors associated with the host vehicle, the detection state used for navigation can be any suitable sensor. Alternatively, it can be determined using a combination of sensors. In some embodiments, the detection state can be determined without using the captured image data. In fact, any of the navigation principles described herein may be applicable to sensing states determined based on captured image data as well as sensing states determined using other non-image based sensors. The detection state can also be determined by a source external to the host vehicle. For example, the sensing state may be based on information received from a source remote from the host vehicle (eg, shared from other vehicles, shared from a central server, or information related to the navigation state of the host vehicle). (Based on sensor information, processed status information, etc.) shared from any other source of information).

[0194] 以下でより詳細に解説し、処理ユニット110を使用して実装することができる運転ポリシモジュール803は、検知されるナビゲーション状態に応じてホスト車両が行う1つ又は複数のナビゲーション動作を決定するための所望の運転ポリシを実装することができる。ホスト車両の環境内に他のエージェント(例えば、目標車両又は歩行者)がない場合、運転ポリシモジュール803に入力される検知状態は、比較的簡単な方法で処理することができる。検知状態が1つ又は複数の他のエージェントとの折衝を必要とする場合、このタスクは、より複雑になる。運転ポリシモジュール803の出力を生成するために使用される技術は、強化学習(以下でより詳細に解説する)を含み得る。運転ポリシモジュール803の出力は、ホスト車両のための少なくとも1つのナビゲーション動作を含むことができ、潜在的な所望のナビゲーション動作の中でも、(ホスト車両の更新された速度につながり得る)所望の加速度、ホスト車両の所望のヨー率、所望の軌道を特に含み得る。   [0194] The driving policy module 803, which is described in more detail below and can be implemented using the processing unit 110, determines one or more navigation actions to be performed by the host vehicle depending on the detected navigation state. To implement a desired operation policy. If there is no other agent (e.g., target vehicle or pedestrian) in the environment of the host vehicle, the sensing state input to driving policy module 803 can be processed in a relatively simple manner. This task becomes more complex if the sensing state requires negotiation with one or more other agents. The techniques used to generate the output of the driving policy module 803 may include reinforcement learning (discussed in more detail below). The output of the driving policy module 803 can include at least one navigation operation for the host vehicle, a desired acceleration (which can lead to an updated speed of the host vehicle), among other desired navigation operations. It may specifically include the desired yaw rate, the desired trajectory of the host vehicle.

[0195] 運転ポリシモジュール803からの出力に基づき、同じく処理ユニット110を使用して実装することができる制御モジュール805は、ホスト車両に関連する1つ又は複数のアクチュエータ又は被制御装置のための制御命令を決定することができる。かかるアクチュエータ及び装置は、アクセル、1つ又は複数の操舵制御、ブレーキ、信号送信機、ディスプレイ、又はホスト車両に関連するナビゲーション動作の一環として制御され得る他の任意のアクチュエータ若しくは装置を含み得る。制御モジュール805の出力を生成するために制御理論の側面を使用することができる。運転ポリシモジュール803の所望のナビゲーション目標又は要件を実施するために、制御モジュール805は、ホスト車両の制御可能な構成要素への命令を決定し出力することを担い得る。   [0195] Based on the output from the driving policy module 803, the control module 805, which can also be implemented using the processing unit 110, controls one or more actuators or controlled devices associated with the host vehicle. Instructions can be determined. Such actuators and devices may include an accelerator, one or more steering controls, brakes, signal transmitters, displays, or any other actuator or device that may be controlled as part of a navigation operation associated with the host vehicle. Control theory aspects can be used to generate the output of the control module 805. To implement the desired navigational goals or requirements of the driving policy module 803, the control module 805 may be responsible for determining and outputting commands to controllable components of the host vehicle.

[0196] 運転ポリシモジュール803に戻り、幾つかの実施形態では、強化学習によってトレーニングされるトレーニング済みシステムを使用して運転ポリシモジュール803を実装することができる。他の実施形態では、指定のアルゴリズムを使用して自律ナビゲーション中に生じ得る様々なシナリオに「手動で」対処することにより、運転ポリシモジュール803を機械学習法なしに実装することができる。しかし、かかる手法は、実行可能であるが、あまりにも単純過ぎる運転ポリシをもたらす可能性があり、機械学習に基づくトレーニング済みシステムの柔軟性を欠く場合がある。トレーニング済みシステムは、複雑なナビゲーション状態を処理する態勢がより整っている場合があり、タクシーが駐車しているか、乗客を乗せる又は降ろすために停車しているかをより良好に判定することができ、ホスト車両の前方の道路を歩行者が横断しようとしているかどうかをより良好に判定し、自衛性に対する他のドライバーの予期せぬ挙動のバランスをより良好に取り、目標車両及び/又は歩行者を含む混雑した道路をより良好に通り抜け、特定のナビゲーション規則を中断するか又は他の規則を増強するときをより良好に決定し、未検知であるが予期される条件(例えば、歩行者が車又は障害物の裏から現れるかどうか)等をより良好に予期することができる。強化学習に基づくトレーニング済みシステムは、連続的な動作空間と共に連続的且つ高次元の状態空間に対処する態勢がより整っている場合もある。   [0196] Returning to the driving policy module 803, in some embodiments, the driving policy module 803 can be implemented using a trained system trained by reinforcement learning. In other embodiments, the driving policy module 803 can be implemented without machine learning methods by using a specified algorithm to "manually" address various scenarios that may occur during autonomous navigation. However, such an approach, while feasible, can result in driving policies that are too simple, and may lack the flexibility of a trained system based on machine learning. The trained system may be better prepared to handle complex navigation situations and can better determine if a taxi is parked or parked to take or drop passengers, Better determine whether pedestrians are crossing the road ahead of the host vehicle, better balance the unexpected behavior of other drivers with self-defense, and include target vehicles and / or pedestrians Better traverse congested roads, better determine when to interrupt certain navigation rules or augment other rules, and detect undetected but expected conditions (e.g., pedestrians are Etc.) can be better expected. A trained system based on reinforcement learning may be better equipped to cope with a continuous, high-dimensional state space as well as a continuous motion space.

[0197] 強化学習を使用してシステムをトレーニングすることは、検知状態からナビゲーション動作にマッピングするために運転ポリシを学習することを含み得る。運転ポリシは、関数π:S→Aであり、Sは、状態の組であり、

は、動作空間(例えば、所望の速度、加速度、ヨーコマンド等)である。状態空間は、S=SxSであり、Sは、検知状態であり、Sは、ポリシによって保存された状態に対する追加情報である。離散的な時間間隔で機能し、時点tにおいて現在の状態s∈Sを観測することができ、ポリシを適用して所望の動作a=π(s)を得ることができる。
[0197] Training the system using reinforcement learning may include learning a driving policy to map from detected states to navigation actions. The driving policy is a function π: S → A, where S is a set of states,

Is the motion space (eg, desired speed, acceleration, yaw command, etc.). State space is S = S S xS p, S S is a detection state, S p is the additional information for the state that was saved by the policy. Function at discrete time intervals, it is possible to observe the current state s t ∈S at time t, desired operation by applying the policy a t = π (s t) can be obtained.

[0198] システムは、様々なナビゲーション状態にさらし、システムにポリシを適用させ、(所望のナビゲーション挙動に報酬を与えるように設計される報酬関数に基づいて)報酬を与えることによってトレーニングすることができる。報酬のフィードバックに基づき、システムは、ポリシを「学習」することができ、所望のナビゲーション動作を作り出すことにおいてトレーニングされた状態になる。例えば、学習システムは、現在の状態s∈Sを観測し、ポリシ

に基づいて動作a∈Aを決定することができる。決定された動作(及びその動作の実施)に基づき、環境は、学習システムによって観測するための次の状態st+1∈Sに移る。観測された状態に応じて決定される各動作について、学習システムに対するフィードバックは、報酬信号r、r、...である。
[0198] The system can be trained by exposing it to various navigation states, applying policies to the system, and rewarding (based on reward functions designed to reward the desired navigation behavior). . Based on the reward feedback, the system can "learn" the policy and become trained in creating the desired navigation behavior. For example, the learning system observes the current state s t ∈S, and

The operation at t A can be determined based on Based on the determined action (and the performance of that action), the environment moves to the next state st + 1εS for observation by the learning system. For each action determined according to the observed state, the feedback to the learning system is a reward signal r 1 , r 2 ,. . . It is.

[0199] 強化学習(RL)の目標は、ポリシπを見つけることである。時点tにおいて、状態sにあり、動作aを行う即時の品質を測定する報酬関数rがあると通常想定される。しかし、時点tにおいて動作aを行うことは、環境に影響を与え、従って将来の状態の値に影響を及ぼす。その結果、いずれの動作を行うかを決定するとき、現在の報酬を考慮するだけでなく将来の報酬も検討すべきである。幾つかの場合、ここで報酬が低い選択肢を行った場合により多くの報酬を将来実現できるとシステムが判定する場合、たとえ利用可能な別の選択肢よりも特定の動作が低い報酬に関連していても、システムは、その動作を行うべきである。これを形式化するために、ポリシπ及び初期状態sが、

にわたる分布を引き起こすことを観測し、エージェントが状態s=sから開始し、そこからポリシπに従う場合、ベクトル(r,...,r)の確率は、報酬r,...,rを観測する確率である。初期状態sの値は、次式で定めることができる。
[0200]
[0199] The goal of reinforcement learning (RL) is to find the policy π. At time t, in a state s t, it is usually assumed when there is reward function r t for measuring the quality of immediate performing operations a t. However, by performing the operation a t at time t, the impact on the environment, thus affecting the value of the future state. As a result, when deciding which action to take, one should not only consider current rewards, but also future rewards. In some cases, if the system determines that a lower-reward option makes more rewards in the future if the option is taken here, even if a particular action is associated with a lower reward than another option available, Even the system should perform that action. To formalize this, the policy π and the initial state s are

If the agent starts from the state s 0 = s and obeys the policy π from there, the probability of the vector (r 1 ,..., R T ) is equal to the rewards r 1 ,. . . , RT . The value of the initial state s can be determined by the following equation.
[0200]

[0201] 対象期間をTに限定するのではなく、将来の報酬を割り引いて一部の固定されたγ∈(0,1)について次式を定めることができる。
[0202]
[0201] Instead of limiting the target period to T, the following formula can be defined for some fixed γ∈ (0, 1) by discounting future rewards.
[0202]

[0203] いずれにせよ、最適なポリシは、
[0204]

[0205] の解であり、期待値は、初期状態sにわたる。
[0203] In any case, the best policy is
[0204]

[0205] The expected value is over the initial state s.

[0206] 運転ポリシシステムをトレーニングするための幾つかのあり得る方法体系がある。例えば、システムは、状態/動作の対から学習する模倣手法(例えば、挙動クローニング)を使用することができ、動作は、特定の観測状態に応じて優良なエージェント(例えば、人間)によって選択されるものである。人間のドライバーが観測されると仮定する。この観測により、運転ポリシシステムをトレーニングするための基礎として、(s,a)という形式(sは、状態であり、aは、人間のドライバーの動作である)の多くの例を取得し、観測し、使用することができる。例えば、π(s)≒aが成立するように教師あり学習を使用してポリシπを学習することができる。この手法には多くの潜在的な利点がある。第1に、報酬関数を定める必要がない。第2に、学習は、「教師あり」であり、オフラインで行われる(学習プロセス内でエージェントを適用する必要はない)。この方法の不利点は、様々な人間のドライバー及び更には同じ人間のドライバーでさえ自分のポリシ選択の点で決定論的でないことである。従って、||π(s)−a||が非常に小さい関数を学習するのは不可能であることが多い。更に、小さい誤差でさえ徐々に蓄積して大きい誤差を発生させる場合がある。 [0206] There are several possible schemes for training a driving policy system. For example, the system can use a mimicry approach (eg, behavior cloning) that learns from state / action pairs, where the action is selected by a good agent (eg, a human) depending on the particular observation state. Things. Suppose a human driver is observed. This observation, as a basis for training the operating policy system, many examples of (s t, a t) form (s t is a state, a t is an operation of the human driver) Can be acquired, observed, and used. For example, it is possible to learn the policy [pi using supervised learning as π (s t) ≒ a t is established. This approach has many potential advantages. First, there is no need to define a reward function. Second, learning is "supervised" and takes place off-line (no need to apply agents within the learning process). A disadvantage of this method is that various human drivers and even the same human driver are not deterministic in terms of their policy choices. Therefore, || π (s t) -a t || it is often impossible to learn very small functions. In addition, even small errors can accumulate gradually to produce large errors.

[0207] 使用され得る別の技法は、ポリシベースの学習である。ここで、ポリシは、パラメトリック形式で表し、適切な最適化技法(例えば、確率勾配降下)を使用して直接最適化することができる。この手法は、

で与えられる問題を直接解くことである。当然ながら、この問題を解く多くの方法がある。この手法の1つの利点は、この手法が問題に直接取り組み、その結果、多くの場合に優れた実用的結果をもたらすことである。1つの潜在的な不利点は、この手法が多くの場合に「オンポリシ」トレーニングを必要とすることであり、すなわち、πの学習は、反復的プロセスであり、完全ではないポリシπが反復jで得られ、次のポリシπを構築するには、πに基づいて動作しながら環境と相互作用しなければならない。
[0207] Another technique that may be used is policy-based learning. Here, the policy is expressed in a parametric form and can be directly optimized using appropriate optimization techniques (eg, stochastic gradient descent). This technique is

Is to directly solve the problem given by Of course, there are many ways to solve this problem. One advantage of this approach is that it addresses the problem directly, resulting in good practical results in many cases. One potential disadvantage is that this approach often requires “on-policy” training, ie, learning π is an iterative process, and the less-than-perfect policy π j is used to In order to construct the next policy π j , one must interact with the environment while operating on π j .

[0208] システムは、バリューベースの学習(Q関数又はV関数の学習)によってトレーニングすることもできる。最適値関数Vについて優れた近似を学習できると仮定する。(例えば、ベルマン方程式を使用することにより)最適なポリシを構築することができる。バリューベースの学習の一部のバージョンは、オフラインで実施することができる(「オフポリシ」トレーニングと呼ぶ)。バリューベースの手法の一部の不利点は、この手法がマルコフ仮定及び複雑な関数の所要の近似に強く依存することに起因し得る(ポリシを直接近似するよりも価値関数を近似する方が困難であり得る)。 [0208] The system can also be trained by value-based learning (learning of Q function or V function). Suppose that a good approximation can be learned for the optimal value function V * . An optimal policy can be constructed (eg, by using the Bellman equation). Some versions of value-based learning can be performed offline (referred to as "off-policy" training). Some disadvantages of value-based approaches can be attributed to their strong dependence on Markov assumptions and the required approximation of complex functions (it is more difficult to approximate a value function than to directly approximate a policy) Can be).

[0209] 別の技法は、モデルベースの学習及び計画(状態遷移の確率を学習し、最適なVを見出す最適化問題を解くこと)を含み得る。学習システムをトレーニングするためにこれらの技法の組合せを使用することもできる。この手法では、プロセスのダイナミクス、すなわち(s,a)を取り、次の状態st+1にわたる分布をもたらす関数を学習することができる。この関数が学習されると、最適化問題を解いてその値が最適であるポリシπを見出すことができる。これを「計画」と呼ぶ。この手法の1つの利点は、学習部分が「教師あり」であり、三つ組(s,a,st+1)を観測することによってオフラインで適用できることであり得る。「模倣」手法と同様に、この手法の1つの不利点は、学習プロセスにおける小さい誤差が蓄積し、機能が不十分なポリシをもたらす場合があることであり得る。 [0209] Another technique may include model-based learning and planning (learning the probability of state transitions and solving an optimization problem that finds the optimal V). A combination of these techniques can also be used to train a learning system. In this approach, take the dynamics of the process, namely a (s t, a t), it is possible to learn a function that results in a distribution over the next state s t + 1. Once this function has been learned, the optimization problem can be solved to find a policy π whose value is optimal. This is called a "plan." One advantage of this approach is the learning portion "supervised" may be to be applied off-line by observing the triplet (s t, a t, s t + 1). As with the "mimicry" approach, one disadvantage of this approach can be that small errors in the learning process can accumulate and result in a poorly functioning policy.

[0210] 運転ポリシモジュール803をトレーニングするための別の手法は、運転ポリシ関数を意味的に重要な構成要素へと分解することを含み得る。そのようにすることは、ポリシの安全性を保証し得るポリシの一部を手動で実装すること、並びに多くのシナリオへの適応性、自衛的挙動/攻撃的挙動間の人間並みのバランス、及び他のドライバーとの人間並みの折衝を可能にし得る強化学習法を使用してポリシの他の部分を実装することを可能にする。技術的な観点から、強化学習法は、幾つかの方法体系を組み合わせ、トレーニングの殆どが、記録されたデータ又は自己構築シミュレータを使用して実行され得る扱い易いトレーニング手続きを提供することができる。   [0210] Another approach to training the driving policy module 803 may include decomposing the driving policy function into semantically significant components. Doing so involves manually implementing some of the policies that can guarantee the security of the policy, as well as adaptability to many scenarios, a human-like balance between self-defense / aggression behavior, and Allows other parts of the policy to be implemented using reinforcement learning techniques that can allow human-like negotiations with other drivers. From a technical point of view, reinforcement learning methods combine several methodologies and can provide an easy-to-use training procedure where most of the training can be performed using recorded data or self-constructing simulators.

[0211] 幾つかの実施形態では、運転ポリシモジュール803のトレーニングは、「選択肢」メカニズムを利用することができる。それを例証するために、2レーンの高速道路のための運転ポリシの単純なシナリオを検討する。ダイレクトRL手法では、状態を

にマップするポリシπ、π(s)の第1の成分は、所望の加速コマンドであり、π(s)の第2の成分は、ヨー率である。修正された手法では、以下のポリシを構築することができる。
[0211] In some embodiments, training of the driving policy module 803 may utilize an "alternative" mechanism. To illustrate that, consider a simple scenario of a driving policy for a two-lane highway. In the direct RL method, the state

The first component of the policy π, π (s) that maps to is the desired acceleration command, and the second component of π (s) is the yaw rate. With the modified approach, the following policy can be constructed.

[0212] 自動クルーズコントロール(ACC)ポリシ、oACC:S→A;このポリシは、0のヨー率を常に出力し、スムーズ且つ事故のない運転を実施するために速度のみを変更する。 [0212] Automatic Cruise Control (ACC) policy, o ACC : S → A; This policy always outputs a yaw rate of 0, and changes only the speed in order to implement smooth and accident-free driving.

[0213] ACC+Leftポリシ、o:S→A;このポリシの縦方向のコマンドは、ACCコマンドと同じである。ヨー率は、安全な横方向の移動を確実にしながら(例えば、左側に車がある場合には左に移動しない)、車両を左レーンの中央に向けてセンタリングすることの簡単な実施である。 [0213] ACC + Left policy, o L : S → A; The vertical command of this policy is the same as the ACC command. Yaw rate is a simple implementation of centering a vehicle towards the center of the left lane, while ensuring safe lateral movement (eg, not moving left if there is a car on the left).

[0214] ACC+Rightポリシ、o:S→A;oと同じであるが、車両は、右レーンの中央に向けてセンタリングされ得る。 [0214] ACC + Right Policy, o R : S → A; Same as o L , but the vehicle may be centered towards the center of the right lane.

[0215] これらのポリシは、「選択肢」と呼ぶことができる。これらの「選択肢」に依存し、選択肢を選択するポリシπ:S→Oを学習することができ、但し、Oは、利用可能な選択肢の組である。ある事例では、O={oACC,o,o}が成立する。全てのsについて、

を設定することにより、選択肢セレクタポリシπは、実際のポリシ、π:S→Aを定める。
[0215] These policies can be called "options." Depending on these "choices", one can learn a policy π o : S → O for choosing a choice, where O is the set of available choices. In one case, O = {o ACC , o L , o R } holds. For all s

, The choice selector policy π o defines the actual policy, π: S → A.

[0216] 実際には、ポリシ関数は、図9に示すように選択肢のグラフ901へと分解することができる。図10に選択肢のグラフ1000の別の例を示す。選択肢のグラフは、有向非巡回グラフ(DAG)として編成される階層型の決定の組を表し得る。グラフの根ノード903と呼ばれる特別なノードがある。このノードには入力ノードがない。決定プロセスは、根ノードから始まり、出力決定線を有さないノードを指す「葉」ノードに到達するまでこのグラフを横断する。図9に示すように、葉ノードは、例えば、ノード905、907、及び909を含み得る。葉ノードに遭遇すると、運転ポリシモジュール803は、葉ノードに関連する所望のナビゲーション動作に関連する加速コマンド及び操舵コマンドを出力し得る。   In practice, the policy function can be decomposed into a choice graph 901 as shown in FIG. FIG. 10 shows another example of the option graph 1000. The choice graph may represent a hierarchical set of decisions organized as a directed acyclic graph (DAG). There is a special node called the root node 903 of the graph. This node has no input nodes. The decision process starts at the root node and traverses this graph until it reaches a “leaf” node that points to a node that has no output decision line. As shown in FIG. 9, the leaf nodes may include, for example, nodes 905, 907, and 909. Upon encountering a leaf node, the driving policy module 803 may output acceleration and steering commands associated with a desired navigation operation associated with the leaf node.

[0217] 例えば、ノード911、913、915等の内部ノードは、その利用可能な選択肢の中から子を選択するポリシの実装をもたらし得る。内部ノードの利用可能な子の組は、決定線によって特定の内部ノードに関連するノードの全てを含む。例えば、図9で「合流」として示す内部ノード913は、決定線によってノード913にそれぞれつながれる3つの子ノード909、915、及び917(「留まる」、「右側追い越し」、及び「左側追い越し」のそれぞれ)を含む。   [0217] For example, internal nodes, such as nodes 911, 913, 915, may provide an implementation of a policy that selects a child among its available options. The set of available children of an internal node includes all of the nodes associated with a particular internal node by a decision line. For example, the internal node 913 shown as “merge” in FIG. 9 has three child nodes 909, 915, and 917 (“stay”, “overtake on the right side”, and “overtake on the left side”) respectively connected to the node 913 by a decision line. Each).

[0218] 選択肢のグラフの階層内でノードが自らの位置を調節できるようにすることにより、意思決定システムの柔軟性を得ることができる。例えば、ノードのいずれも自らを「重大」であると宣言することを認められ得る。各ノードは、ノードがそのポリシ実装の重大なセクション内にある場合、「真」を出力する関数「is critical」を実装することができる。例えば、テイクオーバを担うノードは、操作中に自らを重大であると宣言することができる。これは、ノードuの利用可能な子の組に対して制約を課す可能性があり、かかる子は、ノードuの子であり、且つvから葉ノードへの重大であると指定される全てのノードを通過する経路が存在する全てのノードvを含み得る。かかる手法は、一方では、各時間ステップにおけるグラフ上の所望の経路の宣言を可能にし得るのに対し、他方では、とりわけポリシの重大な部分が実施されている間にポリシの安定性を保つことができる。   [0218] The flexibility of the decision-making system can be obtained by allowing nodes to adjust their positions within the hierarchy of the choice graph. For example, any of the nodes may be allowed to declare themselves "critical". Each node can implement a function "is critical" that outputs "true" if the node is within a critical section of its policy implementation. For example, a node responsible for takeover may declare itself critical during operation. This may impose constraints on the set of available children of node u, which are all children of node u and which are designated as critical from v to leaf nodes. It may include all nodes v for which there is a path through the nodes. Such an approach may, on the one hand, allow the declaration of the desired path on the graph at each time step, while, on the other hand, preserving the stability of the policy, especially while critical parts of the policy are being enforced. Can be.

[0219] 選択肢のグラフを定めることにより、運転ポリシπ:S→Aを学習する問題を、グラフの各ノードのポリシを定義する問題へと分解することができ、内部ノードにおけるポリシは、利用可能な子ノードの中から選択すべきである。ノードの一部について、個々のポリシを(例えば、観測される状態に応じた動作の組を指定するif-then形式のアルゴリズムによって)手動で実装することができる一方、他のものについて、強化学習によって構築されるトレーニング済みシステムを使用してポリシを実装することができる。手動の手法又はトレーニングされた/学習された手法の選択は、タスクに関連する安全性の側面及びその相対的な単純さに依存し得る。選択肢のグラフは、ノードの一部が簡単に実装される一方、他のノードがトレーニング済みモデルに依存し得る方法で構築され得る。かかる手法は、システムの安全な動作を保証することができる。   [0219] By defining a graph of alternatives, the problem of learning the driving policy π: S → A can be decomposed into a problem defining the policy of each node of the graph, and the policy of the internal nodes can be used. Should be selected from among the child nodes. For some of the nodes, individual policies can be implemented manually (eg, by an if-then algorithm that specifies a set of behaviors depending on the observed state), while for others, reinforcement learning Policies can be implemented using a trained system built by. The choice of a manual approach or a trained / learned approach may depend on the safety aspects associated with the task and its relative simplicity. The choice graph may be constructed in such a way that some of the nodes are easily implemented while other nodes may depend on the trained model. Such an approach can ensure safe operation of the system.

[0220] 以下の解説は、運転ポリシモジュール803内の図9の選択肢のグラフの役割に関する更なる詳細を与える。上記で論じたように、運転ポリシモジュールへの入力は、例えば、利用可能なセンサから得られる環境地図の概要を示す「検知状態」である。運転ポリシモジュール803の出力は、最適化問題の解として軌道を定める願望の組(a set of desires)(任意選択的に厳密制約の組を伴う)である。   [0220] The following discussion provides further details regarding the role of the options graph of FIG. As discussed above, the input to the driving policy module is, for example, a "sensing state" that outlines an environmental map obtained from available sensors. The output of the driving policy module 803 is a set of desires (optionally with a set of strict constraints) that define the trajectory as a solution to the optimization problem.

[0221] 上記のように、選択肢のグラフは、DAGとして編成される階層型の決定の組を表す。グラフの「根」と呼ばれる特別なノードがある。根ノードは、入力辺(例えば、決定線)を有さない唯一のノードである。決定プロセスは、根ノードから始まり、「葉」ノード、すなわち出力辺を有さないノードに到達するまでグラフを横断する。各内部ノードは、自らの利用可能な子の中から1つの子を選ぶポリシを実装すべきである。全ての葉ノードは、根から葉までの全経路に基づいて願望の組(例えば、ホスト車両のためのナビゲーション目標の組)を定めるポリシを実装すべきである。検知状態に基づいて直接定められる厳密制約の組と共に、願望の組は、その解が車両の軌道である最適化問題を確立する。システムの安全性を更に高めるために厳密制約を使用することができ、運転の快適さ及びシステムの人間並みの運転挙動をもたらすために「願望」を使用することができる。最適化問題への解として提供される軌道は、従って、軌道を実現するためにステアリング、ブレーキ、及び/又はエンジンアクチュエータに与えられるべきコマンドを定める。   [0221] As described above, the option graph represents a set of hierarchical decisions organized as a DAG. There is a special node called the "root" of the graph. The root node is the only node that has no input edges (eg, decision lines). The decision process starts at the root node and traverses the graph until it reaches a "leaf" node, a node that has no output edges. Each internal node should implement a policy that selects one child from among its available children. Every leaf node should implement a policy that defines a desired set (eg, a set of navigational targets for the host vehicle) based on the entire path from the root to the leaves. The set of desires, together with the set of strict constraints directly defined based on the sensing state, establishes an optimization problem whose solution is the trajectory of the vehicle. Strict constraints can be used to further enhance the safety of the system, and "desires" can be used to provide driving comfort and human-like driving behavior of the system. The trajectory provided as a solution to the optimization problem thus defines the commands to be given to the steering, brake and / or engine actuators to achieve the trajectory.

[0222] 図9に戻ると、選択肢のグラフ901は、合流レーンを含む2レーンの高速道路(ある時点において第3のレーンが高速道路の右レーン又は左レーンに合流することを意味する)に関する選択肢のグラフを表す。根ノード903は、ホスト車両が単純な道路のシナリオにあるか、合流シナリオに近づいているかをまず判断する。これは、検知状態に基づいて実施可能な判断の一例である。単純な道路のノード911は、留まるノード909、左側追い越しノード917、及び右側追い越しノード915という3つの子ノードを含む。留まるとは、ホスト車両が同じレーン内を走行し続けたい状況を指す。留まるノードは、葉ノードである(出力辺/線がない)。従って、留まるノードは、願望の組を定める。このノードが定める第1の願望は、例えば、現在の移動レーンの中央に可能な限り近い所望の横方向位置を含み得る。スムーズに(例えば、既定の又は許容可能な加速最大値の範囲内で)ナビゲートする願望もあり得る。留まるノードは、ホスト車両が他の車両に対してどのように反応するかも定めることができる。例えば、留まるノードは、検知される目標車両を調査し、軌道の成分に変換され得る意味論的意味(semantic meaning)をそれぞれに割り当てることができる。   Returning to FIG. 9, the option graph 901 relates to a two-lane highway including a merging lane (meaning that the third lane joins the right lane or the left lane of the highway at some point). Represents a graph of choices. The root node 903 first determines whether the host vehicle is in a simple road scenario or approaching a merge scenario. This is an example of a determination that can be made based on the detection state. The simple road node 911 includes three child nodes: a stay node 909, a left passing node 917, and a right passing node 915. Staying refers to a situation where the host vehicle wants to continue traveling in the same lane. The remaining nodes are leaf nodes (no output edge / line). Thus, the remaining nodes define a set of desires. The first desire defined by this node may include, for example, a desired lateral position as close as possible to the center of the current travel lane. There may also be a desire to navigate smoothly (eg, within a predefined or acceptable acceleration maximum). The staying node can also determine how the host vehicle reacts to other vehicles. For example, the remaining nodes may survey the detected target vehicles and assign each to a semantic meaning that may be translated into a component of the trajectory.

[0223] ホスト車両の環境内の目標車両に様々な意味論的意味を割り当てることができる。例えば、幾つかの実施形態では、意味論的意味は、以下の指示のいずれかを含むことができる:1)無関係:シーン内の検知車両が現在関係しないことを示す、2)隣レーン:検知車両が隣接レーン内にあり、その車両に対して適切なオフセットを保つべきであることを示す(正確なオフセットは、願望及び厳密制約を所与として軌道を構築する最適化問題で計算することができ、場合により車両に依存することができ、選択肢のグラフの留まる葉は、目標車両に対する願望を定める目標車両の意味論の種類を設定する)、3)道を譲る:ホスト車両は、(とりわけホスト車両のレーン内に目標車両が割り込む可能性が高いとホスト車両が判定する場合に)検知した目標車両に例えば減速することによって道を譲ろうと試みる、4)道を進む:ホスト車両が例えば加速することによって優先通行権を受けて応じようと試みる、5)追走:ホスト車両がこの目標車両を追走してスムーズな運転を維持することを望む、6)左側/右側追い越し:これは、ホスト車両が左レーン又は右レーンへのレーン変更を開始したいことを意味する。左側追い越しノード917及び右側追い越しノード915は、依然として願望を定めていない内部ノードである。   [0223] Various semantic meanings can be assigned to target vehicles in the environment of the host vehicle. For example, in some embodiments, the semantic meaning may include any of the following indications: 1) Irrelevant: Indicates that the detected vehicle in the scene is not currently involved 2) Neighboring lane: Detect Indicates that the vehicle is in an adjacent lane and should maintain an appropriate offset with respect to the vehicle (the exact offset can be calculated by an optimization problem that constructs the trajectory given the desires and strict constraints) Can, and possibly depend on the vehicle, the remaining leaves of the options graph set the type of semantics of the target vehicle that defines the desire for the target vehicle) 3) Yield: The host vehicle (especially If the host vehicle determines that the target vehicle is likely to break into the lane of the host vehicle, try to yield to the detected target vehicle, for example by decelerating; 5) Follow-up: the host vehicle wants to follow this target vehicle to maintain smooth driving, 6) left / right side Overtaking: This means that the host vehicle wants to initiate a lane change to the left or right lane. The left passing node 917 and the right passing node 915 are internal nodes for which the desire has not yet been determined.

[0224] 選択肢のグラフ901内の次のノードは、間隙選択ノード919である。このノードは、ホスト車両が入りたい特定の目標レーン内の2つの目標車両間の間隙を選択することを担い得る。IDj形式のノードを選択することにより、jの何らかの値について、ホスト車両は、軌道最適化問題に関する願望、例えば選択された間隙に到達するためにホスト車両が操作を行いたいことを指定する葉に到達する。かかる操作は、現在のレーン内でまず加速し/ブレーキをかけ、選択された間隙に入るのに適した時点において目標レーンに進むことを含み得る。間隙選択ノード919が適切な間隙を見つけることができない場合、現在のレーンの中央に戻り、追い越しを取り消す願望を定める中止ノード921に進む。   [0224] The next node in the option graph 901 is a gap selection node 919. This node may be responsible for selecting the gap between two target vehicles in the particular target lane that the host vehicle wants to enter. By selecting a node in the form of IDj, for some value of j, the host vehicle is given a desire for a trajectory optimization problem, for example, a leaf that specifies that the host vehicle wants to take action to reach the selected gap. To reach. Such an operation may include first accelerating / braking within the current lane and proceeding to the target lane at a suitable time to enter the selected gap. If the gap selection node 919 cannot find a suitable gap, it returns to the center of the current lane and proceeds to a stop node 921 that defines the desire to cancel the overtake.

[0225] 合流ノード913に戻り、ホスト車両が合流に近づくと、ホスト車両には、特定の状況に依存し得る幾つかの選択肢がある。例えば、図11Aに示すように、ホスト車両1105は、2レーン道路の主要レーン又は合流レーン1111内で他の目標車両を検出していない状態で2レーン道路に沿って移動している。この状況では、運転ポリシモジュール803は、合流ノード913に到達すると、留まるノード909を選択することができる。すなわち、道路に合流するものとして目標車両を検知しない場合、自らの現在のレーン内に留まることが望ましい場合がある。   [0225] Returning to merge node 913, as the host vehicle approaches the merge, the host vehicle has several options that may depend on the particular situation. For example, as shown in FIG. 11A, the host vehicle 1105 is moving along the two-lane road without detecting any other target vehicle in the main lane or the merged lane 1111 of the two-lane road. In this situation, when the operation policy module 803 reaches the merging node 913, it can select the node 909 to stay. That is, if the target vehicle is not detected as joining the road, it may be desirable to stay in the current lane.

[0226] 図11Bでは、この状況が僅かに異なる。ここで、ホスト車両1105は、合流レーン1111から主たる道路1112に入ってくる1つ又は複数の目標車両1107を検知する。この状況では、運転ポリシモジュール803が合流ノード913に直面すると、運転ポリシモジュール803は、合流の状況を回避するために左側追い越し操作を開始することに決めることができる。   [0226] In FIG. 11B, this situation is slightly different. Here, the host vehicle 1105 detects one or a plurality of target vehicles 1107 entering the main road 1112 from the merging lane 1111. In this situation, when the driving policy module 803 faces the merging node 913, the driving policy module 803 may decide to initiate a left handing operation to avoid a merging situation.

[0227] 図11Cでは、ホスト車両1105は、合流レーン1111から主たる道路1112に入る1つ又は複数の目標車両1107に遭遇する。ホスト車両1105は、ホスト車両のレーンに隣接するレーン内を移動する目標車両1109も検出する。ホスト車両は、ホスト車両1105と同じレーン内を移動する1つ又は複数の目標車両1110も検出する。この状況では、運転ポリシモジュール803は、ホスト車両1105の速度を調節して目標車両1107に道を譲り、目標車両1115の前に進むことに決めることができる。これは、例えば、適切な合流の間隙としてID0(車両1107)とID1(車両1115)との間の間隙を選択する間隙選択ノード919に進むことによって実現され得る。その場合、合流の状況の適切な間隙が軌道プランナ最適化問題の目的を定める。   [0227] In FIG. 11C, the host vehicle 1105 encounters one or more target vehicles 1107 entering the main road 1112 from the merging lane 1111. The host vehicle 1105 also detects a target vehicle 1109 that moves in a lane adjacent to the host vehicle lane. The host vehicle also detects one or more target vehicles 1110 traveling in the same lane as the host vehicle 1105. In this situation, the driving policy module 803 may adjust the speed of the host vehicle 1105 to yield to the target vehicle 1107 and proceed ahead of the target vehicle 1115. This can be achieved, for example, by going to a gap selection node 919 that selects the gap between ID0 (vehicle 1107) and ID1 (vehicle 1115) as the appropriate confluence gap. In that case, the appropriate gap in the confluence situation sets the goal for the trajectory planner optimization problem.

[0228] 上記で論じたように、選択肢のグラフのノードは、自らを「重大」であると宣言することができ、かかる宣言は、選択される選択肢が重大なノードを通過することを確実にし得る。形式上、各ノードは関数IsCriticalを実装することができる。選択肢のグラフ上で根から葉への順方向パスを行い、軌道プランナの最適化問題を解いた後、葉から根に逆方向パスを行うことができる。この逆方向パスに沿ってパス内の全てのノードのIsCritical関数を呼び出すことができ、全ての重大なノードのリストを保存することができる。次の時間枠に対応する順方向経路内において、全ての重大なノードを通過する根ノードから葉ノードへの経路を選択することを運転ポリシモジュール803が要求され得る。   [0228] As discussed above, nodes in the graph of alternatives may declare themselves "critical", such declaration ensuring that the selected alternative passes through the critical nodes. obtain. Formally, each node can implement the function IsCritical. After performing a forward pass from the root to the leaf on the option graph and solving the trajectory planner optimization problem, a backward pass from the leaf to the root can be performed. Along this backward path, the IsCritical function of every node in the path can be called, and a list of all critical nodes can be saved. The driving policy module 803 may be required to select a path from the root node to a leaf node that passes through all critical nodes in the forward path corresponding to the next time frame.

[0229] 図11A〜図11Cは、この手法の潜在的な利益を示すために使用することができる。例えば、追い越し動作が開始され、運転ポリシモジュール803がIDkに対応する葉に到達する状況では、ホスト車両が追い越し操作の途中にある場合、例えば留まるノード909を選択することは望ましくない。このジャンプ性を回避するために、IDjノードは、自らを重大であると指定することができる。操作中、軌道プランナの成功を監視することができ、関数IsCriticalは、追い越し操作が意図した通りに進む場合に「真」値を返す。この手法は、(最初に選択した操作を完了する前に潜在的に一貫性のない別の操作にジャンプするのではなく)次の時間枠内で追い越し操作が続行されることを確実にし得る。他方では、選択された操作が意図した通りに進んでいないことを操作の監視が示す場合又は操作が不要若しくは不可能になった場合、関数IsCriticalは、「偽」値を返すことができる。これは、間隙選択ノードが次の時間枠内で異なる間隙を選択すること、又は追い越し操作を完全に中止することを可能にし得る。この手法は、一方では、各時間ステップにおける選択肢のグラフ上の所望の経路の宣言を可能にし得るのに対し、他方では、実行の重大な部分にある間のポリシの安定性を促進することを支援し得る。   [0229] FIGS. 11A-11C can be used to illustrate the potential benefits of this approach. For example, in a situation where the overtaking operation is started and the driving policy module 803 reaches the leaf corresponding to IDk, when the host vehicle is in the middle of the overtaking operation, for example, it is not desirable to select the node 909 to stay. To avoid this jump property, IDj nodes can designate themselves as critical. During operation, the success of the trajectory planner can be monitored, and the function IsCritical returns a "true" value if the overtaking operation proceeds as intended. This approach may ensure that the overtaking operation continues in the next time frame (rather than jumping to another potentially inconsistent operation before completing the first selected operation). On the other hand, if the operation monitoring indicates that the selected operation is not proceeding as intended, or if the operation becomes unnecessary or impossible, the function IsCritical can return a "false" value. This may allow the gap selection node to select a different gap in the next time frame, or abort the overtaking operation altogether. This approach may, on the one hand, allow the declaration of the desired path on the graph of choices at each time step, while on the other hand promoting policy stability during a critical part of the execution. Can help.

[0230] 以下でより詳細に解説する厳密制約は、ナビゲーションの願望と区別することができる。例えば、厳密制約は、計画されたナビゲーション動作の追加のフィルタリング層を適用することによって安全運転を保証することができる。強化学習に基づいて構築されるトレーニング済みシステムを使用することによってではなく、手動でプログラムされ定義され得る関与する厳密制約は、検知状態から決定することができる。但し、幾つかの実施形態では、トレーニングされたシステムは、適用され従うことになる適用可能な厳密制約を学習することができる。かかる手法は、適用可能な厳密制約に既に準拠している被選択動作に運転ポリシモジュール803が到達することを促進することができ、そうすることで適用可能な厳密制約に準拠するために後に修正を必要とし得る被選択動作を減らすか又は除去することができる。それでもなお、冗長な安全対策として、所定の厳密制約を考慮するように運転ポリシモジュール803が訓練されている場合でも、運転ポリシモジュール803の出力に厳密制約を適用することができる。   [0230] The strict constraints described in more detail below can be distinguished from the desires of navigation. For example, strict constraints can ensure safe driving by applying an additional filtering layer of planned navigation behavior. Rather than using a trained system built on reinforcement learning, the strict constraints involved that can be programmed and defined manually can be determined from the sensed state. However, in some embodiments, the trained system can learn applicable strict constraints that will be applied and followed. Such an approach may facilitate driving policy module 803 to reach a selected operation that is already compliant with the applicable strict constraints, so that it is later modified to comply with the applicable strict constraints. Can be reduced or eliminated. Nevertheless, as a redundant safety measure, even if the operation policy module 803 is trained to take into account predetermined strict restrictions, strict restrictions can be applied to the output of the operation policy module 803.

[0231] 潜在的な厳密制約の多くの例がある。例えば、厳密制約は、道路縁のガードレールに関連して定めることができる。いかなる状況でも、ホスト車両がガードレールを越えることは認められない。そのような規則は、ホスト車両の軌道に対する横方向の厳密制約を引き起こす。厳密制約の別の例は、道路のバンプ(例えば、速度制御バンプ)を含むことができ、かかるバンプは、バンプ前の又はバンプを横断する間の運転速度に対する厳密制約を引き起こし得る。厳密制約は、安全を最重視すべきであると考えることができ、従ってトレーニング中に制約を学習するトレーニング済みシステムに専ら依存するのではなく、手動で定めることができる。   [0231] There are many examples of potential strict constraints. For example, a strict constraint may be defined in relation to a guardrail at a road edge. Under no circumstances shall the host vehicle cross the guardrail. Such rules cause severe lateral constraints on the trajectory of the host vehicle. Another example of a stringent constraint may include road bumps (eg, speed control bumps), which may cause stringent constraints on driving speed before or during and across bumps. Strict constraints can be considered that safety should be paramount, and thus can be manually defined rather than relying exclusively on a trained system to learn the constraints during training.

[0232] 厳密制約とは対照的に、願望の目標は、快適な運転を可能にするか又は実現することであり得る。上記で論じたように、願望の一例は、ホスト車両のレーンの中央に対応するレーン内の横方向位置にホスト車両を位置決めする目標を含み得る。別の願望は、入り込むための間隙のIDを含み得る。ホスト車両は、厳密にレーンの中央にある必要はなく、代わりにレーンの中央に可能な限り近くありたいという願望は、ホスト車両がレーンの中央から外れた場合にもレーンの中央に移動し易いことを保証できることに留意されたい。願望は、安全を最重視しなくてもよい。幾つかの実施形態では、願望は、他のドライバー及び歩行者との折衝を必要とし得る。願望を構築するためのある手法は、選択肢のグラフを利用することができ、グラフの少なくとも一部のノード内で実装されるポリシは、強化学習に基づき得る。   [0232] In contrast to strict constraints, the goal of desire may be to enable or achieve comfortable driving. As discussed above, one example of a desire may include the goal of positioning the host vehicle at a lateral position in a lane corresponding to the center of the lane of the host vehicle. Another desire may include the ID of the gap to enter. The host vehicle does not have to be strictly in the center of the lane; instead, the desire to be as close as possible to the center of the lane makes it easier to move to the center of the lane if the host vehicle deviates from the center of the lane Note that this can be guaranteed. The desire does not have to put safety first. In some embodiments, the desire may require negotiation with other drivers and pedestrians. Certain approaches to building desires may utilize a graph of choices, and policies implemented within at least some nodes of the graph may be based on reinforcement learning.

[0233] 学習に基づいてトレーニングされるノードとして実装される選択肢のグラフ901又は1000のノードについて、トレーニングプロセスは、問題を教師あり学習フェーズ及び強化学習フェーズへと分解することを含み得る。教師あり学習フェーズでは、

が成立するように、(s,a)から

への可微分マッピングが学習され得る。これは、「モデルベースの」強化学習と同様であり得る。しかし、ネットワークの順方向ループでは、

をst+1の実際の値で置換し、それにより誤差が蓄積する問題をなくすことができる。

の予測の役割は、将来から過去の動作にメッセージを伝えることである。この意味において、アルゴリズムは、「モデルベースの」強化学習と「ポリシベースの学習」との組み合わせであり得る。
[0233] For the nodes of the graph of options 901 or 1000 implemented as nodes trained based on learning, the training process may include decomposing the problem into a supervised learning phase and a reinforcement learning phase. During the supervised learning phase,

As but satisfied, from the (s t, a t)

A differentiable mapping to can be learned. This may be similar to "model-based" reinforcement learning. But in the forward loop of the network,

With the actual value of st + 1 , thereby eliminating the problem of accumulating errors.

The role of prediction is to convey messages from the future to past actions. In this sense, the algorithm can be a combination of "model-based" reinforcement learning and "policy-based learning".

[0234] 一部のシナリオにおいて提供され得る重要な要素は、将来の損失/報酬から動作に関する決定に戻る可微分経路である。選択肢のグラフの構造では、安全制約を含む選択肢の実装は、通常、微分可能でない。この問題を克服するために、学習されるポリシのノードにおける子の選択は、確率論的であり得る。すなわち、ノードは、確率ベクトルpを出力することができ、確率ベクトルpは、特定のノードの子のそれぞれを選択する際に使用される確率を割り当てる。あるノードがk個の子を有すると仮定し、a(1),...,a(k)がそれぞれの子から葉への経路の動作とする。従って、結果として生じる予測動作は、

であり、これは、動作からpへの可微分経路をもたらし得る。実際には、動作aは、i〜pに関してa(i)であるように選択することができ、aと

との差を付加雑音と呼ぶことができる。
[0234] An important factor that may be provided in some scenarios is the differentiable path from future losses / rewards to return to operational decisions. In the structure of a graph of choices, the implementation of choices, including safety constraints, is usually not differentiable. To overcome this problem, the choice of children at the nodes of the policy being learned can be probabilistic. That is, a node can output a probability vector p, which assigns a probability to be used in selecting each of the children of a particular node. Assuming a node has k children, a (1) ,. . . , A (k) be the operation of the path from each child to the leaf. Thus, the resulting prediction action is

Which may result in a differentiable path from the action to p. In practice, the action a can be chosen to be a (i) with respect to ip, where a and

Can be referred to as additional noise.

[0235] s、aを所与として、

をトレーニングするために、実際のデータと共に教師あり学習を使用することができる。ノードのポリシをトレーニングするためにシミュレータを使用することができる。後に実際のデータを使用してポリシの微調整を実現することができる。2つの概念がシミュレーションをより現実的にし得る。第1に、模倣を使用し、大規模な現実世界のデータセットを使用する「挙動クローニング」パラダイムを使用して初期ポリシを構築することができる。幾つかの場合、結果として生じるエージェントが適している場合がある。他の事例では、結果として生じるエージェントは、道路上の他のエージェントのための非常に優れた初期ポリシを少なくとも形成する。第2に、セルフプレイを使用し、本発明者らの独自のポリシを使用してトレーニングを増強することができる。例えば、遭遇し得る他のエージェント(車/歩行者)の初期実装を所与として、シミュレータに基づいてポリシをトレーニングすることができる。他のエージェントの一部は、新たなポリシで置換することができ、このプロセスを繰り返すことができる。その結果、異なる洗練レベルを有する一層多岐にわたる他のエージェントに応答すべきであるため、ポリシが改善し続けることができる。
[0235] s t, as given to a t,

Can be used with the actual data to train. A simulator can be used to train a node's policy. Later, fine tuning of the policy can be realized using actual data. Two concepts can make the simulation more realistic. First, one can construct an initial policy using imitation and a "behavioral cloning" paradigm that uses large real-world datasets. In some cases, the resulting agent may be suitable. In other cases, the resulting agent forms at least a very good initial policy for other agents on the road. Second, training can be enhanced using self-play and using our unique policy. For example, given an initial implementation of other agents (vehicles / pedestrians) that may be encountered, a policy may be trained based on a simulator. Some of the other agents can be replaced with new policies and the process can be repeated. As a result, the policy can continue to improve as it should respond to a wider variety of other agents with different levels of sophistication.

[0236] 更に幾つかの実施形態では、システムは、マルチエージェント手法を実装することができる。例えば、システムは、様々なソースからのデータ及び/又は複数の角度から捕捉する画像を考慮することができる。更に、ホスト車両に直接関係しないが、ホスト車両に影響を有し得る事象の予測を考慮することができ、更には他の車両に関係する予測不能な状況をもたらし得る事象の予測が検討事項であり得る(例えば、レーダは、先行車両及びホスト車両に影響を及ぼす不可避の事象、更にはかかる事象の高い可能性の予想を「見通す」ことができる)ため、開示する一部の実施形態は、エネルギの節約をもたらし得る。   [0236] Further, in some embodiments, the system can implement a multi-agent approach. For example, the system may consider data from various sources and / or images captured from multiple angles. In addition, the consideration of events that are not directly related to the host vehicle, but may have an impact on the host vehicle, and that may result in unpredictable situations involving other vehicles are considerations. Because of the possibilities (eg, radar can “see through” inevitable events affecting leading vehicles and host vehicles, as well as anticipating the high likelihood of such events), some embodiments disclosed It can result in energy savings.

[0237] 課せられたナビゲーション制約を伴うトレーニング済みシステム
[0238] 自律運転に関連して、重大な関心事は、トレーニング済みナビゲーションネットワークの学習されたポリシが安全であることをどのように保証するかである。幾つかの実施形態では、制約を使用して運転ポリシシステムをトレーニングすることができ、そのため、トレーニング済みシステムによって選択される動作は、適用可能な安全制約を既に考慮している可能性がある。加えて、幾つかの実施形態では、ホスト車両の環境内の特定の検知シーンによって関与される1つ又は複数の厳密制約にトレーニング済みシステムの被選択動作を通すことにより、追加の安全層を提供することができる。かかる手法は、ホスト車両によって行われる動作が、適用可能な安全制約を満たすものであると確認されるものに限定されていることを確実にし得る。
[0237] Trained system with imposed navigation constraints
[0238] In the context of autonomous driving, a key concern is how to ensure that the learned policies of the trained navigation network are secure. In some embodiments, the driving policy system can be trained using the constraints, so that the actions selected by the trained system may already take into account applicable safety constraints. In addition, some embodiments provide an additional layer of security by passing selected actions of the trained system through one or more stringent constraints dictated by a particular sensing scene in the environment of the host vehicle. can do. Such an approach may ensure that the actions performed by the host vehicle are limited to those that are verified to meet applicable safety constraints.

[0239] その核心において、ナビゲーションシステムは、観測した状態を1つ又は複数の所望の動作にマップするポリシ関数に基づく学習アルゴリズムを含み得る。一部の実装形態では、学習アルゴリズムは、ディープラーニングアルゴリズムである。所望の動作は、車両について予期される報酬を最大化することが期待される少なくとも1つの動作を含み得る。幾つかの場合、車両が行う実際の動作は、所望の動作の1つに対応し得るが、他の事例では、行われる実際の動作は、観測される状態、1つ又は複数の所望の動作、及び学習するナビゲーションエンジンに課せられる非学習厳密制約(例えば、安全制約)に基づいて決定され得る。これらの制約は、様々な種類の検出物体(例えば、目標車両、歩行者、路肩の又は道路内の静的物体、路肩の又は道路内の移動物体、ガードレール等)を取り囲む非運転区域を含み得る。幾つかの場合、区域のサイズは、検出物体の検出される動き(例えば、速度及び/又は方向)に基づいて変わり得る。他の制約は、歩行者の影響区域内を通過するときの最大移動速度、(ホスト車両の後ろの目標車両の間隔に対処するための)最大減速度、検知した横断歩道又は踏切における強制的な停止等を含み得る。   [0239] At its core, the navigation system may include a learning algorithm based on a policy function that maps the observed state to one or more desired actions. In some implementations, the learning algorithm is a deep learning algorithm. The desired action may include at least one action that is expected to maximize an expected reward for the vehicle. In some cases, the actual action taken by the vehicle may correspond to one of the desired actions, but in other cases, the actual action taken may be the observed state, one or more desired actions. , And non-learning strict constraints imposed on the learning navigation engine (eg, safety constraints). These constraints may include non-driving areas surrounding various types of detected objects (e.g., target vehicles, pedestrians, roadside or on-road static objects, roadside or on-road moving objects, guardrails, etc.). . In some cases, the size of the area may vary based on the detected movement (eg, speed and / or direction) of the detected object. Other constraints include the maximum speed of travel of a pedestrian as it passes through the zone of influence, the maximum deceleration (to account for the spacing of the target vehicle behind the host vehicle), the mandatory pedestrian crossing or level crossing. It may include a stop or the like.

[0240] 機械学習によってトレーニングされるシステムと共に使用される厳密制約は、トレーニング済みシステムのみの出力に基づいて得ることができる安全度を上回り得るある程度の安全性を自律運転において提供することができる。例えば、機械学習システムは、トレーニングのガイドラインとして所望の制約の組を使用してトレーニングすることができ、従って、トレーニング済みシステムは、適用可能なナビゲーション制約の制限で構成されかかる制限を満たす動作を、検知されたナビゲーション状態に応じて選択することができる。しかし、それでもなお、ナビゲーション動作を選択する際、トレーニング済みシステムは、幾らかの柔軟性を有し、従ってトレーニング済みシステムによって選択される動作が、関連するナビゲーション制約に厳密に従わない可能性がある少なくとも幾つかの状況があり得る。従って、選択される動作が、関連するナビゲーション制約に厳密に従うことを求めるために、学習/トレーニングフレームワークの外側にある関連するナビゲーション制約の厳密な適用を保証する非機械学習構成要素を使用し、トレーニング済みシステムの出力を組み合わせ、比較し、フィルタリングし、調節し、修正等することができる。   [0240] Strict constraints used with systems trained by machine learning can provide some degree of safety in autonomous driving that can exceed the level of safety that can be obtained based on the output of only the trained system. For example, a machine learning system may be trained using a desired set of constraints as a training guideline, so that a trained system may perform actions that consist of applicable navigational constraints and satisfy those constraints, The selection can be made according to the detected navigation state. However, when selecting a navigation action, the trained system still has some flexibility, so the action selected by the trained system may not strictly follow the relevant navigation constraints There can be at least some situations. Therefore, using non-machine learning components that guarantee the strict application of relevant navigation constraints outside the learning / training framework to require that the selected action closely follow the relevant navigation constraints, The outputs of the trained system can be combined, compared, filtered, adjusted, modified, etc.

[0241] 以下の解説は、トレーニング済みシステム及びトレーニング済みシステムを、トレーニング/学習フレームワークの外側にあるアルゴリズム構成要素と組み合わせることから得ることができる(とりわけ安全性の観点からの)潜在的な利益に関する更なる詳細を示す。先に論じたように、ポリシによる強化学習目的は、確率勾配上昇によって最適化することができる。目的(例えば、期待報酬)は、

として定めることができる。
[0241] The following discussion illustrates the potential benefits (especially from a safety perspective) that can be obtained from combining trained systems and trained systems with algorithmic components that are outside the training / learning framework. Further details regarding As discussed above, the policy-based reinforcement learning objectives can be optimized by increasing the probability gradient. The purpose (for example, expected reward)

Can be defined as

[0242] 機械学習シナリオでは、期待値を含む目的を使用することができる。但し、かかる目的は、ナビゲーション制約に拘束されることなしに、それらの制約によって厳密に拘束される動作を返さない場合がある。例えば、回避すべき稀な「曲がり角」の事象(例えば、事故等)を表す軌道について、

が成立し、残りの軌道について、

が成立する報酬関数を検討し、学習システムの1つの目標は、追い越し操作の実行を学習することであり得る。通常、事故のない軌道では、

は、問題ないスムーズな追い越しに報酬を与え、追い越しを完了せずにレーン内に、従って範囲[−1,1]内に留まることにペナルティを科す。シーケンス

が事故を表す場合、報酬−rは、かかる発生を妨げるために十分高いペナルティを与えるべきである。問題は、事故のない運転を保証するためにrの値を何にすべきかである。
[0242] In machine learning scenarios, objectives including expected values can be used. However, such purposes may not return operations that are strictly constrained by navigational constraints without being constrained by those constraints. For example, for a trajectory that represents a rare "turn" event to be avoided (for example, an accident)

Holds, and for the rest of the orbit,

Considering the reward function that holds, one goal of the learning system may be to learn to perform the overtaking operation. Usually, in an accident-free orbit,

Rewards a smooth pass without problems and penalizes staying in the lane, and thus in the range [-1,1], without completing the overtaking. sequence

If represents an accident, the reward -r should give a penalty high enough to prevent such occurrences. The question is what value of r should be in order to guarantee accident-free operation.

[0243]

に対する事故の効果は、加法項−pであり、pは、事故の事象を伴う軌道の確率質量であることに注意されたい。この項が無視できる、すなわちp<<1/rである場合、学習システムは、一部の追い越し操作の完了が成功しないことを犠牲にして、より自衛的であるポリシよりも頻繁に追い越し操作の成功を果たすために、事故を行うポリシを優先させる(又は全般的に無頓着な運転ポリシを採用する)ことができる。換言すれば、事故の確率がp以下である場合、r>>1/pであるようにrを設定しなければならない。pを極めて小さくする(例えば、p=10−9程度)ことが望ましい場合がある。従って、rは、大きいべきである。ポリシの勾配では、

の勾配を推定することができる。以下の補助定理は、確率変数

の分散が、r>>1/pでrを上回る

と共に大きくなることを示す。従って、目的を推定することが困難な場合があり、その勾配を推定することは一層困難であり得る。
[0243]

Effect of the accident for are additive term -p r, p is noted that the probability mass trajectory with events of the accident. If this term is negligible, i.e., p << 1 / r, then the learning system may decide to overtake the overtaking operation more frequently than the more self-defense policy at the expense of not completing some overtaking operations successfully. To achieve success, the policy of causing an accident can be prioritized (or a generally careless driving policy can be employed). In other words, if the probability of an accident is less than or equal to p, r must be set such that r >> 1 / p. It may be desirable to make p extremely small (for example, about p = 10 −9 ). Therefore, r should be large. In the policy gradient,

Can be estimated. The following lemma is for random variables

Is greater than r at r >> 1 / p

It shows that it becomes larger with. Thus, estimating the objective may be difficult, and estimating its gradient may be more difficult.

[0244] 補助定理:πをポリシとし、p及びrをスカラとし、それにより、確率pにおいて、

が得られ、確率1−pにおいて、

が得られる。従って、次式
[0245]

[0246] が成立し、最後の近似は、r≧1/pの場合に該当する。
Lemma: Let π o be a policy and p and r be scalars, so that at probability p,

Is obtained, and at the probability 1-p,

Is obtained. Therefore,
[0245]

The following approximation holds, and the final approximation corresponds to the case where r ≧ 1 / p.

[0247] この解説は、形式

のオブジェクションが分散問題を引き起こすことなしに機能的安全性を保証できない可能性があることを示す。分散を減らすためのベースラインサブトラクション法は、問題に対する十分な処置を提供しない可能性があり、なぜなら、問題は、

の高い分散から、その推定が数値的不安定を等しく被るベースライン定数の等しく高い分散にシフトするからである。更に、事故の確率がpである場合、事故の事象を得る前に平均して少なくとも1/pシーケンスがサンプリングされるべきである。これは、

を最小化しようとする学習アルゴリズムのためのシーケンスの1/pサンプルの下端を含意する。この問題に対する解決策は、数値的調整技法によってではなく、本明細書に記載のアーキテクチャ設計において見出すことができる。ここでの手法は、厳密制約が学習フレームワークの外側に投入されるべきであるという考えに基づく。換言すれば、ポリシ関数は、学習可能部分及び学習不能部分に分解することができる。形式的に、ポリシ関数は、

として構成することができ、

は、(不可知論的な)状態空間を願望の組(例えば、所望のナビゲーション目標等)にマップする一方、π(T)は、願望を(短期のうちに車がどのように動くべきかを決定し得る)軌道にマップする。関数

は、運転の快適さ、並びに他のいずれの車を追い越すべきか、他のいずれの車に道を譲るべきか、及びホスト車両のレーン内でのホスト車両の所望の位置はいずれであるか等の戦略的決定を行うことを担う。検知されるナビゲーション状態から願望へのマッピングは、期待報酬を最大化することによって経験から学習され得るポリシ

である。

によって作り出される願望は、運転軌道にわたるコスト関数に変換され得る。機能的安全性に関する厳密制約の影響下にあるコストを最小化する軌道を見つけることにより、学習される関数ではない関数π(T)を実施することができる。この分解は、快適な運転を提供するのと同時に機能的安全性を保証することができる。
[0247] This explanation is in the form

Indicates that functional objects may not be able to guarantee functional security without causing a distribution problem. Baseline subtraction methods to reduce variance may not provide sufficient treatment for the problem because the problem is:

Because the estimate shifts to an equally high variance of the baseline constant, which is equally subject to numerical instability. Further, if the probability of an accident is p, at least 1 / p sequences should be sampled on average before obtaining the event of the accident. this is,

Imply the lower end of the 1 / p sample of the sequence for the learning algorithm that seeks to minimize A solution to this problem can be found in the architectural designs described herein, rather than by numerical tuning techniques. The approach here is based on the idea that strict constraints should be put outside the learning framework. In other words, the policy function can be decomposed into a learnable part and a non-learnable part. Formally, the policy function is

Can be configured as

Maps the (agnostic) state space to a set of wishes (eg, desired navigational goals, etc.), while π (T) maps the wishes (to determine how a car should move Map) to orbit. function

Are the driving comfort, and whether to overtake any other vehicle, give way to any other vehicle, what is the desired position of the host vehicle in the host vehicle's lane, etc. Responsible for making strategic decisions. The mapping of detected navigational states to wishes is a policy that can be learned from experience by maximizing expected rewards.

It is.

Can be converted into a cost function over the driving trajectory. By finding a trajectory that minimizes the cost subject to strict constraints on functional security, a function π (T) that is not a learned function can be implemented. This disassembly can provide comfortable driving and at the same time guarantee functional safety.

[0248] 図11Dに示す二重合流ナビゲーション状況は、これらの概念を更に示す一例を与える。二重合流では、左側と右側との両方から車両が合流領域1130に到達する。それぞれの側から、車両1133又は車両1135等の車両が合流領域1130の反対側のレーン内に合流するかどうかを決定することができる。混雑した交通において、二重合流を問題なく実行することは、著しい折衝スキル及び経験を必要とする場合があり、シーン内の全てのエージェントが行い得る可能な全ての軌道を列挙することによる発見的手法又は総当たり的手法において実行するのは困難であり得る。この二重合流の例では、二重合流操作に適した願望の組Dを定めることができる。Dは、以下の組のデカルト積
D=[0,vmax]xLx{g,t,o}
とすることができ、但し、[0,vmax]は、ホスト車両の所望の目標速度であり、L={1,1.5,2,2.5,3,3.5,4}は、レーン単位での所望の横方向位置であり、整数は、レーンの中央を示し、分数は、レーンの境界を示し、{g,t,o}は、他のn台の車両のそれぞれに割り当てられる分類ラベルである。ホスト車両が他の車両に道を譲るべき場合、他の車両に「g」を割り当てることができ、ホスト車両が他の車両に対して道を得るべき場合、他の車両に「t」を割り当てることができ、又はホスト車両が他の車両に対してオフセット距離を保つべき場合、他の車両に「o」を割り当てることができる。
[0248] The bi-overflow navigation situation shown in FIG. 11D gives an example that further illustrates these concepts. In the double polymerization flow, the vehicle reaches the merging area 1130 from both the left side and the right side. From each side, it can be determined whether a vehicle, such as vehicle 1133 or vehicle 1135, merges into the lane opposite merging area 1130. Running congested traffic successfully in congested traffic can require significant negotiation skills and experience, and heuristics by listing all possible trajectories that all agents in the scene can perform. It can be difficult to implement in an approach or brute force approach. In this example of a dual polymerization stream, a desired set D suitable for dual polymerization operation can be defined. D is the Cartesian product of the following set: D = [0, v max ] × Lx {g, t, o}
Where [0, v max ] is the desired target speed of the host vehicle, and L = {1,1.5,2,2.5,3,3.5,4} , The desired lateral position in lanes, where the integer indicates the center of the lane, the fraction indicates the boundary of the lane, and {g, t, o} is assigned to each of the other n vehicles. This is the classification label that is used. If the host vehicle should give way to another vehicle, it can be assigned a "g" to the other vehicle, and if the host vehicle should get way to another vehicle, it can be assigned a "t" to the other vehicle. Or if the host vehicle is to maintain an offset distance with respect to other vehicles, the other vehicle may be assigned an "o".

[0249] 以下は、願望の組(v,l,c,...,c)∈Dを運転軌道にわたるコスト関数にどのように変換できるかについての説明である。運転軌道は、(x,y),...,(x,y)によって表すことができ、(x,y)は、時点τ・iにおける(自己中心的な単位での)ホスト車両の(横方向、縦方向の)位置である。一部の実験では、τ=0.1秒であり、k=10である。当然ながら、他の値を選択することもできる。軌道に割り当てられるコストは、所望の速度、横方向位置、及び他のn台の車両のそれぞれに割り当てられるラベルに割り当てられる個々のコストの加重和を含み得る。 The following is a description of how the set of desires (v, l, c 1 ,..., C n ) ∈D can be converted to a cost function over the driving trajectory. The driving trajectory is (x 1 , y 1 ),. . . , (X k , y k ), where (x i , y i ) is the (lateral, vertical) position of the host vehicle (in self-centered units) at time τ · i. is there. In some experiments, τ = 0.1 seconds and k = 10. Of course, other values can be selected. The cost assigned to the trajectory may include the desired speed, lateral position, and a weighted sum of the individual costs assigned to the labels assigned to each of the other n vehicles.

[0250] 所望の速度v∈[0,vmax]を所与として、速度に関連する軌道のコスト

である。
[0250] Given the desired velocity v∈ [0, v max ], the cost of the trajectory associated with the velocity

It is.

[0251] 所望の横方向位置l∈Lを所与として、所望の横方向位置に関連するコスト

[0252] であり、但し、dist(x,y,l)は、点(x,y)からレーンの位置lまでの距離である。他の車両に起因するコストに関して、他の任意の車両について、(x’,y’),...,(x’,y’)は、ホスト車両の自己中心的な単位での他の車両を表すことができ、iは、(x,y)と(x’,y’)との間の距離が小さいようにjが存在する最も早い点であり得る。そのような点がない場合、iは、i=∞として設定することができる。別の車が「道を譲る」と分類される場合、τi>τj+0.5であることが望ましい場合があり、これは、他の車両が軌道の交点に到達する少なくとも0.5秒後にホスト車両がその同一点に到達することを意味する。上記の制約をコストに変換するためのあり得る式は、[τ(j−i)+0.5]である。
[0251] Given a desired lateral position l∈L, the cost associated with the desired lateral position

[0252] Here, dist (x, y, l) is the distance from the point (x, y) to the position 1 of the lane. With respect to the cost due to other vehicles, for any other vehicle, (x ′ 1 , y ′ 1 ),. . . , (X ′ k , y ′ k ) can represent other vehicles in self-centered units of the host vehicle, and i is (x i , y i ) and (x ′ j , y ′ j) ) May be the earliest point at which j exists such that the distance between them is small. If there is no such point, i can be set as i = ∞. If another vehicle is classified as "Yield", it may be desirable that τi> τj + 0.5, since at least 0.5 seconds after the other vehicle reaches the intersection of the tracks, the host vehicle Reaches the same point. A possible formula for converting the above constraint into cost is [τ (ji) +0.5] + .

[0253] 同様に、別の車が「道を取る」と分類される場合、τj>τi+0.5であることが望ましい場合があり、これは、コスト[τ(i−j)+0.5]に変換され得る。別の車が「オフセット」として分類される場合、i=∞であることが望ましい場合があり、これは、ホスト車両の軌道とオフセット車の軌道とが交差しないことを意味する。この条件は、軌道間の距離に関してペナルティを科すことによってコストに変換することができる。 Similarly, if another car is classified as “take the road”, it may be desirable that τj> τi + 0.5, which is the cost [τ (i−j) +0.5]. + Can be converted. If another vehicle is classified as "offset," it may be desirable for i = ∞, which means that the trajectory of the host vehicle and the trajectory of the offset vehicle do not intersect. This condition can be translated into cost by penalizing the distance between the orbits.

[0254] これらのコストのそれぞれに重みを割り当てることは、軌道プランナのための単一の目的関数π(T)を与え得る。スムーズな運転を促進するコストを目的に追加することができる。軌道の機能的安全性を保証するために厳密制約を目的に追加することができる。例えば、(x,y)は、道路から外れることを禁じられ得、(x,y)は、|i−j|が小さい場合に他の任意の車両の任意の軌道点(x’,y’)について(x’,y’)に近づくことを禁じられ得る。 [0254] Assigning a weight to each of these costs may give a single objective function π (T) for the trajectory planner. The cost to promote smooth driving can be added for the purpose. Strict constraints can be added for the purpose to guarantee the functional safety of the track. For example, (x i, y i) is forbidden to deviate from the road obtained, (x i, y i) is | i-j | any in the other case is small any track point of the vehicle (x It can be barred from approaching ( x'j , y'j ) for ' j , y'j ).

[0255] 要約すると、ポリシπθは、不可知論的な状態から願望の組へのマッピング、及び願望から実際の軌道へのマッピングへと分解することができる。後者のマッピングは、学習に基づかず、そのコストが願望に依存し且つその厳密制約がポリシの機能的安全性を保証し得る最適化問題を解くことによって実施することができる。 In summary, the policy π θ can be decomposed into mapping from agnostic states to sets of wishes and mapping from wishes to real orbits. The latter mapping is not based on learning and can be implemented by solving an optimization problem whose cost depends on desire and whose strict constraints can guarantee the functional security of the policy.

[0256] 以下の解説は、不可知論的な状態から願望の組へのマッピングについて説明する。上記で説明したように、機能的安全性に準拠するために、強化学習のみに依存するシステムは、報酬

に関する大きく扱いにくい分散に直面する可能性がある。この結果は、ポリシ勾配反復を使用することにより、(不可知論的な)状態空間から願望の組へのマッピングと、その後に続く、機械学習に基づいてトレーニングされるシステムを含まない実際の軌道へのマッピングとに問題を分解することによって回避することができる。
[0256] The following commentary describes the mapping from agnostic states to sets of desires. As described above, systems that rely solely on reinforcement learning to comply with functional safety

You may face a large and cumbersome variance of The result of this is to use a policy gradient iteration to map the (agnostic) state space to a set of wishes, followed by a real trajectory that does not include a system trained based on machine learning. This can be avoided by decomposing the problem into mapping.

[0257] 様々な理由から、意味論的に有意な構成要素へと意思決定を更に分解することができる。例えば、Dのサイズが大きく、更には連続的である場合がある。図11Dに関して上記で説明した二重合流シナリオでは、D=[0,vmax]xLx{g,t,o})が成立する。加えて、勾配推定子は、項

を含み得る。この式では、分散が対象期間Tと共に増加し得る。幾つかの場合、Tの値は、およそ250とすることができ、この値は、有意の分散を作り出すのに十分高いものであり得る。サンプリングレートが10Hzの範囲内にあり、合流領域1130が100メートルであると仮定し、合流の準備は、合流領域の約300メートル手前で始まり得る。ホスト車両が16メートル/秒(時速約60キロ)で移動する場合、エピソードのTの値は、およそ250であり得る。
[0257] For various reasons, decision making can be further broken down into semantically significant components. For example, the size of D may be large and even continuous. In the dual polymerization flow scenario described above with respect to FIG. 11D, D = [0, v max ] xLx {g, t, o} n ) holds. In addition, the gradient estimator is

May be included. In this equation, the variance can increase with the target period T. In some cases, the value of T can be approximately 250, which can be high enough to create significant variance. Assuming the sampling rate is in the range of 10 Hz and the merging area 1130 is 100 meters, preparation for merging may begin about 300 meters before the merging area. If the host vehicle moves at 16 meters / second (about 60 km / h), the value of T for the episode may be approximately 250.

[0258] 選択肢のグラフの概念に戻り、図11Dに示す二重合流シナリオを表し得る選択肢のグラフを図11Eに示す。先に論じたように、選択肢のグラフは、有向非巡回グラフ(DAG)として編成される階層型の決定の組を表し得る。「根」ノード1140と呼ばれる特別なノードがグラフ内にあり得、根ノードは、入力辺(例えば、決定線)を有さない唯一のノードである。決定プロセスは、根ノードから始まり、「葉」ノード、すなわち出力辺を有さないノードに到達するまでグラフを横断し得る。各内部ノードは、自らの利用可能な子の中から1つの子を選ぶポリシ関数を実装することができる。選択肢のグラフ上の横断の組から願望の組Dへの既定のマッピングがあり得る。換言すれば、選択肢のグラフ上での横断がD内の願望に自動で変換され得る。グラフ内のノードvを所与として、パラメータベクトルθは、vの子を選択するポリシを規定し得る。θが全てのθの連結である場合、各ノードvにおいてθによって定められるポリシを使用して、子ノードを選択しながらグラフの根から葉に横断することにより、

を定めることができる。
Returning to the concept of the graph of options, FIG. 11E shows a graph of options that can represent the dual polymerization flow scenario shown in FIG. 11D. As discussed above, the graph of choices may represent a hierarchical set of decisions organized as a directed acyclic graph (DAG). There may be a special node in the graph called the "root" node 1140, and the root node is the only node that has no input edges (eg, decision lines). The decision process may start at the root node and traverse the graph until it reaches a “leaf” node, ie, a node that has no output edges. Each internal node can implement a policy function that selects one child from its available children. There can be a default mapping from the transverse set on the choices graph to the desired set D. In other words, the traversal of the choice on the graph can be automatically converted to a desire in D. Given a node v in the graph, the parameter vector θ v may define a policy that selects children of v. If theta is a concatenation of all theta v, using the policy defined by theta v at each node v, by traversing the leaves from the root of the graph while selecting a child node,

Can be determined.

[0259] 図11Eの二重合流の選択肢のグラフ1139では、ホスト車両が合流領域(例えば、図11Dの領域1130)内にあるかどうか、又は代わりにホスト車両が合流領域に近づいており、あり得る合流に備える必要があるかどうかを根ノード1140がまず判断することができる。いずれの場合にも、ホスト車両は、レーンを(例えば、左側に又は右側に)変更するかどうか、又は現在のレーン内に留まるかどうかを決定する必要があり得る。ホスト車両がレーンを変更することに決めた場合、ホスト車両は、そのまま続行して、(例えば、「行く」ノード1142において)レーン変更操作を行うのに条件が適しているかどうかを判断する必要があり得る。レーンを変更することが可能ではない場合、ホスト車両は、レーンマーク上に存在することを狙うことにより、(例えば、所望のレーン内の車両との折衝の一環としてノード1144において)所望のレーンに向かって「押し進む」ことを試みることができる。或いは、ホスト車両は、(例えば、ノード1146において)同じレーン内に「留まる」ことを選び得る。このプロセスは、ホスト車両の横方向位置を自然な方法で決定することができる。例えば。   [0259] In the graph 1139 of the dual polymerization flow option of FIG. 11E, whether the host vehicle is within the merging region (eg, region 1130 of FIG. 11D) or, alternatively, the host vehicle is approaching the merging region, and The root node 1140 can first determine if it needs to prepare for the resulting merger. In either case, the host vehicle may need to determine whether to change lanes (eg, to the left or right) or to stay in the current lane. If the host vehicle decides to change lanes, the host vehicle needs to continue and determine if the conditions are appropriate for performing a lane change operation (eg, at “go” node 1142). possible. If it is not possible to change lanes, the host vehicle may attempt to enter the desired lane (eg, at node 1144 as part of negotiations with vehicles in the desired lane) by aiming to be on the lane mark. You can try to "push" toward it. Alternatively, the host vehicle may choose to “stay” in the same lane (eg, at node 1146). This process can determine the lateral position of the host vehicle in a natural way. For example.

[0260] これは、所望の横方向位置を自然な方法で決定することを可能にし得る。例えば、ホスト車両がレーン2からレーン3にレーンを変更する場合、「行く」ノードは、所望の横方向位置を3に設定することができ、「留まる」ノードは、所望の横方向位置を2に設定することができ、「押し進む」ノードは、所望の横方向位置を2.5に設定することができる。次に、ホスト車両は、「同じ」速度を保つか(ノード1148)、「加速」するか(ノード1150)、又は「減速」するか(ノード1152)を決めることができる。次に、ホスト車両は、他の車両を調べる「鎖状」構造1154に入ることができ、それらの意味論的意味を組{g,t,o}内の値に設定する。このプロセスは、他の車両に対する願望を設定し得る。この鎖内の全てのノードのパラメータは、(回帰ニューラルネットワークと同様に)共有され得る。   [0260] This may allow the desired lateral position to be determined in a natural way. For example, if the host vehicle changes lane from lane 2 to lane 3, the "go" node may set the desired lateral position to 3, and the "stay" node may set the desired lateral position to 2 And the "push forward" node can set the desired lateral position to 2.5. The host vehicle can then decide whether to keep the "same" speed (node 1148), "accelerate" (node 1150), or "decelerate" (node 1152). Next, the host vehicle can enter a “chain” structure 1154 that examines other vehicles and sets their semantic meaning to values in the set {g, t, o}. This process may set desires for other vehicles. The parameters of all nodes in this chain can be shared (similar to a recurrent neural network).

[0261] 選択肢の潜在的な利益は、結果の解釈可能性である。別の潜在的な利益は、組Dの分解可能な構造を利用することができ、従って各ノードにおけるポリシを少数の可能性の中から選べることである。加えて、構造は、ポリシ勾配推定子の分散を減らすことを可能にし得る。   [0261] The potential benefit of an option is the interpretability of the result. Another potential benefit is that the decomposable structure of set D can be exploited, so that the policy at each node can be chosen from a small number of possibilities. In addition, the structure may allow the variance of the policy gradient estimator to be reduced.

[0262] 上記で論じたように、二重合流シナリオにおけるエピソードの長さは、およそT=250ステップであり得る。この値(又は特定のナビゲーションシナリオに応じた他の任意の適切な値)は、ホスト車両の動作の結果を認めるのに十分な時間を与え得る(例えば、ホスト車両が合流の準備としてレーンを変更することに決めた場合、ホスト車両は、合流を問題なく完了した後にのみ利益を認める)。他方では、運転のダイナミクスにより、ホスト車両は、十分速い頻度(例えば、上記の事例では10Hz)で意思決定を行わなければならない。   [0262] As discussed above, the length of an episode in a dual polymerization flow scenario may be approximately T = 250 steps. This value (or any other suitable value depending on the particular navigation scenario) may provide sufficient time to acknowledge the consequences of host vehicle operation (eg, the host vehicle changes lanes in preparation for a merge) If it decides to do so, the host vehicle will only benefit after completing the merge successfully.) On the other hand, the dynamics of driving require that the host vehicle make decisions at a sufficiently fast frequency (eg, 10 Hz in the above case).

[0263] 選択肢のグラフは、Tの有効値を少なくとも2つの方法で減らすことを可能にし得る。第1に、高レベルの決定を所与として、より短いエピソードを考慮に入れながら低レベルの決定について報酬を定めることができる。例えば、ホスト車両が「レーン変更」及び「行く」ノードを既に選択している場合、2〜3秒のエピソードを見ることにより、意味論的意味を車両に割り当てるためのポリシが学習され得る(Tが250ではなく20〜30になることを意味する)。第2に、高レベルの決定(レーンを変更するか又は同じレーン内に留まるか等)について、ホスト車両は、0.1秒ごとに意思決定を行う必要がない可能性がある。代わりに、ホスト車両は、より低い頻度で(例えば、毎秒)意思決定を行うことができてもよく、又は「選択肢終了」関数を実装できてもよく、選択肢の毎終了後にのみ勾配が計算され得る。いずれの場合にも、Tの有効値は、その元の値よりも一桁小さいものであり得る。全体的に見て、全てのノードにおける推定は、元の250ステップよりも一桁小さいTの値に依存することができ、それは、より小さい分散に直ちに変わり得る。   [0263] The graph of choices may allow the effective value of T to be reduced in at least two ways. First, given a high level decision, a reward can be set for a low level decision taking into account shorter episodes. For example, if the host vehicle has already selected the “lane change” and “go” nodes, then by watching a few seconds of episodes, the policy to assign semantic meaning to the vehicle may be learned (T Is 20 to 30 instead of 250). Second, for high-level decisions (such as changing lanes or staying in the same lane), the host vehicle may not need to make decisions every 0.1 seconds. Alternatively, the host vehicle may be able to make decisions less frequently (e.g., every second) or may implement an "end choice" function, where the slope is calculated only after each end of the choice. obtain. In each case, the effective value of T may be an order of magnitude less than its original value. Overall, the estimates at all nodes can depend on the value of T an order of magnitude smaller than the original 250 steps, which can immediately turn into smaller variances.

[0264] 上記で論じたように、厳密制約は、より安全な運転を促進することができ、幾つかの異なる種類の制約があり得る。例えば、静的な厳密制約は、検知状態から直接定められ得る。これらは、車両の速度、進行方位、加速、ブレーキ(減速)等に対する1つ又は複数の制約を含意し得るホスト車両の環境内の減速バンプ、制限速度、道路の曲率、交差点等を含み得る。静的な厳密制約は、意味論的自由空間も含むことができ、そこでは、ホスト車両は、例えば、自由空間の外側に行くこと、及び物理的障壁にあまりにも近くナビゲートすることを禁止される。静的な厳密制約は、車両の運動学的な動きの様々な側面に従わない操作を制限する(例えば、禁止する)こともでき、例えば、静的な厳密制約は、ホスト車両が横転すること、滑ること、又は他の方法で制御を失うことにつながり得る操作を禁止するために使用することができる。   [0264] As discussed above, strict constraints can promote safer driving and there can be several different types of constraints. For example, static strict constraints can be defined directly from the sensing state. These may include deceleration bumps, speed limits, road curvature, intersections, etc. in the host vehicle's environment that may imply one or more constraints on the speed, heading, acceleration, braking (deceleration), etc. of the vehicle. Static strict constraints can also include semantic free space, where the host vehicle is forbidden, for example, from going outside free space and navigating too close to physical barriers. You. Static strict constraints can also limit (eg, prohibit) operations that do not follow various aspects of the kinematics of the vehicle, for example, static strict constraints can cause the host vehicle to roll over Can be used to inhibit operations that can lead to slipping, or otherwise losing control.

[0265] 厳密制約は、車両に関連することもできる。例えば、車両が他の車両への少なくとも1メートルの縦方向距離及び他の車両からの少なくとも0.5メートルの横方向距離を保つことを要求する制約を使用することができる。ホスト車両が1つ又は複数の他の車両との衝突コースを保つことを避けるように制約を適用することもできる。例えば、時間τは、特定のシーンに基づく時間の測度であり得る。現在の時間から時間τまでのホスト車両及び1つ又は複数の他の車両の予測軌道を検討することができる。2つの軌道が交差する場合、

は、交点に車両iが到達する時間及びそこから離脱する時間を表し得る。すなわち、それぞれの車は、車の最初の部分が交点を通過するときに点に到達し、車の最後の部分が交点を通過するまで一定の時間が必要である。この時間は、到達時間と離脱時間とを分ける。

である(すなわち車両1の到達時間が車両2の到達時間未満である)と仮定し、車両2が到達するよりも前に車両1が交点を離れていることを確実することが望まれる。さもなければ衝突が発生することになる。従って、

であるように厳密制約を実装することができる。更に、車両1と車両2とが最小量で互いに当たらないことを確実にするために、制約に緩衝時間(例えば、0.5秒又は別の適切な値)を含めることによって追加の安全余裕を得ることができる。2つの車両の予測される交差軌道に関係する厳密制約は、

として表すことができる。
[0265] Strict constraints can also be related to vehicles. For example, a constraint may be used that requires a vehicle to maintain a vertical distance of at least one meter to other vehicles and a lateral distance of at least 0.5 meters to other vehicles. Constraints can also be applied to prevent the host vehicle from maintaining a collision course with one or more other vehicles. For example, time τ may be a measure of time based on a particular scene. The predicted trajectory of the host vehicle and one or more other vehicles from the current time to time τ can be considered. If two orbits intersect,

May represent the time at which the vehicle i arrives at the intersection and the time at which it leaves the intersection. That is, each car needs a certain amount of time to reach a point when the first part of the car passes the intersection and the last part of the car passes the intersection. This time separates the arrival time from the departure time.

(I.e., the arrival time of vehicle 1 is less than the arrival time of vehicle 2), and it is desired to ensure that vehicle 1 has left the intersection before vehicle 2 arrives. Otherwise, a collision will occur. Therefore,

Strict constraints can be implemented as Further, to ensure that vehicle 1 and vehicle 2 do not hit each other by a minimum amount, additional safety margins are included by including a buffer time (eg, 0.5 seconds or another suitable value) in the constraint. Obtainable. The exact constraints related to the predicted intersection trajectory of the two vehicles are:

Can be expressed as

[0266] ホスト車両及び1つ又は複数の他の車両の軌道を追跡する時間τは、異なり得る。但し、速度が遅い可能性がある交差点のシナリオでは、τはより長いことができ、ホスト車両がτ秒未満で交差点に入り、そこから出ていくようにτを定めることができる。   [0266] The time τ of tracking the trajectory of the host vehicle and one or more other vehicles may be different. However, in an intersection scenario where speed may be slow, τ may be longer and τ may be defined such that the host vehicle enters and exits the intersection in less than τ seconds.

[0267] 当然ながら、車両の軌道に厳密制約を適用することは、それらの車両の軌道が予測されることを必要とする。ホスト車両では、任意の所与の時間における意図された軌道をホスト車両が概して既に理解しており実際に計画しているため、軌道の予測は、比較的簡単であり得る。他の車両に関して、それらの車両の軌道を予測することは、あまり簡単ではない可能性がある。他の車両では、予測軌道を決定するためのベースライン計算は、例えば、ホスト車両に搭載されている1つ若しくは複数のカメラ及び/又は他のセンサ(レーダ、ライダ、音響等)によって捕捉される画像ストリームの分析に基づいて求められる他の車両の現在の速度及び進行方位に依存し得る。   [0267] Of course, applying strict constraints to the trajectories of vehicles requires that the trajectories of those vehicles be predicted. For the host vehicle, trajectory prediction can be relatively straightforward, as the host vehicle generally already knows and actually plans the intended trajectory at any given time. For other vehicles, predicting the trajectory of those vehicles may not be very straightforward. In other vehicles, the baseline calculation to determine the predicted trajectory is captured, for example, by one or more cameras and / or other sensors (radar, lidar, sound, etc.) mounted on the host vehicle. It may depend on the current speed and heading of other vehicles determined based on the analysis of the image stream.

[0268] 但し、問題を簡単にするか又は別の車両について予測される軌道の更なる信頼度を少なくとももたらす幾らかの例外があり得る。例えば、レーンの指示があり、道を譲る規則が存在し得る構造化道路に関して、他の車両の軌道は、レーンに対する当該他の車両の位置に少なくとも部分的に基づくことができ、適用可能な道を譲る規則に基づくことができる。従って一部の状況では、観測されるレーン構造がある場合、隣のレーンの車両は、レーンの境界を守ることが想定され得る。すなわち、ホスト車両は、隣のレーンの車両がホスト車両のレーン内に割り込むことを示す観測された根拠(例えば、信号灯、強い横方向の動き、レーンの境界を横断する動き)がない限り、隣のレーンの車両が自らのレーン内に留まると想定し得る。   [0268] However, there may be some exceptions that simplify the problem or at least provide additional confidence in the predicted trajectory for another vehicle. For example, for a structured road with lane indications and rules to give way, the trajectory of the other vehicle may be based at least in part on the location of the other vehicle with respect to the lane and the applicable road Can be based on a rule that yields. Thus, in some situations, if there is a lane structure to be observed, it can be assumed that vehicles in adjacent lanes will adhere to lane boundaries. That is, unless the host vehicle has observed evidence (e.g., traffic lights, strong lateral movement, or movement across lane boundaries) indicating that a vehicle in the adjacent lane is breaking into the host vehicle's lane. It can be assumed that vehicles in that lane will stay in their lane.

[0269] 他の状況も、他の車両の予期される軌道に関するヒントを与え得る。例えば、ホスト車両に優先通行権があり得る停止標識、信号機、環状交差路等において、その優先通行権を他の車両が守ると想定することができる。従って、規則が破られたことが観測された根拠がない限り、他の車両は、ホスト車両が有する優先通行権を尊重する軌道に沿って進むと想定することができる。   [0269] Other situations may also give hints about the expected trajectory of other vehicles. For example, on a stop sign, a traffic light, a roundabout, or the like where the host vehicle may have a priority traffic right, it can be assumed that another vehicle will protect the priority traffic right. Thus, as long as there is no evidence that a rule has been observed to be broken, other vehicles can be assumed to follow a trajectory that respects the priority right of the host vehicle.

[0270] 厳密制約は、ホスト車両の環境内の歩行者に関して適用することもできる。例えば、観測される任意の歩行者に対する規定の緩衝距離よりも少しでも近くホスト車両がナビゲートすることを禁止されるように、歩行者に対する緩衝距離を確立することができる。歩行者の緩衝距離は、任意の適切な距離とすることができる。幾つかの実施形態では、緩衝距離は、観測される歩行者に対して少なくとも1メートルであり得る。   [0270] Strict constraints can also be applied for pedestrians in the environment of the host vehicle. For example, a buffer distance for a pedestrian can be established such that the host vehicle is barred from navigating any closer than a prescribed buffer distance for any observed pedestrian. The pedestrian's buffer distance can be any suitable distance. In some embodiments, the buffer distance may be at least 1 meter for an observed pedestrian.

[0271] 車両の状況と同様に、厳密制約は、歩行者とホスト車両との間の相対運動に対して適用することもできる。例えば、ホスト車両の予測軌道に対して(進行方向及び速度に基づく)歩行者の軌道を監視することができる。特定の歩行者の軌道を所与として、軌道上の全ての点pについて、t(p)は、歩行者が点pに到達するのにかかる時間を表し得る。歩行者から少なくとも1メートルの所要の緩衝距離を保つために、t(p)は、(ホスト車両が少なくとも1メートルの距離の差で歩行者の前を通過するように十分な時間差を伴って)ホスト車両が点pに到達する時間を上回らなければならず、又は(例えば、ホスト車両がブレーキをかけて歩行者に道を譲る場合)t(p)は、ホスト車両が点pに到達する時間を下回らなければならない。更に後者の例では、ホスト車両が歩行者の背後を通過し、少なくとも1メートルの所要の緩衝距離を保つことができるように、ホスト車両が歩行者よりも十分遅い時間に点pに到達することを厳密制約が要求し得る。当然ながら、歩行者の厳密制約には例外があり得る。例えば、ホスト車両に優先通行権があるか又は速度が非常に遅く、歩行者がホスト車両に道を譲るのを拒否すること又はホスト車両に向かってナビゲートすることについて観測される根拠がない場合、歩行者の厳密制約を(例えば、少なくとも0.75メートル又は0.50メートルのより狭い緩衝に)緩和することができる。   [0271] Similar to the vehicle situation, strict constraints can also be applied to the relative movement between the pedestrian and the host vehicle. For example, a pedestrian's trajectory (based on heading direction and speed) can be monitored relative to the predicted trajectory of the host vehicle. Given a particular pedestrian's trajectory, for all points p on the trajectory, t (p) may represent the time it takes for a pedestrian to reach point p. To keep the required buffer distance of at least one meter from the pedestrian, t (p) is (with sufficient time difference so that the host vehicle passes in front of the pedestrian by a distance of at least one meter). T (p) must be greater than the time the host vehicle reaches point p, or (eg, if the host vehicle brakes and yield to a pedestrian), the time the host vehicle reaches point p Must be below. Furthermore, in the latter example, the host vehicle arrives at point p at a time sufficiently slower than the pedestrian so that the host vehicle can pass behind the pedestrian and maintain the required buffer distance of at least one meter. May be required by strict constraints. Of course, there may be exceptions to the exact constraints on pedestrians. For example, if the host vehicle has priority right-of-way or is very slow and there is no observed evidence that pedestrians will refuse to give way to the host vehicle or navigate toward the host vehicle. , Strict pedestrian constraints can be relaxed (eg, to a narrower buffer of at least 0.75 meters or 0.50 meters).

[0272] 一部の例では、全てを満たすことができないと判定される場合に制約を緩和することができる。例えば、両方のカーブから又はカーブと駐車車両から所望の間隔(例えば、0.5メートル)離れるには道路が狭過ぎる状況では、軽減事由がある場合に制約の1つ又は複数を緩和することができる。例えば、歩道上に歩行者(又は他の物体)がない場合、カーブから0.1メートルにおいてゆっくり進むことができる。幾つかの実施形態では、そうすることでユーザエクスペリエンスが改善する場合、制約を緩和することができる。例えば、くぼみを回避するために、制約を緩和して通常許可され得るよりもレーンの縁、カーブ、又は歩行者の近くを車両がナビゲートすることを可能にし得る。更に、いずれの制約を緩和するかを決定するとき、幾つかの実施形態では、緩和することに決める1つ又は複数の制約は、安全に対して得られる悪影響が最も少ないと見なされるものである。例えば、車両がカーブ又はコンクリート障壁に対してどの程度近く移動できるかに関する制約は、他の車両への近さを扱う制約を緩和する前に緩和することができる。幾つかの実施形態では、歩行者の制約は、緩和される最後のものとすることができ、又は状況により決して緩和されない場合がある。   In some examples, when it is determined that all the conditions cannot be satisfied, the constraint can be relaxed. For example, in situations where the road is too narrow from both curves or a desired distance from the curve and the parked vehicle (e.g., 0.5 meters), one or more of the constraints may be relaxed if there are mitigating events. it can. For example, if there are no pedestrians (or other objects) on the sidewalk, you can go slowly 0.1 m from the curve. In some embodiments, constraints may be relaxed if doing so improves the user experience. For example, to avoid pits, the constraints may be relaxed to allow the vehicle to navigate closer to the edge of a lane, curve, or pedestrian than would normally be allowed. Further, when deciding which constraints to relax, in some embodiments, the one or more constraints that you decide to relax are those that are deemed to have the least adverse effect on safety. . For example, the constraints on how close a vehicle can move to a curve or concrete barrier can be relaxed before relaxing the constraint dealing with proximity to other vehicles. In some embodiments, the pedestrian constraint may be the last to be relaxed or may never be relaxed in some circumstances.

[0273] 図12は、ホスト車両のナビゲーション中に捕捉され分析され得るシーンの一例を示す。例えば、ホスト車両は、ホスト車両の環境を表す複数の画像をホスト車両に関連するカメラ(例えば、画像捕捉装置122、画像捕捉装置124、及び画像捕捉装置126の少なくとも1つ)から受信し得る上記のナビゲーションシステム(例えば、システム100)を含み得る。図12に示すシーンは、予測軌道1212に沿ってレーン1210内を移動しているホスト車両の環境から時点tにおいて捕捉され得る画像の1つの一例である。ナビゲーションシステムは、複数の画像を受信することと、シーンに応じて動作を決定するためにそれらの画像を分析することとを行うように特別にプログラムされる少なくとも1つの処理デバイス(例えば、上記のEyeQプロセッサ又は他の装置のいずれかを含む)を含み得る。とりわけ、少なくとも1つの処理デバイスは、図8に示す検知モジュール801、運転ポリシモジュール803、及び制御モジュール805を実装することができる。検知モジュール801は、カメラから収集される画像情報の収集及び出力、並びにその情報を、識別されたナビゲーション状態の形式で運転ポリシモジュール803に与えることを担うことができ、運転ポリシモジュール803は、教師あり学習や強化学習等の機械学習法によってトレーニングされているトレーニング済みナビゲーションシステムを構成し得る。検知モジュール801によって運転ポリシモジュール803に与えられるナビゲーション状態情報に基づき、運転ポリシモジュール803は、(例えば、上記の選択肢のグラフの手法を実施することにより)、識別されたナビゲーション状態に応じてホスト車両によって実行するための所望のナビゲーション動作を生成することができる。   FIG. 12 illustrates an example of a scene that may be captured and analyzed during navigation of a host vehicle. For example, the host vehicle may receive a plurality of images representing the environment of the host vehicle from cameras associated with the host vehicle (eg, at least one of image capture device 122, image capture device 124, and image capture device 126). Navigation system (eg, system 100). The scene shown in FIG. 12 is one example of an image that may be captured at time t from the environment of a host vehicle traveling in lane 1210 along predicted trajectory 1212. The navigation system includes at least one processing device (e.g., as described above) that is specially programmed to receive the plurality of images and analyze the images to determine motion in response to the scene. (Including either an EyeQ processor or other device). In particular, at least one processing device may implement the sensing module 801, the operating policy module 803, and the control module 805 shown in FIG. The detection module 801 can be responsible for collecting and outputting image information collected from the camera and providing that information to the driving policy module 803 in the form of the identified navigation state, wherein the driving policy module 803 is A trained navigation system that is trained by machine learning methods such as dozens and reinforcement learning can be configured. Based on the navigation state information provided by the detection module 801 to the driving policy module 803, the driving policy module 803 may respond to the host vehicle in response to the identified navigation state (eg, by implementing the above-described alternative graph approach). , A desired navigation operation to be performed can be generated.

[0274] 幾つかの実施形態では、少なくとも1つの処理デバイスが、例えば制御モジュール805を使用し、所望のナビゲーション動作をナビゲーションコマンドに直接変換することができる。しかし、他の実施形態では、シーン及び所望のナビゲーション動作によって関与され得る様々な所定のナビゲーション制約に対して、運転ポリシモジュール803によって提供される所望のナビゲーション動作をテストするように厳密制約を適用することができる。例えば、ホスト車両に軌道1212をたどらせる所望のナビゲーション動作を運転ポリシモジュール803が出力する場合、そのナビゲーション動作は、ホスト車両の環境の様々な側面に関連する1つ又は複数の厳密制約に対してテストすることができる。例えば、捕捉画像1201は、シーン内に存在する縁石1213、歩行者1215、目標車両1217、及び静的物体(例えば、ひっくり返った箱)を決定し得る。これらのそれぞれが1つ又は複数の厳密制約に関連し得る。例えば、縁石1213は、ホスト車両が縁石上に又は縁石を超えて歩道1214上にナビゲートすることを防ぐ静的制約に関連し得る。縁石1213は、ホスト車両にとっての非ナビゲート区域を画定する、縁石から(例えば、0.1メートル、0.25メートル、0.5メートル、1メートル等)隔てて且つ縁石に沿って広がる所定距離(例えば、緩衝区域)を画定する道路障壁エンベロープにも関連し得る。当然ながら、静的制約は、他の種類の路傍境界(例えば、ガードレール、コンクリート柱、コーン、パイロン、他の任意の種類の路傍障壁)に関連し得る。   [0274] In some embodiments, at least one processing device can directly translate a desired navigation operation into a navigation command using, for example, the control module 805. However, in other embodiments, strict constraints are applied to test the desired navigation behavior provided by the driving policy module 803 for various predetermined navigation constraints that may be involved by the scene and the desired navigation behavior. be able to. For example, if the driving policy module 803 outputs a desired navigation action that causes the host vehicle to follow the track 1212, the navigation action may be subject to one or more strict constraints related to various aspects of the host vehicle's environment. Can be tested. For example, the captured image 1201 may determine curbs 1213, pedestrians 1215, target vehicles 1217, and static objects (eg, an overturned box) that are present in the scene. Each of these may be associated with one or more strict constraints. For example, the curb 1213 may be associated with a static constraint that prevents the host vehicle from navigating on or over the curb onto the sidewalk 1214. The curb 1213 defines a non-navigable area for the host vehicle, a predetermined distance apart (eg, 0.1 m, 0.25 m, 0.5 m, 1 m, etc.) from the curb and extending along the curb. It may also relate to a road barrier envelope that defines (eg, a buffer zone). Of course, static constraints may relate to other types of roadside boundaries (eg, guardrails, concrete columns, cones, pylons, any other type of roadside barrier).

[0275] 距離及び測距は、任意の適切な方法によって決定できることに留意すべきである。例えば、幾つかの実施形態では、距離情報がオンボードのレーダ及び/又はライダシステムによって提供され得る。或いは又は加えて、距離情報は、ホスト車両の環境から捕捉される1つ又は複数の画像を分析することによって導出することができる。例えば、画像内で表される認識された物体のピクセル数を求め、画像捕捉装置の既知の視野及び焦点距離のジオメトリと比較してスケール及び距離を決定することができる。例えば、既知の時間間隔にわたって複数の画像において物体間のスケールの変化を観測することにより、速度及び加速度を決定することができる。この分析は、物体がホスト車両からどの程度速く離れているか又はホスト車両にどの程度速く近づいているかと共に、ホスト車両に向かう又はホスト車両から離れる移動方向を示し得る。既知の時間期間にわたるある画像から別の画像への物体のX座標の位置変化を分析することにより、横断速度を決定することができる。   [0275] It should be noted that distance and ranging can be determined by any suitable method. For example, in some embodiments, range information may be provided by an onboard radar and / or lidar system. Alternatively or additionally, the distance information may be derived by analyzing one or more images captured from the environment of the host vehicle. For example, the number of pixels of the recognized object represented in the image can be determined and compared to the known field of view and focal length geometry of the image capture device to determine scale and distance. For example, by observing changes in scale between objects in multiple images over a known time interval, velocity and acceleration can be determined. This analysis may indicate how fast the object is away from or approaching the host vehicle, as well as the direction of travel toward or away from the host vehicle. By analyzing the change in position of the X coordinate of the object from one image to another over a known period of time, the traversing speed can be determined.

[0276] 歩行者1215は、緩衝区域1216を画定する歩行者エンベロープに関連し得る。幾つかの場合、課せられた厳密制約は、歩行者1215から(歩行者に対する任意の方向において)1メートルの距離内でホスト車両がナビゲートすることを禁じ得る。歩行者1215は、歩行者影響区域1220の位置を定めることもできる。この影響区域は、影響区域内のホスト車両の速度を制限する制約に関連し得る。影響区域は、歩行者1215から5メートル、10メートル、20メートル等広がり得る。影響区域の各等級に異なる制限速度を関連付けることができる。例えば、歩行者1215から1メートル〜5メートルの区域内では、ホスト車両は、5メートル〜10メートルに広がる歩行者影響区域内の制限速度未満であり得る第1の速度(例えば、10mphや20mph等)に限定され得る。影響区域の様々な段階に関する任意の等級を使用することができる。幾つかの実施形態では、第1の段階が1メートル〜5メートルよりも狭いことができ、1メートル〜2メートルにのみ及び得る。他の実施形態では、影響区域の第1の段階が1メートル(歩行者の周りの非ナビゲート区域の境界)から少なくとも10メートルの距離に広がり得る。次に、第2の段階は、10メートル〜少なくとも約20メートル広がり得る。第2の段階は、歩行者影響区域の第1の段階に関連する最大移動速度を上回るホスト車両の最大移動速度に関連し得る。   [0276] Pedestrian 1215 may be associated with a pedestrian envelope that defines a buffer area 1216. In some cases, the strict constraints imposed may prohibit the host vehicle from navigating within a distance of 1 meter (in any direction relative to the pedestrian) from the pedestrian 1215. The pedestrian 1215 can also determine the location of the pedestrian affected area 1220. This area of influence may be associated with constraints that limit the speed of the host vehicle within the area of influence. The area of influence may extend from pedestrian 1215 by 5 meters, 10 meters, 20 meters, and so on. A different speed limit can be associated with each class of influence zone. For example, within an area of 1 meter to 5 meters from pedestrian 1215, the host vehicle may be at a first speed (e.g., 10 mph or 20 mph, etc.) that may be less than the speed limit in a pedestrian affected area extending 5 meters to 10 meters. ). Any grade for the various stages of the affected area can be used. In some embodiments, the first stage can be less than 1 meter to 5 meters and can only be 1 meter to 2 meters. In other embodiments, the first stage of the affected area may extend from 1 meter (boundary of the non-navigating area around the pedestrian) to a distance of at least 10 meters. Next, the second stage may extend from 10 meters to at least about 20 meters. The second phase may relate to a maximum travel speed of the host vehicle that exceeds a maximum travel speed associated with the first phase of the pedestrian impact zone.

[0277] ホスト車両の環境内の検出されたシーンによって1つ又は複数の静的物体制約も関与され得る。例えば、画像1201では、少なくとも1つの処理デバイスが、道路内にある箱1219等の静的物体を検出し得る。検出される静的物体は、道路内の木、ポール、道路標識、物体の少なくとも1つ等の様々な物体を含み得る。検出される静的物体に1つ又は複数の既定のナビゲーション制約が関連し得る。例えば、かかる制約は、静的物体エンベロープを含むことができ、静的物体エンベロープは、ホスト車両のナビゲーションがその内部で禁じられ得る物体の周りの緩衝区域を画定する。緩衝区域の少なくとも一部は、検出された静的物体の縁から所定の距離広がり得る。例えば、画像1201によって表すシーンでは、少なくとも0.1メートル、0.25メートル、0.5メートル、又はそれを超える緩衝区域が箱1219に関連することができ、そのため、ホスト車両は、検出された静的物体との衝突を回避するために少なくとも幾らかの距離(例えば、緩衝区域の距離)の分だけ箱の右側又は左側を通過する。   [0277] One or more static object constraints may also be involved depending on the detected scene in the environment of the host vehicle. For example, in image 1201, at least one processing device may detect a static object, such as box 1219, that is on the road. The detected static objects may include various objects such as trees, poles, road signs, at least one of the objects in the road. One or more predefined navigation constraints may be associated with the detected static object. For example, such a constraint may include a static object envelope, which defines a buffer area around the object within which navigation of the host vehicle may be prohibited. At least a portion of the buffer area may extend a predetermined distance from an edge of the detected static object. For example, in the scene represented by image 1201, a buffer area of at least 0.1 meters, 0.25 meters, 0.5 meters, or more may be associated with box 1219, so that the host vehicle has been detected. Pass the right or left side of the box by at least some distance (eg, the distance of the buffer zone) to avoid colliding with a static object.

[0278] 既定の厳密制約は、1つ又は複数の目標車両制約も含み得る。例えば、画像1201内で目標車両1217が検出され得る。ホスト車両が目標車両1217と衝突しないことを確実にするために、1つ又は複数の厳密制約を使用することができる。幾つかの場合、単一の緩衝区域の距離に目標車両エンベロープが関連し得る。例えば、緩衝区域は、全方向に目標車両を取り囲む1メートルの距離によって画定され得る。緩衝区域は、ホスト車両がその内部にナビゲートすることが禁じられる、目標車両から少なくとも1メートル広がる領域を画定し得る。   [0278] The predefined strict constraints may also include one or more target vehicle constraints. For example, a target vehicle 1217 may be detected in the image 1201. One or more strict constraints may be used to ensure that the host vehicle does not collide with the target vehicle 1217. In some cases, the target vehicle envelope may be related to the distance of a single buffer zone. For example, the buffer zone may be defined by a one meter distance surrounding the target vehicle in all directions. The buffer zone may define an area extending at least 1 meter from the target vehicle where host vehicles are prohibited from navigating therein.

[0279] 但し、目標車両1217を取り囲むエンベロープは、固定された緩衝距離によって画定される必要はない。幾つかの場合、目標車両(又はホスト車両の環境内で検出される他の任意の移動可能物体)に関連する既定の厳密制約は、検出された目標車両に対するホスト車両の向きに依存し得る。例えば、幾つかの場合(ホスト車両が目標車両に向かって走行している場合など)、目標車両からホスト車両の前部又は後部に及ぶ)縦方向の緩衝区域の距離は、少なくとも1メートルであり得る。例えば、ホスト車両が目標車両と同じ又は逆の方向に移動しており、そのため、ホスト車両の側部が目標車両の側部の直接横を通過する場合等、(目標車両からホスト車両のいずれかの側部に及ぶ)横方向の緩衝区域の距離は、少なくとも0.5メートルであり得る。   [0279] However, the envelope surrounding target vehicle 1217 need not be defined by a fixed buffer distance. In some cases, the predefined strict constraints associated with the target vehicle (or any other movable object detected in the environment of the host vehicle) may depend on the orientation of the host vehicle with respect to the detected target vehicle. For example, in some cases (e.g., when the host vehicle is traveling toward the target vehicle), the distance of the longitudinal buffer zone from the target vehicle to the front or rear of the host vehicle is at least one meter. obtain. For example, if the host vehicle is moving in the same or opposite direction as the target vehicle, so that the side of the host vehicle passes directly beside the side of the target vehicle (for example, from one of the target vehicle to the host vehicle) The distance of the lateral buffer zone (which spans the sides) can be at least 0.5 meters.

[0280] 上記で説明したように、ホスト車両の環境内の目標車両又は歩行者を検出することにより、他の制約を関与させることもできる。例えば、ホスト車両及び目標車両1217の予測軌道を検討することができ、2つの軌道が(例えば、交点1230において)交差するとき厳密制約は、

を要求することができ、ホスト車両は、車両1であり、目標車両1217は、車両2である。同様に、ホスト車両の予測軌道に対して(進行方向及び速度に基づく)歩行者1215の軌道を監視することができる。特定の歩行者の軌道を所与として、軌道上の全ての点pについて、t(p)は、歩行者が点p(すなわち図12の点1231)に到達するのにかかる時間を表す。歩行者から少なくとも1メートルの所要の緩衝距離を保つために、t(p)は、(ホスト車両が少なくとも1メートルの距離の差で歩行者の前を通過するように十分な時間差を伴って)ホスト車両が点pに到達する時間を上回らなければならず、又は(例えば、ホスト車両がブレーキをかけて歩行者に道を譲る場合)t(p)は、ホスト車両が点pに到達する時間を下回らなければならない。更に後者の例では、ホスト車両が歩行者の背後を通過し、少なくとも1メートルの所要の緩衝距離を保つことができるように、ホスト車両が歩行者よりも十分遅い時間に点pに到達することを厳密制約が要求する。
[0280] As described above, other constraints may be involved by detecting target vehicles or pedestrians in the environment of the host vehicle. For example, the predicted trajectory of the host vehicle and the target vehicle 1217 can be considered, and the strict constraint when the two trajectories intersect (eg, at intersection 1230) is:

, And the host vehicle is the vehicle 1 and the target vehicle 1217 is the vehicle 2. Similarly, the trajectory of pedestrian 1215 can be monitored (based on heading direction and speed) with respect to the predicted trajectory of the host vehicle. Given a particular pedestrian's trajectory, for all points p on the trajectory, t (p) represents the time it takes for the pedestrian to reach point p (ie, point 1231 in FIG. 12). To keep the required buffer distance of at least one meter from the pedestrian, t (p) is (with sufficient time difference so that the host vehicle passes in front of the pedestrian by a distance of at least one meter). T (p) must be greater than the time the host vehicle reaches point p, or (eg, if the host vehicle brakes and yield to a pedestrian), the time the host vehicle reaches point p Must be below. Further, in the latter example, the host vehicle reaches point p at a time sufficiently slower than the pedestrian so that the host vehicle can pass behind the pedestrian and maintain the required buffer distance of at least one meter. Is required by strict constraints.

[0281] 他の厳密制約も使用することができる。例えば、少なくとも幾つかの場合、ホスト車両の最大減速率を使用することができる。この最大減速率は、(例えば、後向きカメラから収集される画像を使用し)ホスト車両を追走する目標車両までの検出距離に基づいて決定することができる。厳密制約は、検知した横断歩道又は踏切における強制的な停止又は他の適用可能な制約を含み得る。   [0281] Other strict constraints can also be used. For example, in at least some cases, the maximum deceleration rate of the host vehicle may be used. This maximum deceleration rate can be determined based on a detected distance to a target vehicle that follows the host vehicle (e.g., using images collected from a rear-facing camera). Strict constraints may include a forced stop at a detected pedestrian crossing or level crossing or other applicable constraints.

[0282] 1つ又は複数の既定のナビゲーション制約が関与され得ることをホスト車両の環境内のシーンの分析が示す場合、ホスト車両の1つ又は複数の計画されたナビゲーション動作に対してそれらの制約を課すことができる。例えば、運転ポリシモジュール803が所望のナビゲーション動作を返すことをシーンの分析がもたらす場合、その所望のナビゲーション動作を1つ又は複数の関与される制約に対してテストすることができる。所望のナビゲーション動作が、関与される制約の任意の側面に違反すると判定される場合(例えば、ホスト車両が歩行者1215から少なくとも1.0メートルに留まることを既定の厳密制約が要求するとき、所望のナビゲーション動作が歩行者1215の0.7メートルの距離内にホスト車両を運ぶ場合)、1つ又は複数の既定のナビゲーション制約に基づいて所望のナビゲーション動作に対する少なくとも1つの修正を加えることができる。この方法で所望のナビゲーション動作を調節することは、ホスト車両の環境内で検出される特定のシーンによって関与される制約に準拠してホスト車両の実際のナビゲーション動作をもたらすことができる。   [0282] If analysis of a scene in the environment of the host vehicle indicates that one or more predefined navigation constraints may be involved, those constraints may be imposed on one or more planned navigation actions of the host vehicle. Can be imposed. For example, if the analysis of the scene results in the driving policy module 803 returning a desired navigation action, the desired navigation action can be tested against one or more of the constraints involved. If it is determined that the desired navigation action violates any aspect of the constraint involved (eg, when a predefined strict constraint requires that the host vehicle stay at least 1.0 meters from pedestrian 1215, the desired (Where the navigation operation carries the host vehicle within a distance of 0.7 meters of pedestrian 1215), at least one modification to the desired navigation operation may be made based on one or more predefined navigation constraints. Adjusting the desired navigation behavior in this manner can result in the actual navigation behavior of the host vehicle in compliance with constraints imposed by the particular scene detected in the environment of the host vehicle.

[0283] ホスト車両の実際のナビゲーション動作を決定した後、決定されたホスト車両の実際のナビゲーション動作に応じてホスト車両のナビゲーションアクチュエータの少なくとも1つの調節を引き起こすことにより、そのナビゲーション動作を実施することができる。このナビゲーションアクチュエータは、ホスト車両の操舵メカニズム、ブレーキ、又はアクセルの少なくとも1つを含み得る。   [0283] After determining the actual navigation operation of the host vehicle, performing the navigation operation by causing at least one adjustment of the navigation actuator of the host vehicle in response to the determined actual navigation operation of the host vehicle. Can be. The navigation actuator may include at least one of a host vehicle steering mechanism, a brake, or an accelerator.

[0284] 優先順位付けされた制約
[0285] 上記で説明したように、ホスト車両の安全な動作を確実にするために様々な厳密制約をナビゲーションシステムと共に使用することができる。制約は、とりわけ歩行者、目標車両、道路障壁、若しくは検出される物体に対する最小安全運転距離、検出される歩行者の影響区域内を通過するときの最大移動速度、又はホスト車両の最大減速率を含み得る。これらの制約は、機械学習(教師あり、強化、又はその組み合わせ)に基づいてトレーニングされるトレーニング済みシステムによって課すことができるが、(例えば、ホスト車両の環境のシーン内で生じる予期される状況に直接対処するアルゴリズムを使用する)トレーニングされていないシステムでも有用であり得る。
[0284] Prioritized constraints
[0285] As described above, various strict constraints can be used with the navigation system to ensure safe operation of the host vehicle. Constraints may include, among other things, the minimum safe driving distance for a pedestrian, target vehicle, road barrier, or detected object, the maximum speed of travel of the detected pedestrian when passing through the affected area, or the maximum rate of deceleration of the host vehicle. May be included. These constraints can be imposed by trained systems that are trained based on machine learning (supervised, enhanced, or a combination thereof), but may be subject to expected situations that occur within the scene of the host vehicle's environment. Untrained systems (using algorithms that deal directly) may also be useful.

[0286] いずれにせよ、制約の階層があり得る。換言すれば、一部のナビゲーション制約が他のナビゲーション制約に優先する場合がある。従って、関与される全ての制約を満たすことになるナビゲーション動作を利用できない状況が発生した場合、ナビゲーションシステムは、最も高い優先順位の制約を最初に実現する利用可能なナビゲーション動作を決定することができる。例えば、システムは、たとえ歩行者を回避するナビゲーションが道路内で検出される別の車両又は物体との衝突を引き起こすことになっても、車両に歩行者をまず回避させることができる。別の例では、システムは、歩行者を回避するために車両を縁石に乗り上げさせることができる。   [0286] In any case, there may be a hierarchy of constraints. In other words, some navigation constraints may take precedence over other navigation constraints. Thus, if a situation arises in which a navigation operation that would satisfy all the constraints involved is not available, the navigation system can determine the available navigation operation that first fulfills the highest priority constraint. . For example, the system may cause the vehicle to first avoid a pedestrian, even if navigation to avoid the pedestrian would cause a collision with another vehicle or object detected on the road. In another example, the system may cause the vehicle to ride on a curb to avoid pedestrians.

[0287] 図13は、ホスト車両の環境内のシーンの分析に基づいて決定される関与される制約の階層を実装するためのアルゴリズムを示すフローチャートを示す。例えば、ステップ1301では、ナビゲーションシステムに関連する少なくとも1つのプロセッサ(例えば、EyeQプロセッサ等)は、ホスト車両の環境を表す複数の画像をホスト車両の搭載カメラから受信することができる。ステップ1303において、ホスト車両の環境のシーンを表す1つ又は複数の画像を分析することにより、ホスト車両に関連するナビゲーション状態を決定することができる。例えば、ナビゲーション状態は、シーンの様々な特性の中でも、図12にあるようにホスト車両が2レーン道路1210に沿って移動していること、目標車両1217がホスト車両の前方の交差点を進んでいること、ホスト車両が移動する道路を渡るために歩行者1215が待っていること、ホスト車両のレーンの前方に物体1219があることを特に示し得る。   FIG. 13 shows a flowchart illustrating an algorithm for implementing a hierarchy of involved constraints determined based on an analysis of a scene in the environment of the host vehicle. For example, in step 1301, at least one processor associated with the navigation system (eg, an EyeQ processor, etc.) can receive a plurality of images representing the environment of the host vehicle from a camera mounted on the host vehicle. At step 1303, a navigation state associated with the host vehicle may be determined by analyzing one or more images representing a scene of the environment of the host vehicle. For example, the navigation state may be that the host vehicle is traveling along a two-lane road 1210 as shown in FIG. This may specifically indicate that a pedestrian 1215 is waiting to cross the road on which the host vehicle travels, and that an object 1219 is ahead of the host vehicle lane.

[0288] ステップ1305では、ホスト車両のナビゲーション状態によって関与される1つ又は複数のナビゲーション制約を決定することができる。例えば、少なくとも1つの処理デバイスは、1つ又は複数の捕捉画像によって表されるホスト車両の環境内のシーンを分析した後、捕捉画像の画像分析によって認識される物体、車両、歩行者等によって関与される1つ又は複数のナビゲーション制約を決定することができる。幾つかの実施形態では、少なくとも1つの処理デバイスは、ナビゲーション状態によって関与される少なくとも第1の既定のナビゲーション制約及び第2の既定のナビゲーション制約を決定することができ、第1の既定のナビゲーション制約は、第2の既定のナビゲーション制約と異なり得る。例えば、第1のナビゲーション制約は、ホスト車両の環境内で検出される1つ又は複数の目標車両に関係することができ、第2のナビゲーション制約は、ホスト車両の環境内で検出される歩行者に関係することができる。   [0288] At step 1305, one or more navigation constraints involved by the navigation state of the host vehicle may be determined. For example, at least one processing device may analyze a scene in the environment of the host vehicle represented by one or more captured images, and then be engaged by objects, vehicles, pedestrians, etc. recognized by image analysis of the captured images. One or more navigation constraints to be performed can be determined. In some embodiments, the at least one processing device can determine at least a first default navigation constraint and a second default navigation constraint that are involved by a navigation state, and the first default navigation constraint. May be different from the second default navigation constraint. For example, a first navigation constraint may relate to one or more target vehicles detected in the environment of the host vehicle, and a second navigation constraint may relate to a pedestrian detected in the environment of the host vehicle. Can be related to

[0289] ステップ1307では、少なくとも1つの処理デバイスは、ステップ1305で識別された制約に関連する優先順位を決定することができる。説明する例では、歩行者に関係する第2の既定のナビゲーション制約は、目標車両に関係する第1の既定のナビゲーション制約よりも高い優先順位を有し得る。ナビゲーション制約に関連する優先順位は、様々な要因に基づいて決定されるか又は割り当てられ得るが、幾つかの実施形態では、ナビゲーション制約の優先順位は、安全性の観点から見たその相対的な重要性に関係し得る。例えば、できるだけ多くの状況において、全ての実装されたナビゲーション制約に従うか又はそれを満たすことが重要であり得るが、一部の制約は、他の制約よりも強い安全性リスクに関連する場合があり、従ってより高い優先順位を割り当てることができる。例えば、ホスト車両が歩行者から少なくとも1メートルの間隔を保つことを要求するナビゲーション制約は、ホスト車両が目標車両から少なくとも1メートルの間隔を保つことを要求する制約よりも高い優先順位を有し得る。これは、歩行者との衝突の方が別の車両との衝突よりも深刻な結果を有し得るからであり得る。同様に、ホスト車両と目標車両との間の間隔を保つことは、ホスト車両が道路内の箱を回避すること、減速バンプ上において一定速度未満で走行すること、又はホスト車両の搭乗者を最大加速度レベル以下にさらすことを要求する制約よりも高い優先順位を有し得る。   [0289] At step 1307, at least one processing device may determine a priority associated with the constraint identified at step 1305. In the described example, the second default navigation constraint relating to the pedestrian may have a higher priority than the first default navigation constraint relating to the target vehicle. Although the priority associated with the navigation constraint may be determined or assigned based on various factors, in some embodiments, the priority of the navigation constraint may be determined by its relative safety perspective. Can be related to importance. For example, in as many situations as possible, it may be important to follow or meet all implemented navigation constraints, but some constraints may be associated with stronger safety risks than others. , So you can assign a higher priority. For example, a navigation constraint that requires the host vehicle to be at least one meter away from the pedestrian may have a higher priority than a constraint that requires the host vehicle to be at least one meter away from the target vehicle. . This may be because a collision with a pedestrian may have more severe consequences than a collision with another vehicle. Similarly, maintaining a distance between the host vehicle and the target vehicle can mean that the host vehicle avoids boxes in the road, travels below a certain speed on deceleration bumps, or maximizes the occupants of the host vehicle. It may have a higher priority than constraints requiring exposure below the acceleration level.

[0290] 運転ポリシモジュール803は、特定のシーン又はナビゲーション状態によって関与されるナビゲーション制約を満たすことで安全性を最大化するように設計されるが、状況により関与される全ての制約を満たすことが物理的に不可能であり得る。ステップ1309に示すように、そのような状況では、関与される各制約の優先順位を使用して、関与される制約のいずれが最初に満たされるべきかを決定することができる。上記の例を続け、歩行者との間隙の制約及び目標車両との間隙の制約の両方を満たすことができず、制約の一方のみを満たすことができる状況では、歩行者との間隙の制約のより高い優先順位は、目標車両までの間隙を保とうと試みる前に、当該制約が満たされることをもたらし得る。従って、通常の状況では、ステップ1311に示すように、第1の既定のナビゲーション制約及び第2の既定のナビゲーション制約の両方を満たすことができる場合、少なくとも1つの処理デバイスは、ホスト車両の識別されたナビゲーション状態に基づいて、第1の既定のナビゲーション制約及び第2の既定のナビゲーション制約の両方を満たすホスト車両のための第1のナビゲーション動作を決定することができる。しかし、関与される全ての制約を満たすことができない他の状況では、ステップ1313に示すように、第1の既定のナビゲーション制約及び第2の既定のナビゲーション制約の両方を満たすことができない場合、少なくとも1つの処理デバイスは、識別されたナビゲーション状態に基づいて、第2の既定のナビゲーション制約(すなわち優先順位が高い方の制約)を満たすが、第1の既定のナビゲーション制約(第2のナビゲーション制約よりも低い優先順位を有する)を満たさないホスト車両のための第2のナビゲーション動作を決定することができる。   [0290] The driving policy module 803 is designed to maximize safety by satisfying the navigation constraints involved by a particular scene or navigation state, but satisfying all constraints involved by the situation. It may be physically impossible. In such a situation, as shown in step 1309, the priority of each constraint involved can be used to determine which of the constraints involved should be satisfied first. Continuing the above example, in a situation where it is not possible to satisfy both the constraint of the gap with the pedestrian and the constraint of the gap with the target vehicle and only one of the constraints can be met, the constraint of the gap with the pedestrian is A higher priority may result in the constraint being met before attempting to maintain a gap to the target vehicle. Thus, under normal circumstances, if both the first predefined navigation constraint and the second predefined navigation constraint can be met, as shown in step 1311, the at least one processing device identifies the host vehicle A first navigation action for the host vehicle that satisfies both the first predefined navigation constraint and the second predefined navigation constraint may be determined based on the navigation state. However, in other situations where not all of the constraints involved can be met, as shown in step 1313, if both the first and second default navigation constraints cannot be met, then at least One processing device satisfies a second default navigation constraint (ie, a higher priority constraint) based on the identified navigation state, but a first default navigation constraint (greater than the second navigation constraint). A second navigation action for a host vehicle that does not meet the lower priority.

[0291] 次に、ステップ1315では、決定されたホスト車両のためのナビゲーション動作を実施するために、少なくとも1つの処理デバイスは、ホスト車両のための決定された第1のナビゲーション動作又は決定された第2のナビゲーション動作に応じてホスト車両のナビゲーションアクチュエータの少なくとも1つの調節を引き起こすことができる。先の例と同様に、ナビゲーションアクチュエータは、操舵メカニズム、ブレーキ、又はアクセルの少なくとも1つを含み得る。   [0291] Next, at step 1315, the at least one processing device determines the first navigation operation or the determined first navigation operation for the host vehicle to perform the navigation operation for the determined host vehicle. An adjustment of at least one of the navigation actuators of the host vehicle can be caused in response to the second navigation operation. As in the previous example, the navigation actuator may include at least one of a steering mechanism, a brake, or an accelerator.

[0292] 制約緩和
[0293] 上記で論じたように、安全のためにナビゲーション制約を課すことができる。制約は、とりわけ歩行者、目標車両、道路障壁、若しくは検出される物体に対する最小安全運転距離、検出される歩行者の影響区域内を通過するときの最大移動速度、又はホスト車両の最大減速率を含み得る。これらの制約は、学習ナビゲーションシステム又は非学習ナビゲーションシステム内で課すことができる。特定の状況では、これらの制約を緩和することができる。例えば、ホスト車両が歩行者の近くで減速し又は停止し、歩行者のそばを通過する意図を伝えるためにゆっくり進む場合、取得画像から歩行者の反応を検出することができる。歩行者の反応がじっとしていること又は動くことをやめることである場合(及び/又は歩行者とのアイコンタクトが検知される場合)、歩行者のそばを通過するナビゲーションシステムの意図を歩行者が認識したと理解することができる。そのような状況では、システムは、1つ又は複数の既定の制約を緩和し、あまり厳しくない制約を実施する(例えば、より厳格な1メートルの境界内ではなく、歩行者の0.5メートルの範囲内を車両がナビゲートすることを可能にする)ことができる。
[0292] Relaxation of constraints
[0293] As discussed above, navigation constraints can be imposed for security. Constraints may include, among other things, the minimum safe driving distance for a pedestrian, target vehicle, road barrier, or detected object, the maximum speed of travel of the detected pedestrian when passing through the affected area, or the maximum rate of deceleration of the host vehicle. May be included. These constraints can be imposed in a learning navigation system or a non-learning navigation system. In certain situations, these constraints can be relaxed. For example, if the host vehicle slows or stops near a pedestrian and travels slowly to convey the intent to pass by the pedestrian, the response of the pedestrian can be detected from the acquired image. If the pedestrian's reaction is to stay still or stop moving (and / or if eye contact with the pedestrian is detected), the intention of the navigation system to pass by the pedestrian is Can be understood. In such a situation, the system relaxes one or more predefined constraints and enforces less stringent constraints (eg, within 0.5 meters of a pedestrian rather than within the more stringent one meter boundary). (Allowing the vehicle to navigate within range).

[0294] 図14は、1つ又は複数のナビゲーション制約を緩和することに基づいてホスト車両の制御を実施するためのフローチャートを示す。ステップ1401では、少なくとも1つの処理デバイスは、ホスト車両の環境を表す複数の画像をホスト車両に関連するカメラから受信することができる。ステップ1403で画像を分析することは、ホスト車両に関連するナビゲーション状態を識別することを可能にし得る。ステップ1405では、少なくとも1つのプロセッサは、ホスト車両のナビゲーション状態に関連するナビゲーション制約を決定することができる。ナビゲーション制約は、ナビゲーション状態の少なくとも1つの側面によって関与される第1の既定のナビゲーション制約を含み得る。ステップ1407では、複数の画像を分析することは、少なくとも1つのナビゲーション制約緩和要因の存在を決定し得る。   FIG. 14 shows a flowchart for implementing control of a host vehicle based on relaxing one or more navigation constraints. In step 1401, at least one processing device may receive a plurality of images representing an environment of a host vehicle from a camera associated with the host vehicle. Analyzing the image at step 1403 may allow for identifying a navigation condition associated with the host vehicle. At step 1405, at least one processor may determine a navigation constraint associated with the navigation state of the host vehicle. The navigation constraints may include a first predefined navigation constraint that is involved by at least one aspect of the navigation state. In step 1407, analyzing the plurality of images may determine the presence of at least one navigation constraint mitigation factor.

[0295] ナビゲーション制約緩和要因は、1つ又は複数のナビゲーション制約が少なくとも1つの側面において中断され、変更され、さもなければ緩和され得る任意の適切なインジケータを含み得る。幾つかの実施形態では、少なくとも1つのナビゲーション制約緩和要因は、歩行者の目がホスト車両の方向を見ているという(画像分析に基づく)判定を含み得る。その場合、歩行者がホスト車両を認識していることを、より安全に想定することができる。その結果、ホスト車両の経路内に歩行者が移動することを引き起こす予期せぬ動作に歩行者が関与しない信頼度が一層高くなり得る。他の制約緩和要因も使用することができる。例えば、少なくとも1つのナビゲーション制約緩和要因は、動いていないと判定される歩行者(例えば、ホスト車両の経路に入る可能性が低いと推定される者)、又はその動きが減速していると判定される歩行者を含み得る。ホスト車両が停止したとき動いていないと判定され、その後移動を再開する歩行者等、ナビゲーション制約緩和要因はより複雑な動作も含むことができる。そのような状況では、ホスト車両が優先通行権を有することを歩行者が理解していると見なすことができ、停止しようとする歩行者は、ホスト車両に道を譲る自らの意図を示唆することができる。1つ又は複数の制約を緩和させ得る他の状況は、縁石の種類(例えば、低い縁石又は傾斜が緩やかなスロープは、距離制約の緩和を可能にし得る)、歩道上に歩行者又は他の物体がないこと、自らのエンジンがかかっていない車両を含み、緩和された距離を有することができ、又はホスト車両の進行先の領域から歩行者の向きがそれている状況及び/又は歩行者が離れている状況を含む。   [0295] Navigation constraint mitigation factors may include any suitable indicator that one or more navigation constraints may be interrupted, changed, or otherwise relaxed in at least one aspect. In some embodiments, the at least one navigation constraint mitigation factor may include a determination (based on image analysis) that the pedestrian's eyes are looking in the direction of the host vehicle. In that case, it can be assumed that the pedestrian recognizes the host vehicle more safely. As a result, the reliability that the pedestrian is not involved in an unexpected operation that causes the pedestrian to move in the route of the host vehicle may be further increased. Other constraint relaxation factors can also be used. For example, the at least one navigation constraint mitigation factor is a pedestrian determined to be stationary (eg, a person estimated to be unlikely to enter the path of the host vehicle) or determined to be decelerating in movement. May be included. When the host vehicle stops, it is determined that the vehicle is not moving, and the navigation constraint mitigation factor such as a pedestrian who resumes moving after that can include a more complicated operation. In such situations, pedestrians may be considered to understand that the host vehicle has priority access, and pedestrians attempting to stop may indicate their intention to yield to the host vehicle. Can be. Other situations where one or more constraints may be relaxed are curb types (e.g., low curbs or steep slopes may allow for relaxed distance constraints), pedestrians or other objects on the sidewalk. Lacking, including a vehicle without its own engine running, and having a reduced distance, or in situations where the pedestrian is away from the area in which the host vehicle is traveling and / or Including situations where

[0296] ナビゲーション制約緩和要因の存在を(例えば、ステップ1407で)識別すると、制約緩和要因を検出することに応じて第2のナビゲーション制約を決定又は作成することができる。この第2のナビゲーション制約は、第1のナビゲーション制約と異なることができ、第1のナビゲーション制約と比較して緩和された少なくとも1つの特性を含み得る。第2のナビゲーション制約は、第1の制約に基づく新たに生成される制約を含むことができ、新たに生成される制約は、少なくとも1つの点において第1の制約を緩和する少なくとも1つの修正を含む。或いは、第2の制約は、少なくとも1つの点において第1のナビゲーション制約よりも厳しくない所定の制約を構成し得る。幾つかの実施形態では、ホスト車両の環境内で制約緩和要因が識別される状況でのみ使用するために、この第2の制約を確保しておくことができる。第2の制約が新たに生成されようと、完全に又は部分的に利用可能な所定の制約の組から選択されようと、(関連するナビゲーション制約緩和要因の検出がなければ適用され得る)より厳しい第1のナビゲーション制約の代わりの第2のナビゲーション制約の適用を制約緩和と呼ぶことができ、ステップ1409で実現することができる。   [0296] Having identified the existence of a navigation constraint mitigation factor (eg, at step 1407), a second navigation constraint can be determined or created in response to detecting the constraint mitigation factor. This second navigation constraint may be different from the first navigation constraint and may include at least one property that is relaxed as compared to the first navigation constraint. The second navigation constraint may include a newly created constraint based on the first constraint, wherein the newly created constraint includes at least one modification that relaxes the first constraint in at least one point. Including. Alternatively, the second constraint may constitute a predetermined constraint that is less strict than the first navigation constraint in at least one respect. In some embodiments, this second constraint may be reserved for use only in situations where constraint mitigation factors are identified in the environment of the host vehicle. Whether the second constraint is newly generated or is selected from a predetermined set of constraints that is fully or partially available, it is more stringent (which can be applied without the detection of an associated navigation constraint mitigation factor). Applying the second navigation constraint instead of the first navigation constraint may be referred to as constraint relaxation and may be implemented at step 1409.

[0297] ステップ1407で少なくとも1つの制約緩和要因を検出し、ステップ1409で少なくとも1つの制約を緩和した場合、ステップ1411でホスト車両のためのナビゲーション動作を決定することができる。ホスト車両のためのナビゲーション動作は、識別されたナビゲーション状態に基づくことができ、第2のナビゲーション制約を満たすことができる。ステップ1413では、決定されたナビゲーション動作に応じてホスト車両のナビゲーションアクチュエータの少なくとも1つの調節を引き起こすことにより、そのナビゲーション動作を実施することができる。   If at least one constraint mitigation factor is detected in step 1407 and at least one constraint is relaxed in step 1409, a navigation operation for the host vehicle can be determined in step 1411. A navigation operation for the host vehicle may be based on the identified navigation state and may satisfy a second navigation constraint. At step 1413, the navigation operation may be performed by causing at least one adjustment of a navigation actuator of the host vehicle in response to the determined navigation operation.

[0298] 上記で論じたように、ナビゲーション制約及び緩和されたナビゲーション制約を使用することは、(例えば、機械学習によって)トレーニングされたナビゲーションシステム又はトレーニングされていないナビゲーションシステム(例えば、特定のナビゲーション状態に応じて所定の動作で応答するようにプログラムされたシステム)と共に用いることができる。トレーニング済みナビゲーションシステムを使用する場合、特定のナビゲーション状況に対する緩和されたナビゲーション制約の可用性は、トレーニング済みシステムの応答からトレーニングされていないシステムの応答へのモードの切り替えを表し得る。例えば、トレーニング済みナビゲーションネットワークは、第1のナビゲーション制約に基づいてホスト車両のための元のナビゲーション動作を決定することができる。しかし、車両が行う動作は、第1のナビゲーション制約を満たすナビゲーション動作と異なるものであり得る。むしろ、行われる動作は、より緩和された第2のナビゲーション制約を満たすことができ、(例えば、ナビゲーション制約緩和要因があること等、ホスト車両の環境内の特定の条件を検出することに応じて)トレーニングされていないシステムによって決定される動作であり得る。   [0298] As discussed above, using navigational constraints and relaxed navigational constraints may result in a navigation system that is trained (eg, by machine learning) or an untrained navigation system (eg, a particular navigation state). (A system programmed to respond with a predetermined operation in response to a predetermined operation). When using a trained navigation system, the availability of relaxed navigation constraints for a particular navigation situation may represent a mode switch from a trained system response to an untrained system response. For example, the trained navigation network can determine an original navigation action for the host vehicle based on the first navigation constraint. However, the operation performed by the vehicle may be different from the navigation operation satisfying the first navigation constraint. Rather, the action taken may satisfy a more relaxed second navigation constraint (eg, in response to detecting a particular condition in the host vehicle's environment, such as the presence of a navigation constraint mitigation factor). ) It can be an action determined by an untrained system.

[0299] ホスト車両の環境内で制約緩和要因を検出することに応じて緩和され得るナビゲーション制約の多くの例がある。例えば、既定のナビゲーション制約が、検出された歩行者に関連する緩衝区域を含み、緩衝区域の少なくとも一部が、検出された歩行者から所定の距離広がる場合、(新たに決定される、所定の組からメモリから呼び出される、又は既存の制約の緩和バージョンとして生成される)緩和されたナビゲーション制約は、異なる又は修正された緩衝区域を含み得る。例えば、異なる又は修正された緩衝区域は、検出された歩行者に対する元の又は未修正の緩衝区域よりも短い歩行者に対する距離を有し得る。その結果、適切な制約緩和要因がホスト車両の環境内で検出される場合、緩和された制約を考慮し、検出された歩行者のより近くにナビゲートすることをホスト車両が許可され得る。   [0299] There are many examples of navigation constraints that can be relaxed in response to detecting constraint relaxation factors in the environment of the host vehicle. For example, if the predefined navigation constraint includes a buffer zone associated with the detected pedestrian, and at least a portion of the buffer zone extends a predetermined distance from the detected pedestrian, the (newly determined, predetermined Relaxed navigation constraints (recalled from memory from the set or generated as relaxed versions of existing constraints) may include different or modified buffer areas. For example, a different or modified buffer zone may have a shorter distance to the pedestrian than the original or unmodified buffer zone to the detected pedestrian. As a result, if an appropriate constraint mitigation factor is detected within the environment of the host vehicle, the host vehicle may be allowed to navigate closer to the detected pedestrian, taking into account the relaxed constraints.

[0300] ナビゲーション制約の緩和される特性は、上記で述べたように少なくとも1人の歩行者に関連する緩衝区域の低減される幅を含み得る。但し、緩和される特性は、目標車両に関連する緩衝区域の低減される幅、検出物体、路傍障壁、又はホスト車両の環境内で検出される他の任意の物体も含み得る。   [0300] The relaxed characteristics of the navigation constraint may include a reduced width of the buffer area associated with at least one pedestrian as described above. However, the mitigated property may also include the reduced width of the buffer area associated with the target vehicle, the detected object, a roadside barrier, or any other object detected in the environment of the host vehicle.

[0301] 少なくとも1つの緩和される特性は、ナビゲーション制約特性における他の種類の修正も含み得る。例えば、緩和される特性は、少なくとも1つの既定のナビゲーション制約に関連する速度増加を含み得る。緩和される特性は、少なくとも1つの既定のナビゲーション制約に関連する許容可能な最大減速度/加速度の増加も含み得る。   [0301] The at least one relaxed property may also include other types of modifications in the navigation constraint property. For example, the mitigated property may include a speed increase associated with at least one predefined navigation constraint. The mitigated property may also include an increase in the maximum allowable deceleration / acceleration associated with the at least one predefined navigation constraint.

[0302] 上記のように特定の状況では制約を緩和することができるが、他の状況ではナビゲーション制約を増強することができる。例えば、一部の状況では、ナビゲーションシステムは、通常のナビゲーション制約の組を増強することを諸条件が正当化すると判定し得る。かかる増強は、既定の制約の組に新たな制約を追加すること又は既定の制約の1つ又は複数の側面を調節することを含み得る。この追加又は調節は、通常の運転条件下で適用可能な既定の制約の組に対して、より慎重なナビゲーションをもたらし得る。制約の増強を正当化し得る条件は、センサの故障や不利な環境条件(視認性の低下又は車両の静止摩擦の低下に関連する雨、雪、霧、又は他の条件)等を含み得る。   [0302] As described above, constraints can be relaxed in certain situations, but navigation constraints can be enhanced in other situations. For example, in some situations, the navigation system may determine that the conditions justify increasing the set of normal navigation constraints. Such augmentation may include adding new constraints to the set of predefined constraints or adjusting one or more aspects of the predefined constraints. This addition or adjustment may result in more discreet navigation for a given set of constraints applicable under normal driving conditions. Conditions that may justify increased constraints may include sensor failures or adverse environmental conditions (rain, snow, fog, or other conditions associated with reduced visibility or reduced vehicle traction).

[0303] 図15は、1つ又は複数のナビゲーション制約を増強することに基づいてホスト車両の制御を実施するためのフローチャートを示す。ステップ1501では、少なくとも1つの処理デバイスは、ホスト車両の環境を表す複数の画像をホスト車両に関連するカメラから受信することができる。ステップ1503で画像を分析することは、ホスト車両に関連するナビゲーション状態を識別することを可能にし得る。ステップ1505では、少なくとも1つのプロセッサは、ホスト車両のナビゲーション状態に関連するナビゲーション制約を決定することができる。ナビゲーション制約は、ナビゲーション状態の少なくとも1つの側面によって関与される第1の既定のナビゲーション制約を含み得る。ステップ1507では、複数の画像を分析することは、少なくとも1つのナビゲーション制約増強要因の存在を決定し得る。   [0303] FIG. 15 shows a flowchart for implementing control of a host vehicle based on enhancing one or more navigation constraints. In step 1501, at least one processing device may receive a plurality of images representing an environment of a host vehicle from a camera associated with the host vehicle. Analyzing the image at step 1503 may enable identifying navigational conditions associated with the host vehicle. At step 1505, at least one processor may determine a navigation constraint associated with the navigation state of the host vehicle. The navigation constraints may include a first predefined navigation constraint that is involved by at least one aspect of the navigation state. In step 1507, analyzing the plurality of images may determine the presence of at least one navigation constraint enhancer.

[0304] 関与されるナビゲーション制約は、(例えば、図12に関して)上記で論じたナビゲーション制約のいずれか又は他の任意の適切なナビゲーション制約を含み得る。ナビゲーション制約増強要因は、1つ又は複数のナビゲーション制約が少なくとも1つの側面において補足/増強され得る任意のインジケータを含み得る。ナビゲーション制約の補足又は増強は、組ごとに行うことができ(例えば、所定の制約の組に新たなナビゲーション制約を追加することにより)、又は制約ごとに行うことができる(例えば、修正される制約が元よりも制限的であるように特定の制約を修正すること、又は所定の制約に対応する新たな制約を追加することであり、新たな制約は、少なくとも1つの側面において対応する制約よりも制限的である)。加えて又は或いは、ナビゲーション制約の補足又は増強は、階層に基づく所定の制約の組の中から選択することを指す場合もある。例えば、ホスト車両の環境内で又はホスト車両に対してナビゲーション増強要因が検出されるかどうかに基づき、増強された制約の組が選択のために提供され得る。増強要因が検出されない通常の条件下では、関与されるナビゲーション制約は、通常の条件に適用可能な制約から導くことができる。他方では、1つ又は複数の制約増強要因が検出される場合、関与される制約は、1つ又は複数の増強要因に対して生成されるか又は予め定められる増強された制約から導くことができる。増強された制約は、通常の条件下で適用可能な対応する制約よりも少なくとも1つの側面において制限的であり得る。   [0304] The navigation constraints involved may include any of the navigation constraints discussed above (eg, with respect to FIG. 12) or any other suitable navigation constraints. Navigation constraint enhancement factors may include any indicator that one or more navigation constraints may be supplemented / enhanced in at least one aspect. The supplementing or augmenting of the navigation constraints can be done on a set-by-set basis (eg, by adding a new navigation constraint to a given set of constraints) or can be done on a constraint-by-constraint basis (eg, modified constraints). Modifying a particular constraint such that is more restrictive than the original, or adding a new constraint corresponding to the predetermined constraint, wherein the new constraint is at least in one aspect more than the corresponding constraint. Is restrictive). Additionally or alternatively, supplementing or augmenting navigation constraints may refer to selecting from a predefined set of constraints based on hierarchy. For example, an enhanced set of constraints may be provided for selection based on whether a navigation enhancement factor is detected within or for the host vehicle. Under normal conditions where no enhancement factor is detected, the navigation constraints involved can be derived from the constraints applicable to normal conditions. On the other hand, if one or more constraint enhancement factors are detected, the constraints involved can be generated for the one or more enhancement factors or can be derived from predetermined enhanced constraints. . An enhanced constraint may be more restrictive in at least one aspect than a corresponding constraint that is applicable under normal conditions.

[0305] 幾つかの実施形態では、少なくとも1つのナビゲーション制約増強要因は、ホスト車両の環境内の路面上に氷、雪、又は水があることを(例えば、画像分析に基づいて)検出することを含み得る。この判定は、例えば、乾燥した道路で予期されるよりも反射率が高い領域(例えば、道路上の氷又は水を示す)、雪があることを示す路面上の白色領域、道路上に縦方向の溝(例えば、雪中のタイヤ跡)があることと合致する道路上の影、ホスト車両のフロントガラス上の水滴若しくは氷/雪の小さい粒、又は路面上に水若しくは氷/雪があることを示す他の任意の適切なインジケータを検出することに基づき得る。   [0305] In some embodiments, the at least one navigation constraint augmenter is detecting (eg, based on image analysis) the presence of ice, snow, or water on a road surface in the environment of the host vehicle. May be included. This determination may include, for example, areas of higher reflectivity than expected on dry roads (eg, indicating ice or water on the road), white areas on the road indicating snow, and vertical Shadows on the road consistent with the presence of grooves (eg, tire marks in snow), water droplets or small particles of ice / snow on the windshield of the host vehicle, or water or ice / snow on the road surface It may be based on detecting any other suitable indicator.

[0306] 少なくとも1つのナビゲーション制約増強要因は、ホスト車両のフロントガラスの外面上の小さい粒を検出することも含み得る。かかる小さい粒は、ホスト車両に関連する1つ又は複数の画像捕捉装置の画質を損なう可能性がある。ホスト車両のフロントガラスの裏側に搭載されるカメラに関連するものとして、ホスト車両のフロントガラスに関して説明したが、ホスト車両に関連する他の面上(例えば、カメラのレンズ若しくはレンズカバー、ヘッドライトレンズ、リアウィンドウ、テールライトレンズ、又は画像捕捉装置にとって可視の(又はセンサによって検出される)ホスト車両の他の任意の面上の小さい粒を検出することも、ナビゲーション制約増強要因があることを示し得る。   [0306] The at least one navigation constraint augmenting factor may also include detecting small particles on an exterior surface of the host vehicle windshield. Such small grains can impair the image quality of one or more image capture devices associated with the host vehicle. Although described with respect to the windshield of the host vehicle as being associated with a camera mounted behind the windshield of the host vehicle, other surfaces associated with the host vehicle (eg, a camera lens or lens cover, a headlight lens) Detecting small particles on the rear window, taillight lens, or any other surface of the host vehicle that is visible (or detected by a sensor) to the image capture device also indicates that there are navigation constraint enhancement factors. obtain.

[0307] ナビゲーション制約増強要因は、1つ又は複数の画像取得装置の特性として検出することもできる。例えば、ホスト車両に関連する画像捕捉装置(例えば、カメラ)によって捕捉される1つ又は複数の画像の画質の検出される低下もナビゲーション制約増強要因を構成し得る。画質の低下は、画像捕捉装置又は画像捕捉装置に関連するアセンブリに関連するハードウェアの故障若しくは部分的なハードウェアの故障に関連する場合がある。かかる画質の低下は、環境条件によって引き起こされる場合もある。例えば、ホスト車両を取り囲む空気中に煙、霧、雨、雪等があることは、ホスト車両の環境内にあり得る道路、歩行者、目標車両等に関する画質の低下に寄与する場合もある。   [0307] The navigation constraint enhancement factor can also be detected as a characteristic of one or more image acquisition devices. For example, a detected decrease in image quality of one or more images captured by an image capture device (eg, a camera) associated with the host vehicle may also constitute a navigation constraint enhancement factor. The loss of image quality may be associated with a hardware failure or partial hardware failure associated with the image capture device or an assembly associated with the image capture device. Such degradation in image quality may be caused by environmental conditions. For example, the presence of smoke, fog, rain, snow, and the like in the air surrounding the host vehicle may contribute to a reduction in image quality for roads, pedestrians, target vehicles, and the like that may be in the environment of the host vehicle.

[0308] ナビゲーション制約増強要因は、ホスト車両の他の側面にも関係し得る。例えば、一部の状況では、ナビゲーション制約増強要因は、ホスト車両に関連するシステム又はセンサの検出された故障又は部分的な故障を含み得る。かかる増強要因は、例えば、ホスト車両のナビゲーション状態に関連するナビゲーション制約に対してホスト車両がナビゲートする能力に影響を及ぼし得る、ホスト車両に関連する速度センサ、GPS受信機、加速度計、カメラ、レーダ、ライダ、ブレーキ、タイヤ、又は他の任意のシステムの故障又は部分的な故障を検出することを含み得る。   [0308] Navigation constraint enhancement factors may also relate to other aspects of the host vehicle. For example, in some situations, navigation constraint enhancement factors may include a detected or partial failure of a system or sensor associated with the host vehicle. Such augmenting factors may, for example, affect the host vehicle's ability to navigate to navigation constraints associated with the host vehicle's navigation state, such as speed sensors, GPS receivers, accelerometers, cameras, associated with the host vehicle. It may include detecting a failure or partial failure of a radar, rider, brake, tire, or any other system.

[0309] ナビゲーション制約増強要因があることが(例えば、ステップ1507で)識別される場合、制約増強要因を検出することに応じて第2のナビゲーション制約を決定又は作成することができる。この第2のナビゲーション制約は、第1のナビゲーション制約と異なることができ、第1のナビゲーション制約に対して増強される少なくとも1つの特性を含み得る。ホスト車両の環境内の又はホスト車両に関連する制約増強要因を検出することは、通常の動作条件と比較してホスト車両の少なくとも1つのナビゲーション能力が低下している可能性があることを示唆し得るため、第2のナビゲーション制約は、第1のナビゲーション制約よりも制限的であり得る。そのような能力の低下は、道路の静止摩擦の低下(例えば、道路上の氷、雪、又は水、タイヤ空気圧の低下等)、視界が損なわれること(例えば、捕捉画質を下げる雨、雪、塵、煙、霧等)、検出能力が損なわれること(例えば、センサの故障又は部分的な故障、センサの性能低下等)、又は検出されるナビゲーション状態に応じてホスト車両がナビゲートする能力の他の任意の低下を含み得る。   [0309] If it is determined that a navigation constraint enhancement factor is present (eg, at step 1507), a second navigation constraint may be determined or created in response to detecting the constraint enhancement factor. This second navigation constraint may be different from the first navigation constraint and may include at least one property that is enhanced with respect to the first navigation constraint. Detecting a constraint enhancement factor within or associated with the host vehicle's environment indicates that at least one navigation capability of the host vehicle may be reduced compared to normal operating conditions. To obtain, the second navigation constraint may be more restrictive than the first navigation constraint. Such loss of performance may include reduced road traction (e.g., ice, snow or water on the road, reduced tire pressure, etc.), impaired visibility (e.g., rain, snow, Dust, smoke, fog, etc.), impaired detection capabilities (eg, sensor failure or partial failure, sensor performance degradation, etc.) or the ability of the host vehicle to navigate in response to detected navigational conditions. Any other reduction may be included.

[0310] ステップ1507で少なくとも1つの制約増強要因を検出し、ステップ1509で少なくとも1つの制約を増強している場合、ステップ1511でホスト車両のためのナビゲーション動作を決定することができる。ホスト車両のためのナビゲーション動作は、識別されたナビゲーション状態に基づくことができ、第2のナビゲーション(すなわち増強された)制約を満たすことができる。ステップ1513では、決定されたナビゲーション動作に応じてホスト車両のナビゲーションアクチュエータの少なくとも1つの調節を引き起こすことにより、そのナビゲーション動作を実施することができる。   [0310] If at least one constraint enhancement factor is detected in step 1507 and if at least one constraint is enhanced in step 1509, a navigation operation for the host vehicle can be determined in step 1511. Navigation actions for the host vehicle may be based on the identified navigation state and may satisfy a second navigation (ie, enhanced) constraint. In step 1513, the navigation operation may be performed by causing at least one adjustment of a navigation actuator of the host vehicle in response to the determined navigation operation.

[0311] 先に論じたように、ナビゲーション制約及び増強されたナビゲーション制約を使用することは、(例えば、機械学習によって)トレーニング済みナビゲーションシステム又はトレーニングされていないナビゲーションシステム(例えば、特定のナビゲーション状態に応じて所定の動作で応答するようにプログラムされたシステム)と共に用いることができる。トレーニング済みナビゲーションシステムを使用する場合、特定のナビゲーション状況に対する増強されたナビゲーション制約の可用性は、トレーニング済みシステムの応答からトレーニングされていないシステムの応答へのモードの切り替えを表し得る。例えば、トレーニング済みナビゲーションネットワークは、第1のナビゲーション制約に基づいてホスト車両のための元のナビゲーション動作を決定することができる。しかし、車両が行う動作は、第1のナビゲーション制約を満たすナビゲーション動作と異なるものであり得る。むしろ、行われる動作は、増強された第2のナビゲーション制約を満たすことができ、(例えば、ナビゲーション制約増強要因があること等、ホスト車両の環境内の特定の条件を検出することに応じて)トレーニングされていないシステムによって決定される動作であり得る。   [0311] As discussed above, using navigation constraints and augmented navigation constraints may result in a trained navigation system (e.g., by machine learning) or an untrained navigation system (e.g., to a particular navigation state). (A system programmed to respond with a predetermined action accordingly). When using a trained navigation system, the availability of increased navigation constraints for a particular navigation situation may represent a mode switch from a trained system response to an untrained system response. For example, the trained navigation network can determine an original navigation action for the host vehicle based on the first navigation constraint. However, the operation performed by the vehicle may be different from the navigation operation satisfying the first navigation constraint. Rather, the action taken may satisfy the augmented second navigation constraint (eg, in response to detecting a particular condition in the host vehicle's environment, such as the presence of a navigation constraint augmenter). It may be an action determined by an untrained system.

[0312] ホスト車両の環境内で制約増強要因を検出することに応じて生成されるか、補足されるか、又は増強され得るナビゲーション制約の多くの例がある。例えば、既定のナビゲーション制約が、検出された歩行者、物体、車両等に関連する緩衝区域を含み、緩衝区域の少なくとも一部が、検出された歩行者/物体/車両から所定の距離広がる場合、(新たに決定される、所定の組からメモリから呼び出される、又は既存の制約の増強バージョンとして生成される)増強されたナビゲーション制約は、異なる又は修正された緩衝区域を含み得る。例えば、異なる又は修正された緩衝区域は、検出された歩行者/物体/車両に対する元の又は未修正の緩衝区域よりも長い歩行者/物体/車両に対する距離を有し得る。その結果、適切な制約増強要因がホスト車両の環境内で又はホスト車両に関連して検出される場合、増強された制約を考慮し、検出された歩行者/物体/車両のより遠くをナビゲートすることをホスト車両が強制され得る。   [0312] There are many examples of navigation constraints that can be generated, supplemented, or enhanced in response to detecting a constraint enhancement factor in the environment of the host vehicle. For example, if the predefined navigation constraint includes a buffer zone associated with a detected pedestrian, object, vehicle, etc., and at least a portion of the buffer zone extends a predetermined distance from the detected pedestrian / object / vehicle, An enhanced navigation constraint (newly determined, recalled from memory from a predetermined set, or generated as an enhanced version of an existing constraint) may include a different or modified buffer area. For example, a different or modified buffer area may have a longer distance to the pedestrian / object / vehicle than the original or unmodified buffer area to the detected pedestrian / object / vehicle. As a result, if an appropriate constraint enhancement factor is detected in or in relation to the host vehicle, the enhanced constraints are taken into account and the detected pedestrian / object / vehicle is navigated further. The host vehicle may be forced to do so.

[0313] 少なくとも1つの増強される特性は、ナビゲーション制約特性における他の種類の修正も含み得る。例えば、増強される特性は、少なくとも1つの既定のナビゲーション制約に関連する速度低下を含み得る。増強される特性は、少なくとも1つの既定のナビゲーション制約に関連する許容可能な最大減速度/加速度の低下も含み得る。   [0313] The at least one enhanced property may also include other types of modifications in the navigation constraint property. For example, the enhanced property may include a slowdown associated with at least one predefined navigation constraint. The enhanced characteristics may also include a decrease in the maximum allowable deceleration / acceleration associated with at least one predefined navigation constraint.

[0314] 長期計画に基づくナビゲーション
[0315] 幾つかの実施形態では、開示するナビゲーションシステムは、ホスト車両の環境内の検出されたナビゲーション状態に応答できるだけではなく、長期計画に基づいて1つ又は複数のナビゲーション動作を決定することもできる。例えば、システムは、検出されるナビゲーション状態に関してナビゲートするための選択肢として利用可能な1つ又は複数のナビゲーション動作の、将来のナビゲーション状態に対する潜在的影響を検討することができる。将来の状態に対する利用可能な動作の効果を検討することは、ナビゲーションシステムが現在検出しているナビゲーション状態のみに基づいてではなく、長期計画にも基づいてナビゲーション動作を決定することを可能にし得る。長期計画技法を使用するナビゲーションは、利用可能な選択肢の中からナビゲーション動作を選択するための技法として、ナビゲーションシステムによって1つ又は複数の報酬関数が使用される場合に特に適用可能であり得る。ホスト車両の検出された現在のナビゲーション状態に応じて行うことができる利用可能なナビゲーション動作に関して潜在的報酬を分析することができる。但し、更に、現在のナビゲーション状態に対する利用可能な動作から生じると予測される将来のナビゲーション状態に応じて行うことができる動作に関連して潜在的報酬を分析することもできる。その結果、たとえ選択されるナビゲーション動作が、現在のナビゲーション状態に応じて行うことができる利用可能な動作の中で最も高い報酬をもたらさない可能性があっても、開示するナビゲーションシステムは、一部の事例では、検出されるナビゲーション状態に応じてそのナビゲーション動作を選択する場合がある。これは、とりわけ、選択した動作、又は一部の事例では現在のナビゲーション状態に対して利用可能な動作のいずれかよりも高い報酬を与える1つ又は複数の潜在的なナビゲーション動作のきっかけを作る将来のナビゲーション状態を、選択した動作がもたらし得るとシステムが判定する場合に該当し得る。この原理は、報酬が高い選択肢を将来もたらすため、より有利でない動作を現在行うこととして、より単純に表すことができる。従って、長期計画が可能な開示するナビゲーションシステムは、報酬の短期的な損失が長期的な報酬の増加をもたらし得ることを長期予測が示す場合、次善の短期動作を選択することができる。
[0314] Navigation based on long-term plan
[0315] In some embodiments, the disclosed navigation system can not only respond to detected navigational conditions in the environment of the host vehicle, but also determine one or more navigational actions based on a long-term plan. it can. For example, the system may consider the potential impact of one or more navigation actions available as options for navigating with respect to the detected navigation state on future navigation states. Examining the effect of available actions on future states may allow the navigation system to determine navigation actions based not only on the currently detected navigation state, but also on a long-term plan. Navigation using long-term planning techniques may be particularly applicable where one or more reward functions are used by the navigation system as a technique for selecting a navigation action from the available options. Potential rewards can be analyzed for available navigation actions that can be taken in response to the detected current navigation state of the host vehicle. However, further, potential rewards can be analyzed in relation to actions that can be taken in response to future navigation states that are expected to result from available actions for the current navigation state. As a result, even though the selected navigation action may not result in the highest reward of the available actions that can be performed depending on the current navigation state, the disclosed navigation system is partially In the case (1), the navigation operation may be selected according to the detected navigation state. This may, among other things, trigger one or more potential navigation actions that will reward the selected action or, in some cases, higher than any of the actions available for the current navigation state. May be applicable if the system determines that the selected action can result in the navigation state of. This principle can be more simply expressed as performing less favorable operations now, as rewards will result in higher options in the future. Thus, the disclosed navigation system capable of long-term planning can select a sub-optimal short-term action if the long-term prediction indicates that a short-term loss of reward can result in an increase in long-term reward.

[0316] 概して自律運転のアプリケーションは、長期目的を最適化するためにナビゲーションシステムが即時の動作を決定し得る一連の計画問題を含み得る。例えば、車両が環状交差路において合流する状況に直面した場合、ナビゲーションシステムは、環状交差路内へのナビゲーションを開始するために即時の加速コマンド又はブレーキコマンドを決定することができる。環状交差路において検出されるナビゲーション状態に対する即時の動作は、検出される状態に応じた加速コマンド又はブレーキコマンドを含み得るが、長期目的は、合流に成功することであり、選択されるコマンドの長期的効果は、合流の成功/失敗である。問題を2つのフェーズに分解することによって計画問題に対処することができる。第1に、(現在の表現に対して予測因子が可微分であると仮定して)現在に基づいて近い将来を予測するために教師あり学習を適用することができる。第2に、回帰ニューラルネットワークを使用してエージェントの完全な軌道をモデリングすることができ、説明されていない要因は、(付加的)入力ノードとしてモデリングされる。これは、教師あり学習法及び回帰ニューラルネットワーク上の直接の最適化を使用して長期計画問題に対する解を求めることを可能にし得る。かかる手法は、環境に対する敵対要素を組み込むことによってロバストなポリシの学習を可能にすることもできる。   [0316] Generally, autonomous driving applications may include a series of planning problems from which the navigation system can determine immediate action to optimize long-term objectives. For example, if a vehicle encounters a situation of merging at a roundabout, the navigation system may determine an immediate acceleration or braking command to begin navigation into the roundabout. The immediate action for the navigational condition detected at the roundabout may include an acceleration command or a brake command depending on the detected condition, but the long-term purpose is to successfully merge and the long-term The net effect is the success / failure of the merge. The planning problem can be addressed by decomposing the problem into two phases. First, supervised learning can be applied to predict the near future based on the present (assuming the predictors are differentiable for the current representation). Second, the complete trajectory of the agent can be modeled using a regression neural network, and unexplained factors are modeled as (additional) input nodes. This may allow using supervised learning methods and direct optimization on regression neural networks to find solutions to long-term programming problems. Such an approach may also allow for robust policy learning by incorporating hostile elements to the environment.

[0317] 自律運転システムの最も基本的な要素の2つは、検知及び計画である。検知は、環境の現在の状態のコンパクト表現を見つけることに取り組むのに対し、計画は、将来の目的を最適化するためにいずれの動作を行うかを決定することに取り組む。検知の問題を解くのに教師あり機械学習法が有用である。計画の部分について機械学習アルゴリズムフレームワーク、とりわけ上記で記載したような強化学習(RL)フレームワークを使用することもできる。   [0317] Two of the most fundamental elements of an autonomous driving system are sensing and planning. Sensing addresses finding a compact representation of the current state of the environment, while planning addresses determining which actions to take in order to optimize future objectives. Supervised machine learning is useful for solving detection problems. A machine learning algorithm framework, especially a reinforcement learning (RL) framework as described above, can also be used for the planning part.

[0318] RLは、一連の連続したラウンドによって実行することができる。ラウンドtでは、プランナ(別名としてエージェント又は運転ポリシモジュール803)は、エージェント並びに環境を表す状態s∈Sを観測し得る。次いで、プランナは、動作a∈Aを決定すべきである。動作を実行した後、エージェントは、即時の報酬

を受信し、新たな状態s+1に移される。一例として、ホスト車両は、適応クルーズコントロール(ACC)システムを含むことができ、ACCでは、スムーズな運転を維持しながら先行車両までの十分な距離を保つために、車両が加速/ブレーキを自律的に実施すべきである。状態は、対

としてモデリングすることができ、xは、先行車両までの距離であり、vは、先行車両の速度に対するホスト車両の速度である。動作

は、加速コマンドである(a<0が成立する場合にはホスト車両が減速する)。報酬は、(運転のスムーズさを反映する)|a|及び(ホスト車両が先行車両から安全な距離を保つことを反映する)sに依存する関数であり得る。プランナの目標は、(場合により対象期間又は将来の報酬の割り引かれた和まで)累積報酬を最大化することである。それを行うために、プランナは、状態を動作にマップするポリシπ:S→Aを利用することができる。
[0318] RL may be performed by a series of consecutive rounds. In Round t, planner (agent or operating policy module 803 as an alias) may observe the status s t ∈S representing the agent and the environment. The planner should then determine the action at t A. After performing the action, the agent receives an immediate reward

And is moved to a new state st + 1. As an example, the host vehicle may include an adaptive cruise control (ACC) system in which the vehicle autonomously accelerates / brakes to maintain a smooth drive while maintaining a sufficient distance to the preceding vehicle. Should be implemented. The state is

Where xt is the distance to the preceding vehicle and vt is the speed of the host vehicle relative to the speed of the preceding vehicle. motion

It is (host vehicle is decelerated in a case where a t <0 is established) an acceleration command. Reward, (reflecting the smoothness of the operation) | can be a function that depends on and (host vehicle reflects to keep a safe distance from the preceding vehicle) s t | a t. The planner's goal is to maximize the cumulative reward (possibly up to a discounted period of time or future rewards). To do so, the planner can utilize a policy π: S → A that maps states to actions.

[0319] 教師あり学習(SL)は、RLの特別な事例と見なすことができ、教師あり学習では分布Sからsがサンプリングされ、報酬関数は、r=−l(a,y)の形式を有することができ、lは、損失関数であり、学習側は、状態sを認めるときに行うのに最適な動作の(場合により雑音の多い)値であるyの値を観測する。全般的なRLのモデルとSLの特定の事例との間には幾らかの差がある場合があり、それらの差は、全般的なRLの問題をより困難にし得る。 [0319] supervised learning (SL) can be regarded as a special case of RL, in the supervised learning is s t is a sampling from the distribution S, the reward function, r t = -l (a t , y t ) format can have a, l is the loss function, learning side, the value of y t is noisy) value (in the case of optimal operation to perform when the acknowledge state s t Observe. There may be some differences between the general RL model and the particular case of SL, and those differences can make the general RL problem more difficult.

[0320] 一部のSLの状況では、学習側が行う動作(又は予測)が環境への影響を有さない場合がある。換言すれば、st+1とaとが独立している。これは、2つの重要な含意を有し得る。まず、SLでは、サンプル(s,y),...,(s,y)を事前に収集することができ、そうすることにより、初めてサンプルに対して優れた精度を有するポリシ(又は予測因子)の探索を開始することができる。対照的に、RLでは、状態st+1は、通常、行われる動作(更には前の状態)に依存し、行われる動作は、従って、動作を生成するために使用されるポリシに依存する。これは、データ生成プロセスをポリシ学習プロセスに結び付ける。第2に、SLでは動作が環境に影響を及ぼさないため、πの性能に対するaの選択の寄与度は、局所的である。具体的には、aは、即時の報酬の値にのみ影響を及ぼす。対照的にRLでは、ラウンドtで行われる動作は、将来のラウンドにおける報酬値に対して長期的効果を有し得る。 In some SL situations, the operation (or prediction) performed by the learning side may not have an effect on the environment. In other words, it is independent and s t + 1 and a t. This can have two important implications. First, in SL, samples (s 1 , y 1 ),. . . , (S m, y m) can be collected in advance, by doing so, it is possible to start the search for the policy (or predictor) with excellent precision for the first time sample. In contrast, at the RL, the state st + 1 typically depends on the action taken (or even the previous state), and the action taken therefore depends on the policy used to generate the action. This ties the data generation process to the policy learning process. Second, since the work with SL does not affect the environment, the contribution of the selection of a t on the performance of π is local. Specifically, a t only affects the value of the immediate compensation. In contrast, in RL, the actions performed in round t may have a long-term effect on reward values in future rounds.

[0321] SLでは、報酬の形状r=−l(a,y)と共に「正しい」解yの知識は、aのあり得る全ての選択肢に関する報酬の完全な知識を提供することができ、それは、aに関する報酬の微分の計算を可能にし得る。対照的に、RLでは、報酬の「ワンショット」値は、行われる動作の特定の選択について観測することができる全てであり得る。これを「バンディット」フィードバックと呼ぶことができる。RLベースのシステムでは、「バンディット」フィードバックのみを入手できる場合、システムは、行われた動作が行うのに最良の動作であったかどうかを常に知ることができない可能性があるため、これは、長期的なナビゲーション計画の一部として「探索」が必要である最も重要な理由の1つである。 [0321] In SL, the shape of the reward r t = -l (a t, y t) is the knowledge of along with the "right" solution y t, to provide a complete knowledge of the rewards for all choices may be of a t it can be, it may allow the calculation of the derivative of the reward on a t. In contrast, at the RL, the "one-shot" value of the reward may be all that can be observed for a particular choice of action taken. This can be referred to as "bandit" feedback. In RL-based systems, if only "bandit" feedback is available, the system may not always know if the action taken was the best action to take, so this is a long term This is one of the most important reasons why "search" is needed as part of a successful navigation plan.

[0322] 多くのRLアルゴリズムは、マルコフ決定プロセス(MDP)の数学的に明解なモデルに少なくとも部分的に依存する。マルコフ仮定は、s及びaを所与としてst+1の分布が完全に決定されるものである。これは、MDPの状態にわたる定常分布に関して所与のポリシの累積報酬の閉形式をもたらす。ポリシの定常分布は、線形計画問題に対する解として表すことができる。これは、1)ポリシ探索と呼ぶことができる主問題に関する最適化、及び2)その変数が価値関数Vπと呼ばれる双対問題に関する最適化という2つのアルゴリズム群をもたらす。価値関数は、MDPが初期状態sから始まり、そこからπに従って動作が選択される場合に期待累積報酬を決定する。関係する量は、状態−動作価値関数Qπ(s,a)であり、この関数は、状態sからの開始、即時に選択される動作a、及びそこからπに従って選択される動作を仮定し累積報酬を決定する。このQ関数は、(ベルマン方程式を使用する)最適なポリシの特徴付けを引き起こし得る。具体的には、このQ関数は、最適なポリシがSからAへの決定論的関数であると示すことができる(実際には、最適なポリシは、最適なQ関数に関する「貪欲な」ポリシとして特徴付けることができる)。 [0322] Many RL algorithms rely at least in part on a mathematically explicit model of the Markov Decision Process (MDP). Markov assumption is that the distribution of s t + 1 is determined completely s t and a t as given. This results in a closed form of the cumulative reward for a given policy with respect to a stationary distribution over the states of the MDP. The stationary distribution of the policy can be represented as a solution to a linear programming problem. This 1) can be referred to as a policy search optimization for the main problem, and 2) results in two algorithms groups that optimization for the dual problem that the variable is called value function V [pi. The value function determines the expected cumulative reward when the MDP starts in the initial state s, from which the action is selected according to π. The quantities involved are the state-action value function (s, a), which assumes a start from state s, an action a that is immediately selected, and an action selected therefrom according to π. Determine the cumulative reward. This Q function can cause characterization of the optimal policy (using the Bellman equation). Specifically, this Q function can indicate that the optimal policy is a deterministic function from S to A (in fact, the optimal policy is the "greedy" policy for the optimal Q function). Can be characterized as).

[0323] MDPモデルの1つの潜在的な利点は、MDPモデルがQ関数を使用して将来を現在に結合することを可能にすることである。例えば、ホスト車両が現在sの状態にあることを所与とし、Qπ(s,a)の値は、将来に対して動作aを実行する効果を示し得る。従って、Q関数は、動作aの品質の局所的測度を提供し、それによりRL問題をSLのシナリオに似せることができる。 [0323] One potential advantage of the MDP model is that it allows the future to be combined with the present using a Q-function. For example, given that the host vehicle is currently in state s, the value of Q π (s, a) may indicate the effect of performing operation a for the future. Thus, the Q function provides a local measure of the quality of action a, which can make the RL problem similar to the SL scenario.

[0324] 多くのRLアルゴリズムがV関数又はQ関数を何らかの方法で近似する。価値反復アルゴリズム、例えばQ学習アルゴリズムは、最適なポリシのV関数及びQ関数がベルマン方程式から得られる何らかの演算子の不動点であり得ることを利用することができる。Actor-criticなポリシ反復アルゴリズムは、反復的な方法でポリシを学習することを目標とし、反復tにおいて、「critic」は、

を推定し、この推定に基づいて、「actor」は、ポリシを改善する。
[0324] Many RL algorithms approximate the V or Q function in some way. Value iteration algorithms, such as the Q-learning algorithm, can take advantage of the fact that the V and Q functions of the optimal policy can be fixed points of some operator obtained from the Bellman equation. The actor-critic policy iterative algorithm aims to learn the policy in an iterative way, and at iteration t, "critic"

, And based on this estimate, “actor” improves the policy.

[0325] MDPの数学的な簡素さ及びQ関数表現に切り替える便利さにもかかわらず、この手法は、幾つかの制限を有し得る。例えば、幾つかの場合、マルコフの挙動状態の近似の概念が見つかり得る全てである場合がある。更に、状態の遷移は、エージェントの動作だけではなく、環境内の他のプレーヤの動作にも依存し得る。例えば、上記のACCの例では、自律車両のダイナミクスは、マルコフ式であり得るが、次の状態は、必ずしもマルコフ式ではない他の車のドライバーの挙動に依存する場合がある。この問題に対する1つのあり得る解決策は、部分的に観測されるMDPを使用することであり、部分的に観測されるMDPでは、マルコフ状態はあるが、見ることができるのは、隠れ状態に従って分散される観測であると仮定される。   [0325] Despite the mathematical simplicity of MDP and the convenience of switching to the Q-function representation, this approach may have some limitations. For example, in some cases, the concept of an approximation of the behavioral state of Markov may be all that can be found. Further, state transitions may depend not only on the actions of the agent, but also on the actions of other players in the environment. For example, in the ACC example above, the dynamics of an autonomous vehicle may be Markov-type, but the next state may depend on the behavior of the driver of another vehicle that is not necessarily Markov-type. One possible solution to this problem is to use a partially observed MDP, where the partially observed MDP has a Markov state but can be seen according to the hidden state It is assumed to be a distributed observation.

[0326] より直接的な手法は、MDPのゲーム理論的汎用化を検討することができる(例えば、確率ゲームの枠組み)。実際、MDPのためのアルゴリズムは、マルチエージェントゲームに汎用化することができる(例えば、ミニマックスQ学習又はナッシュQ学習)。他の手法は、他のプレーヤの明確なモデリング及びvanishing regret学習アルゴリズムを含み得る。マルチエージェント設定内での学習は、単一エージェント設定内での学習よりも複雑であり得る。   [0326] A more direct approach may consider game-theoretic generalization of MDP (eg, a stochastic game framework). In fact, the algorithms for MDP can be generalized to multi-agent games (eg, minimax Q learning or Nash Q learning). Other approaches may include explicit modeling of other players and vanishing regret learning algorithms. Learning in a multi-agent configuration can be more complicated than learning in a single-agent configuration.

[0327] Q関数表現の第2の制限は、表形式設定から逸脱することによって生じ得る。表形式設定は、状態及び動作の数が少なく、そのため、Qを|S|行及び|A|列の表として表すことができる場合である。しかし、S及びAの自然表現がユークリッド空間を含み、状態空間及び動作空間が離散化される場合、状態/動作の数は、規模の点で指数関数的であり得る。そのような場合、表形式設定を採用することが実用的でない可能性がある。代わりに、Q関数は、パラメトリック仮説クラスからの一部の関数によって近似され得る(例えば、特定のアーキテクチャのニューラルネットワーク)。例えば、ディープQネットワーク(DQN)学習アルゴリズムを使用することができる。DQNでは、状態空間が連続的であり得るが、動作空間は、小さい離散集合のままであり得る。連続的な動作空間に対応するための手法が可能であるが、それらは、Q関数を近似することに依存する可能性がある。いずれにせよ、Q関数は、複雑且つ雑音に敏感な可能性があり、従って学習が困難であり得る。   [0327] A second limitation of the Q-function representation may arise from departures from tabular settings. Tabular settings are where the number of states and operations is small, so that Q can be represented as a table of | S | rows and | A | columns. However, if the natural representation of S and A includes a Euclidean space and the state space and the operation space are discretized, the number of states / actions can be exponential in terms of magnitude. In such a case, it may not be practical to adopt a table format setting. Alternatively, the Q function may be approximated by some function from a parametric hypothesis class (eg, a particular architecture neural network). For example, a deep Q network (DQN) learning algorithm can be used. In DQN, the state space may be continuous, but the operating space may remain a small, discrete set. Techniques for accommodating a continuous motion space are possible, but they may depend on approximating the Q function. In any case, the Q function can be complex and sensitive to noise, and thus can be difficult to learn.

[0328] 異なる手法は、回帰ニューラルネットワーク(RNN)を使用してRLの問題に対処することであり得る。幾つかの場合、RNNは、マルチエージェントゲームの概念及びゲーム理論からの敵対環境へのロバスト性と組み合わせることができる。更に、この手法は、マルコフ仮定に明確に依存しないものであり得る。   [0328] A different approach may be to address the RL problem using a recurrent neural network (RNN). In some cases, RNNs can be combined with robustness to hostile environments from multi-agent game concepts and game theory. Furthermore, this approach may not explicitly rely on Markov assumptions.

[0329] 以下では、予測に基づく計画によるナビゲーションのための手法をより詳細に説明する。この手法では、状態空間Sは、

のサブセットであり、状態空間Aは、

のサブセットであると仮定することができる。これは、多くの応用において自然な表現であり得る。上記で述べたように、RLとSLとの間には2つの主な違いがある場合があり、その違いは、すなわち、(1)過去の動作が将来の報酬に影響するため、将来からの情報を過去に再び伝える必要があり得ること、及び(2)報酬の「バンディット」な性質は、(状態,動作)と報酬との間の依存関係を曖昧にする可能性があり、それが学習プロセスを複雑にし得ることである。
[0329] Hereinafter, a method for navigation based on a plan based on prediction will be described in more detail. In this method, the state space S is

And the state space A is

Can be assumed to be a subset of This can be a natural expression in many applications. As noted above, there may be two main differences between RL and SL, the differences being: (1) Past behavior affects future rewards, so future The fact that information may need to be retransmitted in the past, and (2) the "bandit" nature of rewards can obscure the dependency between (state, action) and rewards, which It can complicate the process.

[0330] この手法の最初のステップとして、報酬のバンディットな性質が重要ではない興味深い問題があることが観測され得る。例えば、ACCの応用に関する(以下でより詳細に論じる)報酬値は、現在の状態及び動作に対して可微分であり得る。実際、たとえ報酬が「バンディット」式に与えられても、

であるように可微分関数

を学習する問題は、比較的単純なSL問題(例えば、一次元の回帰問題)であり得る。従って、この手法の最初のステップは、s及びaに対して可微分な関数

として報酬を定めること、又はインスタンスベクトルが、

であり、目標スカラがrである状態でサンプルにわたる少なくとも幾らかの回帰損失を最小化する可微分関数

を学習するために回帰学習アルゴリズムを使用することであり得る。一部の状況では、トレーニングセットを作成するために探索の要素を使用することができる。
[0330] As a first step in this approach, it can be observed that there is an interesting issue where the bandit nature of rewards is not important. For example, reward values for ACC applications (discussed in more detail below) may be differentiable with respect to current state and operation. In fact, even if the reward is given in a "bandit" style,

Differentiable function such that

Can be a relatively simple SL problem (eg, a one-dimensional regression problem). Therefore, the first step in this approach is to make a differentiable function for s and a

Or the instance vector is

And a differentiable function that minimizes at least some regression loss over the sample with the target scalar being r t

Using a regression learning algorithm to learn. In some situations, elements of the search can be used to create a training set.

[0331] 過去と将来との間のつながりに対処するために、同様の概念を使用することができる。例えば、

が成立するように可微分関数

が学習可能であると仮定する。かかる関数を学習することは、SL問題として特徴付けることができる。

は、近い将来のための予測因子と見なすことができる。次に、SからAにマップするポリシを、パラメトリック関数πθ:S→Aを使用して記述することができる。ニューラルネットワークとしてπθを表現することは、回帰ニューラルネットワーク(RNN)を使用してエージェントをTラウンド走らせるエピソードの表現を可能にすることができ、次の状態は、

として定義される。ここで、

は、環境によって定めることができ、近い将来の予測不能な側面を表すことができる。st+1がs及びaに可微分な方法で依存することは、将来の報酬値と過去の動作との間のつながりを可能にし得る。ポリシ関数πθのパラメータベクトルは、結果として生じるRNN上の逆伝搬によって学習され得る。明確な確率論的仮定をvに課す必要がないことに留意されたい。具体的には、マルコフ関係の要件が必要ない。代わりに、過去と将来との間で「十分な」情報を伝搬するために回帰ネットワークが利用され得る。直観的に、

は、近い将来の予測可能な部分を記述し得る一方、vは、環境内の他のプレーヤの挙動によって生じ得る予測不能な側面を表し得る。学習システムは、他のプレーヤの挙動に対してロバストなポリシを学習すべきである。||v||が大きい場合、有意味のポリシを学習するには過去の動作と将来の報酬値との間のつながりに雑音が多過ぎる可能性がある。システムのダイナミクスをトランスペアレントな方法で明確に表現することは、過去の知識をより容易に組み込むことを可能にすることができる。例えば、過去の知識は、

を定める問題を単純化し得る。
[0331] Similar concepts can be used to address the connection between the past and the future. For example,

Function such that

Suppose that can be learned. Learning such a function can be characterized as an SL problem.

Can be considered as a predictor for the near future. Next, the policy that maps from S to A can be described using the parametric function π θ : S → A. Representing π θ as a neural network can enable the representation of episodes of running agents T rounds using a recurrent neural network (RNN), and the next state is

Is defined as here,

Can be defined by the environment and can represent unpredictable aspects in the near future. the s t + 1 depends in differentiable manner to s t and a t may allow connection between the past operation and future compensation values. The parameter vector of the policy function π θ can be learned by backpropagation on the resulting RNN. It should be noted that there is no need to impose a clear probabilistic assumptions v t. Specifically, there is no need for Markov-related requirements. Alternatively, a regression network may be used to propagate "sufficient" information between the past and the future. Intuitively,

May describe the foreseeable part of the near future, while v t may represent unpredictable aspects that may be caused by the behavior of other players in the environment. The learning system should learn a policy that is robust to the behavior of other players. If || v t || is large, the connection between past actions and future reward values may be too noisy to learn meaningful policies. Clearly expressing the dynamics of the system in a transparent manner can allow past knowledge to be more easily incorporated. For example, past knowledge

Can be simplified.

[0332] 上記で論じたように学習システムは、予期せぬ方法で動作し得る他の複数のドライバーを含み得るホスト車両の環境等、敵対環境に対するロバスト性の恩恵を受けることができる。vに対して確率論的仮定を課さないモデルでは、vが敵対的方法で選択される環境を検討することができる。幾つかの場合、μに制限を加えることができ、さもなければ敵が計画問題を困難にし、又は不可能にさえし得る。1つの自然な制約は、||μ||が制約によって境界を付けられることを要求することであり得る。 [0332] As discussed above, the learning system can benefit from robustness to hostile environments, such as the environment of a host vehicle, which can include other drivers that can operate in unexpected ways. v In the model does not impose stochastic assumed for t, v t can be considered the environment selected by hostile way. In some cases, it is possible to restrict the μ t, otherwise the enemy is difficult to plan a problem, or impossible to be able to even. One natural constraint may be to require || μ t || to be bounded by the constraint.

[0333] 敵対的環境に対するロバスト性は、自律運転の応用において有用であり得る。敵対的方法でμを選択することは、ロバストな最適ポリシに向けて学習システムを集中させることができるため、学習プロセスを加速することさえできる。単純なゲームを使用してこの概念を説明することができる。状態は、

であり、動作は、

であり、即時の損失関数は、0.1|a|+[|s|−2]であり、[x]=max{x,0}は、ReLU(正規化線形ユニット)関数である。次の状態は、st+1=s+a+vであり、v∈[−0.5,0.5]が敵対的方法で環境のために選ばれる。ここで、ReLUを伴う2層のネットワークとして最適なポリシを記述することができる:a=−[s−1.5]+[−s−1.5]。|s|∈(1.5,2]のとき、最適な動作は、動作a=0よりも大きい即時の損失を有し得ることを認識されたい。従って、システムは、将来の計画を立てることができ、即時の損失のみに依存しなくてもよい。aに対する損失の微分は、0.1sign(a)であり、sに対する微分は、1[|s|>2]sign(s)であることを認識されたい。s∈(1.5,2]の状況では、vの敵対的選択は、v=0.5に設定することであり、従ってa>1.5−sのときには常に、ラウンドt+1上で非ゼロ損失があり得る。そのような場合、損失の微分がaに直接逆伝搬し得る。従ってvの敵対的選択は、aの選択が次善である場合にナビゲーションシステムが非ゼロ逆伝搬メッセージを得ることを促進することができる。かかる関係は、現在の動作が(たとえその動作が次善の報酬又は更には損失を招いても)将来より高い報酬をもたらすより最適な動作の機会を与えるという期待に基づき、ナビゲーションシステムが現在の動作を選択することを促進し得る。
[0333] Robustness to hostile environments can be useful in autonomous driving applications. Choosing μ t in a hostile manner can even speed up the learning process, as it can concentrate the learning system towards a robust optimal policy. A simple game can be used to illustrate this concept. The state is

And the operation is

, And the loss function of immediate, 0.1 | a t | + [ | s t | -2] a +, [x] + = max {x, 0} is, ReLU (normalized linear units) Function It is. The next state is a s t + 1 = s t + a t + v t, v t ∈ [-0.5,0.5] is selected for the environment hostile way. Here, it is possible to describe the optimal policy as a network of two layers with ReLU: a t = - [s t -1.5] + + [- s t -1.5] +. It should be appreciated that when | s t | ∈ (1.5,2], the optimal operation may have an immediate loss greater than operation a = 0, so the system plans for the future. it can be, derivative of loss for good .a t without depending only on the loss of immediate is 0.1sign (a t), differentiated for s t is, 1 [| s t |> 2] sign in the context of should be recognized that a (s t) .s t ∈ ( 1.5,2], hostile selection of v t is to set v t = 0.5, therefore a t > 1.5-s t whenever the can has a non-zero loss on round t + 1. in such cases, the derivative of the loss can be reversed directly propagated to a t. Therefore hostile selection of v t is, a resulting navigation system nonzero backpropagation message if the selection of t is sub-optimal Such a relationship may lead to the expectation that the current action will provide a higher optimal reward in the future (even if the action results in sub-optimal rewards or even losses). , The navigation system may facilitate selecting the current action.

[0334] このような手法は、起こり得る事実上全てのナビゲーション状況に適用することができる。以下では、1つの例、すなわち適応クルーズコントロール(ACC)に適用される手法について説明する。ACCの問題では、ホスト車両が前方の目標車両までの十分な距離(例えば、目標車両まで1.5秒)を保とうと試みる場合がある。別の目標は、所望の間隙を維持しながらできるだけスムーズに走行することであり得る。この状況を表すモデルを以下のように定めることができる。状態空間は、

であり、動作空間は、

である。状態の第1の座標は、目標車両の速度であり、第2の座標は、ホスト車両の速度であり、最後の座標は、ホスト車両と目標車両との間の距離(例えば、道路の曲線に沿ってホスト車両の位置から目標の位置を引いたもの)である。ホスト車両が行うべき動作は、加速であり、aで示すことができる。量τは、連続したラウンド間の時間差を示すことができる。τは、任意の適切な量に設定できるが、一例ではτを0.1秒とすることができる。位置sは、

で示すことができ、目標車両の(未知の)加速度を

で示すことができる。
[0334] Such an approach can be applied to virtually all possible navigation situations. Hereinafter, one example, that is, a method applied to adaptive cruise control (ACC) will be described. In the ACC problem, the host vehicle may attempt to maintain a sufficient distance to the target vehicle ahead (eg, 1.5 seconds to the target vehicle). Another goal may be to drive as smoothly as possible while maintaining the desired gap. A model representing this situation can be defined as follows. The state space is

And the operating space is

It is. The first coordinate of the state is the speed of the target vehicle, the second coordinate is the speed of the host vehicle, and the last coordinate is the distance between the host vehicle and the target vehicle (e.g., Along with the target vehicle position minus the target position). Operation to be performed by the host vehicle is accelerated, it can be represented by a t. The quantity τ can indicate the time difference between successive rounds. τ can be set to any suitable amount, but in one example, τ can be 0.1 seconds. The position st is

And the (unknown) acceleration of the target vehicle

Can be indicated by

[0335] システムの完全なダイナミクスは、次式で記述することができる。
[0335] The complete dynamics of the system can be described by the following equation:

[0336] これは、2つのベクトルの和として記述することができる。
[0336] This can be described as the sum of two vectors.

[0337] 第1のベクトルは、予測可能な部分であり、第2のベクトルは、予測不能な部分である。ラウンドtに対する報酬は、以下のように定められる。
[0337] The first vector is a predictable part, and the second vector is an unpredictable part. The reward for the round t is determined as follows.

[0338] 第1の項は、非ゼロ加速度に対するペナルティをもたらす可能性があり、従ってスムーズな運転を促す。第2の項は、目標の車xまでの距離と所望の距離

との間の比率に依存し、これは、1メートルの距離と1.5秒のブレーキ距離との間の最大値として定められる。幾つかの場合、この比率がまさに1であり得るが、この比率が[0.7,1.3]の範囲内にある限り、ポリシは、任意のペナルティなしで済ませることができ、それは、スムーズな運転を実現する際に重要であり得る特性である幾らかの緩み(slack)をナビゲーションにおいてホスト車両に認めることができる。
[0338] The first term may result in a penalty for non-zero acceleration, thus promoting smooth driving. The second term is the desired distance between the distance to the target car x t

And this is defined as the maximum between a distance of 1 meter and a braking distance of 1.5 seconds. In some cases, this ratio can be exactly one, but as long as this ratio is in the range of [0.7, 1.3], the policy can do without any penalty, Some slack, a property that may be important in realizing proper driving, can be noticed to the host vehicle in navigation.

[0339] 上記で概説した手法を実装し、ホスト車両のナビゲーションシステムは、(例えば、ナビゲーションシステムの処理ユニット110内の運転ポリシモジュール803の動作により)観測された状態に応じて動作を選択することができる。選択される動作は、感知されるナビゲーション状態に関して利用可能な応答動作に関連する報酬のみの分析に基づくのではなく、将来の状態、将来の状態に応じた潜在的動作、及び潜在的動作に関連する報酬を検討し分析することにも基づき得る。   [0339] Implementing the techniques outlined above, the navigation system of the host vehicle may select an action according to the observed state (eg, by the action of the driving policy module 803 in the processing unit 110 of the navigation system). Can be. The actions selected are not based on an analysis of only the rewards associated with available response actions with respect to the perceived navigation state, but rather with respect to future states, potential actions in response to future states, and potential actions It can also be based on reviewing and analyzing rewards to be paid.

[0340] 図16は、検出及び長期計画に基づくナビゲーションに対するアルゴリズム手法を示す。例えば、ステップ1601では、ホスト車両のためのナビゲーションシステムの少なくとも1つの処理デバイス110は、複数の画像を受信し得る。これらの画像は、ホスト車両の環境を表すシーンを捕捉することができ、上記の画像捕捉装置(例えば、カメラやセンサ等)のいずれかによって供給され得る。ステップ1603でこれらの画像の1つ又は複数を分析することは、(上記で説明したように)少なくとも1つの処理デバイス110がホスト車両に関連する現在のナビゲーション状態を識別することを可能にし得る。   FIG. 16 shows an algorithm method for navigation based on detection and a long-term plan. For example, in step 1601, at least one processing device 110 of a navigation system for a host vehicle may receive a plurality of images. These images can capture a scene representing the environment of the host vehicle and can be provided by any of the image capture devices described above (eg, cameras, sensors, etc.). Analyzing one or more of these images at step 1603 may allow at least one processing device 110 to identify a current navigation state associated with the host vehicle (as described above).

[0341] ステップ1605、1607、及び1609では、検知されるナビゲーション状態に応じて様々な潜在的なナビゲーション動作を決定することができる。(例えば、合流を完了するために、先行車両の後にスムーズに続くために、目標車両を追い抜くために、道路内の物体を回避するために、検出した停止標識のために減速するために、割り込んでくる目標車両を回避するために、又はシステムのナビゲーション目標を助長し得る他の任意のナビゲーション動作を完了するために)これらの潜在的なナビゲーション動作(例えば、第1のナビゲーション動作から利用可能なN番目のナビゲーション動作まで)は、検知状態及びナビゲーションシステムの長期目標に基づいて決定することができる。   In steps 1605, 1607, and 1609, various potential navigation actions can be determined according to the detected navigation state. (E.g., to complete the merge, to smoothly follow the preceding vehicle, to overtake the target vehicle, to avoid objects on the road, to slow down due to detected stop signs, to interrupt These potential navigation actions (e.g., available from the first navigation action) to avoid an upcoming target vehicle or to complete any other navigation action that may help the system's navigation goals. ) Can be determined based on the sensing state and the long-term goal of the navigation system.

[0342] 決定される潜在的なナビゲーション動作のそれぞれについて、システムは、期待報酬を決定することができる。期待報酬は、上記の技法のいずれかに従って決定することができ、1つ又は複数の報酬関数に対する特定の潜在的動作の分析を含み得る。ステップ1605、1607、及び1609でそれぞれ決定された(例えば、第1の、第2の、及びN番目の)潜在的なナビゲーション動作のそれぞれについて期待報酬1606、1608、及び1610を決定することができる。   [0342] For each potential navigation action determined, the system can determine an expected reward. Expected rewards may be determined according to any of the techniques described above and may include an analysis of certain potential behaviors for one or more reward functions. Expected rewards 1606, 1608, and 1610 may be determined for each of the potential navigation actions determined at steps 1605, 1607, and 1609, respectively (eg, first, second, and Nth). .

[0343] 幾つかの場合、ホスト車両のナビゲーションシステムは、期待報酬1606、1608、及び1610に関連する値(又は期待報酬の他の任意の種類のインジケータ)に基づいて利用可能な潜在的動作の中から選択を行うことができる。例えば、一部の状況では、最も高い期待報酬をもたらす動作が選択され得る。   [0343] In some cases, the host vehicle's navigation system may determine the potential action available based on the value associated with the expected reward 1606, 1608, and 1610 (or any other type of indicator of the expected reward). You can choose from. For example, in some situations, the action that results in the highest expected reward may be selected.

[0344] とりわけ、ナビゲーションシステムがホスト車両のためのナビゲーション動作を決定するために長期計画に携わる他の事例では、最も高い期待報酬をもたらす潜在的動作をシステムが選択しない場合がある。むしろ、システムは、将来に目を向けて、現在のナビゲーション状態に応じて低報酬の動作を選択した場合により高い報酬を後に実現する機会があり得るかどうかを分析することができる。例えば、ステップ1605、1607、及び1609で決定される潜在的動作のいずれか又は全てについて将来の状態を決定することができる。ステップ1613、1615、及び1617で決定されるそれぞれの将来の状態は、それぞれの潜在的動作(例えば、ステップ1605、1607、及び1609で決定される潜在的動作)によって修正される現在のナビゲーション状態に基づいて生じることが予期される将来のナビゲーション状態を表し得る。   [0344] In particular, in other cases where the navigation system is involved in long-term planning to determine the navigation behavior for the host vehicle, the system may not select the potential behavior that results in the highest expected reward. Rather, the system may look into the future and analyze whether there may be an opportunity to later realize a higher reward if a low-reward action is selected depending on the current navigation state. For example, a future state can be determined for any or all of the potential actions determined in steps 1605, 1607, and 1609. Each future state determined in steps 1613, 1615, and 1617 becomes the current navigation state modified by each potential action (eg, the potential actions determined in steps 1605, 1607, and 1609). It may represent a future navigation state that is expected to occur based on it.

[0345] ステップ1613、1615、及び1617で予測される将来の状態のそれぞれについて、(決定される将来の状態に応じて利用可能なナビゲーションの選択肢としての)1つ又は複数の将来の動作を決定し評価することができる。ステップ1619、1621、及び1623では、例えば、将来の動作の1つ又は複数に関連する期待報酬の値又は他の任意の種類のインジケータを(例えば、1つ又は複数の報酬関数に基づいて)作成することができる。1つ又は複数の将来の動作に関連する期待報酬は、それぞれの将来の動作に関連する報酬関数の値を比較することによって又は期待報酬に関連する他の任意のインジケータを比較することによって、評価することができる。   [0345] For each of the future states predicted in steps 1613, 1615, and 1617, determine one or more future actions (as available navigation options depending on the determined future state). And can be evaluated. In steps 1619, 1621, and 1623, for example, an expected reward value or any other type of indicator associated with one or more of the future actions is created (eg, based on one or more reward functions). can do. The expected reward associated with one or more future actions is assessed by comparing the value of a reward function associated with each future action or by comparing any other indicator associated with the expected reward. can do.

[0346] ステップ1625では、ホスト車両のためのナビゲーションシステムは、現在のナビゲーション状態に対して(例えば、ステップ1605、1607、及び1609で)識別された潜在的動作のみに基づいてではなく、(例えば、ステップ1613、1615、及び1617で決定される)予測される将来の状態に応じて利用可能な将来の潜在的動作の結果として決定される期待報酬にも基づき、期待報酬を比較することに基づいてホスト車両のためのナビゲーション動作を選択することができる。ステップ1625での選択は、ステップ1619、1621、及び1623で実行される選択肢及び報酬の分析に基づき得る。   [0346] In step 1625, the navigation system for the host vehicle may determine the current navigation state (e.g., in steps 1605, 1607, and 1609) and not based solely on the potential actions identified (e.g., Based on the expected reward, which is also determined as a result of the potential future action available depending on the predicted future state (determined in steps 1613, 1615 and 1617). To select a navigation action for the host vehicle. The selection at step 1625 may be based on an analysis of choices and rewards performed at steps 1619, 1621, and 1623.

[0347] ステップ1625でのナビゲーション動作の選択は、将来の動作の選択肢に関連する期待報酬を比較することのみに基づき得る。この場合、ナビゲーションシステムは、潜在的な将来のナビゲーション状態のための動作から生じる期待報酬を比較することのみに基づいて現在の状態に対する動作を選択することができる。例えば、システムは、ステップ1619、1621、及び1623での分析によって決定される最も高い将来の報酬値に関連する、ステップ1605、1607、又は1609で識別される潜在的な動作を選択することができる。   [0347] The selection of a navigation action at step 1625 may be based solely on comparing expected rewards associated with future action options. In this case, the navigation system may select an action for the current state based solely on comparing expected rewards resulting from the action for a potential future navigation state. For example, the system can select a potential action identified in step 1605, 1607, or 1609 that is associated with the highest future reward value determined by the analysis in steps 1619, 1621, and 1623. .

[0348] ステップ1625でのナビゲーション動作の選択は、(上記で述べたように)現在の動作の選択肢を比較することのみに基づき得る。この状況では、ナビゲーションシステムは、最も高い期待報酬1606、1608、又は1610に関連する、ステップ1605、1607、又は1609で識別される潜在的動作を選択することができる。この選択は、将来のナビゲーション状態又は予期される将来のナビゲーション状態に応じて利用可能なナビゲーション動作に対する将来の期待報酬を殆ど又は全く考慮せずに行うことができる。   [0348] The selection of a navigation action at step 1625 may be based solely on comparing current action options (as described above). In this situation, the navigation system may select the potential action identified in step 1605, 1607, or 1609 that is associated with the highest expected reward 1606, 1608, or 1610. This selection can be made with little or no consideration of future expected rewards for available navigation actions depending on future navigation conditions or expected future navigation conditions.

[0349] 他方では、幾つかの場合、ステップ1625でのナビゲーション動作の選択は、将来の動作の選択肢及び現在の動作の選択肢の両方に関連する期待報酬を比較することに基づき得る。これは、実際、長期計画に基づくナビゲーションの原理の1つであり得る。将来のナビゲーション状態に応じて利用可能になることが予期されるその後のナビゲーション動作に応じて潜在的に高い報酬を実現するために、将来の動作に対する期待報酬を分析して、現在のナビゲーション状態に応じて報酬がより低い動作を選択することをいずれかが正当化し得るかどうかを判定することができる。一例として、期待報酬1606の値又は他のインジケータは、報酬1606、1608、及び1610の中の最も高い期待報酬を示し得る。他方では、期待報酬1608は、報酬1606、1608、及び1610の中の最も低い期待報酬を示し得る。ステップ1605で決定される潜在的動作(すなわち最も高い期待報酬1606を生じさせる動作)を単純に選択するのではなく、ステップ1625でナビゲーション動作の選択を行う際に将来の状態、潜在的な将来の動作、及び将来の報酬の分析を使用することができる。一例では、ステップ1621で(ステップ1607で決定される第2の潜在的動作に基づいてステップ1615で決定される将来の状態に対する少なくとも1つの将来の動作に応じて)識別される報酬が期待報酬1606よりも高い可能性があると判定され得る。この比較に基づき、期待報酬1606が期待報酬1608よりも高いにもかかわらず、ステップ1605で決定される第1の潜在的動作ではなく、ステップ1607で決定される第2の潜在的動作を選択することができる。一例では、ステップ1605で決定される潜在的なナビゲーション動作は、検出された目標車両の前に合流することを含み得る一方、ステップ1607で決定される潜在的なナビゲーション動作は、目標車両の後ろに合流することを含み得る。目標車両の前に合流する期待報酬1606は、目標車両の後ろに合流することに関連する期待報酬1608よりも高い可能性があるが、目標車両の後ろに合流することは、期待報酬1606、1608、又は現在の検知されたナビゲーション状態に応じて利用可能な動作に基づく他の報酬よりも更に高い潜在的報酬を与える動作の選択肢があり得る将来の状態をもたらす可能性があると判定されることがある。   [0349] On the other hand, in some cases, selecting a navigation action in step 1625 may be based on comparing expected rewards associated with both future action options and current action options. This may in fact be one of the principles of navigation based on long-term planning. Analyze the expected reward for future actions to achieve a potentially higher reward for subsequent navigation actions that are expected to be available depending on future navigation states, and It can be determined whether any can justify selecting an operation with a lower reward accordingly. As an example, the value of expected reward 1606 or other indicator may indicate the highest expected reward among rewards 1606, 1608, and 1610. On the other hand, expected reward 1608 may indicate the lowest expected reward among rewards 1606, 1608, and 1610. Rather than simply selecting the potential action determined in step 1605 (ie, the action that produces the highest expected reward 1606), the future state, potential future Analysis of behavior and future rewards can be used. In one example, the reward identified in step 1621 (in response to at least one future action for the future state determined in step 1615 based on the second potential action determined in step 1607) is the expected reward 1606 It may be determined that there is a higher possibility. Based on this comparison, select the second potential action determined in step 1607 instead of the first potential action determined in step 1605, even though expected reward 1606 is higher than expected reward 1608. be able to. In one example, the potential navigation action determined in step 1605 can include merging before the detected target vehicle, while the potential navigation action determined in step 1607 can include This may include joining. The expected reward 1606 to merge before the target vehicle may be higher than the expected reward 1608 associated with merging behind the target vehicle, but merging behind the target vehicle may be higher than the expected reward 1606, 1608. Or it is determined that an action option that provides a higher potential reward than other rewards based on actions available in response to the current detected navigation state may result in a possible future state. There is.

[0350] ステップ1625で潜在的動作の中から選択を行うことは、期待報酬(又は他の潜在的動作に勝るある潜在的動作に関連する利益の、他の任意の測定基準又はインジケータ)の任意の適切な比較に基づき得る。幾つかの場合、上記で説明したように、第1の潜在的動作に関連する報酬よりも高い期待報酬に関連する少なくとも1つの将来の動作を第2の潜在的動作がもたらすことが予測される場合、第1の潜在的動作に優先して第2の潜在的動作を選択することができる。他の事例では、より複雑な比較を使用することができる。例えば、予測される将来の状態に応じた動作の選択肢に関連する報酬を、決定される潜在的動作に関連する複数の期待報酬と比較することができる。   [0350] Making a selection among the potential actions in step 1625 may include selecting any of the expected rewards (or any other metric or indicator of a benefit associated with one potential action over another potential action). Based on an appropriate comparison of In some cases, as described above, it is expected that the second potential action will result in at least one future action associated with the expected reward higher than the reward associated with the first potential action. In that case, the second potential operation can be selected over the first potential operation. In other cases, more complex comparisons can be used. For example, a reward associated with a choice of action in response to a predicted future state can be compared to a plurality of expected rewards associated with a potential action determined.

[0351] 一部のシナリオでは、現在の状態に対する潜在的動作の結果として期待される報酬(例えば、期待報酬1606、1608、1610等)のいずれよりも高い報酬を将来の動作の少なくとも1つがもたらすことが予期される場合、予測される将来の状態に基づく動作及び期待報酬が、現在の状態に対する潜在的動作の選択に影響を及ぼす場合がある。幾つかの場合、現在のナビゲーション状態に対する潜在的動作を選択するためのガイドとして、(例えば、検知される現在の状態に対する潜在的動作に関連する期待報酬並びに潜在的な将来のナビゲーション状態に対する潜在的な将来の動作の選択肢に関連する期待報酬の中の)最も高い期待報酬をもたらす将来の動作の選択肢を使用することができる。すなわち、最も高い期待報酬(又は所定の閾値等を上回る報酬)をもたらす将来の動作の選択肢を識別した後、最も高い期待報酬をもたらす識別された将来の動作に関連する将来の状態につながる潜在的動作をステップ1625で選択することができる。   [0351] In some scenarios, at least one of the future actions provides a higher reward than any of the expected rewards (eg, expected rewards 1606, 1608, 1610, etc.) as a result of the potential action for the current state. If expected, actions and expected rewards based on predicted future states may affect the selection of potential actions for the current state. In some cases, as a guide to select potential actions for the current navigation state (eg, expected rewards associated with potential actions for the current state being detected as well as potential rewards for potential future navigation states). Future action options that yield the highest expected reward (of the expected rewards associated with the most future action options) can be used. That is, after identifying a future action option that yields the highest expected reward (or a reward that exceeds a predetermined threshold, etc.), the potential for future states associated with the identified future action that yields the highest expected reward An action can be selected at step 1625.

[0352] 他の事例では、期待報酬間の決定される差に基づいて利用可能な動作の選択を行うことができる。例えば、ステップ1621で決定される将来の動作に関連する期待報酬と期待報酬1606との差が、期待報酬1608と期待報酬1606との差を上回る場合(+符号の差を想定する)、ステップ1607で決定される第2の潜在的動作を選択することができる。別の例では、ステップ1621で決定される将来の動作に関連する期待報酬とステップ1619で決定される将来の動作に関連する期待報酬との差が、期待報酬1608と期待報酬1606との差を上回る場合、ステップ1607で決定される第2の潜在的動作を選択することができる。   [0352] In other cases, a selection of available actions can be made based on the determined difference between the expected rewards. For example, if the difference between the expected reward 1606 and the expected reward 1606 related to the future operation determined in Step 1621 exceeds the difference between the expected reward 1608 and the expected reward 1606 (assuming a difference of + sign), Step 1607 May be selected. In another example, the difference between the expected reward associated with the future action determined in step 1621 and the expected reward associated with the future action determined in step 1619 is the difference between the expected reward 1608 and the expected reward 1606. If so, a second potential action determined in step 1607 can be selected.

[0353] 現在のナビゲーション状態に対する潜在的動作の中から選択を行うための幾つかの例を説明してきた。但し、予測される将来の状態に及ぶ動作及び報酬の分析に基づく長期計画によって利用可能な動作を選択するために、他の任意の適切な比較技法又は基準を使用することができる。加えて、図16では、長期計画分析において2つの層(例えば、現在の状態に対する潜在的動作から生じる報酬を検討する第1の層、及び予測される将来の状態に応じた将来の動作の選択肢から生じる報酬を検討する第2の層)を示すが、更に多い層に基づく分析も可能であり得る。例えば、長期計画分析を1つの層又は2つの層に基づかせるのではなく、現在のナビゲーション状態に応じて利用可能な潜在的動作の中から選択を行う際、分析の3つの層、4つの層、又は更に多くの層を使用することができる。   [0353] Several examples have been described for making a selection among potential actions for the current navigation state. However, any other suitable comparison technique or criterion can be used to select actions available by long-term planning based on an analysis of actions and rewards over the expected future state. In addition, FIG. 16 shows two layers in the long-term plan analysis (eg, a first layer that considers the rewards arising from potential actions for the current state, and options for future actions depending on the predicted future state). (A second tier that considers the rewards arising from), but analyzes based on more tiers may also be possible. For example, rather than base long-term planning analysis on one or two layers, when choosing among the potential actions available depending on the current navigational state, three layers of analysis, four layers Or more layers can be used.

[0354] 検知したナビゲーション状態に応じて潜在的動作の中から選択を行った後、ステップ1627では、少なくとも1つのプロセッサは、選択された潜在的なナビゲーション動作に応じてホスト車両のナビゲーションアクチュエータの少なくとも1つの調節を引き起こすことができる。ナビゲーションアクチュエータは、ホスト車両の少なくとも1つの側面を制御するための任意の適切な装置を含み得る。例えば、ナビゲーションアクチュエータは、操舵メカニズム、ブレーキ、又はアクセルの少なくとも1つを含み得る。   [0354] After making a selection among the potential actions in response to the detected navigation state, in step 1627, at least one processor communicates with at least one of the navigation actuators of the host vehicle in response to the selected potential navigation action. One adjustment can be triggered. The navigation actuator may include any suitable device for controlling at least one aspect of the host vehicle. For example, the navigation actuator may include at least one of a steering mechanism, a brake, or an accelerator.

[0355] 他者の推定される攻撃性に基づくナビゲーション
[0356] 運転の攻撃性のインジケータを決定するために、取得画像ストリームを分析することによって目標車両を監視することができる。本明細書では、攻撃性は質的又は定量的なパラメータとして記載するが、他の特性、すなわち感知される注意レベル(ドライバーの潜在的な欠陥、注意散漫 − 携帯電話や居眠り等)を使用し得る。一部の事例では、目標車両が自衛的姿勢を有すると見なすことができ、一部の事例では、目標車両がより攻撃的な姿勢を有すると見なすことができる。攻撃性のインジケータに基づいてナビゲーション動作を選択又は決定することができる。例えば、幾つかの場合、ホスト車両に対する相対速度、相対加速度、相対加速度の増加、追走距離等を追跡して、目標車両が攻撃的であるか又は自衛的であるかを判定することができる。目標車両が閾値を上回る攻撃度のレベルを有すると判定される場合、例えば、ホスト車両は、目標車両に道を譲ることに傾き得る。経路内の又は目標車両付近の1つ又は複数の障害物(例えば、先行車両、道路内の障害物、信号機等)に対する目標車両の決定された挙動に基づき、目標車両の攻撃度のレベルを決定することもできる。
[0355] Navigation based on estimated aggression of others
[0356] The target vehicle can be monitored by analyzing the acquired image stream to determine an indicator of driving aggression. Although aggression is described herein as a qualitative or quantitative parameter, it does not use other characteristics, ie, perceived level of attention (potential driver impairment, distraction-cell phone, dozing, etc.). obtain. In some cases, the target vehicle may be considered to have a self-defense posture, and in some cases, the target vehicle may be considered to have a more aggressive posture. A navigation action can be selected or determined based on the aggression indicator. For example, in some cases, the relative speed, relative acceleration, increase in relative acceleration, follow-up distance, etc. with respect to the host vehicle can be tracked to determine whether the target vehicle is aggressive or self-defense. . If the target vehicle is determined to have a level of attack that exceeds the threshold, for example, the host vehicle may lean to yield to the target vehicle. Determining the level of attack of the target vehicle based on the determined behavior of the target vehicle with respect to one or more obstacles in the route or near the target vehicle (e.g., preceding vehicles, roadside obstacles, traffic lights, etc.) You can also.

[0357] この概念への導入として、環状交差路内にホスト車両が合流することに関する実験の一例を説明し、ここで、ナビゲーション目標は、環状交差路を通過して出ていくことである。この状況は、ホスト車両が環状交差路の入り口に到達することで始まることができ、環状交差路の出口(例えば、第2の出口)に到達することで終わり得る。成功は、ホスト車両が他の全ての車両と常に安全な距離を保つかどうか、ホスト車両ができるだけ迅速にルートを終了するかどうか、及びホスト車両がスムーズな加速のポリシに従うかどうかに基づいて測定することができる。この解説では、N台の目標車両が環状交差路上に無作為に配置され得る。敵対的な挙動及び典型的な挙動の混同をモデリングするために、確率pで目標車両を「攻撃的な」運転ポリシによってモデリングすることができ、そのため、ホスト車両が目標車両の前に合流しようと試みるとき、攻撃的な目標車両は、加速する。確率1−pで目標車両を「自衛的な」運転ポリシによってモデリングすることができ、そのため、目標車両は、減速し、ホスト車両を合流させる。この実験ではp=0.5であり、他のドライバーの種類に関する情報についてはホスト車両のナビゲーションシステムに与えられなくてもよい。他のドライバーの種類は、エピソードの開始時に無作為に選択され得る。 [0357] As an introduction to this concept, an example of an experiment relating to the merging of a host vehicle in a roundabout is described, where the navigation goal is to exit through a roundabout. This situation may begin with the host vehicle reaching the entrance of the roundabout and may end with reaching the exit of the roundabout (eg, a second exit). Success is measured based on whether the host vehicle always keeps a safe distance from all other vehicles, whether the host vehicle exits the route as quickly as possible, and whether the host vehicle follows a policy of smooth acceleration can do. In this discussion, NT target vehicles may be randomly placed on the roundabout. To model confusion between hostile and typical behaviors, the target vehicle can be modeled with an "aggressive" driving policy with probability p, so that the host vehicle tries to join before the target vehicle When attempting, the offensive target vehicle accelerates. With a probability 1-p, the target vehicle can be modeled by a "self-defense" driving policy, so that the target vehicle slows down and joins the host vehicle. In this experiment, p = 0.5, and information regarding other driver types may not be provided to the navigation system of the host vehicle. Other driver types can be randomly selected at the beginning of the episode.

[0358] ナビゲーション状態は、ホスト車両(エージェント)の速度及び位置、並びに目標車両の位置、速度、及び加速度として表すことができる。現在の状態に基づいて攻撃的なドライバーと自衛的なドライバーとを区別するには、目標の加速度を観測し続けることが重要であり得る。全ての目標車両が環状交差路の経路の輪郭を描く1次元曲線上を移動し得る。ホスト車両は、合流点において目標車両の曲線と交差する独自の1次元曲線上を移動することができ、この点が両方の曲線の原点である。妥当な運転をモデリングするために、全ての車両の加速度の絶対値に定数によって上限を設けることができる。逆方向に運転することは許可されていないため、速度もReLUを通過させることができる。逆方向に運転することを許可しないことにより、エージェントは、自らの過去の動作を悔いることができないため、長期計画が必要になり得ることに留意されたい。   [0358] The navigation state can be expressed as the speed and position of the host vehicle (agent) and the position, speed and acceleration of the target vehicle. To distinguish between aggressive and self-defending drivers based on their current state, it may be important to keep track of the target acceleration. All target vehicles can move on a one-dimensional curve that outlines the path of the roundabout. The host vehicle can move on its own one-dimensional curve that intersects the curve of the target vehicle at the junction, which is the origin of both curves. In order to model reasonable driving, the absolute value of the acceleration of all vehicles can be capped by a constant. Driving in the opposite direction is not allowed, so the speed can also pass through the ReLU. Note that by not allowing driving in the opposite direction, agents cannot repent of their past actions and may require long-term planning.

[0359] 上記で説明したように、次の状態st+1は、予測可能な部分

と、予測不能な部分vとの和に分解することができる。表現

は、(可微分な方法で明確に定めることができる)車両の位置及び速度のダイナミクスを表し得る一方、vは、目標車両の加速度を表し得る。

は、アフィン変換上のReLU関数の組合せとして表すことができると立証することができ、従ってs及びaに関して可微分である。ベクトルvは、微分できない方法でシミュレータによって定められ得、一部の目標の攻撃的挙動及び他の目標の自衛的挙動を実装し得る。かかるシミュレータからの2つのフレームを図17A及び図17Bに示す。この実験例では、環状交差路の入り口に到達したとき、ホスト車両1701が減速することを学習した。ホスト車両1701は、攻撃的な車両(例えば、車両1703及び車両1705)に道を譲り、自衛的な車両(例えば、車両1706、1708、及び1710)の前に合流するとき、安全に進むことも学習した。図17A及び図17Bによって示す例では、ホスト車両1701のナビゲーションシステムに目標車両の種類が与えられていない。むしろ、特定の車両が攻撃的と判定されるか又は自衛的と判定されるかは、例えば、目標車両の観測される位置及び加速度に基づく推定によって決定される。図17Aでは、位置、速度、及び/又は相対加速度に基づき、ホスト車両1701は、車両1703が攻撃的な傾向を有すると判定することができ、従って、ホスト車両1701は、目標車両1703の前に合流しようと試みるのではなく、停止して目標車両1703が通過することを待つことができる。しかし、図17Bでは、車両1703の後ろを移動している目標車両1710が自衛的な傾向を示すことを(ここでも車両1710の観測される位置、速度、及び/又は相対加速度に基づいて)目標車両1701が認識し、従って目標車両1710の前且つ目標車両1703の後ろへの問題ない合流を完了している。
As described above, the next state st + 1 is a predictable part

When, it can be decomposed into the sum of the unpredictable part v t. Expression

, While may represent the position and velocity of the dynamics of the (differentiable manner can be clearly defined in the) vehicle, v t may represent an acceleration of the target vehicle.

It can be demonstrated and can be represented as a combination of ReLU function on affine transformation, and thus is differentiable with respect to s t and a t. Vector v t may implement obtained determined by the simulator in a way that can not be differentiated, aggressive behavior and self-defense behavior of other targets in the part of the target. Two frames from such a simulator are shown in FIGS. 17A and 17B. In this experimental example, it was learned that the host vehicle 1701 decelerated when reaching the entrance of the roundabout. The host vehicle 1701 may yield to an aggressive vehicle (eg, vehicle 1703 and vehicle 1705) and proceed safely when merging in front of self-defending vehicles (eg, vehicles 1706, 1708, and 1710). I learned. In the example shown in FIGS. 17A and 17B, the type of the target vehicle is not given to the navigation system of the host vehicle 1701. Rather, whether a particular vehicle is determined to be aggressive or self-defense is determined, for example, by estimation based on the observed position and acceleration of the target vehicle. In FIG. 17A, based on the position, speed, and / or relative acceleration, host vehicle 1701 can determine that vehicle 1703 has an aggressive tendency, and thus host vehicle 1701 is positioned ahead of target vehicle 1703. Instead of trying to merge, the vehicle can stop and wait for the target vehicle 1703 to pass. However, in FIG. 17B, the target vehicle 1710 moving behind the vehicle 1703 shows a self-defense tendency (again based on the observed position, speed, and / or relative acceleration of the vehicle 1710). The vehicle 1701 has recognized and thus has completed a successful merge before the target vehicle 1710 and behind the target vehicle 1703.

[0360] 図18は、他の車両の予測される攻撃性に基づいてホスト車両をナビゲートするためのアルゴリズムの一例を表すフローチャートを示す。図18の例では、目標車両の環境内の物体に対する目標車両の観測される挙動に基づき、少なくとも1つの目標車両に関連する攻撃性のレベルを推定することができる。例えば、ステップ1801では、ホスト車両のナビゲーションシステムの少なくとも1つの処理デバイス(例えば、処理デバイス110)は、ホスト車両の環境を表す複数の画像をホスト車両に関連するカメラから受信することができる。ステップ1803では、受信画像の1つ又は複数を分析することは、少なくとも1つのプロセッサが、ホスト車両1701の環境内の目標車両(例えば、車両1703)を識別することを可能にし得る。ステップ1805では、受信画像の1つ又は複数を分析することは、少なくとも1つの処理デバイスが、ホスト車両の環境内で、目標車両にとっての少なくとも1つの障害物を識別することを可能にし得る。物体は、道路内の瓦礫、停止信号/信号機、歩行者、別の車両(例えば、目標車両の前を移動している車両や駐車車両等)、道路内の箱、道路障壁、カーブ、又はホスト車両の環境内で遭遇され得る他の任意の種類の物体を含み得る。ステップ1807では、受信画像の1つ又は複数を分析することは、少なくとも1つの処理デバイスが、目標車両にとっての少なくとも1つの識別された障害物に対する目標車両の少なくとも1つのナビゲーション特性を決定することを可能にし得る。   FIG. 18 is a flowchart illustrating an example of an algorithm for navigating the host vehicle based on the predicted aggression of another vehicle. In the example of FIG. 18, a level of aggression associated with at least one target vehicle can be estimated based on the observed behavior of the target vehicle with respect to objects in the environment of the target vehicle. For example, in step 1801, at least one processing device (eg, processing device 110) of the host vehicle navigation system can receive a plurality of images representing the environment of the host vehicle from a camera associated with the host vehicle. At step 1803, analyzing one or more of the received images may enable at least one processor to identify a target vehicle (eg, vehicle 1703) within the environment of host vehicle 1701. In step 1805, analyzing one or more of the received images may enable at least one processing device to identify at least one obstacle for the target vehicle in the environment of the host vehicle. The object may be debris on a road, stop signal / signal, pedestrian, another vehicle (eg, a vehicle moving in front of a target vehicle or a parked vehicle), a box on a road, a road barrier, a curve, or a host. It may include any other type of object that may be encountered in a vehicle environment. In step 1807, analyzing one or more of the received images may include at least one processing device determining at least one navigation characteristic of the target vehicle with respect to at least one identified obstacle for the target vehicle. May be possible.

[0361] 目標車両に対する適切なナビゲーション応答を決定するために、様々なナビゲーション特性を使用して、検出された目標車両の攻撃性のレベルを推定することができる。例えば、かかるナビゲーション特性は、目標車両と少なくとも1つの識別された障害物との間の相対加速度、目標車両の障害物からの距離(例えば、別の車両の後ろにある目標車両の追走距離)、及び/又は目標車両と障害物との間の相対速度等を含み得る。   [0361] Various navigation characteristics may be used to estimate the detected level of aggression of the target vehicle to determine an appropriate navigation response to the target vehicle. For example, such navigation characteristics include relative acceleration between the target vehicle and at least one identified obstacle, distance of the target vehicle from the obstacle (eg, following distance of the target vehicle behind another vehicle). And / or the relative speed between the target vehicle and the obstacle, and the like.

[0362] 幾つかの実施形態では、ホスト車両に関連するセンサ(例えば、レーダ、速度センサ、GPS等)からの出力に基づいて目標車両のナビゲーション特性を決定することができる。しかし、幾つかの場合、ホスト車両の環境の画像を分析することに部分的に又は完全に基づいて目標車両のナビゲーション特性が決定され得る。例えば、例として上記の及び参照により本明細書に援用する米国特許第9,168,868号で記載されている画像分析技法を使用して、ホスト車両の環境内の目標車両を認識することができる。ある期間にわたる捕捉画像内の目標車両の位置を監視すること、及び/又は目標車両に関連する1つ若しくは複数の特徴(例えば、テールライト、ヘッドライト、バンパー、車輪等)の捕捉画像内の位置を監視することは、目標車両とホスト車両との間の、又は目標車両とホスト車両の環境内の1つ又は複数の他の物体との間の相対的な距離、速度、及び/又は加速度を求めることを可能にし得る。   [0362] In some embodiments, the navigation characteristics of the target vehicle can be determined based on outputs from sensors (eg, radar, speed sensors, GPS, etc.) associated with the host vehicle. However, in some cases, navigation characteristics of the target vehicle may be determined based in part or entirely on analyzing images of the environment of the host vehicle. Recognizing a target vehicle in the environment of a host vehicle using, for example, the image analysis techniques described in U.S. Patent No. 9,168,868, by way of example and incorporated herein by reference. it can. Monitoring the position of the target vehicle in the captured image over a period of time and / or the position in the captured image of one or more features (eg, tail lights, headlights, bumpers, wheels, etc.) associated with the target vehicle. Monitoring the relative distance, speed, and / or acceleration between the target vehicle and the host vehicle or between the target vehicle and one or more other objects in the host vehicle's environment. It may be possible to ask.

[0363] 識別された目標車両の攻撃性のレベルは、目標車両の任意の適切な観測されたナビゲーション特性、又は観測されたナビゲーション特性の任意の組合せから推定することができる。例えば、攻撃性の判定は、観測される任意の特性及び1つ又は複数の所定の閾値レベル又は他の任意の適切な質的若しくは定量的な分析に基づいて行うことができる。幾つかの実施形態では、目標車両が所定の攻撃的な距離の閾値未満の距離でホスト車両又は別の車両を追走することが観測される場合、その目標車両を攻撃的と見なすことができる。他方では、所定の攻撃的な距離の閾値を超える距離でホスト車両又は別の車両を追走することが観測される目標車両は、自衛的と見なすことができる。所定の攻撃的な距離の閾値は、所定の自衛的な距離の閾値と同じである必要はない。加えて、所定の攻撃的な距離の閾値及び所定の自衛的な距離の閾値のいずれか又は両方は、明白な境界値ではなく、ある範囲の値を含み得る。更に、所定の攻撃的な距離の閾値も所定の自衛的な距離の閾値も固定される必要はない。むしろ、これらの値又は範囲は、時間と共にシフトする場合があり、目標車両の観測される特性に基づいて様々な閾値/閾値範囲を適用することができる。例えば、適用される閾値は、目標車両の1つ又は複数の他の特性に依存し得る。観測されるより高い相対速度及び/又は加速度は、より大きい閾値/閾値範囲の適用を正当化し得る。逆に、ゼロの相対速度及び/又は加速度を含むより低い相対速度及び/又は加速度は、攻撃的/自衛的の推定を行う際により小さい距離閾値/閾値範囲の適用を正当化し得る。   [0363] The level of aggression of the identified target vehicle can be estimated from any suitable observed navigation characteristic of the target vehicle, or any combination of the observed navigation characteristics. For example, a determination of aggression can be made based on any observed characteristics and one or more predetermined threshold levels or any other suitable qualitative or quantitative analysis. In some embodiments, a target vehicle may be considered aggressive if it is observed that the target vehicle follows a host vehicle or another vehicle at a distance less than a predetermined aggressive distance threshold. . On the other hand, a target vehicle that is observed to follow a host vehicle or another vehicle at a distance that exceeds a predetermined aggressive distance threshold can be considered self-defense. The predetermined aggressive distance threshold need not be the same as the predetermined self-defense distance threshold. In addition, either or both the predetermined aggressive distance threshold and the predetermined self-defense distance threshold may include a range of values rather than explicit boundary values. Furthermore, neither the predetermined aggressive distance threshold nor the predetermined self-defense distance threshold need be fixed. Rather, these values or ranges may shift over time, and different thresholds / threshold ranges may be applied based on observed characteristics of the target vehicle. For example, the applied threshold may depend on one or more other characteristics of the target vehicle. The higher relative velocity and / or acceleration observed may justify the application of a larger threshold / threshold range. Conversely, lower relative speeds and / or accelerations, including zero relative speeds and / or accelerations, may justify the application of smaller distance thresholds / threshold ranges in making offensive / self-defense estimates.

[0364] 攻撃的/自衛的の推定は、相対速度及び/又は相対加速度の閾値にも基づき得る。目標車両は、別の車両に対するその観測される相対速度及び/又はその相対加速度が所定のレベル又は範囲を上回る場合、攻撃的と見なすことができる。目標車両は、別の車両に対するその観測される相対速度及び/又はその相対加速度が所定のレベル又は範囲を下回る場合、自衛的と見なすことができる。   [0364] The aggressive / self-defense estimate may also be based on thresholds of relative speed and / or relative acceleration. A target vehicle may be considered aggressive if its observed relative speed and / or its relative acceleration with respect to another vehicle is above a predetermined level or range. A target vehicle may be considered self-defense if its observed relative speed with respect to another vehicle and / or its relative acceleration falls below a predetermined level or range.

[0365] 攻撃的/自衛的の判定は観測される任意のナビゲーション特性のみに基づいて行われ得るが、この判定は、観測される特性の任意の組合せに依存することもできる。例えば、上記で述べたように、幾つかの場合、一定の閾値又は範囲未満の距離で別の車両を追走することが観測されることのみに基づいて目標車両を攻撃的と見なすことができる。しかし、他の事例では、所定距離(判定が距離のみに基づく場合に適用される閾値と同じであるか又は異なり得る)未満で別の車両を追走すると共に、所定の値又は範囲を上回る相対速度及び/又は相対加速度を有する場合、目標車両を攻撃的と見なすことができる。同様に、一定の閾値又は範囲を超える距離で別の車両を追走することが観測されることのみに基づいて目標車両を自衛的と見なすことができる。しかし、他の事例では、所定距離(判定が距離のみに基づく場合に適用される閾値と同じであるか又は異なり得る)を超えて別の車両を追走すると共に、所定の値又は範囲未満の相対速度及び/又は相対加速度を有する場合、目標車両を自衛的と見なすことができる。システム100は、例えば、車両が0.5Gの加速度又は減速度を超える場合(例えば、ジャーク5m/s3)、車両がレーン変更又はカーブ上で0.5Gの横加速度を有する場合、車両が上記のいずれかを別の車両に行わせる場合、車両がレーンを変更し、0.3Gの減速度又は3m/s3のジャークを超えて別の車両に道を譲らせる場合、及び/又は車両が停止することなしに2レーン変更する場合、攻撃的/自衛的と判断することができる。   [0365] Although the aggressive / self-defective determination may be made based solely on any observed navigation characteristics, the determination may also depend on any combination of the observed characteristics. For example, as mentioned above, in some cases, a target vehicle may be considered aggressive based solely on being observed to follow another vehicle at a distance below a certain threshold or range. . However, in other cases, following another vehicle less than a predetermined distance (which may be the same or different from a threshold applied when the determination is based solely on distance), and with a relative value greater than a predetermined value or range If it has speed and / or relative acceleration, the target vehicle can be considered aggressive. Similarly, a target vehicle can be considered self-defense based solely on observing following another vehicle at a distance that exceeds a certain threshold or range. However, in other cases, following another vehicle over a predetermined distance (which may be the same as or different from the threshold applied when the determination is based solely on distance), and If it has a relative speed and / or a relative acceleration, the target vehicle can be considered self-defense. The system 100 may determine if the vehicle has an acceleration or deceleration of 0.5 G (eg, jerk 5 m / s3), if the vehicle has a lateral acceleration of 0.5 G on a lane change or on a curve, If either is done by another vehicle, the vehicle changes lanes and gives way to another vehicle beyond 0.3G deceleration or 3m / s3 jerk, and / or vehicle stops If two lanes are changed without incident, it can be determined that they are aggressive / self-defense.

[0366] ある範囲を上回る量に言及することは、その量が範囲に関連する全ての値を上回ること又は範囲に含まれることを示し得ることを理解すべきである。同様に、ある範囲を下回る量に言及することは、その量が範囲に関連する全ての値を下回ること又は範囲に含まれることを示し得る。加えて、攻撃的/自衛的の推定を行うことについて記載した例は、距離、相対加速度、及び相対速度に関して説明したが、他の任意の適切な量を使用し得る。例えば、計算が使用され得る衝突までの時間、又は目標車両の距離、加速度、及び/又は速度の任意の間接的なインジケータを使用することができる。上記の例は、他の車両に対する目標車両に焦点を当てるが、攻撃的/自衛的の推定は、他の任意の種類の障害物(例えば、歩行者、道路障壁、信号機、瓦礫等)に対する目標車両のナビゲーション特性を観測することで行い得ることにも留意すべきである。   [0366] It is to be understood that reference to an amount above a range may indicate that the amount is above or included in all the values associated with the range. Similarly, reference to an amount below a range may indicate that the amount is below or included in all the values associated with the range. In addition, although the examples described for making offensive / self-defense estimates have been described with respect to distance, relative acceleration, and relative speed, any other suitable amount may be used. For example, the time to collision or any indirect indicator of target vehicle distance, acceleration, and / or speed at which the calculations may be used may be used. While the above example focuses on target vehicles for other vehicles, aggressive / self-defense estimates may be based on targets for any other type of obstacle (eg, pedestrians, road barriers, traffic lights, rubble, etc.). It should also be noted that this can be done by observing the navigation characteristics of the vehicle.

[0367] 図17A及び図17Bに示す例に戻り、ホスト車両1701が環状交差路に近づくと、自らの少なくとも1つの処理デバイスを含むナビゲーションシステムは、ホスト車両に関連するカメラから画像ストリームを受信することができる。受信画像の1つ又は複数の分析に基づき、目標車両1703、1705、1706、1708、及び1710のいずれかを識別することができる。更に、ナビゲーションシステムは、識別された目標車両の1つ又は複数のナビゲーション特性を分析することができる。ナビゲーションシステムは、目標車両1703と1705との間の間隙が環状交差路内への潜在的合流の第1の機会を表すと認識することができる。ナビゲーションシステムは、目標車両1703を分析して、目標車両1703に関連する攻撃性のインジケータを決定することができる。目標車両1703が攻撃的であると見なされる場合、ホスト車両のナビゲーションシステムは、車両1703の前に合流するのではなく車両1703に道を譲ることに決めることができる。他方では、目標車両1703が自衛的であると見なされる場合、ホスト車両のナビゲーションシステムは、車両1703の前で合流動作を完了しようと試みることができる。   [0367] Returning to the example shown in FIGS. 17A and 17B, when the host vehicle 1701 approaches the roundabout, the navigation system including its at least one processing device receives an image stream from a camera associated with the host vehicle. be able to. Any of the target vehicles 1703, 1705, 1706, 1708, and 1710 can be identified based on one or more analysis of the received images. Further, the navigation system can analyze one or more navigation characteristics of the identified target vehicle. The navigation system may recognize that the gap between target vehicles 1703 and 1705 represents a first opportunity for a potential merge into the roundabout. The navigation system may analyze the target vehicle 1703 to determine an aggression indicator associated with the target vehicle 1703. If the target vehicle 1703 is considered aggressive, the host vehicle's navigation system may decide to yield to the vehicle 1703 instead of merging in front of the vehicle 1703. On the other hand, if the target vehicle 1703 is considered self-defense, the navigation system of the host vehicle may attempt to complete the merging operation in front of the vehicle 1703.

[0368] ホスト車両1701が環状交差路に到達するとき、ナビゲーションシステムの少なくとも1つの処理デバイスは、捕捉画像を分析して目標車両1703に関連するナビゲーション特性を決定することができる。例えば、画像に基づき、ホスト車両1701が安全に入るのに十分な間隙を与える距離で車両1703が車両1705を追走していると判定され得る。実際、攻撃的な距離の閾値を超える距離で車両1703が車両1705を追走していると判定される場合があり、従って、この情報に基づき、ホスト車両のナビゲーションシステムは、目標車両1703を自衛的であると識別することに傾き得る。しかし、一部の状況では、上記で論じたように攻撃的/自衛的の判定を行う際に目標車両の複数のナビゲーション特性を分析することができる。分析を拡大し、ホスト車両のナビゲーションシステムは、目標車両1703が目標車両1705の後ろに攻撃的ではない距離で続いているが、車両1703が攻撃的挙動に関連する1つ又は複数の閾値を上回る相対速度及び/又は相対加速度を車両1705に対して有すると判定することができる。実際、ホスト車両1701は、目標車両1703が車両1705に対して加速しており、車両1703及び1705間にある間隙を狭めていると判定することができる。相対的な速度、加速度、及び距離(更には車両1703と1705との間の間隙が狭まっている速度)の更なる分析に基づき、ホスト車両1701は、目標車両1703が攻撃的に振る舞っていると判定することができる。従ってホスト車両が安全にナビゲートできる十分な間隙はあり得るが、ホスト車両1701は、目標車両1703の前に合流することがホスト車両の真後ろで攻撃的にナビゲートする車両をもたらすことになると予期することができる。更に、ホスト車両1701が車両1703の前に合流した場合、画像分析又は他のセンサ出力によって観測される挙動に基づき、目標車両1703がホスト車両1701に向かって加速し続けること、又は非ゼロ相対速度でホスト車両1701に向かって進むことが予期され得る。そのような状況は、安全性の観点から望ましくない場合があり、ホスト車両の乗客の不快感も招き得る。そのような理由から、図17Bに示すようにホスト車両1701は、車両1703に道を譲り、車両1703の後ろ且つそのナビゲーション特性の1つ又は複数の分析に基づいて自衛的と見なされる車両1710の前で環状交差路内に合流することに決めることができる。   [0368] When the host vehicle 1701 reaches the roundabout, at least one processing device of the navigation system can analyze the captured images to determine a navigation characteristic associated with the target vehicle 1703. For example, based on the image, it may be determined that vehicle 1703 is following vehicle 1705 at a distance that provides sufficient clearance for host vehicle 1701 to enter safely. In fact, it may be determined that the vehicle 1703 is following the vehicle 1705 at a distance exceeding the aggressive distance threshold, and therefore, based on this information, the navigation system of the host vehicle may defend the target vehicle 1703 by itself. You can lean on identifying yourself as a target. However, in some situations, multiple navigation characteristics of the target vehicle may be analyzed in making an offensive / self-defense decision as discussed above. Expanding the analysis, the host vehicle's navigation system indicates that the target vehicle 1703 follows the target vehicle 1705 at a non-aggressive distance, but the vehicle 1703 exceeds one or more thresholds associated with aggressive behavior It may be determined that the vehicle has a relative speed and / or relative acceleration with respect to the vehicle 1705. In fact, the host vehicle 1701 can determine that the target vehicle 1703 is accelerating with respect to the vehicle 1705, and that the gap between the vehicles 1703 and 1705 is narrowing. Based on a further analysis of the relative speed, acceleration, and distance (and even the speed at which the gap between vehicles 1703 and 1705 is narrowing), host vehicle 1701 determines that target vehicle 1703 is acting aggressively. Can be determined. Thus, although there may be enough clearance for the host vehicle to safely navigate, host vehicle 1701 expects that merging in front of target vehicle 1703 will result in a vehicle aggressively navigating directly behind the host vehicle. can do. Further, if the host vehicle 1701 merges in front of the vehicle 1703, the target vehicle 1703 may continue to accelerate toward the host vehicle 1701, or may have a non-zero relative velocity based on behavior observed by image analysis or other sensor outputs. At the host vehicle 1701. Such a situation may be undesirable from a safety point of view and may also cause discomfort to the passengers of the host vehicle. For that reason, as shown in FIG. 17B, the host vehicle 1701 yields to the vehicle 1703, and the vehicle 1710 is deemed self-defense behind the vehicle 1703 and based on one or more analyzes of its navigation characteristics. You can decide to join the roundabout before.

[0369] 図18に戻り、ステップ1809では、ホスト車両のナビゲーションシステムの少なくとも1つの処理デバイスは、識別された障害物に対する目標車両の少なくとも1つの識別されたナビゲーション特性に基づき、ホスト車両のためのナビゲーション動作(例えば、車両1710の前且つ車両1703の後ろに合流すること)を決定することができる。ナビゲーション動作を(ステップ1811)で実施するために、少なくとも1つの処理デバイスは、決定されたナビゲーション動作に応じてホスト車両のナビゲーションアクチュエータの少なくとも1つの調節を引き起こすことができる。例えば、図17Aにおいて車両1703に道を譲るためにブレーキをかけることができ、図17Bに示すように車両1703の後ろでホスト車両を環状交差路に入れさせるために、ホスト車両の車輪の操舵と共にアクセルを踏むことができる。   [0369] Returning to FIG. 18, in step 1809, at least one processing device of the host vehicle navigation system determines a target vehicle for the host vehicle based on the at least one identified navigation characteristic for the identified obstacle. A navigation action (eg, merging before the vehicle 1710 and behind the vehicle 1703) can be determined. To perform the navigation operation at (step 1811), the at least one processing device can cause at least one adjustment of a navigation actuator of the host vehicle in response to the determined navigation operation. For example, brakes can be applied to yield to vehicle 1703 in FIG. 17A, along with steering the wheels of the host vehicle to cause the host vehicle to enter the roundabout behind vehicle 1703 as shown in FIG. 17B. You can step on the accelerator.

[0370] 上記の例の中で説明したように、ホスト車両のナビゲーションは、別の車両又は物体に対する目標車両のナビゲーション特性に基づくことができる。加えて、ホスト車両のナビゲーションは、別の車両又は物体を具体的に参照することなしに目標車両のナビゲーション特性のみに基づき得る。例えば、図18のステップ1807では、ホスト車両の環境から捕捉される複数の画像を分析することは、目標車両に関連する攻撃性のレベルを示す識別された目標車両の少なくとも1つのナビゲーション特性を決定することを可能にし得る。ナビゲーション特性は、攻撃的/自衛的の判定を行うために、別の物体又は目標車両に対して参照する必要がない速度や加速度等を含み得る。例えば、所定の閾値を超える、又はある範囲に含まれる若しくはある範囲を超える、目標車両に関連する観測された加速度及び/又は速度が攻撃的な挙動を示し得る。逆に、所定の閾値を下回る、又はある範囲に含まれる若しくはある範囲を超える、目標車両に関連する観測された加速度及び/又は速度が自衛的な挙動を示し得る。   [0370] As described in the above examples, the navigation of the host vehicle may be based on the navigation characteristics of the target vehicle with respect to another vehicle or object. In addition, navigation of the host vehicle may be based solely on the navigation characteristics of the target vehicle without specific reference to another vehicle or object. For example, in step 1807 of FIG. 18, analyzing a plurality of images captured from the environment of the host vehicle determines at least one navigation characteristic of the identified target vehicle indicating a level of aggression associated with the target vehicle. May be able to The navigation characteristics may include speed, acceleration, etc. that need not be referenced to another object or target vehicle to make an aggressive / self-defense decision. For example, an observed acceleration and / or velocity associated with a target vehicle that is above a predetermined threshold or included in or exceeds a range may indicate aggressive behavior. Conversely, observed accelerations and / or velocities associated with the target vehicle that fall below a predetermined threshold or fall within or exceed a certain range may exhibit self-defense behavior.

[0371] 当然ながら、一部の例では、攻撃的/自衛的の判定を行うために、観測されるナビゲーション特性(例えば、位置、距離、加速度等)をホスト車両に対して参照することができる。例えば、目標車両に関連する攻撃性のレベルを示す、目標車両の観測されるナビゲーション特性は、目標車両とホスト車両との間の相対加速度の増加、ホスト車両の後ろの目標車両の追走距離、目標車両とホスト車両との間の相対速度等を含み得る。   [0371] Of course, in some examples, the observed navigation characteristics (eg, position, distance, acceleration, etc.) can be referenced to the host vehicle to make an aggressive / self-defense determination. . For example, the observed navigation characteristics of the target vehicle, indicating the level of aggression associated with the target vehicle, include an increase in the relative acceleration between the target vehicle and the host vehicle, a following distance of the target vehicle behind the host vehicle, It may include the relative speed between the target vehicle and the host vehicle.

[0372] 事故責任の制約に基づくナビゲーション
[0373] 上記の節で説明したように、特定の規則に対する準拠を確実にするために、計画されたナビゲーション動作を所定の制約に対してテストすることができる。幾つかの実施形態では、この概念を潜在的な事故責任の検討に拡張することができる。以下で論じるように、自律ナビゲーションの主な目標は、安全性である。絶対的な安全性は、(例えば、少なくとも自律制御下にある特定のホスト車両は自らの周囲の他の車両を制御できず、自らの動作のみを制御できることを理由に)不可能であり得るため、自律ナビゲーションにおける検討事項として、また計画された動作に対する制約として、潜在的な事故責任を使用することは、特定の自律車両が危険と見なされるいかなる動作も(例えば、潜在的な事故責任がホスト車両に帰す可能性がある動作を)行わないことを確実にすることを促進し得る。安全で且つホスト車両側の帰責事由又は責任の事故を引き起こさないと判定される動作のみをホスト車両が行う場合、事故回避の所望のレベル(例えば、運転時間当たり10−9未満)を実現することができる。
[0372] Navigation based on accident liability constraints
[0373] As described in the above section, planned navigation actions can be tested against predetermined constraints to ensure compliance with certain rules. In some embodiments, this concept can be extended to consider potential accident liability. As discussed below, the main goal of autonomous navigation is security. Absolute safety may not be possible (e.g., at least because certain host vehicles under autonomous control cannot control other vehicles around them and can only control their own movements). Using potential accident liability as a consideration in autonomous navigation and as a constraint on planned operations means that any operation in which a particular autonomous vehicle is considered dangerous (eg, potential accident liability is hosted It may help to ensure that no action is taken (which may be attributed to the vehicle). A desired level of accident avoidance (eg, less than 10 −9 per driving hour) is achieved if the host vehicle only performs actions that are safe and that do not cause a host vehicle liability or liability accident. be able to.

[0374] 自律運転に対して最新の手法が提起する課題は、安全保証の欠如(又は少なくとも所望の安全レベルを提供できないこと)、更にはスケーラビリティの欠如である。マルチエージェント安全運転を保証する問題を検討する。機械によって引き起こされる交通事故死を社会が容認する可能性は低いため、許容可能な安全レベルが自律車両の受容に最重要である。目標は、事故を全く起こさないことであり得るが、複数のエージェントが概して事故に関与し、事故が他のエージェントの過失によってのみ起きる状況を想定することができるため、それは、不可能である場合がある。例えば、図19に示すように、ホスト車両1901が複数レーン高速道路を走行しており、ホスト車両1901は、目標車両1903、1905、1907、及び1909に対する自らの動作を制御することができるが、自らを取り囲む目標車両の動作を制御することができない。その結果、例えば、車両1905がホスト車両との衝突コース上でホスト車両のレーンに突然割り込んだ場合、ホスト車両1901は、目標車両の少なくとも1つとの事故を回避することができない可能性がある。この困難に対処するために、自律車両の専門家の典型的な応答は、より多くの走行距離にわたるデータが収集されるにつれて安全性の検証がより厳格になるデータ駆動型の手法を用いることである。   [0374] The challenge posed by the latest approaches to autonomous driving is a lack of security (or at least not being able to provide the desired level of safety) and a lack of scalability. Consider the issues that guarantee multi-agent safe driving. Because society is unlikely to tolerate machine-induced traffic deaths, an acceptable level of safety is paramount to the acceptance of autonomous vehicles. The goal may be to have no accident at all, but it is not possible because it is possible to envisage situations where multiple agents are generally involved in the accident and the accident only occurs due to the negligence of other agents. There is. For example, as shown in FIG. 19, a host vehicle 1901 is traveling on a multi-lane highway, and the host vehicle 1901 can control its own operation with respect to target vehicles 1903, 1905, 1907, and 1909. Inability to control the operation of the target vehicle surrounding itself. As a result, for example, when the vehicle 1905 suddenly breaks into the lane of the host vehicle on the collision course with the host vehicle, the host vehicle 1901 may not be able to avoid an accident with at least one of the target vehicles. To address this difficulty, the typical response of an autonomous vehicle expert is to use a data-driven approach in which safety verification becomes more stringent as data over more mileage is collected. is there.

[0375] しかし、安全性に対するデータ駆動型の手法の問題のある性質を理解するために、1時間の(人間の)運転につき事故によって引き起こされる致死率は、10−6であると知られていることをまず考慮する。運転作業において機械が人間に取って代わることを社会が容認するには、致死率が3桁、すなわち1時間当たり10−9の確率まで減るべきであると想定することが妥当である。この推定は、エアバッグの及び航空規格の想定致死率と同様である。例えば、10−9は、空中で航空機から翼が自然発生的に外れる確率である。しかし、累積する走行距離に比例して更なる信頼をもたらすデータ駆動型の手法を使用して安全性を保証する試みは、実用的ではない。1時間の運転当たり10−9の致死率を保証するのに必要なデータ量は、その逆(すなわち10時間のデータ)に比例し、それは、およそ300億マイル程度である。更に、マルチエージェントシステムは、その環境と相互作用し、(現実の人間の運転をその全ての情報量の多さ(richness)及び無謀運転等の複雑さと共にエミュレートする現実的なシミュレータが利用可能でない限り(しかし、シミュレータを検証する問題の方が安全な自律車両エージェントを作ることよりも一層困難である))オフラインで検証できない可能性が高い。計画及び制御のソフトウェアに対するいかなる変更も同じ規模の新たなデータの収集を必要とし、それは、明らかに手に負えず、実用的でない。更に、データによってシステムを開発することは、行われる動作の解釈可能性及び説明可能性の欠如に常に直面し、自律車両(AV)が事故死を招く事故を起こす場合、その理由が分からなければならない。その結果、安全性のためのモデルベースの手法が必要とされるが、自動車業界における既存の「機能的安全性」及びASIL要件は、マルチエージェント環境に対処するように設計されていない。 [0375] However, to understand the problematic nature of data-driven approaches to safety, the fatality rate caused by accidents per hour (human) driving is known to be 10-6. Consider first that To allow society to allow machines to replace humans in driving tasks, it is reasonable to assume that mortality should be reduced to three orders of magnitude, a probability of 10 −9 per hour. This estimate is similar to the assumed fatality of airbags and aviation standards. For example, 10-9 is the probability that a wing will spontaneously deviate from an aircraft in the air. However, attempting to guarantee security using a data driven approach that provides additional reliability in proportion to the cumulative mileage is not practical. The amount of data required to ensure lethality operation per 10 -9 1 hour is proportional to the reverse (i.e. data of 10 9 hours), it is approximately 30 billion miles around. In addition, multi-agent systems can interact with their environment and have a realistic simulator available that emulates real human driving with all its richness and complexity, such as reckless driving Otherwise (but the problem of verifying a simulator is more difficult than creating a secure autonomous vehicle agent), it is likely that it cannot be verified off-line. Any change to the planning and control software requires the collection of new data of the same size, which is clearly unmanageable and impractical. Further, developing a system with data always faces a lack of interpretability and intelligibility of the actions performed, and if an autonomous vehicle (AV) causes an accident leading to accidental death, the reason must be understood. No. As a result, while a model-based approach for safety is needed, existing "functional safety" and ASIL requirements in the automotive industry are not designed to address a multi-agent environment.

[0376] 自律車両のための安全運転モデルを開発する際の第2の主な課題は、スケーラビリティが必要なことである。AVの基礎を成す前提は「より良い世界を作ること」を超えて、むしろドライバーなしのモビリティをドライバー有りよりも低コストで維持できるという前提に基づく。この前提は、(100万台単位の)AVの大量生産をサポートする意味及びより重要なことには新たな都市で運転できるようにする些細な増分コストをサポートする意味でスケーラビリティの概念と常に結び付く。従って、計算及び検知のコストは、重要であり、AVが大量生産される場合、検証のコスト及び選択された幾つかの都市ではなく、「どこでも」運転できる能力もビジネスを維持するのに必要な要件である。   [0376] A second major challenge in developing a safe driving model for autonomous vehicles is the need for scalability. The premise underlying AV is more than "creating a better world", but rather based on the assumption that mobility without a driver can be maintained at a lower cost than with a driver. This premise is always tied to the concept of scalability in the sense of supporting mass production of AVs (in millions) and more importantly of supporting the trivial incremental costs of being able to operate in new cities. . Therefore, the cost of computation and detection is important, and when AV is mass produced, the cost of verification and the ability to drive "anywhere" rather than a few selected cities is also necessary to sustain the business. Requirements.

[0377] 最近の手法に関する問題は、(i)所要の「計算密度」、(ii)高精細マップが定められ作成される方法、及び(iii)センサの所要の仕様という3軸に沿った「総当たり的な」考え方にある。総当たり的手法は、スケーラビリティに反し、無限のオンボード計算が遍在し、HDマップを構築し維持するコストが些細且つスケーラブルになり、斬新で超高度なセンサが開発され自動車のグレードに合わせて些細なコストで製品化される将来に負担を転嫁する。上記のいずれかが実現する将来は、実際、理にかなっているが、上記の影響力の全てを得ることは、低確率の事象である可能性が高い。従って、社会が容認することができ且つ先進国内のいずれかの箇所で運転する何百万台もの車をサポートする意味でスケーラブルであり、AVプログラム内に安全性及びスケーラビリティを統合する形式モデルを提供する必要がある。   [0377] The problems with recent approaches are: "i) the required" computational density ", (ii) the method by which the high-definition map is defined and created, and (iii) the required specifications of the sensor. It's a brute force approach. The brute force approach is contrary to scalability, infinite on-board calculations are ubiquitous, the cost of building and maintaining HD maps is trivial and scalable, and novel and ultra-high sensors have been developed to match the grade of the car. Transfer the burden to the future that will be commercialized at trivial cost. In the future where any of the above will be realized, indeed it makes sense, but obtaining all of the above influences is likely to be a low probability event. Thus, providing a formal model that is socially acceptable and scalable in terms of supporting millions of vehicles driving anywhere in the developed world, integrating safety and scalability within AV programs There is a need to.

[0378] 開示する実施形態は、目標の安全レベルを提供することができ(更には安全目標を上回ることさえでき)、何百万台もの(又はそれを上回る)自律車両を含むシステムにスケーリングすることもできる解決策を表す。安全面では、「責任敏感型安全性」(RSS)と呼ばれるモデルが導入され、このモデルは、「事故過失」の概念が解釈可能且つ説明可能であることを形式化し、ロボットエージェントの動作に「責任」感を組み込む。RSSの定義は、それが実装される方法によって不可知論的であり、それは、人を納得させるグローバル安全モデルを作成する目標を促進するための重要な特徴である。RSSは、(図19に見られるように)事故においてエージェントが非対称な役割を担うという考えによって動機付けられ、かかる事故では、典型的にはエージェントの1つのみが事故の原因であり、従ってその責任を負う。RSSモデルは、(例えば、遮蔽によって)全てのエージェントが常に見えるわけではない限られた検知条件下での「慎重な運転」の形式的処理も含む。RSSモデルの1つの主な目標は、エージェントが自らに「過失」があるか又は自らに責任がある事故を決して起こさないことを保証することである。モデルは、RSSに準拠する効率的なポリシ(例えば、「検知状態」を動作にマップする関数)を伴う場合にのみ有用であり得る。例えば、現時点では無害であるように思われる動作が遠い将来において大惨事につながる可能性がある(「バタフライ効果」)。RSSは、ホスト車両の動作の結果として将来事故が発生しないことを保証する(又は少なくとも事実上保証する)ことができる短期的将来に対する局所的制約の組を構築するのに役立ち得る。   [0378] The disclosed embodiments can provide target safety levels (and even exceed safety targets) and scale to systems that include millions (or more) autonomous vehicles. Represent a solution that can also be. The safety, the introduction of a model called "Responsible sensitive safety" (RSS), this model is to formalize the concept are possible and can be explained the construction of "accident negligence", the operation of the robotic agents " Incorporate a sense of responsibility. The definition of RSS is agnostic by the way it is implemented, which is a key feature to facilitate the goal of creating a convincing global security model. RSS is motivated by the idea that agents play an asymmetric role in an accident (as seen in FIG. 19), where typically only one of the agents is responsible for the accident, and Take responsible. The RSS model also includes a formal treatment of “careful driving” under limited sensing conditions where not all agents are always visible (eg, due to occlusion). One of the main goals of the RSS model is to ensure that agents do not have "negligence" on themselves or cause accidents for which they are responsible. The model may only be useful with an RSS-compliant efficient policy (e.g., a function that maps "sensing state" to action). For example, actions that appear to be harmless at the moment can lead to catastrophe in the distant future ("butterfly effect"). RSS may help to establish a set of local constraints on the short-term future that can guarantee (or at least virtually guarantee) that future accidents will not occur as a result of host vehicle operation.

[0379] 別の寄与は、単位、測定、及び動作空間で構成される「意味論的」言語の導入、並びにそれらがAVの計画、検知、及び作動にどのように組み込まれるかに関する仕様を軸に展開される。意味論がどのようなものかを知るために、これに関連して、運転講習を受けている人間が「運転ポリシ」について考えるようにどのように指示されるかを検討する。これらの指示は、幾何学的ではない(「現在の速度で13.7メートル走行し、次いで0.8m/sのレートで加速する」という形式を取らない)。むしろ、これらの指示は、意味論的な性質のものである(「前の車を追走する」又は「左側の車を追い越す」)。人間の運転ポリシの典型的な言語は、加速度ベクトルの幾何学的単位ではなく縦方向の目標及び横方向の目標に関する。形式的な意味論的言語は、時間及びエージェントの数と共に指数関数的に増大しない計画の計算の複雑さとつながりがあり、安全性と快適さとが相互作用する方法とつながりがあり、検知の計算が定められる方法とつながりがあり、及びセンサのモダリティ及び融合方法体系内でそれらがどのように相互作用するかの仕様とつながりがある、複数の面で有用であり得る。(意味論的言語に基づく)融合方法体系は、10時間程度の運転データのデータセットにわたるオフライン検証のみを行う一方、RSSモデルは、1時間の運転当たり所要の10−9の致死率を実現することを保証し得る。 [0379] Another contribution focuses on the introduction of "semantic" languages consisting of units, measurements, and working spaces, and specifications on how they are incorporated into AV planning, detection, and operation. Will be expanded to. In order to know what the semantics are, in this context, consider how a person taking a driving course is instructed to think about a "driving policy". These instructions are not geometrical a ( "to 13.7 meters traveling at the current speed, then accelerated at a rate of 0.8 m / s 2" does not take the form). Rather, these instructions are of a semantic nature ("run ahead of the car" or "pass the car on the left"). The typical language of the human driving policy relates to longitudinal and lateral targets rather than geometric units of acceleration vectors. Formal semantic languages are linked to the computational complexity of plans that do not grow exponentially with time and the number of agents, linked to the way safety and comfort interact, and the computation of detection is It can be useful in several ways, linked to the methods defined, and to the specifications of how they interact within the modality of the sensor and the fusion methodology. (Based on semantic language) fusion methodologies, while performing only off-line verification over the data set operating data of about 10 5 hours, RSS model realized mortality 1 the required per operating hour 10-9 Can be guaranteed.

[0380] 例えば、強化学習の設定では、計画に使用される対象期間に関係なく、任意の所与の時間において検査すべき軌道の数が10によって制約される意味空間上でQ関数(例えば、エージェントが状態s∈Sにあるとき動作a∈Aを実行する長期の品質を評価する関数。かかるQ関数を所与として、動作の自然な選択は最も高い品質のもの、π(s)=argmaxQ(s,a)を選ぶことであり得る)を定めることができる。この空間内の信号対雑音比は、高い可能性があり、効果的な機械学習法がQ関数のモデリングに成功することを可能にする。検知の計算の場合、意味論は、安全性に影響を及ぼす間違いと、運転の快適さに影響を及ぼす間違いとを区別することを可能にし得る。Q関数に結び付けられる検知のためのPACモデル(確率的で近似的に正しい(PAC))、ValiantのPAC学習用語を借りる)を定め、RSSに準拠するが、運転の快適さの最適化を可能にする方法で、測定の間違いをどのように計画に組み込むかを示す。大域座標系に対する誤差等の他の標準的な誤差の測度は、PAC検知モデルに準拠しない場合があるため、このモデルの特性の側面の成功には意味論的言語が重要であり得る。加えて、意味論的言語は、低帯域幅の検知データを使用して構築可能であり、従ってクラウドソージングによって構築可能でありスケーラビリティをサポートするHDマップを定めるための重要な実現要因であり得る。 [0380] For example, in the setting of the reinforcement learning, plan no matter period used for, Q function on semantic space the number of the track to be examined at any given time is limited by the 10 4 (e.g. , A function that evaluates the long-term quality of performing the action aεA when the agent is in the state sεS. Given such a Q function, the natural choice of action is the highest quality, π (s) = argmax a Q (s, a)). The signal-to-noise ratio in this space can be high, allowing an effective machine learning method to successfully model the Q-function. In the case of detection calculations, semantics may make it possible to distinguish between errors affecting safety and those affecting driving comfort. Defines a PAC model for detection (probabilistic and approximately correct (PAC)) tied to the Q function, borrows PAC learning terms from Valiant, and is RSS compliant but allows for optimization of driving comfort And how to incorporate measurement errors into the plan. As other standard measures of error, such as errors relative to the global coordinate system, may not conform to the PAC detection model, the semantic language can be important to the success of this model's property aspects. In addition, semantic languages can be constructed using low-bandwidth sensing data, and thus can be an important enabler for defining HD maps that can be constructed by crowdsourcing and support scalability. .

[0381] 要約すると、開示する実施形態は、AVの重要な要素、すなわち検知、計画、及び動作に及ぶ形式モデルを含み得る。このモデルは、計画の観点からAV側の責任の事故がないことを保証することを促進し得る。更にPAC検知モデルにより、検知誤差を伴っても、説明した融合方法体系は記載した安全モデルに準拠するために非常に妥当な規模のオフラインデータ集合のみを必要とする場合がある。更に、このモデルは、意味論的言語によって安全性とスケーラビリティとを結び付けることができ、それにより安全且つスケーラブルなAVのための完全な方法体系を提供する。最後に、業界及び取締機関によって採用される承認された安全モデルを開発することは、AVの成功にとって必要な条件であり得ることに留意しておく必要がある。   [0381] In summary, the disclosed embodiments may include a formal model that spans a key component of AV, namely detection, planning, and operation. This model may help to ensure that there is no incident of responsibility on the AV side from a planning perspective. Furthermore, with the PAC detection model, even with detection errors, the described fusion methodology may require only a very reasonable scale of the offline data set to comply with the described safety model. Furthermore, this model can link security and scalability by means of a semantic language, thereby providing a complete methodology for secure and scalable AV. Finally, it should be noted that developing an approved safety model adopted by the industry and regulatory agencies may be a necessary condition for the success of AV.

[0382] RSSモデルは、古典的な検知−計画−動作のロボット制御法に概して従うことができる。検知システムは、ホスト車両の環境の現在の状態を理解することを担い得る。「運転ポリシ」と呼ぶことができ、トレーニング済みシステム(例えば、ニューラルネットワーク)又は組み合わせによってハードコードされた命令の組として実施され得る計画部分は、運転の目標を達成するために利用可能な選択肢の観点から何が次の最良の動きであるか(例えば、高速道路から出るために左レーンから右レーンに移動する方法)を決定することを担い得る。動作部分は計画を実施することを担う(例えば、選択されたナビゲーション動作を実施するために車両を操舵し、加速し、及び/又は車両のブレーキをかける等のためのアクチュエータ及び1つ又は複数のコントローラのシステム)。以下に記載の実施形態は、主に検知部分及び計画部分に焦点を当てる。   [0382] The RSS model can generally follow classical detection-plan-motion robot control methods. The sensing system may be responsible for understanding the current state of the host vehicle's environment. The planning portion, which can be referred to as a "driving policy" and can be implemented as a trained system (e.g., a neural network) or a set of hard-coded instructions by a combination, is a selection of available options to achieve a driving goal. From a point of view, it may be responsible for determining what is the next best move (eg, how to move from the left lane to the right lane to exit the highway). The operating part is responsible for performing the plan (e.g., an actuator and one or more actuators for steering, accelerating, and / or braking the vehicle to perform a selected navigation operation). Controller system). The embodiments described below mainly focus on the sensing part and the planning part.

[0383] 事故は、検知誤差又は計画誤差に端を発し得る。AVの動作に反応する他の道路利用者(人間及び機械)があるため、計画は、マルチエージェントの試みである。記載のRSSモデルは、とりわけ計画部分について安全性に対処するように設計される。これをマルチエージェントの安全性と呼ぶことができる。統計的手法では、計画誤差の確率の推定が「オンライン」で行われ得る。すなわち、計画誤差の頻度の許容可能な推定レベルをもたらすために、ソフトウェアが更新される度に、その新たなバージョンで何十億マイルも運転されなければならない。これは、明らかに実行不可能である。代替策として、RSSモデルは、AVに過失がある間違いを計画モジュールが犯さないという100%の保証(又は事実上100%の保証)を与え得る(「過失」の概念は形式的に定義する)。RSSモデルは、オンラインテストに依存しないその検証のための効率的手段も提供し得る。   [0383] An accident may be triggered by a detection error or a planning error. Planning is a multi-agent attempt, as there are other road users (humans and machines) that respond to the operation of the AV. The RSS model described is designed to address security, especially for planning parts. This can be called multi-agent security. In a statistical approach, the estimation of the probability of a planning error may be performed "on-line". That is, each time the software is updated, it must drive billions of miles with the new version to provide an acceptable level of estimation of the frequency of planning errors. This is obviously not feasible. As an alternative, the RSS model may provide 100% assurance (or virtually 100% assurance) that the planning module will not make a mistake where the AV is negligible (the concept of "negligence" is formally defined) . The RSS model may also provide an efficient means for its verification that does not rely on online testing.

[0384] 検知は、車両の動作と独立とすることができ、従って深刻な検知誤差の確率を、「オフライン」データを使用して検証することができるため、検知システムの誤差は、検証がより容易であり得る。しかし、10時間を超える運転のオフラインデータを集めることでさえ困難である。開示する検知システムの説明の一部として、著しく少量のデータを使用して検証することができる融合手法が記載される。 [0384] Since the detection can be independent of the vehicle's operation, and thus the probability of severe detection errors can be verified using "off-line" data, errors in the detection system are more Can be easy. However, even it is difficult that the collecting off-line data of the operation of more than 109 hours. As part of the description of the disclosed sensing system, a fusion approach is described that can be verified using a significantly smaller amount of data.

[0385] 記載するRSSシステムは、何百万台もの車に合わせてスケーリング可能とすることもできる。例えば、記載される意味論的運転ポリシ及び適用される安全制約は、今日の技術においてさえ何百万台となる車に合わせてスケーリング可能な検知及びマッピング要件と合致し得る。   [0385] The described RSS system may be scalable to millions of vehicles. For example, the described semantic driving policies and applied safety constraints may be consistent with sensing and mapping requirements that can scale to millions of vehicles even in today's technology.

[0386] かかるシステムの基礎を成す構成要素のために、AVシステムが守る必要があり得る最小限の標準である安全性定義がある。以下の技術的な補助定理では、「システムが1時間当たりN回の事故を起こす」等の単純な主張を検証することについてさえ、AVシステムの検証のための統計的手法が実行不可能であると示されている。これは、モデルベースの安全性定義のみがAVシステムを検証するための実現可能ツールであることを含意する。補助定理1 Xを確率空間とし、AをPr(A)=p<0.1が成立する事象とする。Xから、

i.i.d.サンプルをサンプリングし、

とする。従って、Pr(Z=0)≧e−2が成立する。
証明 不等式1−x≧e−2x(付録A.1内で完全性について証明されている)を使用して次式を得る。

系1 AVシステムAVが、小さいが不十分な確率pで事故を起こすと仮定する。1/pサンプル与えられる任意の決定論的検証手続きは、AVと事故を全く起こさない別のAVシステムAVとを一定の確率で区別しない。
[0386] Because of the underlying components of such systems, there are security definitions that are the minimum standards that an AV system may need to adhere to. In the following technical lemma, statistical methods for the verification of AV systems are not feasible, even for verifying simple assertions such as "the system causes N accidents per hour". It is shown. This implies that only model-based security definitions are a viable tool for verifying AV systems. Lemma 1 Let X be a probability space, and let A be an event that satisfies Pr (A) = p 1 <0.1. From X,

sample iid sample,

And Therefore, Pr (Z = 0) ≧ e− 2 holds.
Proof We use the inequality 1-x ≧ e −2x (provided for completeness in Appendix A.1) to obtain

System 1 AV system AV 1 is assumed small but accidents with insufficient probability p 1. Any deterministic verification procedure given 1 / p 1 samples do not distinguish between different AV system AV 0 is not at all cause AV 1 and accidents with a certain probability.

[0387] そのような確率の典型的な値にわたる展望を得るために、1時間当たり10−9の事故確率を望み、特定のAVシステムが10−8の確率のみを提供すると仮定する。たとえシステムが10時間の運転を得ても、システムが危険であることを検証プロセスが示すことができない一定の確率がある。 [0387] To obtain a view across typical values of such probabilities, assume that an accident probability of 10-9 per hour is desired, and that a particular AV system provides only a probability of 10-8 . Even if the system is to give the driver of 10 8 hours, there is a certain probability that can not be shown the verification process that the system is dangerous.

[0388] 最後に、この課題は、単一の特定の危険なAVシステムを無効化することに関することに留意されたい。新たなバージョン、バグフィックス、及び更新が必要になるため、完全な解決策は、単一のシステムとして見なすことはできない。各変更は、単一のコード行の変更でさえ検証側の観点から新たなシステムを生成する。従って、統計的に検証される解決策は、新たなシステムによって観測され到達される状態の分布のシフトに対処するため、あらゆる小さい修正又は変更後に新たなサンプルにわたってそれをオンラインで行わなければならない。そのような膨大な数のサンプルを繰り返し且つ系統的に得ること(その場合にもシステムを検証できない一定の確率を伴う)は、実行不可能である。   [0388] Finally, it should be noted that this challenge relates to disabling a single particular dangerous AV system. The complete solution cannot be considered as a single system because new versions, bug fixes, and updates are required. Each change creates a new system from the verifier's point of view, even a single line of code change. Thus, a statistically validated solution must do it online over a new sample after any small modification or change to address the shift in the distribution of states observed and reached by the new system. Obtaining such a huge number of samples repeatedly and systematically, again with a certain probability of not being able to verify the system, is not feasible.

[0389] 更に、いかなる統計的主張も測定のために形式化されなければならない。システムが起こす事故の数にわたる統計的特性を主張することは、「システムが安全な方法で運転する」と主張するよりも著しく弱い。それを言うには、安全とは何かを形式的に定義する必要がある。   [0389] Furthermore, any statistical claims must be formalized for measurement. Claiming statistical properties over the number of accidents the system causes is significantly weaker than claiming that the system operates in a safe manner. To say that, we need to formally define what safety is.

[0390] 絶対的な安全性は、不可能である
[0391] 車cが行う動作aは、将来のある時点においてその動作後に事故が起こらないことが可能である場合、絶対的に安全であると見なすことができる。例えば、図19に示すような単純な運転シナリオを観測することにより、絶対的な安全性を実現するのは不可能であることが分かる。車両1901の観点から、周囲の車が自らに衝突しないことを保証することができる動作はない。自律車両がそのような状況にあることを禁じることによってその問題を解決するのも不可能である。2レーンを超える全ての高速道路は、いずれかの時点においてこの問題を招くため、このシナリオを禁じると、車庫内に留まる必要があることになる。これらの含意は、一見したところ期待外れであるように思われる。何も絶対的に安全ではない。しかし、人間のドライバーが絶対的な安全性の要件に従わないことから明らかなように、上記で定めた絶対的な安全性を得るためのかかる要件は、厳し過ぎる可能性がある。むしろ、人間は、責任に依存する安全性の概念に従って行動する。
[0390] Absolute security is impossible
[0391] The action a performed by the car c can be considered absolutely safe if it is possible at a certain point in the future that no accident will occur after that action. For example, observing a simple driving scenario as shown in FIG. 19 shows that it is impossible to realize absolute safety. From the viewpoint of the vehicle 1901, there is no operation that can guarantee that the surrounding vehicles do not collide with itself. It is also impossible to solve the problem by prohibiting autonomous vehicles from being in such situations. All highways with more than two lanes will cause this problem at some point, and forbidding this scenario would require staying in the garage. These implications seem seemingly disappointing. Nothing is absolutely secure. However, as is evident from the fact that human drivers do not adhere to the absolute safety requirements, such requirements for obtaining the absolute safety defined above can be too stringent. Rather, humans act according to the concept of security, which relies on responsibility.

[0392] 責任敏感型安全性
[0393] 絶対的な安全性の概念から欠落している重要な側面は、殆どの事故の非対称性、すなわち衝突の責任があり、従って過失を負うべきなのが通常ドライバーの1人であることである。図19の例では、例えば、左側の車1909が突然追突してきた場合、中央の車1901に過失はない。中央の車1901に責任がないことを考慮する事実を形式化するために、自らのレーン内に留まるAV1901の挙動は、安全と見なすことができる。それを行うために、安全運転手法の前提としての役割を果たし得る「事故過失」又は事故責任の形式的概念について説明する。
[0392] Responsibility sensitive security
[0393] An important aspect missing from the concept of absolute safety is the asymmetry of most accidents, that is, it is usually one of the drivers who is responsible for the collision and therefore should be negligent. is there. In the example of FIG. 19, for example, when the left car 1909 suddenly collides, the center car 1901 has no fault. To formalize the fact that it considers the central car 1901 not responsible, the behavior of the AV 1901 staying in its lane can be considered safe. In order to do that, we explain the formal concept of "accident negligence" or accident liability, which can serve as a premise for safe driving techniques.

[0394] 一例として、直線道路に沿って縦に並んで同じ速度で運転している2つの車c,cの単純な事例を検討する。前の車であるcが、道路上に現れた障害物により突然ブレーキをかけ、それを回避できたと仮定する。残念ながら、cから十分な距離を保っていなかったcは、遅れずに反応することができずにcの後部に衝突する。過失がcにあることは明らかであり、前の車から安全な距離を保ち、予期せぬが妥当なブレーキに備えておくことは、後ろの車の責任である。 [0394] As an example, 2 Tsunokuruma running at the same speed in tandem along a straight road c f, consider the simple case of c r. Suppose that the previous car, cf, suddenly braked on an obstacle that appeared on the road and was able to avoid it. Unfortunately, c r did not maintain a sufficient distance from the c f impinges on the rear of c f unable to react in time. Negligence is obvious that in the c r, keeping a safe distance from the front of the car, is that although unexpected advance in preparation for a reasonable brakes, is the responsibility of the back of the car.

[0395] 次に、より広範なシナリオ群、すなわち車が自由にレーン変更可能な複数レーン道路内での運転、他の車の経路内への割り込み、様々な速度での運転等を検討する。以下の解説を単純化するために、横軸、縦軸がそれぞれx軸、y軸である平面上の直線道路を想定する。これは、実際の曲線道路と直線道路との間の準同形を定めることによって緩やかな条件下で実現することができる。加えて、離散的な時空を検討する。定義は、直観的に異なる2組の事例、すなわち著しい横方向の操作が行われない単純なものと、横方向の移動を伴うより複雑なものとを区別することを促進し得る。   [0395] Next, a wider range of scenario groups, that is, driving on a multi-lane road where vehicles can freely change lanes, interrupting the route of another vehicle, driving at various speeds, and the like will be examined. To simplify the following explanation, a straight road on a plane whose horizontal and vertical axes are the x-axis and the y-axis, respectively, is assumed. This can be achieved under mild conditions by defining a homomorphism between the actual curved road and the straight road. In addition, we consider discrete space-time. The definition may help distinguish between two sets of intuitively different cases, those that are simple without significant lateral manipulation and those that are more complex with lateral movement.

[0396] 定義1(車のコリドール(corridor)) 車cのコリドールは、範囲[cx,left,cx,right]×[±∞]であり、但し、cx,left、cx,rightは、cの最も左の角の位置、最も右の角の位置である。 Definition 1 (Corridor of Car) The corridor of car c has the range [cx , left , cx , right ] × [± ∞], where cx , left , cx , right. Is the position of the leftmost corner and the position of the rightmost corner of c.

[0397] 定義2(割り込み) 時点t−1において車c(図20A及び図20Bの車2003)が車c(図20A及び図20Bの車2001)のコリドールに交差せず、時点tにおいて交差する場合、時点tにおいて車cが車cのコリドールに割り込む。 Definition 2 (Interruption) At time t−1, car c 1 (car 2003 in FIGS. 20A and 20B) does not cross the corridor of car c 0 (car 2001 in FIGS. 20A and 20B), and at time t when crossing, the car c 1 interrupts the corridor of the car c 0 at time t.

[0398] コリドールの前部/後部間で更なる区別を行うことができる。「割り込みの方向」という用語は、関連するコリドールの境界の方向に移動することを表し得る。これらの定義は、横方向の移動を伴う事例を定めることができる。ある車が別の車を追走する単純な事例等、かかる発生がない単純な事例では安全な縦方向距離が定められる。   [0398] A further distinction can be made between the front / rear of the corridor. The term "direction of interruption" may refer to moving in the direction of the associated corridor boundary. These definitions can define cases involving lateral movement. In a simple case where such a case does not occur, such as a simple case where one car follows another, a safe vertical distance is determined.

[0399] 定義3(安全な縦方向距離) 車c(車2103)とcの前方コリドール内にある別の車c(車2105)との間の縦方向距離2101(図21)は、反応時間pに関して安全であり、cによって行われる任意のブレーキコマンドa、|a|<amax,brakeについて、cがその最大ブレーキを時間pから完全停止まで加える場合、cは、cと衝突しない。 Definition 3 (Safe Longitudinal Distance) The vertical distance 2101 (FIG. 21) between a car cr (vehicle 2103) and another car c f (vehicle 2105) in the corridor ahead of cr is is safe with respect to the reaction time p, any brake commands a carried out by c f, | a | <a max, the brake, if c r is added to the maximum braking to a complete stop from time p, c r is, c f and not conflict.

[0400] 以下の補助定理2は、c、cの速度、反応時間ρ、及び最大加速度amax,brakeに応じてdを計算する。ρもamax,brakeも定数であり、規則によって何らかの妥当な値に決定されるべきである。 [0400] The following Lemma 2, the speed of c r, c f, reaction times [rho, and the maximum acceleration a max, calculating the d according to brake. Both ρ and a max, break are constants and should be determined to some reasonable value by rules.

[0401] 補助定理2 縦軸上でcの後ろにある車両をcとする。最大ブレーキコマンド及び最大アクセルコマンドをamax,brake、amax,accelとし、cの反応時間をρとする。車の縦速度をυ、υとし、それらの長さをl、lとする。υp,max=υ+ρ・amax,accelと定め、

と定める。L=(l+l)/2とする。従って、cの最小安全縦方向距離は、次式のようになる。
[0401] The vehicle behind the c f in Lemma on second longitudinal axis and c r. Let the maximum brake command and the maximum accelerator command be a max, break , a max, accel, and let the reaction time of cr be ρ. The longitudinal velocity of the vehicle and υ r, υ f, to their lengths l f, and l r. defined as υ p, max = υ r + ρ · a max, accel,

Is determined. L = a (l r + l f) / 2. Therefore, the minimum safe longitudinal distance of cr is:

[0402] 証明 時点tにおける距離をdとする。事故を防ぐために、全てのtについてd>Lを得なければならない。dminを構築するために、dに対する最もきつい必要とされる下限を見つける必要がある。明らかに、dは、少なくともLである必要がある。T≧ρ秒後に2つの車が停止しない限り、前の車の速度は、υ−Tamax,brakeであるのに対し、cの速度は、υρ,max−(T−ρ)amax,accelによって上限を設けられる。そのため、T秒後のこれらの車の間の距離は、

によって下限を設けられる。
Proof The distance at the time point t is dt . To prevent accidents, dt > L must be obtained for all t. To construct the d min, it is necessary to find a lower bound that is the most demanding need for d 0. Obviously, d 0 should be at least L. As long as the two cars T ≧ [rho seconds does not stop, the speed of the preceding car, upsilon f -Ta max, whereas a brake, the speed of c r is, υ ρ, max - (T -ρ) a The upper limit is set by max and accel . So the distance between these cars after T seconds is

Sets a lower limit.

[0403] Tは、cが完全に停止する時間であり(0の速度)、Tは、他方の車両が完全に停止する時間であることに留意されたい。amax,brake(T−T)=υρ,max−υ+ρamax,brakeが成立し、そのため、T≦Tである場合、d>Lであることを要求すれば足りることに留意されたい。T>Tである場合、次式が成立する。

Tr>Lを要求し、項を整理すれば証明が完了する。
[0403] T r is c r is a time to stop completely (0 speed), T f is to be noted that the other vehicle is time to stop completely. a max, brake (T r -T f) = υ ρ, max -υ f + ρa max, brake is established, therefore, when it is T rT f, it is sufficient to require that a d 0> L Note that If Tr > Tf , the following equation holds.

Requesting d Tr > L and organizing the terms completes the proof.

[0404] 最後に、「マージン」の一部の概念との比較を可能にする比較演算子を定める。長さ及び速度等を比較する場合、非常に類似した量を「等しい」ものとして認める必要がある。
定義4(μ比較) 2つの数a、bのμ比較は、a>b+μの場合にはa>μbであり、a<b−μの場合にはa<μbであり、|a−b|≦μの場合にはa=μbである。
[0404] Finally, a comparison operator that allows comparison with some concepts of "margin" is defined. When comparing lengths and velocities, etc., very similar quantities need to be recognized as "equal".
Definition 4 (mu Comparative) two numbers a, mu comparison of b in the case of a> b + mu is a> mu b, in the case of a <b-mu is a <μ b, | a- When b | ≦ μ, a = μb .

[0405] 以下の比較(argminやargmax等)は、一部の適切なμに関するμ比較である。車c、c間で事故が起きたと想定する。事故の過失が誰にあるかを検討するために、調べる必要がある関連する瞬間を定める。これは、事故前の且つ直観的に「復帰不能点」であったある時点であり、この時点後、事故を防ぐために何もすることができない。 The following comparisons (argmin, argmax, etc.) are μ comparisons for some appropriate μs. Assume that an accident has occurred between cars c 1 and c 2 . Determine the relevant moments that need to be investigated in order to consider who is responsible for the fault of the accident. This is a point in time before the accident, which was intuitively an "irrecoverable point", after which nothing can be done to prevent the accident.

[0406] 定義5(過失時点) 事故の過失時点は、
・車の1つと他の車のコリドールとの間の交差があり、
・縦方向距離が安全ではなかった、
事故前の最も早い時点である。
[0406] Definition 5 (time of negligence)
There is an intersection between one of the cars and the corridor of the other car,
・ The vertical distance was not safe,
It is the earliest point before the accident.

[0407] 事故の瞬間は、両方の条件が当てはまるため、明らかにそのような時点はある。過失時点は、以下の2つの別個のカテゴリに分けることができる:
・割り込みも発生するものであり、すなわち、それは、ある車と他の車のコリドールとの交差の第1の瞬間であり、その交差は、危険な距離にある。
・割り込みが発生しないものであり、すなわち安全な縦方向距離でコリドールとの交差が既にあり、過失時点においてその距離が危険に変わっている。
[0407] There are clearly such moments at the moment of the accident because both conditions apply. The points of negligence can be divided into two distinct categories:
• An interruption also occurs, ie it is the first moment of the intersection of one car with the corridor of another car, which is at a dangerous distance.
No interruptions, i.e. a safe longitudinal distance has already been crossed with the corridor, and that distance has become dangerous at the time of negligence.

[0408] 定義6(横方向速度によるμ−Losing) 車c、c間で割り込みが発生すると仮定する。割り込みの方向に対するその横方向速度がcの横方向速度よりもμ速い場合、cが横方向速度でμ−Loseすると言える。 Definition 6 (μ-Lossing by Lateral Speed) It is assumed that an interrupt occurs between the vehicles c 1 and c 2 . If the lateral velocity relative to the direction of the interrupt is faster mu than the lateral speed of c 2, c 1 is mu-Lose Then it said laterally rate.

[0409] 速度の方向が重要であることに留意すべきである。例えば、−1,1の速度(両方の車が互いに衝突する)は、互角であるが、速度が1,1+μ/2である場合、他方の車に対して正の方向を有する車に過失がある。直観的に、この定義は、別の車に横方向に非常に速く追突する車に過失を負わせることを可能にする。   [0409] It should be noted that the direction of velocity is important. For example, a speed of -1,1 (both cars colliding with each other) is tied, but if the speed is 1,1 + .mu. / 2, a car that has a positive direction relative to the other car is negligible. is there. Intuitively, this definition allows one to neglect a car that crashes very quickly in the lateral direction to another car.

[0410] 定義7(横方向位置による(μ,μ)−勝利) 車c、c間で割り込みが発生すると仮定する。割り込みレーンの中央(割り込みに関連するコリドールに最も近い中央)に対するその横方向位置が(絶対値で)μよりも小さく、cのものよりもμ小さい場合、cが横方向位置で(μ,μ)−勝利すると言える。 [0410] Definition 7 (lateral position by (μ 1, μ 2) - Win) Assume an interrupt occurs between the car c 1, c 2. Interrupt its lateral position relative to the center (the closest center to an interrupt to the associated corridor) lanes (in absolute value) mu less than 1, if than that of c 2 mu 2 small, c 1 is in lateral position (Μ 1 , μ 2 ) —You can say you win.

[0411] 直観的に、レーンの中央に非常に近く(μ)かつ他の車よりもはるかに(μの分だけ)近い場合、その車に過失を負わせることはない。 [0411] Intuitively, very close to the center of the lane (mu 1) and other much more than cars (mu 2 minute only) is close, does not inflict negligence the car.

[0412] 定義8(過失) 車c、c間の事故の過失又は責任は、過失時点における状態の関数であり、以下のように定められる:
・過失時点が割り込み時ではない場合、過失は後ろの車にある。
・過失時点が割り込み時でもある場合、車の一方について、一般性を失わずにcについて一部の既定のμに関して以下の2つの条件、すなわち、
・横方向速度で負けないこと
・横方向位置で勝利すること
が当てはまらない限り、過失は、両方の車にある。
[0412] Definition 8 (Negligence) The negligence or liability of the accident between cars c 1 and c 2 is a function of the state at the time of the negligence and is defined as follows:
If the fault was not at the time of the interruption, the fault is in the car behind.
· If the fault point is also a time interrupt, for one of the vehicles, without loss of generality of the part for c 1 default the following two terms μ condition, i.e.,
• Loss in lateral speed. • Unless winning in lateral position is true, fault is in both cars.

[0413] この事例では、c1が容赦される。換言すれば、危険な割り込みが発生した場合、車の一方が(著しく)横方向に速くなく、且つレーンの中央に(著しく)近い場合を除いて両方の車に過失がある。これにより、車を追走する場合に安全な距離を保ち、自らのレーン内を単純に走行する車のコリドールに割り込む場合に安全な距離でのみ割り込むという所望の挙動が捕捉される。以下で更に論じるように、上記の安全ガイドラインに従うための自動コントローラベースシステムは、過度に自衛的な走行を引き起こすべきではない。   [0413] In this case, c1 is forgiven. In other words, when a dangerous interrupt occurs, both cars are negligible except when one of the cars is not (significantly) laterally fast and is (significantly) close to the center of the lane. This captures the desired behavior of maintaining a safe distance when following a car, and interrupting only at a safe distance when simply interrupting the corridor of a car traveling in its own lane. As discussed further below, an automatic controller-based system for following the above safety guidelines should not cause excessive self-defense driving.

[0414] 限られた検知への対処
[0415] 高速道路の例を検討した後、次に第2の例は限られた検知の問題に対処する。事故について非難されたときの非常に一般的な人間の反応は、「しかし、見えなかった」カテゴリに属する。それは、多くの場合に真実である。時として道路の別の部分に集中する無意識の決定により、時として不注意により、及び時として物理的制約により(駐車車両の後ろに隠れている歩行者を見るのは不可能である)、人間の検知能力は、限られている。それらの人間の制約のうち、高度な自動検知システムは、後者の影響のみを受け、コンピュータは決して不注意にならないことと共に、360°の道路のビューは、コンピュータが人間の検知能力を上回ることを引き起こす。「しかし、見えなかった」の例に戻り、適切な回答は、「より注意すべきであった」である。限られた検知に関してどのようなものが慎重であるかを形式化するために、図22に示すシナリオを検討する。車2201(c)が駐車場を出て(場合により)混んでいる道路に合流しようとしているが、その視界が建物2203によって遮られているため、道に車があるかどうかを見ることができない。これが30km/hの制限速度を有する都市の狭い道であると想定する。人間のドライバーの行動は、道路上にゆっくりと合流して検知の制限がなくなるまでより多くの視野を得ることである。遮られていた物体が初めて明らかになる最初の時点である有意の瞬間を定めるべきであり、物体が明らかになった後、他の任意の検知可能な物体と同様にそれに対処する。
[0414] Dealing with limited detection
[0415] After considering the highway example, the second example then addresses the limited detection problem. A very common human response when accused of an accident belongs to the "but not visible" category. That is often true. Humans, sometimes due to unconscious decisions concentrating on other parts of the road, sometimes inadvertently, and sometimes due to physical constraints (it is impossible to see a pedestrian behind a parked vehicle) Has limited detection capabilities. Of these human constraints, advanced automatic detection systems are only affected by the latter, and the computer is never inattentive, and the 360 ° view of the road indicates that the computer exceeds human detection capabilities. cause. Returning to the “but not visible” example, the appropriate answer is “should have been more careful”. To formalize what is conservative with limited detection, consider the scenario shown in FIG. Car 2201 (c 0 ) is leaving the parking lot and trying to merge on a (possibly) crowded road, but because its view is blocked by building 2203, it is not possible to see if there is a car on the road Can not. Assume that this is a narrow road in a city with a speed limit of 30 km / h. The human driver's action is to slowly merge on the road and gain more vision until the detection limit is no longer limited. A significant moment should be defined, which is the first time the occluded object is first revealed, and after the object is revealed, it is addressed like any other detectable object.

[0416] 定義9(露出時点) 物体の露出時点は、それを見ることができる最初の時点である。   [0416] Definition 9 (Exposure Time) The exposure time of an object is the first time at which it can be seen.

[0417] 定義10(不当な速度による過失) 露出時点において又はその後、車c(車2205)が速度υ>υlimitで走行しており、cがその速度で走行していなかったと想定する。この場合、過失は、cのみにある。cが不当な速度により過失を負うと言える。 [0417] Definition 10 (negligence unfair rate) in the exposed time or after car c 1 (car 2205) is traveling at a speed υ> υ limit, c 0 is assumed that it was not traveling at that speed . In this case, negligence is only c 1. c 1 can be said to bear the negligence by undue speed.

[0418] この拡張は、cが駐車場から安全に出ることを可能にする。本発明者らの先の責任敏感型安全性の定義を(道路状態及び制限速度に加えて妥当なマージンを使用する)動力学的なυlimitの定義と共に使用し、図示の最悪の事例において、必要であるのは、cがυlimitを上回らないと仮定しながら割り込みが安全な縦方向距離にあるかどうかを確認することのみである。直観的に、これは、より遅く且つ遮蔽体から離れて走行し、それによりゆっくりと自らの視野を広げ、安全に道に合流することを後に可能にするようにcを促す。 [0418] This extension allows the c 0 is out safely from the parking lot. Using our earlier definition of responsibility sensitive security with a dynamic υ limit definition (using reasonable margins in addition to road conditions and speed limits), in the worst case illustrated, What is needed is an interruption while assuming c 1 does not exceed upsilon limit is only possible to check whether a safe longitudinal distance. Intuitively, this is, running away from the slower and shield, thereby slowly widened their field of view, safely encourage the c 0 to allow later to be joined on the road.

[0419] この限られた検知についての基本事例に事故責任の定義を拡張し、拡張群が同様の事例に対処し得る。見えなくされる可能性がある対象がどのようなものか(近接して駐車される2つの車の間に潜在的に速い車が隠れることはあり得ないが、歩行者はあり得る)及びその対象が行い得る最悪の事例の操作がどのようなものか(歩行者のυlimitは、車のυlimitよりもはるかに小さい)に関する単純な想定は、運転に対する制約を含意し、最悪の場合に備える必要があり、露出時点が突然訪れた場合に反応する能力を有する必要がある。都市のシナリオにおけるより複雑な例は、場合により駐車車両によって隠れている歩行者のシナリオから得ることができる。歩行者との事故に関する事故過失を定めることができる。 [0419] Extending the definition of accident liability to this limited detection base case, an extended group could address similar cases. What are the objects that can be obscured (potentially fast cars can't hide between two cars parked in close proximity, but pedestrians can) worst of whether the operation of the case looks like the target can be done (υ limit of the pedestrian is much smaller than the car of υ limit) is simple assumptions about, implies constraints on the operation, in the worst case You need to be prepared and have the ability to react to sudden exposure times. A more complex example in a city scenario can be obtained from a pedestrian scenario, possibly hidden by a parked vehicle. Accidental negligence for accidents with pedestrians can be determined.

[0420] 定義11(歩行者との事故の過失) 歩行者との事故の過失は、以下の3つ、すなわち、
・車の側部に歩行者が衝突し、車の横方向速度が衝突方向に対してμ未満であること、
・露出時点又はその後における歩行者の速度がυlimitを上回ったこと、
・車が完全に停止していたこと
の1つが当てはまらない限り、過失は、常に車にある。
[0420] Definition 11 (Negligence of accident with pedestrian) Negligence of accident with pedestrian is the following three:
A pedestrian collides with the side of the vehicle, and the lateral speed of the vehicle is less than μ with respect to the direction of the collision,
That the speed of the pedestrian at or after the exposure exceeds υ limit ;
Fault is always on the car unless one of the things that the car has stopped completely does not apply.

[0421] 変則的に、車がμよりも速く歩行者に追突しない一方で車の側部に歩行者が衝突する場合、又は車が停止している場合、又は歩行者が必ずしも衝突方向ではない何らかの方向に超人的に速く走っていた場合にのみ車に過失がない。   [0421] Irregularly, if the car does not collide with the pedestrian faster than μ, but the pedestrian collides with the side of the car, or the car is stopped, or the pedestrian is not necessarily in the collision direction There is no fault in the car only if you are running superhumanly fast in any direction.

[0422] 記載したシステムは、絶対的な安全性は保証しない可能性があるが、(たとえあったとしても)非常に少ない事故が自律車両間で起きるシナリオをもたらし得る。例えば、全ての車(及び他の道路利用者)が、行った動作の結果としての事故の過失を問われないことを問題なく検証できる場合、事故をなくすことができる。定義上、あらゆる事故について少なくとも1つの有責の車がある。従って、結果として生じる事故について(上記のRSSモデルに従って)責任を負う可能性がある動作を行う車がない場合、事故は、全く起きないはずであり、手に負えず実用的でない統計的方法が求める一種の絶対的な安全性又はほぼ絶対的な安全性をもたらす。   [0422] Although the described system may not guarantee absolute security, it can result in scenarios where very few, if any, accidents occur between autonomous vehicles. For example, if all cars (and other road users) can be verified without any problem that the accident as a result of the action performed is negligible, the accident can be eliminated. By definition, there is at least one liable car for every accident. Thus, if no car takes action that could be responsible for the resulting accident (according to the RSS model above), then the accident should not occur at all, and an unmanageable and impractical statistical method can be used. Provides the kind of absolute security or near absolute security required.

[0423] 全ての道路の構造が単純なわけではない。交差点及び環状交差路等の一部は、様々な優先通行権の規則と共により複雑な状況を含む。隠れる物体の全てが車又は歩行者ではなく、自転車及びバイク、あらゆる適法の道路利用者を考慮すべきである。この節で紹介した原理は、これらの追加の事例に拡張することができる。   [0423] The structure of all roads is not simple. Some, such as intersections and roundabouts, include more complex situations with various priority road rules. All hidden objects should not be considered cars or pedestrians, but bicycles and motorbikes, any legal road users. The principles introduced in this section can be extended to these additional cases.

[0424] 責任敏感型安全性のための効率的に検証される条件
[0425] この節は、RSSの実装の側面について論じる。まず始めに、ここで行われる動作は、例えば、10分間の走行後の事故に対する一連の事象を引き起こすバタフライ効果を有し得ることに留意すべきである。起こり得る全ての将来の結果を調べる「総当たり的」手法は、実際的でないだけでなく、不可能である可能性が高い。この課題を克服するために、次に、上記の責任敏感型安全性の定義についてそれらを検証するのに計算効率の良い方法と共に説明する。
[0424] Efficiently verified conditions for liability sensitive security
[0425] This section discusses aspects of implementing RSS. To begin with, it should be noted that the actions taken here can have a butterfly effect which triggers a series of events for an accident, for example after a 10-minute run. A "brute force" approach to examining all possible future results is not only impractical, but also likely impossible. To overcome this problem, the above definitions of responsibility-sensitive security will now be described, along with a computationally efficient way to verify them.

[0426] 計算的に実現可能な安全性検証。
[0427] 計算的に実現可能な検証のための主な数学的ツールは、「帰納法」である。帰納法によって主張を証明するために、単純な事例に関する主張を証明することから始め、その後、帰納法の各ステップが当該証明をより入り組んだ事例に拡張する。この帰納法ツールが安全性検証にどのように有用であり得るかを示すために、別の車cを追走する車cの単純な例(図21)を再び検討する。以下の制約は、cのポリシに適用することができる。たとえcが−amaxの減速を加えても、その結果生じる次の時間ステップにおけるcとcとの間の距離が少なくとも(定義3及び補助定理2で定めた)安全な縦方向距離になるように、ポリシは、各時間ステップtにおいて任意の加速コマンドを選ぶことができる。そのような動作が存在しない場合、cは、減速−amaxを適用しなければならない。以下の補助定理は、帰納法を使用して、上記の制約に従ういかなるポリシもcとの事故を決して起こさないことを証明する。
[0426] Computationally feasible security verification.
[0427] The main mathematical tool for computationally feasible verification is "induction". To prove an assertion by induction, we start by proving the assertion on a simple case, and then each step of induction extends the proof to a more complex case. To indicate this induction tool may be any useful safety verification, again consider the simple example of a car c r to add run another car c f (Figure 21). The following constraints can be applied to the cr policy. Even if c f in addition to deceleration -a max, the resulting distance between the c r and c f at the next time step (defined in definition 3 and Lemma 2) at least a safe longitudinal distance So that the policy can select any acceleration command at each time step t. If such action is not present, c r shall apply deceleration -a max. The following lemma, using induction, to prove that never cause accidents and c f any policy according to the above constraints.

[0428] 補助定理3 定義3で与えた仮定の下、cのポリシが上記で示した制約に従う場合、cは、cとの事故を決して起こさない。 [0428] Under the assumptions given in Lemma 3 Definition 3, when following constraints policy c r is indicated above, c r is never an accident with c f.

[0429] 証明 証明は、帰納法による。帰納法の基礎に関して、(補助定理2に従い)2つの車間距離が安全である最初の状態から開始する。帰納法のステップは、以下の通りである。ある時点tにおけるcとcとの間の距離を検討する。(cが最大限の減速を行っても)安全な距離をもたらす動作がある場合には問題ない。全ての動作が安全な距離を保証できない場合、最大限の減速ではない動作を行った最大時間をt’<tとする。帰納法の仮定により、時点t’+1では安全な距離にあり、そこから最大限の減速を行った。従って、安全な距離の定義により、時点t’から現在まで衝突はなく、それが証明を結論付ける。 [0429] Proof The proof is based on induction. With respect to the basis of induction, we start from the first state where the distance between two vehicles is safe (according to Lemma 2). The steps of induction are as follows. Consider the distance between the c r and c f at a certain point in time t. (C f be performed by a maximum deceleration) no problem if there is operation result in safe distance. If all the operations cannot guarantee a safe distance, the maximum time during which the operation is not the maximum deceleration is set as t ′ <t. By inductive assumption, at time t '+ 1, we were at a safe distance from which we made the maximum deceleration. Thus, by definition of the safe distance, there is no collision from time t 'to the present, which concludes the proof.

[0430] 上記の例は、より全般的な概念、すなわち極端な事例においてcによって行われ、cを「安全な状態」に戻す何らかの緊急操作があることを実証する。上記で説明したポリシに対する制約は、将来の1つの時間ステップのみに依存し、従って計算効率の良い方法で検証できることに留意すべきである。 [0430] The above example demonstrates a more general concept, namely that there is some emergency action taken by cr in extreme cases to return cr to a "safe state". It should be noted that the constraints on the policy described above depend only on one future time step and can therefore be verified in a computationally efficient manner.

[0431] RSSのための十分な局所特性の概念を汎用化するために、デフォルト緊急ポリシ(DEP)をまず定義し、「慎重」と呼ぶ動作実行の局所特性を定めるための構成要素としてそれを使用する。次に、慎重なコマンドのみを取ることがRSSに十分であることが示される。   [0431] In order to generalize the concept of sufficient local characteristics for RSS, a default emergency policy (DEP) is first defined, and it is defined as a component to define local characteristics of action execution called "conservative". use. Next, it is shown that taking only prudent commands is sufficient for RSS.

[0432] 定義12(デフォルト緊急ポリシ) デフォルト緊急ポリシ(DEP)は、最大ブレーキ力及びレーンに対する0度の進行方位に向けた最大限の進行方位の変更を加えることである。最大ブレーキ力及び進行方位の変更は、車の物理的パラメータから(場合により気象条件及び道路条件からも)導出される。定義13(安全な状態) 状態sは、状態sから始まるDEPを行うことが自らに過失がある事故を引き起こさない場合、安全である。別の車を追走する車の単純な事例にあるのと同様に、それが安全な状態をもたらす場合、コマンドを慎重であると定める。定義14(慎重コマンド) 状態sにあると仮定する。他の車両がここで行う可能性がある可能なコマンドの組Aに対して次の状態sが安全である場合、コマンドaは、慎重である。上記の定義は、他の車両が行い得る組Aの中の最悪の事例のコマンドに依存する。最大限のブレーキ/加速及び横方向の移動に対する妥当な上限に基づいて組Aを構築する。 Definition 12 (Default Emergency Policy) The default emergency policy (DEP) is to apply maximum braking force and maximum heading change towards zero degree heading for lane. Changes in the maximum braking force and heading are derived from the physical parameters of the vehicle (and possibly also from weather and road conditions). Definition 13 (secure state) State s is secure if performing a DEP starting from state s does not cause an accident with negligence of oneself. If it results in a safe condition, as in the simple case of a car following another car, the command is defined to be prudent. Suppose definition 14 to be in (careful command) state s 0. If the next state s 1 for the set A of possible commands other vehicle is likely to carry out here is safe, it commands a is prudent. The above definition depends on the worst case command in set A that other vehicles can make. Build set A based on reasonable upper bounds for maximum braking / acceleration and lateral movement.

[0433] 以下の理論は、ここでも帰納法により、慎重なコマンドのみを出す場合、自らに過失がある事故がないことを証明する。定理1 時点0においてcが安全な状態にあり、全ての時間ステップについてcが慎重なコマンドのみを出し、何らかの時間ステップにおいて慎重なコマンドが存在しない場合、cがDEPを適用すると仮定する。従って、cは、自らに過失がある事故を決して起こさない。証明 帰納法による。帰納法の基礎は、安全な状態の定義及び慎重なコマンドの定義からのステップから得られる。   [0433] The following theory, again by induction, proves that there is no accident in which oneself is negligible if only a careful command is issued. Theorem 1 Assume that c is in a safe state at time 0, that c issues only deliberate commands for all time steps, and that there are no deliberate commands at any time step, then that c applies DEP. Therefore, c never causes an accident in which he has negligence. By proof induction. The basis of induction is derived from the steps from defining secure states and defining prudent commands.

[0434] 安全な状態に迅速に戻り、そこから安全に続行することができるため、この手法の1つの利益は、無限の将来を調べる必要がない可能性があることである。更に、t+1において再び計画すること、従って必要に応じてDEPをそこで実行できることを所与として、頭の中にあり得る可能な長期の計画ではなく(その計画は、t+1において変えることができる)、時点tにおいて与えているコマンドのみを調べるべきである。次に、このトランスペアレントモデルによって実行時に検証されるとき、システムに学習成分を組み込むことが可能にされる。最後に、この局所的検証は、本発明者らの所望の目標である完全な将来のRSSを含意する。実装の妨げは、別のエージェントがtbrakeまで実行可能な全ての軌道を、慎重さの定義が含むことであり、それは、中程度のtbrakeでさえ莫大な空間である。この問題に対処するために、次に慎重さ、従ってRSSをスケーラブルな方法で検証するための効率的に計算可能な方法を開発する。 [0434] One benefit of this approach is that it may not be necessary to look into an infinite future, because you can quickly return to a secure state and continue safely from there. Furthermore, given that re-planning at t + 1, and thus the DEP can be performed as needed, instead of the possible long-term plan that can be in mind (the plan can be changed at t + 1), Only the command given at time t should be examined. Then, when validated at runtime by this transparent model, it is possible to incorporate the learning components into the system. Finally, this local validation implies a complete future RSS, which is our desired goal. The hindrance to implementation is that the definition of prudence includes all trajectories that another agent can execute up to t break , which is a huge space even at moderate t breaks . To address this problem, we will then develop a conservative and thus an efficiently computable method for validating RSS in a scalable way.

[0435] 効率的な慎重さの検証
[0436] 第1の見解は、当方がDEPを実行する一方で当方に過失がある事故を引き起こす組Aからのコマンドを実行し得る特定の車両

があるとき且つそのときに限り、状態は安全ではない。従って、

で示す単一の目標車両があるシーン、及び全般的な事例において、シーン内の他の車両のそれぞれについて手続きを逐次的に実行することができる。
[0435] Efficient prudent verification
[0436] The first view is that certain vehicles that can execute commands from set A that cause an accident where we perform negligence while performing DEP.

When and only if the condition is not secure. Therefore,

The procedure can be performed sequentially for scenes where there is a single target vehicle, and in the general case each of the other vehicles in the scene.

[0437] 単一の目標車両を検討する場合、cに過失がある事故を発生させる、全て組Aの中にある

で示す

のための一連のコマンドがあるとき且つそのときに限り、動作aは慎重でない。既に証明したように、時点0において、

がcの前方コリドール内にあることが該当する場合、aの慎重さを調べる簡単な方法があり、すなわち、たとえ

が1つの時間ステップについて最大ブレーキをかけても(当方は、aを実行する)、その結果生じる縦方向距離が安全なままであることを検証するのみでよい。以下の補助定理は、横方向の操作も検討すべきより入り組んだ事例における慎重さに関する十分な条件を与える。
[0437] When considering a single target vehicle, an accident with negligence in c occurs, all in group A

Indicated by

Action a is not conservative when and only if there is a series of commands for As already proved, at time 0,

If it is true that is in the front corridor of c, there is a simple way to check the prudence of a,

Applying maximum braking for one time step (we do a) only needs to verify that the resulting longitudinal distance remains safe. The following lemma gives sufficient conditions for prudence in more complicated cases where lateral manipulation should also be considered.

[0438] 補助定理4 時点T=0において、

がcの前方コリドールにないと仮定する。全てのT∈(0,tbrake]において、cに過失がある危険な割り込みがない場合、aは、慎重である。
Lemma 4 At time T = 0,

Is not in the front corridor of c. In all T∈ (0, t brake], if there is no danger interruption in negligence in c, a is prudent.

[0439] 証明 aが慎重ではない、すなわちcに過失がある事故を引き起こす

が存在すると仮定する。事故前に割り込みの時点Tがなければならない。T>0であるとまず仮定する。この割り込みが安全な縦方向距離にあった場合、DEPが−amaxの減速によって且つ安全な縦方向距離の定義に基づいて実行されることにより、当方に過失がある事故はあり得ない(ここで、反応時間ρがステップの時間分解能を上回ると仮定する)。割り込みが安全ではなかった場合、補助定理の仮定により、過失は、cになく、従って事故の過失もcにはない。
[0439] Proof: a is not cautious, that is, causes an accident in which c has negligence

Suppose that There must be an interruption time T before the accident. First assume that T> 0. If this interrupt were at a safe longitudinal distance, there would be no accidents in which we were negligible because DEP was executed with a deceleration of -a max and based on the definition of safe longitudinal distance (here Where the reaction time ρ exceeds the time resolution of the step). If the interrupt was not secure, then, according to the lemma theorem, negligence is not in c, and so is accidental negligence.

[0440] 最後にT<0の場合、補助定理の仮定により、割り込みの瞬間において、

は、cの後方コリドールにあった。帰納法により、cは、過去に安全な割り込みのみを行っており、従って割り込みが安全であったか又はcに過失があった。いずれの場合にも現在の事故の過失はcにない。
[0440] Finally, if T <0, then at the moment of the interruption,

Was in the corridor behind c. By induction, c had only made safe interrupts in the past, and therefore either the interrupt was safe or c was negligible. In each case, c is not the fault of the current accident.

[0441] 補助定理4に照らして、cに過失がある危険な割り込みがあり得るかどうかを調べる問題が残る。時点tにおける危険な割り込みの可能性を調べるための効率的なアルゴリズムを以下に示す。全軌道を検証するために、時間間隔[0,tbrake]を離散化し、(離散化が害されないことを確実にするために安全な距離の定義内のpの僅かに大きい値と共に)全ての時間間隔にアルゴリズムを適用する。

に境界を付ける最小限の矩形の対角線の長さを

とする。時点t∈[0,tbrake]ごとに、時点tにおけるcの縦方向の「スパン」であるようにclength(t)を定め、

とする。cwidth[t]を同様の方法で定め、

が成立する。
[0441] In light of Lemma 4, there remains a problem of checking whether there is a dangerous interrupt in which c is negligible. An efficient algorithm for examining the possibility of a dangerous interrupt at time t is shown below. To verify the full trajectory, discretize the time interval [0, t break ] and (with a slightly larger value of p in the definition of safe distance to ensure that discretization is not compromised) Apply algorithm to time intervals.

Minimum diagonal length of the rectangle that bounds

And For each time point t∈ [0, t brake], defines a c length (t) to be "spun" longitudinal c at time t,

And c width [t] is determined in a similar manner,

Holds.

[0442] 以下の定理は、上記のアルゴリズムの正当性を証明する。   [0442] The following theorem proving the correctness of the above algorithm.

[0443] 定理2 アルゴリズム1が「実現不能」を返す場合、時点tにおける自車に過失がある危険な割り込みはあり得ない。この定理を証明するために、アルゴリズム1の2つの構成要素の正当性を証明する以下の重要な補助定理を利用する。縦方向の実現可能性から始める。   Theorem 2 When Algorithm 1 returns “unrealizable”, there is no dangerous interruption in which the own vehicle is negligible at time t. To prove this theorem, we use the following important lemma that proves the validity of the two components of Algorithm 1. Start with the vertical feasibility.

[0444] 補助定理5 アルゴリズム1の表記の下、「実現不能」を返すことにより縦方向の実現可能性を調べる手続きが結論付けられる場合、時点tにおける自車に過失がある危険な割り込みはあり得ない。   Lemma 5 Under the notation of Algorithm 1, if the procedure for checking the feasibility in the vertical direction by returning “unrealizable” can be concluded, there is a dangerous interrupt in which the vehicle is at fault at time t. I can't get it.

[0445] 証明 割り込み操作の横方向の側面を無視し、cと

との間の縦方向距離が危険である単なる可能性を調べる。位置

は、時点tにおいて、

によって得ることができる位置に境界を付けることが明らかである。

が成立することにより、得ることができる任意の縦方向の危険な距離が≧Lであることが得られる。

であると仮定し、ay,min,ay,maxによって境界を付けられる加速コマンドを使用して、



で示す危険な縦方向位置及び速度が得られると矛盾律によって仮定する。

の定義により、

が得られ、従って車間距離がより大きく、すなわち、

が成立する。

は、(y[t],υ[t])に対して縦方向に安全であるため、縦方向の危険の定義により、得られる速度

は、

よりも小さくなければならないことになる。しかし、より遅い速度を実現するには、時間窓[0,t]の全体を通して、

がay,min未満の平均加速度を使用しなければならず、従って縦方向の危険が、ay,min,ay,maxによって境界を付けられるコマンドを使用して得られることと矛盾することが明らかである。

の場合、対称な引数を検討することによって証明が完了する。
[0445] Proof. Ignoring the lateral aspects of the interrupt operation, c

Examine the mere possibility that the vertical distance between is dangerous. position

At time t

It is clear that the locations that can be obtained by the demarcation are bounded.

Is satisfied, it can be obtained that any obtainable dangerous distance in the vertical direction is ≧ L.

And using the acceleration command bounded by a y, min , a y, max ,

,

It is assumed by the inconsistency rule that the dangerous vertical position and speed shown by are obtained.

By the definition of

And therefore the inter-vehicle distance is greater, ie,

Holds.

Speed, (y [t], υ y [t]) for relative safe longitudinally by the definition of the longitudinal risk, resulting

Is

Must be smaller than However, to achieve slower speeds, throughout the time window [0, t],

Must use an average acceleration of less than a y, min , so that the vertical danger is inconsistent with that obtained using commands bounded by a y, min , a y, max . Is evident.

In the case, the proof is completed by considering the symmetric arguments.

[0446] 次に横方向の実現可能性。
[0447] 補助定理6 アルゴリズム1の表記の下、「実現不能」を返すことにより横方向の実現可能性を調べる手続きが結論付けられる場合、時点tにおける自車に過失がある危険な割り込みはあり得ない。
[0446] Next, the feasibility of the horizontal direction.
[0447] Lemma 6 Under the notation of algorithm 1, if the procedure for examining the feasibility in the lateral direction by returning "unrealizable" can be concluded, there is a dangerous interruption in which the vehicle is at fault at time t. I can't get it.

[0448] 証明 まず、仮定x[t]=0、

、及びv[t]に関するものにより、座標の単純な変化及び相対速度の検討によって一般性が失われないことが明らかである。更に、同様の引数により、

が成立する場合の事例に簡単に拡張できる。
Proof First, assume that x [t] = 0,

, And v x [t], it is clear that simple changes in coordinates and consideration of relative velocity do not lose generality. Furthermore, with similar arguments,

Can be easily extended to the case where

[0449] 本発明者らの事例では、(x[t],x[t]−W)である割り込みに関与する車の位置は、過失に影響を及ぼす何らかの横方向位置による(μ1,μ2)−勝利特性を含意することに留意されたい。横方向速度をμ−「tie」するために(cが横方向位置で(μ1,μ2)−勝利しない場合、cに過失を負わせるにはこれで十分であり得る)、又は横方向速度をμ−勝利する(cが横方向位置で(μ1,μ2)−勝利する場合、cに過失を負わせるにはこれが必要である)ために、cに過失があるという想定下において、v[t]に対する本発明者らの仮定により時点tにおいて、

が使用できる最大限の横方向速度は、0であることが得られる。最終位置
と共にax,maxによって境界を付けられる横加速度を使用し、
から始まり
で終わる操作が存在するかどうかを確認することが残されている。言葉では、所望の横方向速度0で終わる割り込みである。
[0449] In our case, the position of the car involved in the interruption (x [t], x [t] -W) depends on any lateral position that affects negligence (μ1, μ2). Note that it implies a winning characteristic. To laterally speed μ- “tie” (c may be (μ1, μ2) at lateral position-if victory is not won, this may be sufficient to inflict negligence on c), or To win μ- (c in lateral position (μ1, μ2) —if win, this is necessary to inflict negligence on c), v x [ According to our assumptions on t], at time t:

The maximum lateral speed that can be used is obtained to be zero. Last position
Using the lateral acceleration bounded by a x, max with
Starts with
It is left to check if there is an operation ending with. In words, an interrupt that ends at the desired lateral velocity of zero.

[0450] アルゴリズムの定義

を想起されたい。ttop<0であると仮定する。これは、最大限の横加速度、すなわち、

を使用するとき、

が横方向速度0に到達するのに必要な時間がt未満であることを含意する。これは、所望の速度に遅れずに到達するためにそれが実行可能な操作がなく、従って問題のある操作が存在しないことを含意する。従って、この手続きがttop<0により「実現不能」を返す場合、実際cに過失がある危険な割り込みの実現可能性はない。
[0450] Algorithm definition

I want to be recalled. Assume that t top <0. This is the maximum lateral acceleration,

When using

Implies that the time needed to reach zero lateral velocity is less than t. This implies that there is no operation that can be performed to reach the desired speed without delay, and thus there is no problematic operation. Thus, if this procedure returns "impossible" due to t top <0, there is no real possibility of a dangerous interrupt in which c is actually negligible.

[0451] ttop>0の事例を検討する。ここで、手続きがxmax<−Wにより「実現不能」を返す。

で示し、aによってパラメータ化される、時間範囲[0,t]内の

のための横方向速度プロファイル群を検討する。アルゴリズム内で使用したのと同様の方法において、

をaごとに定める。全ての

について、ttop(a)>0が成立することに留意されたい。次いで、全ての時点t’0[0,t]に関する速度プロファイルuを以下のように定める。
Consider the case where t top > 0. Here, the procedure returns “impossible” due to x max <−W.

And within the time range [0, t], parameterized by a

Consider a group of lateral velocity profiles for In the same way as used in the algorithm,

Is determined for each a. All of

Note that t top (a)> 0 holds for Then, all time t'0 [0, t] the velocity profile u a related determined as follows.

[0452] まず、uが制約

を満たすことが見て取れる。第2に、uを使用している間に移動した距離を計算することができ、それは、この距離が区分線形関数の積分に相当するからである。到達位置を

として定め、アルゴリズム内で定めたxmaxは、正確に、

であることに留意されたい。第3に、移動距離がaと共に単調増加しており境界付けされていないことが見て取れる。従って、所望の任意の最終位置

について、

が成立するaの値が存在する。具体的には、x=x[t]−Wでは、かかる値が存在し、それをacutで示す。
[0452] First of all, u a constraint

It can be seen that satisfying. Second, it is possible to calculate the distance traveled while using u a, it is because this distance corresponds to the integral of the piecewise linear function. To reach

X max defined in the algorithm is exactly:

Note that Third, it can be seen that the travel distance monotonically increases with a and is not bounded. Therefore, any desired final position

about,

Is present. Specifically, when x = x [t] -W, such a value exists and is indicated by a cut .

[0453] アルゴリズム内で定めたxmaxが<x[t]−Wであるため、acut>ax,maxが得られることを認識されたい。いずれの有効な操作も位置≧x[t]−Wをもたらすことができないことを示すために、これは、不十分であり、これは、U群のメンバについてのみ含意される。次に、Uの外側でさえx[t]−Wの最終位置を得る全ての速度プロファイルが少なくともacutの加速度値を路上で使用しなければならないことを証明し、かかる加速度値は、それらの速度プロファイルを無効にし、従って証明を完了する。 [0453] <because it is x [t] -W, a cut > x max which defines within the algorithm should be recognized that a x, max is obtained. This is insufficient to show that no valid operation can result in a position ≧ x [t] −W, which is only implied for members of the U group. Then, even outside of U, all velocity profiles that obtain a final position of x [t] -W prove that at least a cut acceleration values must be used on the road, such acceleration values being Override the speed profile and thus complete the certification.

[0454] 一部の速度プロファイルuが境界制約

を満たすと仮定する。更に、その速度プロファイルuが何らかの最終位置

を得ると仮定する。こうして、次式が得られる。
[0454] Some velocity profiles u have boundary constraints

Suppose that Furthermore, if the velocity profile u has some final position

Suppose we get Thus, the following equation is obtained.

[0455] 全てのτについて、

が成立すると仮定する。具体的には、

が成立する。平均値の定理から、

となるようなζ0[0,ttop(acut)]が存在し、ax,maxを上回る加速度(すなわちu’、速度の微分)を使用することを理由にuの実現不能性を暗示する。
[0455] For all τ,

Is assumed to hold. In particular,

Holds. From the mean value theorem,

There are to become such ζ0 [0, t top (a cut)], a x, acceleration greater than max (i.e. u ', differential speed) implies infeasible of u on the grounds that the use of .

[0456] 次に、

が全てのτに当てはまらないと仮定する。その場合、

が成立することにより、

となる点がなければならない。かかる点τlargeが[0,ttop(acut)]内にある場合、上記と同じ方法で平均値の定理を容易に使用して、大き過ぎる加速度が使用されるζ0[0,τlarge]を得る。この点が[ttop(acut),t]内にのみ存在する場合、−ax,max未満の加速度値が使用される点ζ0[τlarge,t]を同様の引数が与え、証明を結論付ける。上記の補助定理を備え、定理2の証明は即時である。
[0456] Next,

Does not apply to all τ. In that case,

Is established,

There must be a point where If such a point τ large is in [0, t top (a cut )], too large an acceleration is used, using the average value theorem in the same way as above, and {0 [0, τ large ] Get. If this point exists only within [t top (a cut ), t], a similar argument gives the point ζ0 [τ large, t ] at which an acceleration value less than −ax , max is used, and Conclude. With the above lemma, the proof of Theorem 2 is immediate.

[0457] 安全性検証 − 遮蔽
[0458] 観測される物体に対処するのと同様の方法において、当方に過失がある事故が決してないことを慎重さが含意することを条件に、隠れた物体に対する慎重さの拡張を定理1と同様の定理を用いて定義することができる。
[0457] Safety verification-shielding
[0458] In a similar manner to dealing with observed objects, the extension of prudence to hidden objects is theorem 1 with the proviso that implicitly implies that there is no accident that we are negligible. It can be defined using a similar theorem.

[0459] 定義15(隠れた物体に対する慎重さ) 物体の露出時点がt+1であり、t+1においてデフォルト緊急ポリシ(DEP)を命じ、当方に過失がある事故がない場合、時点tにおいて与えられるコマンドは、隠れた物体に対して慎重である。   Definition 15 (Conservativeness against Hidden Objects) If the time of exposure of the object is t + 1, the default emergency policy (DEP) is ordered at t + 1, and there is no accident with our fault, the command given at time t is Be careful with hidden objects.

[0460] 補助定理7 隠れた物体及び隠れていない物体に対する慎重なコマンドのみを出す場合、自らに過失がある事故は決してない。   Lemma 7: When only a careful command is issued for a hidden object and a non-hidden object, there is no accident in which oneself is negligible.

[0461] 証明 露出時点がt’≦tの状態において、自らに過失がある事故が時点tにおいて生じたと仮定する。慎重さの仮定により、t’−1において与えたコマンドは、事故の過失を問われることなしにt’においてDEPを命じることを可能にした。当方に過失がある事故があったため、当方は、時点t’において明らかにDEPを命じていない。しかし、t’以降、当方は、隠れていない物体に対して安全であったため、当方が与えたコマンドは、安全であり、当方に過失がある事故はなかった。   [0461] Proof It is assumed that an accident in which oneself is negligible has occurred at time t in a state where the exposure time is t'≤t. By virtue of the prudence assumption, the command given at t'-1 made it possible to order a DEP at t 'without being liable to fault. We have not explicitly ordered DEP at time t 'because there was an accident in which we were negligent. However, since t ', we were safe against non-hidden objects, so the command we gave was safe, and there was no accident in which we were negligent.

[0462] ここでも、実現可能且つスケーラブルなRSSを可能にする、隠れた物体に関する最悪の事例の仮定に対する慎重さを確認するための効率的な方法を提供する。   [0462] Again, we provide an efficient way to confirm vigilance against worst case assumptions about hidden objects, enabling feasible and scalable RSS.

[0463] 運転ポリシ
[0464] 運転ポリシは、検知状態(人間を取り巻く世界の記述)から運転コマンド(例えば、コマンドは、現在から1秒後に車がいずれにあるべきか及びいずれの速度にあるべきかを決定する、次の秒の横加速度及び縦加速度である)へのマッピングである。運転コマンドは、コントローラに伝えられ、コントローラは、所望の位置/速度に車を実際に動かすことを目指す。
[0463] Driving policy
[0464] The driving policy is based on the detected state (description of the world surrounding the human) and the driving command (for example, the command determines where the car should be and at what speed one second from now, (The next second is the lateral and vertical acceleration.) The driving command is communicated to the controller, which aims to actually move the car to the desired position / speed.

[0465] 前の節では、形式的な安全モデル、及び安全を保証する運転ポリシが出すコマンドに対する提案される制約について説明した。安全性に対する制約は、極端な事例について設計される。概して、これらの制約を必要とすることさえ望んでおらず、快適な乗り心地をもたらす運転ポリシを構築したい。この節の焦点は、効率的な運転ポリシ、具体的には何百万台もの車に合わせてスケーリング可能な計算資源を必要とする運転ポリシをどのように構築するかに関する。現在、この解説は検知状態を得る方法の問題に対処せず、人間を取り巻く世界を一切の制限なしに忠実に表す理想的な検知状態を仮定する。検知状態が不正確であることの運転ポリシに対する影響については、後の節で解説する。   [0465] The previous section described the formal safety model and the proposed constraints on the commands issued by the driving policy to ensure safety. Security constraints are designed for extreme cases. In general, they don't even want to need these constraints and want to build a driving policy that gives them a comfortable ride. The focus of this section is on how to build efficient driving policies, specifically those that require computational resources that can scale to millions of vehicles. Currently, this description does not address the issue of how to obtain the detection state, and assumes an ideal detection state that faithfully represents the world around humans without any restrictions. The effect of inaccurate detection on the operating policy will be discussed in a later section.

[0466] 上記の節で論じた強化学習(RL)の言語において、運転ポリシを定める問題を明らかにする。RLの各反復時、エージェントは、世界を記述するsで示す状態を観測し、状態を動作にマップするポリシ関数πに基づいてaで示す動作を選ぶべきである。自らの動作及び自らの制御が及ばない他の要因(他のエージェントの動作等)の結果、世界の状態がs+1に変わる。(状態,動作)シーケンスを

で示す。全てのポリシは、(状態,動作)シーケンスにわたる確率関数を引き起こす。この確率関数は、エージェントが行う動作の影響を受ける可能性があるが、環境(具体的には他のエージェントがどのように振る舞うか)にも依存する。πによって引き起こされる(状態,動作)シーケンスにわたる確率をPπで示す。ポリシの質は、

であるように定められ、

は、シーケンス

がどの程度優れているかを測定する報酬関数である。殆どの事例において、

は、

の形式を取り、ρ(s,a)は、状態sにあり動作aを行う即時の質を測定する瞬間報酬関数である。簡単にするために、より単純なこの事例で進める。
[0466] In the language of reinforcement learning (RL) discussed in the above section, the problem that determines the driving policy is clarified. At each iteration of the RL, the agent observes the state shown by describing s t the world, it should choose to operate indicated by a t on the basis of the policy function π that maps states operation. The results of their operations and their other factors that control does not reach the (operation or the like of the other agent), the state of the world is changed to s t +1. (State, operation) sequence

Indicated by All policies trigger a probability function over a (state, action) sequence. This probability function may be affected by actions performed by the agent, but also depends on the environment (specifically, how other agents behave). Denote by P π the probability over the (state, action) sequence caused by π . The quality of the policy is

Is defined as

Is the sequence

Is a reward function that measures how good is. In most cases,

Is

Where ρ (s, a) is an instantaneous reward function that measures the immediate quality of being in state s and performing operation a. For simplicity, we proceed with this simpler case.

[0467] 上記のRL言語における運転ポリシの問題を明らかにするために、道路、並びに自車両のみならず他の道路利用者の位置、速度、及び加速度の何らかの表現をsとする。横及び縦の加速コマンドをaとする。次の状態st+1は、a並びに他のエージェントがどのように振る舞うかに依存する。瞬間報酬ρ(s,a)は、他の車に対する相対位置/速度/加速度、当方の速度と所望の速度との差、所望のルートをたどるかどうか、当方の加速度が快適かどうか等に依存し得る。 [0467] To clarify the problem of operation policy in the above RL languages, roads, as well as the position of the other road users not the vehicle only, speed, and some representation of the acceleration and s t. Horizontal and vertical acceleration command and a t. Next state s t + 1 depends on whether a t as well as other agents which behave. Moment compensation ρ (s t, a t), the difference in relative position / velocity / acceleration with respect to other cars, and our speed and desired speed, whether follow a desired route, our acceleration comfort whether such May depend on

[0468] 時点tにおいてポリシがいずれの動作を行うべきかを決定する際の1つの課題は、報酬に対するこの動作の長期的効果を推定しなければならないことに由来する。例えば、運転ポリシに関連して、時点tにおいて行われる動作が現在では良い動作のように思われる(すなわち報酬値ρ(s,a)が良い)ことがあり得るが、5秒後に事故を招く(すなわち5秒後の報酬値が破滅的になる)可能性がある。従って、エージェントが状態sにあるとき、動作aを行う長期的な質を推定する必要がある。これは、多くの場合、Q関数と呼ばれ、すなわち、Q(s,a)は、時点sにおいて動作aを行う長期的な質を反映すべきである。かかるQ関数を所与として、動作の自然な選択は、最も高い品質のもの、π(s)=argmaxQ(s,a)を選ぶことである。 [0468] One challenge in deciding which action the policy should perform at time t comes from having to estimate the long-term effect of this action on the reward. For example, in connection with the operation policy, operation performed at time t appears to be a good operation the current (i.e. reward value [rho (s t, a t) is good) it may be, but an accident after 5 seconds (Ie, the reward value after 5 seconds becomes catastrophic). Therefore, when the agent is in state s, it is necessary to estimate the long-term quality of performing operation a. This is often referred to as the Q function, ie, Q (s, a) should reflect the long-term quality of performing operation a at time s. Given such a Q function, the natural choice of operation is to choose the highest quality, π (s) = argmax a Q (s, a).

[0469] 当面の問題は、Qをどのように定め、Qをどのように効率的に評価するかである。s+1は、(s,a)の何らかの決定論的関数、すなわちs+1=f(s,a)であるという(完全に非現実的な)仮定の単純化をまず行いたい。マルコフ決定プロセス(MDP)に詳しい者であれば、この仮定がMDPのマルコフ仮定よりも一層強いこと(すなわち(s,a)を所与としてs+1が過去と条件付き独立であること)が認識されるであろう。[5]で述べたように、マルコフ仮定でさえ運転等のマルチエージェントシナリオには不十分であり、従って後に仮定を緩和する。 [0469] The immediate problem is how to determine Q and how to evaluate Q efficiently. s t +1 is, (s t, a t) some deterministic function, i.e. s t + 1 = f (s t, a t) is first subjected to simplification of (totally unrealistic) assumption that the I want to. If a person familiar with the Markov decision process (MDP), that it stronger than Markov assumption this assumption MDP (i.e. (s t, is s t +1 to a t) as given are independent with past and Conditions ) Will be recognized. As mentioned in [5], even Markov assumptions are not sufficient for multi-agent scenarios such as driving, and therefore relax the assumptions later.

[0470] この仮定の単純化の下、stを所与として、Tステップの決定のシーケンス(a,...,a)ごとに時点t,...,Tに関する将来の状態(s+1,...,s+1)並びに報酬値を正確に計算することができる。これらの全ての報酬値を、例えば、それらの合計

を取ることによって単一の数字に要約すると、Q(s,a)を以下のように定めることができる。
[0470] Under the simplifying this assumption, given a st, sequence determination of T step (a t, ..., a t + T) the time for each t,. . . , The future of the state on the T (s t +1, ..., s t + T +1) as well as the reward value can be accurately calculated. All these reward values, for example, their sum

, Can be summarized into a single number by defining Q (s, a) as follows:

[0471] すなわち、Q(s,a)は、当方が状態sにあり、動作aを直ちに実行する場合に望むことができる最良の将来である。   [0471] That is, Q (s, a) is me is in state s, the best future may wish when performing the operation a immediately.

[0472] どのようにQを計算できるかについて解説する。最初の考えは、可能な動作の組Aを有限の組

に離散化し、離散化した組内の全ての動作シーケンスを単純に横断することである。次いで、離散的な動作シーケンス

の数によってランタイムが支配される。

が10の横加速度及び10の縦加速度を表す場合、100の可能性が得られ、これは、小さいT値でさえ実現不能になる。探索を加速するためのヒューリスティックス(例えば、粗密探索)が存在するが、この総当たり的手法は、途方もない計算力を必要とする。
[0472] How the Q can be calculated will be described. The first idea is that the set of possible actions A is a finite set

, And simply traversing all motion sequences in the discretized set. Then, a discrete operation sequence

The runtime is governed by the number of

Represents 10 lateral accelerations and 10 longitudinal accelerations, a possibility of 100 T is obtained, which is not feasible even at small T values. There are heuristics (eg, coarse-grained search) to speed up the search, but this brute force approach requires tremendous computational power.

[0473] パラメータTは、多くの場合に「計画の対象期間」と呼ばれ、計算時間と評価の質との間の自然なトレードオフを制御し、Tが大きいほど現在の動作についての本発明者らの評価が(その影響を一層先の将来まで明確に調べるため)より優れるが、他方では、Tが大きいことは、計算時間を指数関数的に増加させる。大きいT値が必要であり得る理由を理解するために、高速道路出口の200メートル手前におり、その出口から出るべきシナリオを検討する。対象期間が十分長い場合、tとt+Tとの間の何らかの時点τにおいて出口レーンに到達しているかどうかを累積報酬が示す。他方では、短い対象期間では、正しい即時の動作を実行しても、それがやがて自らを出口レーンに至らせるかどうかは分からない。   [0473] Parameter T is referred to as "period of Plan" often controls the natural trade-off between computation quality of time and evaluation, the present invention for the current operation as T is large While their evaluation is better (to clarify its effects further into the future), on the other hand, a large T increases the computation time exponentially. To understand why a large T value may be needed, consider the scenario where you are 200 meters before the highway exit and should exit from that exit. If the period of interest is long enough, the cumulative reward indicates whether the exit lane has been reached at some point τ between t and t + T. On the other hand, in a short time horizon, performing the right immediate action does not tell whether it will eventually lead itself to the exit lane.

[0474] 別の手法は、

で示すQの近似を構築するためにオフラインの計算を行い、ポリシのオンライン実行中、将来を明確にロールアウトすることなしに、

をQに対する近似として使用しようと試みる。かかる近似を構築する1つの方法は、動作領域及び状態領域の両方を離散化することである。これらの離散化した組を



で示す。オフラインの計算は、全ての

についてQ(s,a)の値を評価することができる。次いで、全ての

に関して、



についてQ(s,a)であるように定める。更に、ベルマンの先駆者的研究[2,3]に基づき、動的計画法の手続き(価値反復アルゴリズム等)に基づいて、

ごとにQ(s,a)を計算することができ、本発明者らの仮定の下では総ランタイムは、

程度である。この手法の主な問題は、いかなる妥当な近似においても

が(次元数の問題により)極めて大きいことである。実際、検知状態は、シーン内の他の全ての関連車両について6つのパラメータ、すなわち縦方向位置、横方向位置、速度、及び加速度を表すべきである。たとえ各次元を僅か10個の値に離散化しても(非常に粗い離散化)、6つの次元があるため、単一の車を記述するのに10の状態が必要であり、k台の車を記述するには106kの状態が必要である。これは、

内の全ての(s,a)についてQの値を記憶するための非現実的なメモリ要件を招く。
[0474] Another approach is

Perform an offline calculation to build an approximation of Q as shown in, and during the online execution of the policy, without explicitly rolling out the future,

To use as an approximation to Q. One way to construct such an approximation is to discretize both the operating and state domains. These discretized pairs are

,

Indicated by Offline calculations are

Can be evaluated for the value of Q (s, a). Then all

About

To

Is determined to be Q (s, a). Furthermore, based on Bellman's pioneering research [2, 3], based on dynamic programming procedures (value iteration algorithm, etc.),

Q (s, a) can be calculated for each, and under our assumption, the total runtime is

It is about. The main problem with this approach is that in any reasonable approximation,

Is very large (due to the number of dimensions). In fact, the sensing state should represent six parameters for all other relevant vehicles in the scene: vertical position, horizontal position, speed and acceleration. Even if each dimension is discretized to only 10 values (very coarse discretization), there are 6 dimensions, so 10 6 states are needed to describe a single car, and k To describe a car, a state of 106k is required. this is,

Imposes impractical memory requirements for storing the value of Q for all (s, a) in

[0475] この次元数の問題に対処するための1つの手法は、手動で決定された特徴にわたる線形関数又はディープニューラルネットワーク等の制限された関数族(多くの場合に仮説クラスと呼ばれる)から到来するようにQを制限することである。例えば、Atari社のゲームでの遊びに関連して、Qを近似するディープニューラルネットワークを検討する。Qを近似する関数族を効率的に評価できるという条件において、これは、資源効率の良い解決策をもたらす。しかし、この手法の幾つかの不利点がある。まず、選択される関数族が所望のQ関数への優れた近似を含むかどうかは分からない。第2に、たとえそのような関数が存在しても、既存のアルゴリズムがそれを効率的に学習できるかどうかは分からない。これまでのところ、運転において直面する問題等の複雑なマルチエージェント問題についてQ関数を学習することの成功談は多くない。この作業が困難である幾つかの理論的理由がある。マルコフ仮定に関して述べたように、基礎を成す既存の方法に問題がある。しかし、以下で説明するように、より深刻な問題は、意思決定の時間分解能に起因する非常に小さい信号対雑音比である。   [0475] One approach to address this number of dimensions of the problem, coming from the restricted function group such linear function or deep neural network covering characteristics determined manually (called hypothesis class often) To limit Q so that For example, consider a deep neural network that approximates Q in connection with playing in Atari games. This provides a resource efficient solution, provided that the family of functions approximating Q can be evaluated efficiently. However, there are some disadvantages of this approach. First, it is not known whether the selected family of functions includes a good approximation to the desired Q function. Second, even if such a function exists, it is not known whether existing algorithms can learn it efficiently. So far, there have been few success stories about learning Q-functions for complex multi-agent problems such as those encountered in driving. There are several theoretical reasons why this task is difficult. As stated with respect to the Markov assumption, there is a problem with the underlying existing methods. However, as explained below, a more serious problem is the very small signal-to-noise ratio due to the temporal resolution of the decision.

[0476] 車両が残り200メートルで高速道路出口から出るためにレーンを変更する必要があり、現在道路に何もない単純なシナリオを検討する。最良の決定は、レーンを変更し始めることである。決定は、0.1秒ごとに行うことができ、そのため、現時点tにおいてQ(s,a)の最良の値は、右への僅かな横加速度に対応する動作aに関するものであるべきである。ゼロの横加速度に対応する動作a’を検討する。ここでレーンを変更すること又は0.1秒後に変更することでは非常に小さい差のみがあるため、Q(s,a)及びQ(s,a’)の値は、ほぼ同じである。換言すれば、a’に優先してaを選ぶ利点は、非常に小さい。他方では、Qに関する関数近似を使用しており、状態sを測定する際に雑音があるため、Q値に対する本発明者らの近似は、雑音を伴う可能性が高い。これは、非常に小さい信号対雑音比の原因となり、それは、とりわけニューラルネットワークの近似クラスで頻繁に用いられる確率的学習アルゴリズムでの非常に遅い学習につながる。しかし、述べたように、この問題は、特定の関数近似クラスの特性ではなく、むしろQ関数の定義に固有である。 [0476] Consider a simple scenario where the vehicle needs to change lanes to get out of the highway exit with 200 meters remaining and there is currently no road. The best decision is to start changing lanes. The decision can be made every 0.1 seconds, so at the current time t, the best value of Q (s t , a) should be for the action a, which corresponds to a slight lateral acceleration to the right. is there. Consider an operation a ′ corresponding to zero lateral acceleration. Here, changing the lane or changing after 0.1 second has only a very small difference, so the values of Q (s t , a) and Q (s t , a ′) are almost the same. . In other words, the advantage of choosing a in preference to a 'is very small. On the other hand, we use function approximation for Q, because of the noise in measuring the state s t, the approximation of the present inventors with respect to the Q value is likely to involve noise. This causes a very low signal-to-noise ratio, which leads to very slow learning, especially with stochastic learning algorithms frequently used in approximation classes of neural networks. However, as noted, the problem is not specific to a particular function approximation class, but rather to the definition of the Q function.

[0477] 要約すると、利用可能な手法は、2つのグループに大まかに分けることができる。最初のグループは、多くの動作シーケンスにわたって探索すること又は検知状態領域を離散化し、莫大な表をメモリ内に保つことを含む総当たり的手法である。この手法は、Qの非常に正確な近似をもたらし得るが、計算時間に関して又はメモリに関して無限の資源を必要とする。第2のグループは、資源効率の良い手法であり、この手法では短い動作シーケンスを探索するか又はQに関数近似を適用する。いずれの場合にも、低品位の決定の原因になり得る低精度のQの近似を得ることに直面する。   [0477] In summary, the available techniques can be broadly divided into two groups. The first group, by discretizing the or sensing state region searching over many operating sequence, a brute force approach which involves keeping the enormous table in memory. This approach can provide a very accurate approximation of Q, but requires infinite resources in terms of computation time or memory. The second group is a resource-efficient approach, which searches for a short sequence of actions or applies a functional approximation to Q. In each case, one is faced with obtaining a low-precision approximation of Q that can cause poor quality decisions.

[0478] 本明細書に記載の手法は、資源効率が良く且つ正確であり、幾何学的動作から離れ、次の小節で説明する意味論的動作空間に適合すべきQ関数を構築することを含む。   [0478] The approach described herein is to construct a Q-function that is resource efficient and accurate, that deviates from geometrical behavior, and that fits into the semantic behavioral space described in the next subsection. Including.

[0479] 意味論的手法
[0480] 開示する意味論的手法の基礎として、運転免許証を取得したばかりの若者を検討する。若者の父親が隣に座って「運転ポリシ」の指示を若者に与える。これらの指示は、幾何学的ではない(「現在の速度で13.7メートル走行し、次いで0.8m/sのレートで加速する」という形式を取らない)。むしろ、これらの指示は、意味論的な性質のものである(「前の車を追走する」又は「あの左側の車を迅速に追い越す」)。そのような指示のための意味論的言語を形式化し、それを意味論的動作空間として使用する。次いで、意味論的動作空間にわたるQ関数を定める。意味論的動作は、将来の多くの意味論的動作を計画することなしにQ(s,a)を推定することを可能にする、非常に長い対象期間を有し得ることを示す。意味論的動作の総数は、依然として少ない。これは、資源効率の良さを依然として保ちながらQ関数の正確な推定を得ることを可能にする。更に、後に示すように、様々な意味論的動作間の有意差に起因する小さい信号対雑音比に直面することなしに品質関数を更に改善するために学習技法を組み合わせる。
[0479] Semantic method
[0480] As a basis for the disclosed semantic approach, consider a young man who has just obtained a driver's license. The young man's father sits next to and gives the young man directions for a "driving policy". These instructions are not geometrical a ( "to 13.7 meters traveling at the current speed, then accelerated at a rate of 0.8 m / s 2" does not take the form). Rather, these instructions are of a semantic nature ("follow the preceding car" or "pass quickly the car on the left"). Formalize the semantic language for such instructions and use it as a semantic working space. Next, a Q function over the semantic operation space is defined. Semantic behavior indicates that it can have a very long time span, which allows to estimate Q (s, a) without planning many future semantic behaviors. The total number of semantic operations is still small. This makes it possible to obtain an accurate estimate of the Q-function while still being resource efficient. In addition, as will be shown, learning techniques are combined to further improve the quality function without encountering small signal-to-noise ratios due to significant differences between various semantic operations.

[0481] 次に、意味論的動作空間を定める。主な考えは、横方向の目標及び縦方向の目標、並びにそれらの目標を達成する攻撃度のレベルを定めることである。横方向の目標は、レーンの座標系内の所望の位置である(例えば、「目標は、レーン番号2の中央にいることである」)。縦方向の目標は、3つの種類からなる。第1は、他の車両に対する相対位置及び速度である(例えば、「目標は、車番号3の後ろに車番号3と同じ速度で且つ車番号3から2秒の距離にいることである」)。第2、は速度目標である(例えば、「この道路の許容速度に110%を掛けた速度で走行する」)。第3は、特定の位置における速度制約である(例えば、交差点に到達するときの「停止線における0の速度」、又は急なカーブを通過するときの「カーブ上の特定の位置における最大60kmhの速度」)。第3の選択肢では、代わりに「速度プロファイル」(ルート上の幾つかの離散点及びそれらの点のそれぞれにおける所望の速度)を適用することができる。横方向の目標の妥当な数は、16=4×4(関連する最大4レーンにおける4つの位置)によって境界を付けられる。第1の種類の縦方向の目標の妥当な数は、8×2×3=48(前又は後ろにある関連する8つの車、及び関連する3つの距離)によって境界を付けられる。絶対速度目標の妥当な数は、10であり、速度制約の数に対する妥当な上限は、2である。所与の横方向の目標又は縦方向の目標を実施するには、加速とその後の減速と(又はその逆)を加える必要がある。目標を達成する積極性は、目標を達成するための(絶対値で)最大限の加速度/減速度である。目標及び積極性を定めた状態で運動学的計算を使用し、目標を実施するための閉じた式が得られる。残った唯一の部分は、横方向の目標と縦方向の目標との間の組み合わせ(例えば、「横方向の目標から開始し、まさにその途中で縦方向の目標も適用し始める」)を決定することである。5つの混合時間及び3つの積極性のレベルの組で十分過ぎるように思われる。全体として、そのサイズが約10である意味論的動作空間を得た。 [0481] Next, a semantic operation space is defined. The main idea is to determine the horizontal and vertical goals and the level of aggression to achieve those goals. The lateral target is a desired position in the lane's coordinate system (eg, "the target is to be in the center of lane number 2"). The vertical targets are of three types. The first is the relative position and speed with respect to other vehicles (eg, "the goal is to be behind vehicle number 3 at the same speed as vehicle number 3 and at a distance of 2 seconds from vehicle number 3"). . The second is a speed target (for example, "run at a speed obtained by multiplying the allowable speed of this road by 110%"). Third is a speed constraint at a particular location (eg, "0 speed at a stop line" when reaching an intersection or "up to 60 kmh at a particular location on a curve" when passing through a sharp curve. speed"). In a third option, a "velocity profile" (a number of discrete points on the route and the desired velocity at each of those points) can be applied instead. A reasonable number of lateral targets is bounded by 16 = 4 × 4 (four locations in up to four lanes of interest). A reasonable number of vertical targets of the first kind is bounded by 8 × 2 × 3 = 48 (eight related cars in front or behind, and three related distances). A reasonable number of absolute velocity targets is 10, and a reasonable upper bound on the number of velocity constraints is 2. Implementing a given lateral or longitudinal goal requires the addition of acceleration followed by deceleration (or vice versa). The willingness to achieve the goal is the maximum acceleration / deceleration (in absolute value) to achieve the goal. Using kinematic calculations with the goal and aggressiveness defined, a closed equation for implementing the goal is obtained. The only part left is to determine the combination between the horizontal and vertical goals (eg, "start with the horizontal goal and just start applying the vertical goal halfway"). That is. A set of 5 mixing times and 3 aggressive levels seems to be more than enough. Overall, its size was obtained semantic operation space is about 10 4.

[0482] これらの意味論的動作を満たすのに必要な可変時間は、意思決定プロセスの頻度と同じではないことに触れる価値がある。動的な世界に反応的であるために、高い頻度において、本発明者らの実装形態では100msごとに意思決定を行うべきである。対照的にそのような各決定は、はるかに長い対象期間(例えば、10秒)を有する一部の意味論的動作を満たす軌道を構築することに基づく。軌道の短期プレフィックスをより良く評価することを促進するため、より長い対象期間を使用する。次の小節では意味論的動作の評価について解説するが、その前に意味論的動作が十分な探索空間を引き起こすことを主張する。   [0482] It is worth mentioning that the variable time required to satisfy these semantic actions is not the same as the frequency of the decision-making process. In order to be responsive to the dynamic world, our implementations should frequently make decisions every 100 ms. In contrast, each such determination is based on constructing a trajectory that satisfies some semantic motion with a much longer period of interest (eg, 10 seconds). Use a longer time horizon to help better evaluate short-term orbit prefixes. In the next subsection, we discuss the evaluation of semantic actions, but before that we argue that semantic actions cause sufficient search space.

[0483] 上記で論じたように、意味論的動作空間は、あり得る全ての幾何学曲線を列挙するよりも(Tにおいて)そのサイズが指数関数的に小さいあり得る全ての幾何学曲線のサブセットを引き起こす。最初の即時の質問は、このより小さい探索空間の短期プレフィックスの組が、本発明者らが使用したい全ての幾何学的コマンドを含むかどうかである。これは、以下の意味で実際に足りる。道路に他のエージェントがない場合、縦方向の目標、及び/又は絶対加速度のコマンド、及び/又は特定の位置に対する速度制約を設定することを除いて変更を加える理由はない。道路が他のエージェントを含む場合、他のエージェントと優先通行権を折衝したい場合がある。この場合、他のエージェントに対して縦方向の目標を設定すれば十分である。これらの目標の正確な実施は長期的に変わり得るが、短期プレフィックスは、さほど変わらない。従って、関連する短期の幾何学的コマンドの非常に優れた有効範囲が得られる。   [0483] As discussed above, the semantic operating space is a subset of all possible geometric curves whose size is exponentially smaller (at T) than listing all possible geometric curves. cause. The first immediate question is whether this set of short term prefixes in the smaller search space contains all the geometric commands we want to use. This is actually sufficient in the following sense. If there are no other agents on the road, there is no reason to make any changes except to set a vertical goal and / or an absolute acceleration command and / or a speed constraint for a particular location. If the road includes other agents, it may be desirable to negotiate priority traffic with other agents. In this case, it is sufficient to set a vertical target for other agents. The exact implementation of these goals can change in the long term, but the short term prefix does not change much. Thus, a very good coverage of the relevant short-term geometric commands is obtained.

[0484] 意味論的動作のための評価関数の構築
[0485] Aで示す意味論的動作の組を定めた。現在状態sにあることを所与とし、最良のa0Aを選ぶ方法が必要である。この問題に対処するために、[6]の選択肢のメカニズムと同様の手法をたどる。基本的な考えは、aをメタ動作(meta-action)(又は選択肢)として考えることである。メタ動作の選択ごとに、メタ動作aの実施を表す幾何学的軌道(s,a),...,(s,a)を構築する。それを行うには、当方の動作に他のエージェントがどのように反応するかを当然ながら知る必要があるが、現在、一部の既知の決定論的関数fについてst+1=f(s,a)が成立するという(非現実的な)仮定を引き続き利用する。状態sにあるときに意味論的動作aを実行する品質の優れた近似として、

を使用することができる。
[0484] Construction of evaluation function for semantic behavior
[0485] defining a set of semantic operation indicated by A S. That the current is in the state s is a given, there is a need for a method to choose the best a S 0A S. To address this issue, we follow a similar approach to the alternative mechanism in [6]. The basic idea is to consider a S as a meta-action (or alternative). For each selection of meta operations, geometric trajectory representing the implementation of meta-operation a S (s 1, a 1 ) ,. . . , (S T , a T ). To do it, it is necessary to know course other agents to our operations how react, now for some of the known deterministic function f s t + 1 = f ( s t, We continue to use the (unrealistic) assumption that a t ) holds. As a good approximation of the quality of performing the semantic operation a S when in state s 1 ,

Can be used.

[0486] この手法は、強力な運転ポリシをもたらすことができる。しかし、一部の状況では、より洗練された品質関数が必要な場合がある。例えば、出口レーンに行かなければならないところ、出口レーンの手前で遅いトラックを追走していると仮定する。1つの意味論的選択肢は、トラックの後ろをゆっくり走行し続けることである。別の意味論的選択肢は、後に出口レーンに戻って遅れずに出ることができることを願ってトラックを追い越すことである。先に記載した品質測定は、トラックを追い越した後に何が起きるかを考慮しないため、たとえ追い越しを行って出口レーンに戻るのに十分な時間があっても第2の意味論的動作を選択することはない。機械学習は、即時の意味論的動作よりも多くを考慮に入れる、意味論的動作のより優れた評価を構築することを促進し得る。先に論じたように、即時の幾何学的動作にわたるQ関数の学習は、信号対雑音比が低いこと(利点の欠如)により問題をはらむ。これは、意味論的動作を検討する場合には問題にならず、それは、様々な意味論的動作を行うことの間に大きい差があるからであり、且つ意味論的な対象期間(何個の意味論的動作を考慮に入れるか)が非常に小さい(場合により多くの場合で3個未満)からである。   [0486] This approach can result in a strong driving policy. However, in some situations, a more sophisticated quality function may be needed. For example, suppose you have to go to an exit lane and are following a slower track before the exit lane. One semantic option is to keep running behind the truck slowly. Another semantic option is to overtake the truck in hopes of being able to return to the exit lane later and be on time. Since the quality measurement described above does not take into account what happens after overtaking the truck, choose the second semantic action even if there is enough time to overtake and return to the exit lane Never. Machine learning may facilitate building better assessments of semantic behavior that take into account more than immediate semantic behavior. As discussed above, learning the Q-function over immediate geometric operation is problematic due to the low signal-to-noise ratio (lack of advantage). This is not a problem when considering semantic operations, because there is a large difference between performing various semantic operations, and the semantic target period (how many ) Is very small (possibly less than three in many cases).

[0487] 機械学習を適用することの別の潜在的利点は、汎用化のためであり、すなわち幾らかの試行錯誤を伴い得る道路の特性の手作業での調査によって全ての道路について十分な評価関数を設定することができる。しかし、あらゆる道路に自動で汎用化することは可能であろうか。ここで、未知の道路に対しても汎用化するために、上記で論じた機械学習法を多岐にわたる道路の種類に基づいてトレーニングすることができる。開示する実施形態による意味論的動作空間は、潜在的利益を可能にすることができ、すなわち、意味論的動作は、長い対象期間に関する情報を含み、従って資源効率が良いままでそれらの品質の非常に正確な評価を得ることができる。   [0487] Another potential benefit of applying machine learning is for generalization, that is, a full assessment of all roads by manual investigation of road characteristics that may involve some trial and error. it is possible to set the function. But is it possible to automatically generalize all roads? Here, in order to generalize an unknown road, the machine learning method discussed above can be trained based on a wide variety of road types. A semantic operation space according to the disclosed embodiments may allow for potential benefits, i.e., semantic operations include information about long periods of interest, and thus their quality while remaining resource efficient. Very accurate evaluation can be obtained.

[0488] 他のエージェントのダイナミクス
[0489] これまでのところ、st+1がs及びaの決定論的関数であるという仮定を利用してきた。前に強調したように、当方の動作が他の道路利用者の振る舞いに影響を及ぼすため、この仮定は、完全には現実的でない。自らの動作に対する他のエージェントの一部の反応を考慮に入れる(例えば、安全な割り込みを行う場合、自分の後ろの車は、背後から当方に追突しないようにその速度を調節すると仮定する)が、他のエージェントのダイナミクスの全てをモデリングすると仮定するのは現実的ではない。この問題に対する解決策は、意思決定を高頻度で再適用し、そうすることにより、本発明者らのモデリングを超えた環境の部分に本発明者らのポリシを絶えず適合させることである。ある意味において、これは、全てのステップにおける世界のマルコフ化と考えることができる。
[0488] Dynamics of other agents
[0489] So far, s t + 1 has been using the assumption that it is deterministic function of s t and a t. This assumption is not entirely realistic, as we emphasized earlier, because our actions affect the behavior of other road users. Take into account some reactions of other agents to their actions (for example, assuming a safe interruption, the car behind you adjusts its speed so that it does not hit you from behind) It is not realistic to assume that we model all of the dynamics of other agents. The solution to this problem is to reapply decision making at a high frequency, thereby constantly adapting our policies to parts of the environment that go beyond our modeling. In a sense, this can be thought of as a Markovization of the world at every step.

[0490] 検知
[0491] この節は、検知状態について説明し、検知状態は、シーンの関連情報の記述であり、運転ポリシモジュールへの入力を形成する。概して、検知状態は、静的オブジェクト及び動的オブジェクトを含む。静的オブジェクトは、レーン、道路の物理的な区切り、速度に対する制約、優先通行権に対する制約、及び遮蔽体(例えば、合流する道路の関連部分を遮るフェンス)に関する情報である。動的オブジェクトは、車両(例えば、バウンディングボックス、速度、加速度)、歩行者(バウンディングボックス、速度、加速度)、信号機、道路の動的な区切り(例えば、工事区域のコーン)、一時的な交通標識及び警察の行動、並びに道路上の他の障害物(例えば、動物やトラックから落ちたマットレス等)である。
[0490] Detection
[0491] This section describes the detection state, which is a description of scene-related information and forms the input to the driving policy module. In general, the sensing states include static and dynamic objects. A static object is information about lanes, physical boundaries of roads, restrictions on speed, restrictions on priority right of way, and shields (eg, fences that block related parts of merging roads). Dynamic objects include vehicles (eg, bounding box, speed, acceleration), pedestrians (bounding box, speed, acceleration), traffic lights, dynamic road divisions (eg, construction area cones), temporary traffic signs And police action, as well as other obstacles on the road (eg, animals, mattresses dropped from trucks, etc.).

[0492] いかなる妥当なセンサ設定でも正確な検知状態sを得ることは期待できない。代わりに、x0Xで示す生のセンサ及びマッピングデータを考察し、xを取り適切な検知状態を作り出す検知システムがある。   [0492] It is impossible to expect to obtain an accurate detection state s with any appropriate sensor setting. Instead, there are sensing systems that consider the raw sensor and mapping data, denoted x0X, and take x to create the appropriate sensing state.

[0493] 定義16(検知システム) 検知状態の領域をSが示すものとし、生のセンサ及びマッピングデータの領域をXとする。検知システムは、関数

である。
Definition 16 (Detection System) [0493] Let S denote the area in the detection state, and X the area of the raw sensor and mapping data. Detection system function

It is.

[0494]

をsへの妥当な近似としていずれの時点で認めるべきかを理解することは重要である。この質問に答える最終的な方法は、概して本発明者らの運転ポリシの性能、具体的には安全性に対するこの近似の含意を調べることによる。本発明者らの安全性−快適さの区別に従い、ここでも危険な挙動につながる検知の間違いと、乗車の快適さの側面に影響を及ぼす検知の間違いとを区別する。詳細を述べる前に、検知システムが行い得るエラーの種類は、以下を含み得る。
・偽陰性:検知システムがオブジェクトを見逃す
・偽陽性:検知システムが「実際にはない」オブジェクトを示す
・不正確な測定:検知システムがオブジェクトを正しく検出するが、その位置又は速度を不正確に推定する
・不正確な意味論:検知システムがオブジェクトを正しく検出するが、その意味論的意味、例えば信号機の色を間違って解釈する
[0494]

It is important to understand at what point should be accepted as a reasonable approximation to s. The ultimate way to answer this question is generally by examining the implications of this approximation for the performance of our driving policy, specifically for safety. In accordance with our safety-comfort distinction, we again distinguish between detection errors that lead to dangerous behavior and detection errors that affect aspects of riding comfort. Before giving details, the types of errors that the detection system can make may include:
• False negative: The detection system misses the object. • False positive: The detection system indicates the object is "not really". Inaccurate measurement: The detection system correctly detects the object, but incorrectly identifies its position or speed. Estimate Inaccurate semantics: The sensing system correctly detects the object, but misinterprets its semantic meaning, eg, traffic light color

[0495] 快適さ
[0496] 意味論的動作aについて、現在の検知状態がsであることを所与として、aの評価を示すためにQ(s,a)を使用したことを想起されたい。本発明者らのポリシは、動作π(s)=argmaxQ(s,a)を選ぶ。sの代わりに、

を投入した場合、選択される意味論的動作は、

になる。

が成立する場合、

は、sへの優れた近似として受け入れられるべきである。しかし、真の状態sに対する

の質は、何らかのパラメータεについてほぼ最適である、すなわち、

が成立する限り、

を選んでも問題ない。この場合、

がQに対してεaccurateであると本発明者らは言う。必然的に、検知システムが常にεaccurateであることは予期できない。従って、検知システムが幾らかの小さい確率δで失敗することも認める。この場合、(ValiantのPAC学習用語を借りて)

がProbably(少なくとも1−δのw.p.)、Approximately(εまで)、Correct、又は略してPACであると本発明者らは言う。
[0495] Comfort
[0496] Recall that for a semantic operation a, we used Q (s, a) to indicate the evaluation of a, given that the current sensing state is s. Our policy chooses the action π (s) = argmax a Q (s, a). Instead of s,

, The semantic behavior selected is

become.

Holds,

Should be accepted as a good approximation to s. However, for the true state s

Is almost optimal for some parameter ε, ie,

As long as

There is no problem even if you choose. in this case,

Are εaccurate with respect to Q, we say. Inevitably, it cannot be expected that the sensing system will always be εaccurate. Thus, it is also recognized that the sensing system fails with some small probability δ. In this case (Valiant's PAC learning terms)

We say that is Probably (wp of at least 1-δ), Approximately (up to ε), Correct, or PAC for short.

[0497] システムの様々な側面を評価するために幾つかの(ε,δ)の対を使用することができる。例えば、軽度のミス、中程度のミス、及び決定的なミスを表すために3つの閾値ε<ε<εを選び、そのそれぞれに対してδの異なる値を設定することができる。これは、以下の定義をもたらす。 [0497] Several (ε, δ) pairs can be used to evaluate various aspects of the system. For example, three thresholds ε 123 can be selected to represent a mild mistake, a medium mistake, and a decisive mistake, and different values of δ can be set for each of them. This results in the following definition:

[0498] 定義17(PAC検知システム) (精度,信頼性)の対の組を((ε,δ),...,(ε,δ))とし、検知状態領域をSとし、生のセンサ及びマッピングデータ領域をXとし、X×Sにわたる分布をDとする。動作空間をAとし、品質関数をQ:S×A→|とし、π:S→Aは、π(s)∈argmaxQ(s,a)が成立するものとする。全てのi∈{1,...,k}について、

が得られる場合、検知システム

は、上記のパラメータに関して確率的で近似的に正しい(PAC)。
[0498] Definition 17 (PAC Detection System) (accuracy, reliability) of the set of pairs of ((ε 1, δ 1) , ..., (ε k, δ k)) and the detection state area is S , X the raw sensor and mapping data area and D the distribution over X × S. Assume that the operation space is A, the quality function is Q: S × A → |, and π: S → A holds that π (s) ∈argmax a Q (s, a). For all i∈ {1,. . . , K},

Detection system

Is probabilistic and approximately correct for the above parameters (PAC).

[0499] ここで、定義がX×Sにわたる分布Dに依存する。この分布は、本発明者らの自律車両の特定のポリシに従うことによってではなく、多くの人間のドライバーのデータを記録することによって構築することを強調しておくことが重要である。前者の方が適切であるように思われるが、後者は、検知システムの開発を実際的でなくするオンライン検証を必要とする。Dに対する任意の妥当なポリシの影響は小さいため、単純なデータ増補技法を適用することによって十分な分布を構築し、その後、検知システムの主要な更新ごとにオフライン検証を行うことができる。この定義は、

を使用して快適な乗車のための十分であるが必要ではない条件を提供する。必要でない理由は、短期の間違った決定が乗車の快適さに殆ど影響を及ぼさないという重要な事実を無視するからである。例えば、100メートル先に車両があり、その車両がホスト車両よりも遅いと仮定する。最良の決定は、ここで、弱く加速し始めることである。検知システムが車両を見逃すが次回(100ミリ秒後に)検出する場合、2つの乗車の違いは、顕著ではない。提示を単純化するために、この問題を無視し、より強い条件を要求した。マルチフレームPAC定義への適合は、概念的に簡単であるが、より技術的である。
Here, the definition depends on the distribution D over X × S. It is important to emphasize that this distribution is constructed not by following our specific policy of autonomous vehicles, but by recording data of many human drivers. The former seems more appropriate, but the latter requires online verification which makes the development of a detection system impractical. Since the impact of any reasonable policy on D is small, a sufficient distribution can be built by applying simple data augmentation techniques, and then off-line verification can be performed on every major update of the detection system. This definition is

Provides sufficient but not necessary conditions for a comfortable ride. It is not necessary because it ignores the important fact that short-term incorrect decisions have little effect on ride comfort. For example, suppose there is a vehicle 100 meters away and that vehicle is slower than the host vehicle. The best decision here is to start accelerating weakly. If the detection system misses the vehicle but detects it the next time (after 100 milliseconds), the difference between the two rides is not significant. To simplify the presentation, we ignored this problem and called for stronger conditions. Adapting to the multi-frame PAC definition is conceptually simple, but more technical.

[0500] 次に、上記のPAC定義から得られる設計原理を導出する。幾つかの種類の検知間違いを記載したことを想起されたい。偽陰性、偽陽性、及び不正確な意味論の種類の間違いでは、間違いが関連しない物体(例えば、直進しているときの左折用信号)に対するものであるか、又は定義のδ部分によって捕捉されるかのいずれかである。従って、頻繁に発生する「不正確な測定」の種類の間違いに焦点を当てる。   Next, a design principle obtained from the above PAC definition will be derived. Recall that we described some types of detection errors. For false negative, false positive, and incorrect semantic types of errors, the error is for an unrelated object (eg, a left-turn signal when traveling straight ahead) or is captured by the δ portion of the definition. Or either. Therefore, frequently focus on the nature of the error of "inaccurate measurement" to occur.

[0501] 幾らか意外なことに、自己精度によって(すなわちホスト車両に対する全ての物体の位置の精度を測定することによって)検知システムの精度を測定する一般的な手法がPAC検知システムを保証するのに不十分であることを示す。次いで、PAC検知システムを保証する別の手法を提案し、それを効率的に得る方法を示す。幾つかの追加の定義から始める。   [0501] Somewhat surprisingly, a common approach to measuring the accuracy of a sensing system with self-accuracy (ie, by measuring the accuracy of the position of all objects relative to the host vehicle) guarantees a PAC sensing system. To indicate that it is not enough. Then, another approach to assuring a PAC detection system is proposed and how to obtain it efficiently is shown. Let's start with some additional definitions.

[0502] シーン内の物体оごとに、p(о)、

のそれぞれによるホスト車両の座標系内のоの位置をs、

とする。оとホスト車両との間の距離は、||p||であることに留意されたい。

の付加誤差は、

である。оとホスト車両との間の距離に対する

の相対誤差は、付加誤差割る||p(о)||、すなわち、

である。
[0502] For each object о in the scene, p (о),

Is the position of о in the coordinate system of the host vehicle by s,

And Note that the distance between о and the host vehicle is || p ||.

Is the additional error

It is. о and the distance between the host vehicle

Is the additional error divided by || p (о) ||

It is.

[0503] 遠くの物体について付加誤差が小さいことを要求するのは現実的ではない。実際、оがホスト車両から150メートルの距離にある車両であり、εが中程度のサイズ、例えばε=0.1のものであると見なす。追加の正確さを得るために、これは、車両の位置を10cmの精度まで知るべきであることを意味する。これは、手頃な値段のセンサでは非現実的である。他方では、相対精度では位置を15mの精度に相当する10%まで推定する必要がある。これは、(以下で説明するように)実現可能である。   [0503] It is not practical to require small additional errors for distant objects. In fact, assume that о is a vehicle at a distance of 150 meters from the host vehicle and ε is of medium size, for example ε = 0.1. To obtain additional accuracy, this means that the position of the vehicle should be known to an accuracy of 10 cm. This is impractical for affordable sensors. On the other hand, it is necessary to estimate up to 10% equivalent position on the accuracy of 15m in relative accuracy. This is feasible (as described below).

[0504] 全てのо∈Оについて、p(о)と、

との間の(相対)誤差が最大εである場合、検知システム

は、物体Оの組をεego-accurateな方法で位置決めする。以下の例は、全ての合理的なQに関してεego-accurateな検知状態がPAC検知システムを保証しないことを実証する。実際、ホスト車両が30m/sの速度で走行し、その150メートル先に停止車両があるシナリオを検討する。その車両が自車レーン内にある場合且つ遅れずにレーンを変更する選択肢がない場合、少なくとも3m/sのレートで直ちに減速し始めなければならない(さもなければ停止が間に合わないか、又は後に更に強く減速しなければならない)。他方では、その車両が路肩にある場合、強い減速を加える必要はない。p(о)は、これらの事例の1つである一方、

は、他の事例であり、これらの2つの位置の間には5メートルの差があると仮定する。従って、

の相対誤差は、以下のようになる。
[0504] For all о∈О, p (о) and

If the (relative) error between is up to ε, the detection system

Locates the set of objects О in an εego-accurate manner. The following example demonstrates that εego-accurate detection conditions for all reasonable Qs do not guarantee a PAC detection system. In fact, consider a scenario in which the host vehicle is traveling at a speed of 30 m / s, and there is a stopped vehicle 150 meters away. If the vehicle is in its own lane and there is no option to change lanes without delay, it must start decelerating immediately at a rate of at least 3 m / s 2 (otherwise the stop will not be in time or later You have to slow down harder). On the other hand, if the vehicle is on the shoulder, there is no need to apply strong deceleration. p (о) is one of these cases, while

Is another case, assuming that there is a 5 meter difference between these two locations. Therefore,

Is as follows.

[0505] すなわち、検知システムは、どちらかと言えば小さいε値(3.5%未満の誤差)についてεego-accurateである場合があり、更に任意の合理的なQ関数に関して、ブレーキを強くかける必要がある状況とブレーキを強くかける必要がない状況とを混同しているため、Qの値は、完全に異なる。   That is, the detection system may be εego-accurate for rather small ε values (errors less than 3.5%), and it is necessary to apply a strong brake on any reasonable Q function The value of Q is completely different because a situation is confused with a situation where it is not necessary to apply the brakes hard.

[0506] 上記の例は、本発明者らの検知システムがPACであることをεego-accuracyが保証しないことを示す。PAC検知システムに十分な別の特性があるかどうかはQによって決まる。PAC検知システムを保証する単純な位置決めの特性があるQ関数群について説明する。εego-accuracyの問題は、意味論的な間違いを招く可能性があることであり、上記の例では、

がε<3.5%でεego-accurateでも、車両を正しいレーンに割り当てることに失敗した。この問題を解決するために、横方向位置に関する意味単位を利用する。
[0506] The above example shows that ego-accuracy does not guarantee that our detection system is a PAC. Q depends on whether the PAC sensing system has enough other properties. A group of Q functions having a simple positioning characteristic that guarantees a PAC detection system will be described. The problem with εego-accuracy is that it can lead to semantic errors, and in the example above,

Failed to assign the vehicle to the correct lane even when ε <3.5% and εego-accurate. In order to solve this problem, a semantic unit related to the horizontal position is used.

[0507] 定義18(意味単位) レーン中央は、単純な自然の曲線であり、すなわち可微分単射マッピングl:[a,b]→|であり、全てのa≦t<t≦bについて、長さ

がt−tに等しい。レーンの幅は、関数w:[a,b]→|である。曲線上への点x∈|の射影は、xに最も近い曲線上の点、すなわちt=argmint∈[a,b]||l(t)−x||に関する点l(t)である。レーンに対するxの意味論的な縦方向位置、はtであり、レーンに対するxの意味論的な横方向位置は、l(t)/w(t)である。上記の一次導関数及び二次導関数として意味論的な速度及び加速度を定める。
Definition 18 (meaning unit) The center of the lane is a simple natural curve, that is, the differentiable injection mapping l: [a, b] → | 3 , and all a ≦ t 1 <t 2 ≦ About b, length

Is equal to t 2 −t 1 . The width of the lane is a function w: [a, b] → | + . Point x∈ onto curve | projection 3, the closest point on the curve x, i.e. t x = argmin t∈ [a, b] || l (t) the point about -x || l (t x ). Semantic longitudinal position of the x relative to the lane, is t x, semantic lateral position of x with respect to the lane is l (t x) / w ( t x). Define the semantic velocity and acceleration as the first and second derivatives above.

[0508] 幾何学的単位と同様に、意味論的な縦方向距離に関して相対誤差を使用し、真の距離がp(о)でありながら、

が何らかの物体について

の意味論的な縦方向距離を引き起こす場合、相対誤差は、

である(分母の最大は、物体がほぼ同じ縦方向距離を有する事例(例えば、別のレーン上の隣の車に対処する)。意味論的な縦方向距離が小さいため、それらに付加誤差を使用することができる。これは、以下の定義をもたらす。
[0508] Similar to geometric units, using relative error for semantic longitudinal distance, while the true distance is p (о),

About some object

If we cause the semantic longitudinal distance of

(The maximum in the denominator is the case where the objects have approximately the same vertical distance (eg, addressing a neighboring car on another lane). This can lead to the following definitions:

[0509] 定義19(意味単位の誤差) レーンをlとし、レーンに対するホスト車両の意味論的な縦方向距離が0であると仮定する。ある点を

とし、レーンに対するその点までの意味論的な横方向距離及び縦方向距離をplat(x),plon(x)とする。近似測定値を



とする。xに対する

とpとの間の距離が以下のように定められる
Definition 19 (Error in Semantic Unit) It is assumed that the lane is 1 and the semantic vertical distance of the host vehicle to the lane is 0. A point

And the semantic horizontal and vertical distances to that point relative to the lane are p lat (x), p lon (x). Approximate measurements

,

And for x

The distance between p and p is defined as

[0510] 横方向速度及び縦方向速度の距離も同様に定められる。上記の定義を備え、PAC検知システムに関するQの特性及び対応する十分な条件を定める準備ができている。   [0510] The distance between the lateral speed and the vertical speed is determined in the same manner. With the above definitions, we are ready to define the characteristics of the Q for the PAC sensing system and the corresponding sufficient conditions.

[0511] 定義20(Semantically-LipschitzなQ) 全てのa、s、

について、

が成立する場合、Q関数は、L-semantically-Lipschitzであり、

、pは、物体оに関してs、

によって引き起こされる測定である。
[0511] Definition 20 (Semantically-Lipschitz Q) All a, s,

about,

Holds, the Q function is L-semantically-Lipschitz,

, P is s with respect to the object о,

Is a measurement caused by

[0512] 直接の系として以下が得られる。   [0512] As a direct system, the following is obtained.

[0513] 補助定理8 QがL-semantically-Lipschitzであり、検知システム

が、少なくとも1−δの確率において、

が得られるように意味測定を生成する場合、

は、パラメータ0、δを有するPAC検知システムである。
[0513] Lemma 8 Q is L-semantically-Lipschitz and the detection system

Is at least 1-δ probability,

If you generate a semantic measure so that

Is a PAC sensing system with parameters 0, δ.

[0514] 安全性
[0515] この節は、不所望の挙動を引き起こし得る誤差を検知する可能性について論じる。先に述べたように、ホストAVに過失がある事故を引き起こさない意味において、ポリシは、立証可能な方法で安全である。かかる事故は、ハードウェアの故障(例えば、全てのセンサの故障又は高速道路上でのパンク)、ソフトウェアの故障(モジュールの一部における重大なバグ)、又は検知の間違いによって依然として起きる可能性がある。本発明者らの最終目標は、そのような事象の確率が極めて小さくなること(そのような事故の1時間当たり10−9の確率)である。この値の真価を評価するために、米国内のドライバーが道路上で費やす(2016年の)平均時間数は、300時間未満である。そのため、期待では、これらの種類の事象の1つから生じる事故に遭うには330万年生きなければならない。
[0514] Safety
[0515] This section discusses the possibility of detecting errors that can cause unwanted behavior. As mentioned earlier, the policy is secure in a verifiable manner, in the sense that it does not cause an accident in the host AV. Such accidents can still be caused by hardware failures (eg, failure of all sensors or punctures on the highway), software failures (significant bugs in some of the modules), or misdetections. . Our goal is that the probability of such an event be very small (10 −9 per hour of such an accident). The average number of hours (2016) spent by drivers in the United States on the road to assess the value of this value is less than 300 hours. So, hopefully, one must live 3.3 million years to encounter an accident arising from one of these types of events.

[0516] 安全に関連する検知誤差とは何かをまず定める。本発明者らのポリシは、Q(s,a)を最大化するaの値、すなわちπ(s)=argmaxQ(s,a)をステップごとに選ぶことを想起されたい。慎重でない全ての動作aについてQ(s,a)=−∞とすることによって安全性を保証する(定義14を参照されたい)。従って、第1の種類の安全上重大な検知の間違いは、本発明者らの検知システムが危険な動作を選ぶことを招く場合である。形式的に、

による決定を

とし、

が成立する場合、

が安全上重大な間違いを招くと言える。第2の種類の安全上重大な検知の間違いは、全ての動作が、

に従って安全ではなく、標準の緊急ポリシ(例えば、ブレーキを強くかけること)を適用しなければならない一方、sによれば安全な動作、すなわちmaxQ(s,a)>−∞がある場合である。当方の速度が速く後ろに車がある場合、これは、危険である。このような間違いを安全上重大なゴーストと呼ぶ。
[0516] First of all, what is the detection error related to safety? Recall that our policy selects a value of a that maximizes Q (s, a), i.e., π (s) = argmax a Q (s, a), step by step. Ensure security by setting Q (s, a) =-= for all inconservative actions a (see definition 14). Thus, a first type of safety critical detection error is when our detection system leads to choosing a dangerous operation. Formally,

Decisions by

age,

Holds,

Can cause serious safety mistakes. The second type of safety critical detection mistake is that all actions

In accordance with s, a standard emergency policy (e.g. hard braking) must be applied, while according to s there is a safe operation, ie max a Q (s, a)>-∞ is there. This is dangerous if our speed is fast and there is a car behind. Such mistakes are called ghosts that are serious for safety.

[0517] 通常、安全上重大な間違いは偽陰性によって引き起こされる一方、安全上重大なゴーストは、偽陽性によって引き起こされる。このような間違いは、著しく不正確な測定によって引き起こされることもあるが、殆どの事例において、本発明者らの快適さの目標は、安全性の定義の境界から本発明者らが遠く隔たっていることを保証し、従って適度な測定誤差が安全上重大な間違いを引き起こす可能性は低い。安全上重大な間違いの確率が非常に小さい、例えば1時間当たり10−9未満であることをどのように保証できるであろうか。補助定理1から、更なる仮定を行うことなしに10時間よりも長い運転に基づいて本システムを調べる必要がある。これは、非現実的(又は少なくとも極めて困難)であり、これは、1年間にわたり330万台の車の運転を記録することに相当する。更に、そのように高い精度を実現するシステムを構築することは、大きい課題である。システムの設計及び検証の両方の課題に対する解決策は、幾つかのサブシステムを利用することであり、それらのサブシステムのそれぞれは、独立に設計され、異なる技術に依存し、個々の精度を引き上げることを確実にする方法でそれらのシステムが融合される。 [0517] Safety-critical mistakes are usually caused by false negatives, while safety-critical ghosts are caused by false positives. While such mistakes can be caused by significantly inaccurate measurements, in most cases our comfort goals are far from the boundaries of the definition of safety. Therefore, it is unlikely that a modest measurement error will cause a serious safety error. How can we guarantee that the probability of a safety-critical mistake is very small, for example less than 10 -9 per hour? From Lemma 1, it is necessary to examine the system based on the long operating than 10 9 hours without performing further assumptions. This is unrealistic (or at least extremely difficult), which is equivalent to recording 3.3 million car operations over a year. Furthermore, building a system that achieves such high accuracy is a major challenge. The solution to both system design and verification challenges is to utilize several subsystems, each of which is independently designed, relies on different technologies, and increases individual accuracy These systems are merged in a way that ensures that

[0518] s、s、sで示す3つのサブシステム(4つ以上への拡張は、簡単である)を構築すると仮定する。各サブシステムは、aを受信し、安全/危険を出力すべきである。サブシステムの大多数(この事例では2つ)が安全として受け入れる動作は、安全と見なされる。少なくとも2つのサブシステムによって安全と見なされる動作がない場合、デフォルト緊急ポリシが適用される。この融合方式の性能は、以下のように下記の定義に基づいて分析される。 [0518] s 1, s 2 , s 3 3 sub system shown in (extension to four or more is easy) assumed to build. Each subsystem should receive a and output safety / danger. Operations that the majority of subsystems (two in this case) accept as safe are considered safe. If no operation is deemed safe by at least two subsystems, a default emergency policy applies. The performance of this fusion scheme is analyzed based on the following definitions as follows.

[0519] 定義21(One side c-approximate independent) 次式

が成立する場合、2つのベルヌーイ確率変数r、rは、one side c-approximate independentと呼ばれる。
[0519] Definition 21 (One side c-approximate independent)

Holds, the two Bernoulli random variables r 1 and r 2 are called one side c-approximate independent.

[0520] i0{1,2,3}について、



により、サブシステムiが安全上重大な間違い/ゴーストを行うかどうかをそれぞれ示すベルヌーイ確率変数を示す。同様に、e、eは、融合システムの安全上重大な間違い/ゴーストを示す。任意の対i≠jについて、確率変数



がone sided c-approximate independentであり、同じことが、



にも当てはまるという仮定を利用する。この仮定が合理的である理由を説明する前に、その含意をまず分析したい。eの確率は、

によって境界を付けることができる。
[0520] For i0 {1,2,3},

,

Indicates a Bernoulli random variable indicating whether the subsystem i makes a security-critical error / ghost. Similarly, e m, e g shows the safety serious mistake / ghost of the fusion system. Random variable for any pair i ≠ j

,

Is one sided c-approximate independent and the same is

,

We make use of the assumption that holds true. Before explaining why this assumption is reasonable, let me first analyze its implications. probability of e m is,

Can be bounded by

[0521] 従って、全てのサブシステムが、

を有する場合、

が成立する。安全上重大なゴーストの間違いにも全く同じ微分が当てはまる。従って、結合限界を適用することにより以下のように結論付ける。
[0521] Therefore, all subsystems

If you have

Holds. The exact same differentiation applies to safety-critical ghost mistakes. Therefore, by applying the binding limit, we conclude as follows.

[0522] 系2 任意の対i≠jについて、確率変数



がone sided c-approximate independentであり、同じことが、



にも当てはまると仮定する。更に、全てのiについて、

及び

が成立すると仮定する。従って、次式が成立する。
[0522] Corollary 2 For any pair i ≠ j, random variables

,

Is one sided c-approximate independent and the same is

,

Suppose that also applies. Further, for all i,

as well as

Is assumed to hold. Therefore, the following equation is established.

[0523] この系は、検知システムを検証するために著しく小さいデータセットを使用することを可能にする。例えば、10−9の安全上重大な間違いの確率を実現したい場合、10程度の例を取る代わりに10程度の例を取り、各システムを別々にテストすれば十分である。 [0523] This system allows the use of significantly smaller datasets to validate the detection system. For example, if one wants to achieve a 10-9 security-critical error probability, instead of taking about 10 9 examples, take about 10 5 examples and test each system separately.

[0524] 無相関な誤差をもたらすセンサの対があり得る。例えば、悪天候の条件に影響されるが、金属体の影響を受ける可能性が低いカメラとは対照的に、レーダは、悪天候の条件内で良好に機能するが、関連性のない金属体が原因で機能しない場合がある。一見すると、カメラとライダとは共通の誤差源を有し、例えばいずれも霧の多い天候、豪雨又は雪の影響を受ける。しかし、カメラとライダとでは、誤差の種類が異なり、カメラは、悪天候によって物体を見逃す可能性があり、ライダは、空気中の粒子からの反射によってゴーストを検出する場合がある。2種類の誤差を区別したため、近似の独立性が引き続き当てはまる可能性が高い。   [0524] There may be sensor pairs that result in uncorrelated errors. For example, in contrast to cameras that are affected by bad weather conditions but are less likely to be affected by metal objects, radar works well in bad weather conditions but is caused by irrelevant metal objects. May not work. At first glance, the camera and lidar have a common source of error, for example, both are affected by foggy weather, heavy rain or snow. However, the type of error differs between a camera and a lidar, the camera may miss an object due to bad weather, and the lidar may detect a ghost by reflection from particles in the air. Because of the distinction between the two types of errors, the approximation independence is likely to continue to apply.

[0525] 本発明者らの安全上重要なゴーストの定義は、少なくとも2つのセンサによって全ての動作が危険であることを必要とする。困難な条件(例えば、濃霧)においてもそれが起きる可能性は低い。その理由は、そのような状況では、困難な条件の影響を受けるシステム(例えば、ライダ)が、速い速度及び横方向の操作を危険な動作であると宣言することができるため、非常に自衛的な運転を命令するからである。その結果、ホストAVは、非常にゆっくり走行し、その場合、たとえ緊急停止が必要でも、走行が低速であるために危険ではない。従って、本発明者らの定義は、道路の条件に運転スタイルが適合することをもたらす。   [0525] Our definition of a safety-critical ghost requires that at least two sensors make every operation dangerous. It is unlikely to occur even in difficult conditions (eg dense fog). The reason is that in such situations, systems (e.g., lidars) that are subject to difficult conditions can declare high speed and lateral operation to be a dangerous operation, which is very self-defense. This is because the operation is commanded. As a result, the host AV travels very slowly, in which case, even if an emergency stop is required, it is not dangerous because the travel is slow. Thus, our definition results in a driving style adapted to road conditions.

[0526] スケーラブルな検知システムの構築
[0527] 快適さ及び安全性の両方の面での検知システムの要件について説明してきた。次に、スケーラブルでありながらそれらの要件を満たす検知システムを構築するための手法について説明する。検知システムの3つの主な構成要素がある。第1の構成要素は、カメラに基づくシーンの長距離の360度の有効範囲である。カメラの3つの主な利点は、(1)高解像度、(2)テクスチャ、(3)価格である。低い価格は、スケーラブルなシステムを可能にする。テクスチャは、レーンマーク、信号機、歩行者の意思、及びその他のものを含むシーンの意味論を理解できるようにする。高解像度は、長距離の検出を可能にする。更に、同じ領域内でレーンマーク及び物体を検出することは、優れた意味論的な横方向の精度を可能にする。カメラの2つの主な不利点は、(1)情報が2Dであり奥行方向距離の推定が困難であること、(2)照明条件(低い太陽や悪天候)に対する感度である。本システムの次の2つの構成要素を使用してこれらの困難を克服する。
[0526] Building a scalable detection system
[0527] The requirements of the sensing system in terms of both comfort and safety have been described. Next, a method for constructing a detection system that is scalable and satisfies those requirements will be described. There are three main components of the detection system. The first component is a 360-degree coverage of the camera-based scene long distance. The three main advantages of the camera are (1) high resolution, (2) texture, and (3) price. Lower prices allow for scalable systems. Textures make it possible to understand the semantics of the scene, including lane marks, traffic lights, pedestrian intentions, and more. High resolution allows long distance detection. Further, detecting lane marks and objects in the same area allows for excellent semantic lateral accuracy. Two major disadvantages of the camera are (1) the information is 2D and the depth distance is difficult to estimate, and (2) sensitivity to lighting conditions (low sun or bad weather). The following two components of the system are used to overcome these difficulties.

[0528] 本システムの第2の構成要素は、(ホスト車両の環境内で識別される認識済み陸標の(例えば、画像内の)位置に基づいて目標軌道に沿って正確な位置を決定する能力と共に、道路区分について予め定められ記憶されている目標軌道に基づくナビゲーションを含む)REM(Road Experience Management)と呼ばれる意味論的な高精細マッピング技術である。マップを作成するための一般的な幾何学的手法は、(ライダによって得られる)3D点群をマップ作成プロセス内で記録することであり、次いで既存のライダ点をマップ内の点にマッチすることによってマップ上の位置特定が得られる。この手法には幾つかの不利点がある。まず、この手法は、多くの点を保存する必要があるため、1キロメートルのマッピングデータ当たり大量のメモリを必要とする。これは、高価な通信インフラを余儀なくさせる。第2に、全ての車がライダセンサを備えるわけではない可能性があるため、マップが非常に低頻度で更新される。道路の変化(工事区域や危険要因)が生じる可能性があり、ライダに基づくマッピングの解決策の「現実を反映するための時間」は長い。対照的に、REMは、意味論に基づく手法をたどる。概念は、カメラを備え且つシーン内の意味論的に有意な物体(レーンマーク、カーブ、ポール、信号機等)を検出するソフトウェアを備える多数の車両を活用することである。今日、クラウドソースによるマップ作成に活用され得るADASシステムを多くの新車が備えている。処理は、車両側で行われるため、少量の意味データのみがクラウドに伝達されるべきである。これは、スケーラブルな方法でマップを非常に頻繁に更新することを可能にする。加えて、自律車両は、既存の通信プラットフォーム(セルラネットワーク)上で小さいサイズのマッピングデータを受信することができる。最後に、高価なライダを必要とすることなしに、マップ上の非常に正確な位置特定をカメラに基づいて得ることができる。   [0528] The second component of the system, to determine the precise location along the target trajectory based on the (e.g., in an image) the position of the recognized landmarks identified in the environment (host vehicle A semantic high-definition mapping technique called REM (Road Experience Management), which includes navigation based on target trajectories that are predefined and stored for road segments along with capabilities. A common geometric approach to creating a map is to record the 3D point cloud (obtained by the lidar) in the map creation process, and then match existing lidar points to points in the map. Gives the location on the map. There are several disadvantages to this approach. First, this approach requires a large amount of memory per kilometer of mapping data because many points need to be stored. This forces expensive communication infrastructure. Second, the map is updated very infrequently because not all vehicles may have lidar sensors. Road changes (construction areas and hazards) can occur, and the “time to reflect reality” of lidar-based mapping solutions is long. In contrast, REM is, follow a method based on semantics. The concept is to utilize a large number of vehicles with cameras and software to detect semantically significant objects (lane marks, curves, poles, traffic lights, etc.) in the scene. Today, many new vehicles are equipped with an ADAS system that can be used to create maps using crowd sources. Since the processing is performed on the vehicle side, only a small amount of semantic data should be transmitted to the cloud. This allows the map to be updated very frequently in a scalable way. In addition, autonomous vehicles can receive small size mapping data on existing communication platforms (cellular networks). Finally, a very accurate localization on the map can be obtained based on the camera without the need for expensive riders.

[0529] REMは、幾つかの目的で使用することができる。まず、REMは、道路の静的性質に関する先の見通しを与える(高速道路を出る方法についての計画を事前に立てることができる)。第2に、REMは、静的情報の全ての別の正確な情報源を与え、それは、カメラの検出と共に世界の静的部分のロバストなビューをもたらす。第3に、REMは、以下のように画像平面の2D情報を3D世界の中に持ち上げる問題を解決する。マップは、レーンの全てを3D世界の中の曲線として記述する。マップ上での自車の位置特定は、道路上の全ての物体を画像平面からその3D位置に自明に持ち上げることを可能にする。これは、意味単位における精度に従う位置決めシステムをもたらす。システムの第3の構成要素は、補完的なレーダ及びライダシステムであり得る。これらのシステムは、2つの目的に役立ち得る。第1に、これらのシステムは、安全性を増補するための極めて高レベルの精度を提供することができる。第2に、これらのシステムは、速度及び距離に関する直接測定を与えることができ、それは、乗車の快適さを更に改善する。   [0529] REM can be used for several purposes. First of all, REM is, (it is possible to make a plan on how to exit the highway in advance) to give the tip of the forward-looking statements about the static nature of the road. Second, REM provides all other accurate sources of static information, which, together with camera detection, result in a robust view of static parts of the world. Third, REM solves the problem of lifting image plane 2D information into a 3D world as follows. The map describes all of the lanes as curves in the 3D world. Locating the vehicle on the map allows all objects on the road to be lifted from the image plane to its 3D position trivially. This results in a positioning system that follows the precision in semantic units. A third component of the system can be a complementary radar and lidar system. These systems can serve two purposes. First, these systems can provide a very high level of accuracy to augment safety. Second, these systems can provide direct measurements of speed and distance, which further improves ride comfort.

[0530] 以下の節は、RSSシステムの技術的な補助定理及び幾つかの実施上の検討事項を含む。   [0530] The following sections include technical lemmas for RSS systems and some implementation considerations.

[0531] 補助定理9 全てのx0[0,0.1]について、1−x>e−2xが当てはまる。
証明 f(x)=1−x−e−2xとする。本発明者らの目標は、x0[0,0.1]について≧0であると示すことである。f(0)=0であり、従って上記の範囲内でf(x)≧0を得れば十分であることに留意されたい。明確に、f’(x)=−1+2e−2xが成立する。明らかにf’(0)=1であり、単調減少しており、従ってf’(0.1)>0であることを検証すれば十分であり、これは、数値的に容易に行うことができる(f’(0.1)≒0.637)。
Lemma 9: For all x0 [0, 0.1], 1−x> e− 2x applies.
Proof. Let f (x) = 1−x−e− 2x . Our goal is to show that ≧ 0 for x0 [0,0.1]. Note that f (0) = 0, so it is sufficient to obtain f (x) ≧ 0 within the above range. Clearly, f ′ (x) = − 1 + 2e− 2x holds. Obviously, it is sufficient to verify that f '(0) = 1 and monotonically decreasing, so that f'(0.1)> 0, which can be numerically easily done. (F ′ (0.1) ≒ 0.637).

[0532] 慎重さの効率的検証 − 隠れた物体
[0533] 隠れていない物体と同様に、現在のコマンドを与えること、及びその後DEPを与えることがRSSかどうかを確認することができる。そのために、露出時点が1であると仮定したとき、tbrakeまで将来をアンロールし、次いで定義上慎重さに関して十分であるDEPを命令する。隠れた物体に関する最悪の事例を想定したとき、全てのt’0[0,tbrake]について有過失の事故が起こり得るかどうかを調べる。最悪の事例の操作及び安全な距離の規則の一部を使用する。遮蔽体に基づく手法を用いて関心点を見つけ、すなわち遮蔽体ごとに最悪の事例を計算する。これは、決定的な効率駆動型の手法であり、例えば、歩行者は、車の後ろの多くの位置に隠れることができ、多くの操作を行い得るが、単一の最悪の事例の位置及び歩行者が行い得る操作がある。
[0532] Efficient verification of caution-hidden objects
[0533] As with the non-hidden object, it can be checked whether giving the current command and then giving DEP is RSS. To do so, assuming that the exposure time is 1, unroll the future until t break , and then command a DEP that is by definition sufficient for discretion. When assuming the worst of cases related to hidden object, find out whether the accident of all of t'0 [0, t brake] for Yes negligence can occur. Use some of the worst case operation and safe distance rules. Find points of interest using a shield-based approach, i.e. calculate the worst case for each shield. This is a decisive efficiency-driven approach, for example, a pedestrian can hide in many positions behind the car and perform many operations, but only a single worst case location and There are operations that pedestrians can perform.

[0534] 次に、隠れた歩行者のより複雑な事例を検討する。駐車車両の後ろの遮蔽領域を検討する。遮蔽領域内の最も近い点及び当方の車cの前部/側部は、例えば、それらの幾何学的特性(三角形、矩形)によって見つけることができる。形式的に、遮蔽領域は単純な形状の少数の凸領域の結合と見なし、そのそれぞれを別々に扱うことができる。更に歩行者は、あり得る最短経路を使用して車の前部に衝突することができる場合及びその場合に限り、遮蔽領域から(vlimitの制約下で)車の前部に追突し得ることが分かる。歩行者が移動し得る最大距離がvlimit・t’であることを使用し、前部にぶつかる可能性に関する単純な確認を得る。側部への追突に関して、当方の横方向速度が追突方向にμを上回る場合及びその場合に限り、経路がvlimit・t’よりも短い場合、当方に責任があることを指摘しておく。開示するのは隠れた歩行者に対する慎重さを検証するためのアルゴリズムであり、ここで、自由な擬似コードで示している。車両によって隠れている歩行者との有過失の事故の可能性があるかどうかの確認である重大な部分は上記の単純な方法で行われる。
[0534] Next, consider a more complicated case of a hidden pedestrian. Consider the shielded area behind the parked vehicle. The closest point in the occluded area and the front / side of our car c can be found, for example, by their geometric properties (triangles, rectangles). Formally, the occluded region can be viewed as a combination of a small number of convex regions of simple shape, each of which can be treated separately. In addition, pedestrians may be able to hit the front of the car from the occluded area (subject to v limit ) if and only if they can hit the front of the car using the shortest possible path I understand. Use that the maximum distance a pedestrian can travel is v limit · t ′ to get a simple confirmation of the possibility of hitting the front. It is pointed out that we are responsible for side impacts if and only if our lateral velocity exceeds μ in the impact direction and if the path is shorter than vlimit · t ′. Disclosed is an algorithm for verifying caution against hidden pedestrians, shown here in free pseudo code. The crucial part of determining whether there is a potential accident of negligence with a pedestrian hiding by a vehicle is done in a simple manner as described above.

[0535] シミュレータを検証する問題について
[0536] 先に論じたように、マルチエージェントの安全性は、統計的に検証することが困難な場合があり、それは、かかる検証が「オンライン」式に行われるべきであるためである。運転環境のシミュレータを構築することにより、「研究室」で運転ポリシを検証できると唱える者がいる可能性がある。しかし、シミュレータが現実を忠実に表すことを検証するのは、ポリシ自体を検証するのと同じ程度に難しい。これが該当する理由を理解するために、シミュレータに運転ポリシπを適用することは、

の事故の確率をもたらし、現実世界内でのπの事故の確率がpであり、

が成立するという意味でシミュレータが検証されていると仮定する。(0は、10−9よりも小さくなければならない)。次に、運転ポリシをπ’であるように置換する。10−8の確率でπ’が人間のドライバーを混乱させ、事故につながる奇妙な動作を行うと仮定する。元のポリシπの性能を推定する際のシミュレータの極めて優れた機能と矛盾することなしに、この奇妙な動作は、シミュレータ内でモデリングされていない可能性がある(むしろ、その可能性が高い)。これは、たとえシミュレータが運転ポリシπの現実を反映することを示していても、別の運転ポリシの現実を反映することを保証しないことを証明する。
[0535] Simulator verification problem
[0536] As discussed above, the security of multi-agents can be difficult to verify statistically, because such verification should be done in an "on-line" manner. By constructing a driving environment simulator, some people may claim that their driving policy can be verified in the "lab". However, verifying that a simulator faithfully represents reality is as difficult as verifying the policy itself. To understand why this is the case, applying the driving policy π to the simulator,

The probability of an accident in the real world is p,

Assume that the simulator has been verified in the sense that (0 must be less than 10-9 ). Next, the operation policy is replaced to be π ′. Suppose that with a probability of 10 −8 π ′ confuses a human driver and performs strange actions leading to an accident. This odd behavior may not have been modeled in the simulator (rather, it is more likely), consistent with the simulator's great capabilities in estimating the performance of the original policy π. . This proves that even if the simulator indicates that it reflects the reality of the driving policy π, it does not guarantee that it reflects the reality of another driving policy.

[0537] レーンに基づく座標系
[0538] RSSの定義内で行うことができる1つの仮定の単純化は、道路が一定幅の隣接した直線レーンによって構成されることである。横軸と縦軸との区別並びに縦方向位置の順序付けがRSSにおいて重要な役割を果たし得る。更に、それらの方向の定義は、レーンの形状に明確に基づく。平面上の(グローバル)位置からレーンに基づく座標系に変換することは、問題を元の「一定幅の直線レーン」の事例に減じる。
[0537] Lane based coordinate system
[0538] One simplification of assumptions that can be made within the definition of RSS is that the road is made up of adjacent straight lanes of constant width. The distinction between the horizontal and vertical axes and the ordering of the vertical positions can play an important role in RSS. Furthermore, the definition of those directions is explicitly based on the shape of the lane. Converting from a (global) location on a plane to a lane-based coordinate system reduces the problem to the original "constant width straight lane" case.

[0539] レーンの中央が平面上の平滑な有向曲線rであり、r(1),...,r(k)で示すその断片の全てが直線又は弧であると仮定する。曲線の平滑さは、連続する断片のいかなる対も直線となり得ないことを含意することに留意されたい。形式的に、曲線は、「縦方向」パラメータY0[Ymin,Ymax]⊂|を平面内にマップし、すなわち、曲線は、r:[Ymin,Ymax]→|形式の関数である。正のレーン幅値に縦方向位置Yをマップする連続的なレーン幅関数w:[Ymin,Ymax]→|を定義する。それぞれのYについて、rの平滑さから、r┴(Y)で示す位置Yにおける曲線への単位法線ベクトルを定めることができる。レーン内にある平面上の点のサブセットを以下のように自然に定める。
R={r(Y)+αw(Y)r┴(Y)|Y0[Ymin,Ymax],α0[±1/2]}
[0539] The center of the lane is a smooth directed curve r on a plane, and r (1) ,. . . , R (k) are assumed to be all straight lines or arcs. Note that the smoothness of the curve implies that no pair of consecutive fragments can be linear. Formally, the curve maps the “longitudinal” parameter Y 0 [Y min , Y max ] ⊂ | in a plane, ie, the curve is a function of the form r: [Y min , Y max ] → | 2 is there. Define a continuous lane width function w: [Y min , Y max ] → | + that maps the vertical position Y to a positive lane width value. For each Y, a unit normal vector to the curve at the position Y indicated by r┴ (Y) can be determined from the smoothness of r. A subset of points on a plane in a lane is naturally defined as follows:
R = {r (Y) + αw (Y) r┴ (Y) | Y0 [Y min, Y max], α0 [± 1/2]}

[0540] 非公式に、本発明者らの目標は、レーン上にある2つの車についてそれらの「論理的順序付け」が保たれるようにRの変換φを構築することであり、すなわちカーブ上でcがcの「後ろ」にある場合にはφ(c<φ(cが成立する。cがカーブ上でcの「左側」にある場合にはφ(c<φ(cが成立する。RSSと同様にy軸を「縦」軸に、x軸を「横」軸に関連付ける。 [0540] Informally, our goal is to construct a transformation φ of R such that for two cars on the lane, their "logical ordering" is maintained, that is, on the curve. In the case where cr is “behind” c f , φ (c r ) y <φ (c f ) y holds. c l is φ (c l) x <φ (c r) x is satisfied in the case of the "left" of c r on the curve. Similar to RSS, the y-axis is associated with the “vertical” axis and the x-axis is associated with the “horizontal” axis.

[0541] φを定めるために、全てのiについてr(i)が半径ρの弧である場合、r(i)全体を通したレーンの幅は、≦ρ/2であるという仮定を利用する。この仮定は、任意の現実的な道路に当てはまることに留意されたい。この仮定は、全ての(x’,y’)0Rについて、(x’,y’)=r(Y’)+α’w(Y’)r┴(Y’)となるような一意の対Y’0[Ymin,Ymax],α’0[±1/2]が存在することを自明に含意する。次に、φ:R→|をφ(x’,y’)=(Y’,α’)であるように定めることができ、(Y’,α’)は、(x’,y’)=r(Y’)+α’w(Y’)r┴(Y’)を満たす一意の値である。 To determine φ, use the assumption that for all i, if r (i) is an arc of radius ρ, then the width of the lane through r (i) is ≦ ρ / 2. . Note that this assumption applies to any realistic road. This assumption assumes that for all (x ', y') 0R, a unique pair Y such that (x ', y') = r (Y ') + α'w (Y') r┴ (Y ') It clearly implies that '0 [Y min , Y max ], α'0 [± 1/2] exists. Then, φ: R → | 2 can be defined such that φ (x ′, y ′) = (Y ′, α ′), and (Y ′, α ′) is (x ′, y ′). ) = R (Y ′) + α′w (Y ′) r┴ (Y ′).

[0542] この定義は、レーンの座標系内の「横方向の操作」の概念を捉える。例えば、レーンの境界の1つの真上を車が走行する拡幅レーンを検討する(図23を参照されたい)。レーン2301の広がりは、車2303がレーンの中央から離れて移動し、従ってレーンに対して横方向速度を有することを意味する。但し、これは、車2303が横方向の操作を行うことを意味しない。φ(x’,y’)=α’の定義、すなわちw(Y’)単位でのレーンの中央までの横方向距離は、レーンの境界が±1/2の固定された横方向位置を有することを含意する。従って、レーンの境界の1つから離れない車は横方向の任意の移動を行うとは見なされない。最後に、φは、準同形であることが分かる。レーンに基づく座標系という用語は、φ(R)=[Ymin,Ymax]x[±1/2]について論じるとき使用される。このようにして、全般的なレーンジオメトリから直線の縦/横座標系への低減が得られた。 [0542] This definition captures the concept of "lateral operation" in the lane coordinate system. For example, consider a widened lane where a car travels just above one of the lane boundaries (see FIG. 23). The spread of lane 2301 means that vehicle 2303 moves away from the center of the lane and thus has a lateral velocity relative to the lane. However, this does not mean that the vehicle 2303 performs a lateral operation. The definition of φ (x ′, y ′) x = α ′, that is, the lateral distance to the center of the lane in w (Y ′) is the fixed lateral position where the lane boundary is ± 1 /. Implies having. Therefore, a car that does not leave one of the lane boundaries is not considered to make any lateral movement. Finally, it can be seen that φ is homomorphic. The term lane-based coordinate system is used when discussing φ (R) = [Y min , Y max ] x [± 1 /]. In this way, a reduction from the general lane geometry to a linear ordinate / abscissa system has been obtained.

[0543] 全般的な道路構造へのRSSの拡張
[0544] この節では、全ての道路構造に当てはまるRSSの完全な定義について説明する。この節は、ポリシがRSSに従うことをどのように効率的に保証するかではなく、RSSの定義を取り扱う。複数のレーンジオメトリが存在する任意の状況、例えば交差点を捕捉するために、次にルートの優先権の概念を紹介する。
[0543] Extending RSS to general road structure
[0544] This section describes a complete definition of RSS that applies to all road structures. This section deals with the definition of RSS, rather than how efficiently assuring that the policy complies with RSS. To capture any situation where there are multiple lane geometries, such as intersections, the concept of route priority is introduced next.

[0545] 第2の汎用化は、反対方向に走行している2つの車があり得る双方向道路を取り扱う。この場合、既に確立されているRSSの定義は、対向交通までの「安全な距離」の軽微な汎用化を伴って引き続き有効である。(信号機を使用して交通の流れを指図する)管理された交差点は、ルートの優先権及び双方向道路の概念によって完全に対処され得る。ルートの明確な定義がない非構造化道路(例えば、駐車場)もRSSで対処され得る。RSSは、この事例でも引き続き有効であり、必要な唯一の修正は、仮想ルートを定めるための及びそれぞれの車を(場合により幾つかの)ルートに割り当てるための方法である。   [0545] The second generalization deals with a two-way road where there may be two cars traveling in opposite directions. In this case, the already established definition of RSS remains valid with minor generalization of "safe distance" to oncoming traffic. Managed intersections (using traffic lights to direct traffic flow) can be fully addressed by route priority and the concept of two-way roads. Unstructured roads (eg, parking lots) that do not have a clear definition of a route may also be addressed with RSS. RSS is still valid in this case, and the only modifications required are methods for defining virtual routes and for assigning each car to (possibly several) routes.

[0546] ルートの優先権
[0547] 特定の領域内で重なり合う複数の異なる道路の幾何学的形状が1つのシーン内にあるシナリオに対処するために、次にルートの優先権の概念を紹介する。図24A〜Dに示す例は環状交差路、交差点、及び高速道路への合流を含む。縦軸及び横軸についての一貫した意味と共に、全般的なレーンジオメトリをレーンに基づくものに変換する方法については説明した。次に、異なる道路の幾何学的形状の複数のルートが存在するシナリオに対処する。その結果、重なり合う領域に2つの車両が到達するとき、両方の車両が他方の車両の前方コリドールへの割り込みを行うことになる。(隣接する2つの高速道路のレーンの場合のように)2つのルートが同じ幾何学的形状を有する場合、この現象は、起こり得ない。大まかに言うと、ルートの優先権の原理は、ルートr、rが重なり合い且つrがrに優先する場合、rから来る車両の前方コリドール内に入るrから来る車両は割り込みを行うと見なされない。
[0546] Route priority
[0547] To address the scenario where multiple different road geometries overlapping within a particular area are in one scene, the concept of route priority will now be introduced. The examples shown in FIGS. 24A-D include roundabouts, intersections, and merging to highways. A method has been described for converting general lane geometry to lane-based, with consistent meanings for the vertical and horizontal axes. Next, a scenario in which there are multiple routes with different road geometries is addressed. As a result, when two vehicles reach the overlapping area, both vehicles will interrupt the front corridor of the other vehicle. This phenomenon cannot occur if the two routes have the same geometry (as in the case of two adjacent highway lanes). Broadly speaking, the principle of route priority is that if routes r 1 , r 2 overlap and r 1 has precedence over r 2 , vehicles coming from r 1 entering the corridor ahead of vehicles coming from r 2 will be interrupted Is not considered to do.

[0548] この概念を形式的に説明するために、事故の過失がレーンの座標系から導出される幾何学的特性に、及び同じくレーンの座標系に依存する最悪の事例の仮定に依存することを想起されたい。道路の構造を定めるルートをr,...,rとする。単純な例として、図24Aに示す合流シナリオを検討する。2つの車2401(c)及び2402(c)がルートr、rをそれぞれ走行しており、rが優先ルートであると仮定する。例えば、rが高速道路のレーンであり、rが合流レーンであると想定する。ルートに基づく座標系をルートごとに定めているため、第1の考察は、任意のルートの座標系内で任意の操作を検討できることである。例えば、rの座標系を使用した場合、rに向かって直線に走行することは、rの左側への合流のように思われる。RSSの定義に対する1つの手法は、∀i0{1,2}の場合及びその場合に限り、操作がrに対して安全である場合、車のそれぞれが操作を行えることであり得る。しかし、これは、合流を行うルートであるrに対して優先ルート上を走行するcが非常に控え目であるべきことを含意し、それは、cがルート上を正確に走行することができ、従って横方向位置で勝利し得るからである。この事例では高速道路上の車に優先通行権があるため、それは不自然である。この問題を克服するために、ルートの優先権を定める特定の領域を画定し、ルートの一部のみを安全性に関連があるものと見なす。 [0548] To formally explain this concept, the fact that accidental negligence relies on geometric properties derived from the lane coordinate system and on worst-case assumptions that also depend on the lane coordinate system I want to be recalled. The routes that determine the structure of the road are r 1 ,. . . , And r k. As a simple example, consider the merge scenario shown in FIG. 24A. Assume that two cars 2401 (c 1 ) and 2402 (c 2 ) are traveling on routes r 1 and r 2 , respectively, and that r 1 is the preferred route. For example, r 1 is a lane of the highway, it is assumed that r 2 is a merging lane. Since the coordinate system based on the route is determined for each route, the first consideration is that any operation can be considered within the coordinate system of any route. For example, using the coordinate system of r 2, it travels in a straight line towards the r 1 seems to confluence to the left of r 2. One approach to the definition of RSS is if and only if the ∀i0 {1,2}, if the operation is safe for r i, may be to each car can be performed the operation. However, this implies that the preferred route c 1 traveling on it should be very conservative with respect to r 2 is the root that performs merging, it is possible to c 2 to accurately travel on the route Because it can, and therefore, win in the lateral position. In this case, it is unnatural because cars on the highway have priority right of way. To overcome this problem, certain areas defining the priority of the route are defined, and only a part of the route is considered to be security relevant.

[0549] 定義22(ルートの優先権に関する事故責任) r、rが、異なる幾何学的形状を有する2つの重なり合うルートであると仮定する。rの座標系の縦方向の間隔[b,e](図25)内でrがrに優先することを表すためにr[b,e]を使用する。ルートr、r上を走行している車c及びc間で事故が起きたと仮定する。i0{1,2}では、rの座標系を検討した場合、事故について過失がある車をb⊂{1,2}が示すものとする。事故の過失は、以下の通りである:
・r[b,e]且つrに対する過失時に車の1つがrの系の縦軸の間隔[b,e]内にあった場合、過失はbによる。
・さもなければ、過失は、b∪b2による。
Definition 22 (Accident Responsibility for Route Priority) Suppose that r 1 , r 2 are two overlapping routes with different geometric shapes. longitudinal spacing of the coordinate system of r 1 [b, e] r 1 (Figure 25) uses r 1> [b, e] r 2 to indicate its preference to r 2. Assume that an accident has occurred between vehicles c 1 and c 2 running on routes r 1 and r 2 . In i0 {1, 2}, when considering the coordinate system r i, the vehicle is at fault for the accident shall indicate the b i ⊂ {1,2}. The accidental negligence is as follows:
R 1 > [b, e] If one of the cars was within the interval [b, e] on the vertical axis of the system of r 1 at the time of negligence for r 2 and r 1 , the negligence is due to b 1 .
• Otherwise, the fault is due to b 1 ∪b2.

[0550] この定義を説明するために、高速道路に合流する例を再び検討する。図25の「b」及び「e」で示す線は、r[b,e]であるb、eの値を示す。従って、合流する車が、高速道路を走行する車に対して安全でなければならないことを含意しながら、高速道路上で車が自然に走行することを可能にする。具体的には、車2401 cが横方向速度なしで優先レーンの中央を走行する場合、車2401 cは、非優先レーンを走行する車2402 cとの事故について、2402 cが安全な距離で2401 cのコリドール内に割り込んでいない限り、過失を負わないことに注目されたい。最終結果は、通常のRSSと非常に似ていることに留意されたい(これは、直線道路上の車がレーン変更を行おうと試みる事例と全く同じである)。別のエージェントが使用するルートが未知である事例があり得ることに留意されたい。例えば、図26では、車2601は、車2602が経路「a」を取るか、経路「b」を取るかを判定できない場合がある。この場合、全ての可能性を反復的に調べることによってRSSを得ることができる。 [0550] To illustrate this definition, consider again the example of joining a highway. The lines indicated by “b” and “e” in FIG. 25 indicate the values of b and e satisfying r 1 > [b, e] r 2 . Thus, it allows the vehicle to travel naturally on the highway, implying that the merging vehicle must be safe for vehicles traveling on the highway. Specifically, if the vehicle 2401 c 1 travels on a central preferential lanes without lateral velocity, vehicle 2401 c 1, for accident cars 2402 c 2 that travels non-priority lane, 2402 c 2 safe Note that there is no fault unless you break into the 2401 c 1 corridor at a reasonable distance. Note that the end result is very similar to a regular RSS (this is exactly the case where a car on a straight road tries to make a lane change). Note that there may be instances where the route used by another agent is unknown. For example, in FIG. 26, the car 2601 may not be able to determine whether the car 2602 takes the route “a” or the route “b”. In this case, an RSS can be obtained by repeatedly examining all possibilities.

[0551] 双方向交通
[0552] 双方向交通に対処するために、過失の定義に対する修正は、後部/前部の関係に依存する部分を鮮明にすることを成し遂げ、その理由は、かかる事例においてそれらが僅かに異なる意味のものであるためである。何らかの直線の2レーン道路を逆向きの縦方向に走行している、すなわちv1,long・v2,long<0が成立する2つの車c、cを検討する。駐車中のトラックを追い越すために対向レーンに外れる車又は駐車場内にバックする車等、レーンに対する運転方向は、合理的な都市シナリオでは負の場合がある。従って、負の縦速度を非現実的であると想定した事例で紹介した安全な縦方向距離の定義を拡張する必要がある。cに衝突する前にcがブレーキをかけるのに十分な反応時間をcによる最大ブレーキが与える場合、cとcとの間の距離は、安全であることを想起されたい。本発明者らの事例では、対向車による「最悪の事例」を僅かに異なる方法で再び検討し、当然ながら、「最悪の事例」は、対向車が自分に向かって加速することであるとは考えず、衝突を回避するためにブレーキを実際にかけるが、幾らかの適度なブレーキ力のみを用いることであると考える。車の責任の差を捉えるために、それらの車の1つが明らかに反対方向に走行する場合、「正しい」運転方向を定義することから始める。
[0551] Two-way traffic
[0552] To address bidirectional traffic, amendments to the definition of negligence have accomplished to clarify parts that depend on the rear / front relationship, because in such cases they have slightly different meanings. It is because it is. Consider two vehicles c 1 , c 2 traveling on a straight two-lane road in the opposite vertical direction, that is, v 1, long · v 2, and long <0. The driving direction for a lane, such as a car going off the oncoming lane to overtake a parked truck or backing into a parking lot, may be negative in a reasonable urban scenario. Therefore, it is necessary to extend the definition of the safe vertical distance introduced in the case where a negative vertical speed is assumed to be unrealistic. If c r before impinging on c f gives the maximum braking by c f a sufficient reaction time to brake, the distance between the c r and c f Recall that is safe. In our case, the "worst case" of an oncoming vehicle was revisited in a slightly different way, and of course, the "worst case" is that the oncoming vehicle accelerates towards itself. Without thinking, it is considered to apply the brakes actually to avoid the collision, but to use only some moderate braking force. To capture the difference in responsibility of the cars, if one of those cars is driving in the opposite direction, we start by defining the "right" driving direction.

[0553] 平行レーンに関するRSSの定義では、その中央が割り込み位置に最も近いものとして、関連するレーンが定められている。次に、このレーンを検討することに自らを軽減する(又は対称の場合、定義22にあるように2つのレーンに別々に対処する)ことができる。以下の定義では、「進行方位」という用語は、横方向速度を縦方向速度で割ったものの(ラジアン単位の)逆正接を示す。   [0553] In the definition of the RSS regarding the parallel lane, the relevant lane is defined such that the center is closest to the interrupt position. One can then reduce himself to considering this lane (or, if symmetric, address the two lanes separately as in definition 22). In the following definitions, the term "heading" refers to the arctangent (in radians) of lateral velocity divided by longitudinal velocity.

[0554] 定義23(正しい運転方向による(μ,μ,μ)−勝利) c、cが反対方向に走行している、すなわちv1,long・v2,long<0が成立すると仮定する。レーンに対するそれらの横位置及び進行方位をx、hとする。以下の条件の全てが当てはまる場合、cが正しい運転方向により(μ,μ,μ)−勝利すると言える:
・|h|<μ
・|h−π|<μ
・|x|<μ
Definition 23 ((μ 1 , μ 2 , μ 3 ) -victory due to correct driving direction) c 1 , c 2 are traveling in opposite directions, that is, v 1, long · v 2, long <0. Assume that it holds. Their lateral position and heading for lanes x i, and h i. If all the following conditions are true, the c 1 is correct operating direction (μ 1, μ 2, μ 3) - said to win:
・ | H 1 | <μ 1 ,
・ | H 2 −π | <μ 2 ,
* | X 1 | <μ 3 .

[0555] この事象のインジケータをWCDD(i)で示す。 [0555] An indicator of this event is denoted by W CDD (i).

[0556] 言葉では、cは、cが逆方向を取る一方で正しい方向でレーン中央の近くで走行する場合に勝利する。最大でも1つの車が勝利することができ、車のいずれも勝利しない場合もある。直観的に、論じた状況で衝突があると仮定する。正しい運転方向で負ける車cにより多くの責任を課すことが妥当である。正しい運転方向で車が勝利する場合、これは、amax,brakeを再定義することによって行われる。 [0556] In words, c 1 is wins if c 2 travels near the center of the lane in the right direction while taking the opposite direction. At most one car can win, and none of the cars may win. Intuitively, assume that there is a conflict in the situation discussed. It is reasonable to impose a number of responsibilities by car c 1 lose the correct driving direction. If the car wins in the correct driving direction, this is done by redefining a max, break .

[0557] 定義24(妥当なブレーキ力) αmax,brake,wcdd>0をamax,brake未満の定数とする。c、cが反対方向に走行していると仮定する。RBPで示す、それぞれの車cの妥当なブレーキ力は、cが正しい運転方向で(μ,μ,μ)−勝利する場合にはamax,brake,wcddであり、さもなければamax,brakeである。 Definition 24 (Reasonable Braking Force) α max, brake, wcdd > 0 is a constant less than a max, brake . Assume that c 1 and c 2 are traveling in opposite directions. Indicated by RBP i, is a reasonable braking forces of each car c i, with c i is correct operating direction (μ 1, μ 2, μ 3) - a max in the case of winning, brake, a Wcdd, or else Otherwise , it is a max, break .

[0558] 正しい運転方向で勝利する/勝利しない場合のamax,brake,wcdd、amax,brakeの正確な値は、定義すべき定数であり、各車が走行する道路及びレーンの種類に依存し得る。例えば、都市の狭い道では、正しい運転方向で勝利することは、はるかに小さいブレーキ値を含意しない場合があり、混雑した交通では、自らのレーン内に誰かが明確に外れようが外れまいが車が同様の力でブレーキをかけることを期待する。しかし、速い速度が許可されている地方の双方向道路の例を検討する。対向レーンに外れるとき、正しい方向で走行する車がホスト車両との衝突を回避するために非常に強いブレーキ力を加えることは予期できず、それらの車よりもホスト車両の責任の方が重い。一方が駐車場へとバックする状態で2つの車が同じレーンにある事例では、異なる定数を定めることができる。 A max when [0558] that does not correct operation Win a direction / win, brake, Wcdd, a max, the exact value of the brake is a constant to be defined, depending on the type of road and lanes each vehicle is traveling I can do it. For example, on narrow streets in a city, winning in the correct driving direction may not imply much lower braking values, and in congested traffic the car may or may not be clearly off your lane. Expect to use the same force to brake. However, consider the example of a rural two-way road where high speeds are allowed. When deviating to an oncoming lane, it is not anticipated that vehicles traveling in the correct direction will apply very strong braking force to avoid collisions with the host vehicle, and the responsibility of the host vehicle is greater than those vehicles. In the case where two cars are on the same lane with one backing to the parking lot, different constants can be defined.

[0559] 反対方向に走行している車の間の安全な距離、及びその正確な値の即座の導出を次に定義する。   [0559] The safe distance between vehicles traveling in opposite directions, and the immediate derivation of its exact value, is now defined.

[0560] 定義25(安全な縦方向距離 − 双方向交通) 反対方向に走行しており、いずれも互いの前方コリドール内にある車cと別の車cとの間の縦方向距離は、反応時間ρまでc、cによって行われる任意の加速コマンドa、|a|<amax,accelについて、c及びcがその妥当なブレーキ力を時間ρから完全停止まで加える場合、時間ρに対して安全であり車は衝突しない。 [0560] Definition 25 (safe longitudinal distance - bidirectional traffic) and traveling in the opposite direction, longitudinal distance between both the car c 1 and another car c 2 within each other forward corridor For any acceleration command a, | a | <a max, accel performed by c 1 , c 2 up to the reaction time ρ, if c 1 and c 2 apply their reasonable braking force from time ρ to complete stop, It is safe for time ρ and the car does not collide.

[0561] 補助定理10 c、cを定義25にあるのと同じとする。(iごとの)妥当なブレーキコマンド及び加速コマンドをRBP、amax,accelとし、車の反応時間をρとする。車の縦速度をv、vとし、それらの長さをl、lとする。vi,ρ,max=|v|+ρ・amax,accelと定める。L=(l+l)/2とする。従って、最小安全縦方向距離は次式のようになる。
The lemma 10 c 1 , c 2 is the same as in definition 25. Let RBP i , a max, accel be the valid brake and acceleration commands (per i) and let the reaction time of the car be ρ. The vertical speeds of the vehicle are v 1 and v 2, and their lengths are l 1 and l 2 . determine + ρ · a max, and accel | v i, ρ, max = | v i. L = a (l r + l f) / 2. Therefore, the minimum safe longitudinal distance is:

[0562] この和における項は、定義25の操作を実行するとき完全に停止するまで各車が移動する最大距離であることが分かる。従って、完全な停止がLを上回る距離にあるために、最初の距離がこの和及びLの追加の項よりも長くなければならない。   [0562] It can be seen that the term in this sum is the maximum distance that each vehicle travels until it stops completely when the operation of definition 25 is executed. Thus, for a complete stop to be at a distance above L, the initial distance must be greater than this sum and the additional terms of L.

[0563] 双方向交通シナリオの過失/事故責任を定めるために、定義25で定めた危険な縦方向距離についてRSSの過失時点の同じ定義を使用する。   [0563] To define the negligence / accident liability of a two-way traffic scenario, we use the same RSS negligence definition for the dangerous longitudinal distance defined in definition 25.

[0564] 定義26(双方向交通における過失) 反対方向に走行している車c及びc間の事故の双方向交通における過失は、過失時点における状態の関数であり、以下のように定められる:
・過失時点が割り込み時でもある場合、過失は、通常のRSSの定義にあるように定められる。
・さもなければ、全てのiについて、過失時点後に生じる何らかのtにおいてcが少なくともRBPの力でブレーキをかけていない場合、過失は、cにある。
[0564] Definition 26 (negligence in bidirectional traffic) negligence in bidirectional traffic accidents between car c 1 and c 2 is traveling in the opposite direction is a function of the state of negligence time, defined as follows Is:
If the time of fault is also the time of interruption, fault is defined as in the normal RSS definition.
- Otherwise, for all i, if c i at some t occurring after fault point is not braked with a force of at least RBP i, negligence is in c i.

[0565] 例えば、過失時点よりも前に行われる安全な割り込みを仮定する。例えば、cが対向レーンに外れ、cのコリドール内に安全な距離で割り込みを行っている。cは、正しい運転方向で勝利し、従って、この距離は、非常に長いものであり得る(cが強いブレーキ力を働かせることを期待しておらず、妥当なブレーキ力のみを期待する)。従って、互いに衝突しない責任が両方の車にある。しかし、割り込みが安全な距離ではなかった場合、cが横方向の移動なしに自らのレーンの中央を走行した場合、cが無過失であることを示す通常の定義を使用する。過失は、cのみにある。これは、自らの地帯内に危険に外れてくる可能性がある交通を心配することなしに、車が自らのレーンの中央を自然に走行することを可能にする。他方では、都市の混雑した交通で要求される一般的な操作である対向レーンへの安全な逸脱は認められる。バックによる駐車操作を開始する車の例を検討し、その車は、自らの後ろにある車までの距離が安全であることを確認しながらバックを開始すべきである。 [0565] For example, assume a safe interrupt that occurs before the time of negligence. For example, out c 1 is the opposite lane, and performs the interrupt at a safe distance in the corridor of c 2. c 2 is won in the correct driving direction, therefore, this distance is quite may at long (not expect that c 2 exerts a strong braking force, expect only reasonable braking force). Thus, both vehicles have the responsibility to avoid collisions with each other. However, if the interrupt was not a safe distance, if c 2 has traveled a central own lane without lateral movement, using the normal definition indicating that c 2 is no fault. Negligence, there is only to c 1. This allows cars to travel naturally in the center of their lanes without having to worry about traffic that may be dangerously out of their zone. On the other hand, a safe departure to the oncoming lane, a common operation required in congested traffic in cities, is allowed. Consider an example of a car that initiates a parking operation with a back, and the car should start the back while ensuring that the distance to the car behind it is safe.

[0566] 信号機
[0567] 信号機がある交差点を含むシナリオでは、信号機の単純な規則は、「一方の車のルートが青信号であり、他方の車のルートが赤信号である場合、赤信号のルート上にいる方に過失がある」ことであると考える人もいることがあり得る。しかし、これは、とりわけ全ての事例において正しい規則ではない。例えば、図27に示すシナリオを検討する。たとえ車2701が青信号のルート上にあっても、既に交差点内にある車2703を車2701が無視することは予期しない。正しい規則は、青信号のルートが赤信号のルートに対して優先権を有することである。従って、先に記載したルートの優先権の概念に対する、信号機に由来する明確な低減が得られる。
[0566] Traffic light
[0567] In a scenario where a traffic light includes an intersection, the simple rule of the traffic light is that if one car route is a green traffic light and the other car route is a red traffic light, Some people may consider this to be "negligence". However, this is not a correct rule, especially in all cases. For example, consider the scenario shown in FIG. Even if the car 2701 is on the green light route, it is not expected that the car 2701 will ignore the car 2703 already in the intersection. The correct rule is that the green light route has priority over the red light route. Thus, a clear reduction from the traffic light is obtained over the concept of route priority described above.

[0568] 非構造化道路
[0569] 次に、ルートの明確な幾何学的形状を画定することができない道路を考え、レーン構造が全くないシナリオ(例えば、駐車場)をまず検討する。事故がないことを確実にする方法は、全ての車が直線に走行する一方、進行方位の変更が生じる場合、自分の周囲に近い車がないときにかかる変更を行う必要があることを要求することであり得る。この方法の背後にある理論的根拠は、車が、他の車が何を行うかを予測し、それに応じて振る舞うことができることである。他の車が(進行方位を変えることによって)この予測から逸脱する場合、その操作は、十分に長い距離を伴って行われ、従って予測を訂正するのに十分な時間があり得る。レーン構造がある場合、他の車が何を行うかについてのより賢明な予測が可能になり得る。レーン構造が全くない場合、車は、その現在の進行方位に従って進む。厳密に言えば、これは、全ての車にその進行方位に従って仮想的な直線ルートを割り当てることと均等である。次に、(例えば、パリのArc de Triompheの周りにある)大規模な非構造化環状交差路におけるシナリオを検討する。ここで、分別のある予測は、車がそのオフセットを保ちながら環状交差路の幾何学的形状に従って進むと想定することである。厳密に言えば、これは、全ての車に環状交差路の中心からのその現在のオフセットに従って仮想的な弧の経路を割り当てることと均等である。
[0568] Unstructured road
Next, considering a road on which a clear geometric shape of a route cannot be defined, a scenario without a lane structure (for example, a parking lot) is first considered. A way to ensure that there are no accidents requires that if all cars are traveling in a straight line, but a change in heading occurs, such changes need to be made when no cars are close to you. It can be. The rationale behind this method is that cars can predict what other cars will do and behave accordingly. If another vehicle deviates from this prediction (by changing heading), the operation will be performed with a sufficiently long distance, and thus may have sufficient time to correct the prediction. With lane structures, smarter predictions of what other vehicles will do may be possible. If there is no lane structure, the car will follow its current heading. Strictly speaking, this is equivalent to assigning a virtual straight route to all vehicles according to their heading. Next, consider a scenario at a large unstructured circular intersection (for example, around the Arc de Triomphe in Paris). Here, one sensible prediction is to assume that the car will follow the geometry of the roundabout while keeping its offset. Strictly speaking, this is equivalent to assigning all cars a virtual arc path according to their current offset from the center of the roundabout.

[0570] 実施する特定のナビゲーション命令を決定するときに潜在的な事故責任を考慮するナビゲーションシステムを提供するために、上記の運転ポリシシステム(例えば、RLシステム)を、記載した事故責任規則の1つ又は複数と共に実装することができる。規則に既に準拠しているシステムによって提案ナビゲーション動作が開発されるように、かかる規則は、計画段階中、例えばプログラムされた命令の組内又はトレーニング済みモデル内で適用され得る。例えば、運転ポリシモジュールは、例えば、RSSが基づく1つ又は複数のナビゲーション規則の責任を負うか、又はかかるナビゲーション規則を使ってトレーニングされ得る。加えて又は或いは、提案ナビゲーション動作が準拠していることを確実にするために、計画段階によって提案される全ての提案ナビゲーション動作を、関連する事故責任規則に対してテストするフィルタ層としてRSS安全制約を適用することができる。特定の動作がRSS安全制約に準拠している場合、その動作を実施することができる。そうではなく、提案ナビゲーション動作がRSS安全制約に準拠していない場合(例えば、提案動作が上記の規則の1つ又は複数に基づいてホスト車両にとっての事故責任を発生させる可能性がある場合)、その動作は行われない。   [0570] In order to provide a navigation system that takes into account potential accident liability when determining the particular navigation instruction to be implemented, the above driving policy system (eg, RL system) has been described in one of the accident liability rules described. One or more can be implemented. Such rules can be applied during the planning phase, for example in a set of programmed instructions or in a trained model, so that the proposed navigation behavior is developed by a system that already complies with the rules. For example, the driving policy module may, for example, be responsible for or trained on one or more navigation rules on which the RSS is based. Additionally or alternatively, RSS safety constraints as a filter layer that tests all proposed navigation actions proposed by the planning phase against relevant accident liability rules to ensure that the proposed navigation actions are compliant. Can be applied. If a particular action complies with RSS security constraints, that action can be performed. Otherwise, if the proposed navigational action is not compliant with RSS safety constraints (e.g., if the proposed operation is likely to cause an accident responsible for the host vehicle based on one or more of the above rules), No action is taken.

[0571] 実際には、特定の実装形態は、ホスト車両のためのナビゲーションシステムを含み得る。ホスト車両は、ホスト車両の環境を表す画像を動作中に捕捉する画像捕捉装置(例えば、上記に記載したもののいずれか等の1つ又は複数のカメラ)を備えることができる。画像情報を使用し、運転ポリシは、複数の入力を取り込み、ホスト車両のナビゲーション目標を達成するための計画されたナビゲーション動作を出力することができる。運転ポリシは、様々な入力(例えば、目標車両、道路、物体、歩行者等を含むホスト車両の周囲を示す1つ又は複数のカメラからの画像、ライダ又はレーダシステムからの出力、速度センサやサスペンションセンサ等からの出力、ホスト車両の1つ又は複数の目標、例えば乗客を特定の位置に届けるためのナビゲーション計画を表す情報等)を受け付けることができるプログラムされた命令の組やトレーニング済みネットワーク等を含み得る。その入力に基づき、プロセッサは、例えば、カメラ画像、ライダ出力、レーダ出力等を分析することによりホスト車両の環境内の目標車両を識別することができる。幾つかの実施形態では、プロセッサは、1つ又は複数のカメラ画像、ライダ出力及び/又はレーダ出力等の1つ又は複数の入力を分析することにより、ホスト車両の環境内の目標車両を識別することができる。更に幾つかの実施形態では、プロセッサは、(例えば、1つ又は複数のカメラ画像、ライダ出力及び/又はレーダ出力を分析し、入力の大多数の合致又は組み合わせに基づいて目標車両を識別する検出結果を受信することにより)センサ入力の大多数又は組み合わせの合致に基づいて、ホスト車両の環境内の目標車両を識別することができる。   [0571] In practice, certain implementations may include a navigation system for the host vehicle. The host vehicle can include an image capture device (e.g., one or more cameras such as any of those described above) that captures images representing the environment of the host vehicle during operation. Using the image information, the driving policy can capture a plurality of inputs and output planned navigation actions to achieve the navigation goals of the host vehicle. Driving policies may include various inputs (e.g., images from one or more cameras showing the surroundings of the host vehicle, including target vehicles, roads, objects, pedestrians, etc.), outputs from lidar or radar systems, speed sensors and suspensions. A set of programmed instructions or a trained network that can accept outputs from sensors or the like, one or more targets of the host vehicle, such as information describing a navigation plan for delivering passengers to a particular location, etc. May be included. Based on that input, the processor can identify a target vehicle in the host vehicle's environment, for example, by analyzing camera images, lidar output, radar output, and the like. In some embodiments, the processor identifies a target vehicle in the environment of the host vehicle by analyzing one or more inputs, such as one or more camera images, lidar output and / or radar output. be able to. Further, in some embodiments, the processor (e.g., analyzes one or more camera images, lidar output, and / or radar output, and detects a target vehicle based on a majority match or combination of inputs. Based on matching the majority or combination of the sensor inputs (by receiving the results), a target vehicle within the environment of the host vehicle can be identified.

[0572] 運転ポリシモジュールが入手可能な情報に基づき、ホスト車両のナビゲーション目標を達成するための1つ又は複数の計画されたナビゲーション動作の形式で、出力を提供することができる。幾つかの実施形態では、計画されたナビゲーション動作のフィルタとして、RSS安全制約を適用することができる。すなわち、計画されたナビゲーション動作は、決定されると、識別された目標車両に対するホスト車両の潜在的な事故責任を決定するために、少なくとも1つの事故責任規則(例えば、上記で論じた事故責任規則のいずれか)に対してテストすることができる。先に述べたように、少なくとも1つの事故責任規則に対する計画されたナビゲーション動作のテストが、計画されたナビゲーション動作が行われる場合にホスト車両について潜在的な事故責任があり得ることを示す場合、プロセッサは、計画されたナビゲーション動作をホスト車両に実施させないことができる。他方では、少なくとも1つの事故責任規則に対する計画されたナビゲーション動作のテストが、計画されたナビゲーション動作が行われる場合にホスト車両について事故責任が生じないであろうことを示す場合、プロセッサは、計画されたナビゲーション動作をホスト車両に実施させることができる。   [0572] Based on the information available to the driving policy module, an output may be provided in the form of one or more planned navigation actions to achieve the host vehicle's navigation goals. In some embodiments, RSS safety constraints can be applied as a filter for planned navigation actions. That is, the planned navigation actions, once determined, may include at least one accident liability rule (eg, the accident liability rules discussed above) to determine the potential accident liability of the host vehicle with respect to the identified target vehicle. ) Can be tested against As noted above, if the test of the planned navigation action for at least one accident liability rule indicates that there is potential accident liability for the host vehicle when the planned navigation action is performed, the processor Can prevent the host vehicle from performing the planned navigation operation. On the other hand, if the test of the planned navigation action for the at least one accident liability rule indicates that no accident liability will occur for the host vehicle if the planned navigation action is performed, the processor is configured to Navigation operation can be performed by the host vehicle.

[0573] 幾つかの実施形態では、システムは、少なくとも1つの事故責任規則に対して複数の潜在的なナビゲーション動作をテストすることができる。テストの結果に基づき、システムは、それらの潜在的なナビゲーション動作を、複数の潜在的なナビゲーション動作のサブセットへとフィルタリングすることができる。例えば、幾つかの実施形態では、そのサブセットは、少なくとも1つの事故責任規則に対するテストが、潜在的なナビゲーション動作が行われる場合にホスト車両について事故責任が生じないであろうことを示す潜在的なナビゲーション動作のみを含み得る。次いで、システムは、事故責任のない潜在的なナビゲーション動作をスコア付け及び/又は優先順位付けし、実施するためのナビゲーション動作の1つを例えば最適化されたスコア又は最も高い優先順位に基づいて選択することができる。このスコア及び/又は優先順位は、例えば、乗客にとって最も安全、最も効率的、最も快適等と見なされる潜在的なナビゲーション動作等、1つ又は複数の要因に基づき得る。   [0573] In some embodiments, the system can test multiple potential navigation actions against at least one accident liability rule. Based on the results of the test, the system can filter those potential navigation actions into a subset of multiple potential navigation actions. For example, in some embodiments, a subset thereof indicates that testing for at least one accident liability rule indicates that no potential accident liability will occur for the host vehicle if a potential navigation action is taken. It may include only navigation operations. The system then potential navigation operation without accident responsible scored with and / or priority, based on one of the navigation operation for implementing the optimized score or highest priority such as selective can do. The score and / or priority may be based on one or more factors, for example, potential navigational activities that are deemed safest, most efficient, most comfortable, etc. for the passenger.

[0574] 一部の例では、特定の計画されたナビゲーション動作を実施するかどうかの判定は、計画された動作後の次の状態においてデフォルトの緊急手続きを利用できるかどうかにも依存し得る。DEPを利用できる場合、RSSフィルタはその計画された動作を承認することができる。他方では、DEPを利用できない場合、次の状態が危険なものと見なされる場合があり、計画されたナビゲーション動作が拒否され得る。幾つかの実施形態では、計画されたナビゲーション動作が少なくとも1つのデフォルトの緊急手続きを含み得る。   [0574] In some examples, determining whether to perform a particular planned navigation operation may also depend on whether a default emergency procedure is available in a next state after the planned operation. If DEP is available, the RSS filter can approve its planned operation. On the other hand, if DEP is not available, the next condition may be considered dangerous and the planned navigation action may be rejected. In some embodiments, the planned navigation action may include at least one default emergency procedure.

[0575] 記載したシステムの1つの利点は、車両による安全な動作を保証するために、特定の目標車両に対するホスト車両の動作のみを検討する必要があることである。従って2つ以上の目標車両がある場合、ホスト車両付近の影響区域内の(例えば、25メートル、50メートル、100メートル、200メートル等の範囲内の)目標車両に対し、ホスト車両の計画された動作を事故責任規則に関して逐次的にテストすることができる。実際には、少なくとも1つのプロセッサは、ホスト車両の環境を表す少なくとも1つの画像の分析に基づいて(又はライダ情報又はレーダ情報等に基づいて)ホスト車両の環境内の複数の他の目標車両を識別し、且つ複数の他の目標車両のそれぞれに対するホスト車両の潜在的な事故責任を決定するために、少なくとも1つの事故責任規則に対する計画されたナビゲーション動作のテストを繰り返すように更にプログラムされ得る。少なくとも1つの事故責任規則に対する計画されたナビゲーション動作の繰り返されたテストが、計画されたナビゲーション動作が行われる場合にホスト車両について潜在的な事故責任があり得ることを示す場合、プロセッサは、計画されたナビゲーション動作をホスト車両に実施させないことができる。少なくとも1つの事故責任規則に対する計画されたナビゲーション動作の繰り返されたテストが、計画されたナビゲーション動作が行われる場合にホスト車両について事故責任が生じないであろうことを示す場合、プロセッサは、計画されたナビゲーション動作をホスト車両に実施させることができる。   [0575] One advantage of the described system is that only the operation of the host vehicle with respect to a particular target vehicle needs to be considered to ensure safe operation by the vehicle. Thus, if there is more than one target vehicle, the host vehicle's planned target vehicle in the affected area near the host vehicle (eg, within a range of 25 meters, 50 meters, 100 meters, 200 meters, etc.). Operation can be tested sequentially for accident liability rules. In practice, at least one processor determines a plurality of other target vehicles in the host vehicle's environment based on an analysis of at least one image representative of the host vehicle's environment (or based on rider information or radar information, etc.). It may be further programmed to repeat the test of the planned navigation action against at least one accident liability rule to identify and determine the potential accident liability of the host vehicle for each of the plurality of other target vehicles. If the repeated testing of the planned navigation action for at least one accident liability rule indicates that there is a potential accident liability for the host vehicle if the planned navigation action is performed, the processor determines Navigation operation can be prevented from being performed by the host vehicle. If the repeated testing of the planned navigation action for the at least one accident liability rule indicates that no accident liability will occur for the host vehicle if the planned navigation action is performed, the processor proceeds to the planned Navigation operation can be performed by the host vehicle.

[0576] 先に述べたように、上記の規則のいずれもRSS安全テストの基礎として使用することができる。幾つかの実施形態では、少なくとも1つの事故責任規則は、識別された目標車両の後方の距離であって、その中にホスト車両が事故責任の可能性なしに進むことができない距離を定める追走規則を含む。他の事例では、少なくとも1つの事故責任規則は、識別された目標車両の前方の距離であって、その中にホスト車両が事故責任の可能性なしに進むことができない距離を定める先行規則を含む。   [0576] As mentioned earlier, any of the above rules can be used as a basis for RSS security testing. In some embodiments, at least one accident liability rule is a follow-up that defines a distance behind the identified target vehicle, within which the host vehicle cannot travel without the possibility of accident liability. Including rules. In other cases, the at least one accident liability rule includes a preceding rule that defines a distance in front of the identified target vehicle, within which the host vehicle cannot proceed without the possibility of accident liability. .

[0577] 上記のシステムは、結果として生じる事故の責任を負うことになるいかなる動作もホスト車両が行うべきではないという規則に対する準拠をテストするためにRSS安全テストを単一の計画されたナビゲーション動作に適用することができるが、テストは、2つ以上の計画されたナビゲーション動作に適用することもできる。例えば、幾つかの実施形態では、少なくとも1つのプロセッサは、少なくとも1つの運転ポリシを適用することに基づいて、ホスト車両のナビゲーション目標を達成するための2つ以上の計画されたナビゲーション動作を決定する場合がある。これらの状況では、プロセッサは、潜在的な事故責任を決定するために2つ以上の計画されたナビゲーション動作のそれぞれを少なくとも1つの事故責任規則に対してテストすることができる。2つ以上の計画されたナビゲーション動作のそれぞれについて、テストが、2つ以上の計画されたナビゲーション動作の特定の1つが行われる場合にホスト車両について潜在的な事故責任があり得ることを示す場合、プロセッサは、計画されたナビゲーション動作の当該特定の1つをホスト車両に実施させないことができる。他方では、2つ以上の計画されたナビゲーション動作のそれぞれについて、テストが、2つ以上の計画されたナビゲーション動作の特定の1つが行われる場合にホスト車両について事故責任が生じないであろうことを示す場合、プロセッサは、2つ以上の計画されたナビゲーション動作の当該特定の1つを実施のための存立可能な候補として識別することができる。次に、プロセッサは、少なくとも1つのコスト関数に基づき、実施のための存立可能な候補の中から行われるナビゲーション動作を選択することと、選択されたナビゲーション動作をホスト車両に実施させることとを行うができる。   [0577] The system described above performs an RSS safety test to test compliance with the rule that the host vehicle should not take any action that would be responsible for the resulting accident, as a single planned navigation action. , But the test can also be applied to more than one planned navigation action. For example, in some embodiments, at least one processor determines two or more planned navigation actions to achieve a host vehicle navigation goal based on applying at least one driving policy. There are cases. In these situations, the processor may test each of the two or more planned navigation actions against at least one accident liability rule to determine potential accident liability. For each of two or more planned navigation actions, if the test indicates that there is potential accident liability for the host vehicle if a particular one of the two or more planned navigation actions is performed, The processor may not cause the host vehicle to perform the particular one of the planned navigation actions. On the other hand, for each of the two or more planned navigation actions, testing has determined that no accident liability will occur for the host vehicle if a particular one of the two or more planned navigation actions is performed. If shown, the processor may identify more than one planned one the specific navigation operation as a viable candidate for implementation. Next, the processor selects, based on the at least one cost function, a navigation action to be performed from among the viable candidates for implementation, and causes the host vehicle to perform the selected navigation action. Can be.

[0578] RSSの実装は、ホスト車両と1つ又は複数の目標車両との間の事故に関する相対的な潜在的責任の決定に関係することから、安全の準拠のために、計画されたナビゲーション動作をテストすることと共に、システムは、遭遇する車両の事故責任の潜在性を追跡することができる。例えば、システムは、結果として生じる事故がホスト車両の責任を招くことになる動作を行うことを回避できる可能性があるだけではなく、ホスト車両システムは、1つ又は複数の目標車両を追跡し、それらの目標車両によっていずれの事故責任規則が破られているかを識別し追跡することもでき得る。幾つかの実施形態では、ホスト車両のための事故責任追跡システムは、ホスト車両の環境を表す少なくとも1つの画像を画像捕捉装置から受信することと、少なくとも1つの画像を分析してホスト車両の環境内の目標車両を識別することとを行うようにプログラムされる少なくとも1つの処理デバイスを含み得る。少なくとも1つの画像の分析に基づき、プロセッサは、識別された目標車両のナビゲーション状態の1つ又は複数の特性を決定するためのプログラミングを含み得る。車両速度、レーンの中央までの近さ、横方向速度、移動方向、ホスト車両からの距離、進行方位、又は上記の規則のいずれかに基づいて潜在的な事故責任を決定するために使用され得る他の任意のパラメータ等、ナビゲーション状態は、目標車両の様々な動作特性を含み得る。プロセッサは、識別された目標車両のナビゲーション状態の決定された1つ又は複数の特性を少なくとも1つの事故責任規則(例えば、横方向速度で勝利すること、方向的な優先権、レーンの中央までの距離で勝利すること、追走の距離又は先行の距離、割り込み等の上記の規則のいずれか)と比較することができる。状態の1つ又は複数の規則との比較に基づき、プロセッサは、識別された目標車両側の潜在的な事故責任を示す少なくとも1つの値を記憶することができる。事故が発生した場合、プロセッサは、記憶された少なくとも1つの値の出力を(例えば、有線又は無線の任意の適切なデータインタフェースを介して)提供することができる。かかる出力は、例えば、ホスト車両と少なくとも1つの目標車両との間の事故後に提供することができ、その出力は、事故責任の指示のために使用することができ、或いは事故責任の指示を提供することができる。   [0578] Since the implementation of the RSS involves determining the relative potential liability for an accident between the host vehicle and one or more target vehicles, the planned navigation actions for safety compliance Along with testing the system, the system can track the potential for accident liability of the vehicles encountered. For example, not only may the system avoid avoiding actions that would result in the host vehicle being liable for the resulting accident, but the host vehicle system may also track one or more target vehicles, It may also be possible to identify and track which accident liability rules have been violated by those target vehicles. In some embodiments, an accident liability tracking system for a host vehicle receives at least one image representing an environment of the host vehicle from an image capture device, and analyzes the at least one image to analyze an environment of the host vehicle. It may include at least one processing device is programmed to identifying a target vehicle of the inner. Based on the analysis of the at least one image, the processor may include programming to determine one or more characteristics of the navigation state of the identified target vehicle. Can be used to determine potential accident liability based on vehicle speed, proximity to lane center, lateral speed, direction of travel, distance from host vehicle, heading, or any of the above rules The navigation state, such as any other parameters, may include various operating characteristics of the target vehicle. The processor may apply the determined one or more characteristics of the identified target vehicle navigation state to at least one accident liability rule (e.g., win at lateral speed, directional priority, lane to center of lane). Any of the above rules, such as winning by distance, following distance or preceding distance, interruption, etc.). Based on the comparison of the state with one or more rules, the processor may store at least one value indicative of the potential accident responsibility on the identified target vehicle side. If an accident occurs, the processor, the output of the stored at least one value (e.g., via any suitable data interfaces wired or wireless) can be provided. Such output can be provided, for example, after an accident between the host vehicle and at least one target vehicle, and the output can be used to indicate accident liability, or provide an accident liability instruction. can do.

[0579] 潜在的な事故責任を示す少なくとも1つの値は、任意の適切な時点において及び任意の適切な条件下で記憶することができる。幾つかの実施形態では、ホスト車両が、識別された目標車両との衝突を回避できないと判定される場合、少なくとも1つの処理デバイスは、識別された目標車両に関する衝突責任値を割り当て且つ記憶することができる。   [0579] The at least one value indicative of potential accident liability can be stored at any suitable time and under any suitable conditions. In some embodiments, if it is determined that the host vehicle cannot avoid a collision with the identified target vehicle, the at least one processing device assigns and stores a collision responsibility value for the identified target vehicle. Can be.

[0580] 事故責任追跡機能は、単一の目標車両に限定されず、むしろ遭遇する複数の目標車両の潜在的な事故責任を追跡するために使用することができる。例えば、少なくとも1つの処理デバイスは、ホスト車両の環境内の複数の目標車両を検出することと、複数の目標車両のそれぞれのナビゲーション状態特性を決定することと、目標車両のそれぞれに関するそれぞれのナビゲーション状態特性の少なくとも1つの事故責任規則との比較に基づき、複数の目標車両のそれぞれの1つの側の潜在的な事故責任を示す値を決定及び記憶することとを行うようにプログラムされ得る。先に述べたように、責任を追跡するための基礎として使用することができる事故責任規則は、上記の規則のいずれか又は他の任意の適切な規則を含み得る。例えば、少なくとも1つの事故責任規則は、横方向速度規則、横方向位置規則、運転方向の優先権の規則、信号機に基づく規則、交通標識に基づく規則、ルートの優先権の規則等を含み得る。事故責任追跡機能は、RSS(例えば、ホスト車両の任意の動作が結果として生じる事故に関する潜在的責任を招くかどうか)を検討することに基づく安全なナビゲーションと結合することもできる。   [0580] The accident liability tracking function is not limited to a single target vehicle, but rather can be used to track the potential accident liability of multiple target vehicles encountered. For example, the at least one processing device detects a plurality of target vehicles in the environment of the host vehicle, determines a navigation state characteristic of each of the plurality of target vehicles, and a respective navigation state for each of the target vehicles. Determining a value indicative of a potential accident liability on each side of each of the plurality of target vehicles based on a comparison of the characteristic with at least one accident liability rule. As noted above, accident liability rules that can be used as a basis for tracking liability may include any of the above rules or any other suitable rules. For example, the at least one accident liability rule may include a lateral speed rule, a lateral position rule, a driving direction priority rule, a traffic light based rule, a traffic sign based rule, a route priority rule, etc. The accident liability tracking function can also be combined with secure navigation based on considering RSS (eg, whether any movement of the host vehicle creates potential liability for the resulting accident).

[0581] RSSに従って事故責任を検討することに基づくナビゲーションに加えて、ナビゲーションは、車両のナビゲーション状態及び将来の特定のナビゲーション状態が安全と見なされるかどうか(上記で詳細に説明したように、例えば事故を回避できるように又は結果として生じる任意の事故がホスト車両の責任と見なされないように、DEPが存在するかどうか)を判定することに関して検討することもできる。ホスト車両を制御して安全な状態から安全な状態にナビゲートすることができる。例えば、任意の特定の状態において、運転ポリシを使用して1つ又は複数の計画されたナビゲーション動作を生成し、計画された各動作に対応する将来予測される状態がDEPを提供するかどうかを判定することにより、それらの動作をテストすることができる。DEPを提供する場合、DEPを提供する1つ又は複数の計画されたナビゲーション動作が安全と見なされ得、実施する資格を与えられ得る。   [0581] In addition to navigation based on considering accident liability in accordance with the RSS, navigation may be based on whether the navigation state of the vehicle and certain future navigation states are considered safe (for example, as described in detail above, It may also be considered with respect to determining whether DEP is present so that an accident can be avoided or any resulting accident is not considered the responsibility of the host vehicle. The host vehicle can be controlled to navigate from a safe state to a safe state. For example, in any particular situation, the driving policy may be used to generate one or more planned navigation actions and determine whether the future predicted state corresponding to each planned action provides a DEP. By judging, those operations can be tested. When providing a DEP, one or more planned navigation actions that provide the DEP may be considered safe and may be entitled to perform.

[0582] 幾つかの実施形態では、ホスト車両のためのナビゲーションシステムは、ホスト車両の環境を表す少なくとも1つの画像を画像捕捉装置から受信することと、ホスト車両のナビゲーション目標を達成するための計画されたナビゲーション動作を少なくとも1つの運転ポリシに基づいて決定することと、少なくとも1つの画像を分析してホスト車両の環境内の目標車両を識別することと、識別された目標車両に対するホスト車両の潜在的な事故責任を決定するために、計画されたナビゲーション動作を少なくとも1つの事故責任規則に対してテストすることと、少なくとも1つの事故責任規則に対する計画されたナビゲーション動作のテストが、計画されたナビゲーション動作が行われる場合にホスト車両について潜在的な事故責任があり得ることを示す場合、計画されたナビゲーション動作をホスト車両に実施させないことと、少なくとも1つの事故責任規則に対する計画されたナビゲーション動作のテストが、計画されたナビゲーション動作が行われる場合にホスト車両について事故責任が生じないであろうことを示す場合、計画されたナビゲーション動作をホスト車両に実施させることとを行うようにプログラムされる少なくとも1つの処理デバイスを含み得る。   [0582] In some embodiments, a navigation system for a host vehicle receives at least one image representative of an environment of the host vehicle from an image capture device, and a plan for achieving the host vehicle's navigation goals. Determining the determined navigation behavior based on at least one driving policy; analyzing the at least one image to identify a target vehicle in the environment of the host vehicle; and a potential of the host vehicle relative to the identified target vehicle. Testing the planned navigational action against at least one accident liability rule to determine overall accident liability, and testing the planned navigational action against at least one accident liability rule comprises: There is a potential accident liability for the host vehicle when action is taken. Indicating that the planned navigation action is not to be performed by the host vehicle, and testing the planned navigation action against at least one accident liability rule is an accident for the host vehicle when the planned navigation action is performed. At least one processing device programmed to cause the host vehicle to perform the planned navigation operation when indicating that no liability will occur may be included.

[0583] 幾つかの実施形態では、ホスト車両のためのナビゲーションシステムは、ホスト車両の環境を表す少なくとも1つの画像を画像捕捉装置から受信することと、ホスト車両のための複数の潜在的なナビゲーション動作を少なくとも1つの運転ポリシに基づいて決定することと、少なくとも1つの画像を分析してホスト車両の環境内の目標車両を識別することと、識別された目標車両に対するホスト車両の潜在的な事故責任を決定するために、複数の潜在的なナビゲーション動作を少なくとも1つの事故責任規則に対してテストすることと、潜在的なナビゲーション動作の1つを選択することであって、潜在的なナビゲーション動作のその1つについて、テストは、選択される潜在的なナビゲーション動作が行われる場合にホスト車両について事故責任が生じないであろうことを示す、潜在的なナビゲーション動作の1つを選択することと、選択された潜在的なナビゲーション動作をホスト車両に実施させることとを行うようにプログラムされる少なくとも1つの処理デバイスを含み得る。一部の例では、選択される潜在的なナビゲーション動作は、複数の潜在的なナビゲーション動作のサブセットであって、複数の潜在的なナビゲーション動作のそのサブセットについて、テストは、複数の潜在的なナビゲーション動作のサブセットのいずれかが行われた場合にホスト車両について事故責任が生じないであろうことを示す、複数の潜在的なナビゲーション動作のサブセットから選択され得る。更に一部の例では、選択された潜在的なナビゲーション動作は、スコアリングパラメータに従って選択され得る。   [0583] In some embodiments, the navigation system for the host vehicle receives at least one image representing an environment of the host vehicle from an image capture device, and a plurality of potential navigations for the host vehicle. Determining an operation based on at least one driving policy; analyzing the at least one image to identify a target vehicle in a host vehicle environment; and a potential accident of the host vehicle with respect to the identified target vehicle. Testing a plurality of potential navigation actions against at least one accident liability rule to determine liability, and selecting one of the potential navigation actions, the potential navigation action being For that one of the tests, the test is performed on the host vehicle when the potential navigation action selected is performed. Programmed to select one of the potential navigation actions and to cause the host vehicle to perform the selected potential navigation action, indicating that no accident liability will occur. It may include at least one processing device. In some examples, the potential navigation action that is selected is a subset of the plurality of potential navigation actions, and for that subset of the plurality of potential navigation actions, the test returns the plurality of potential navigation actions. A subset of a plurality of potential navigation actions may be selected, indicating that no accident liability will occur for the host vehicle if any of the subsets of actions are performed. Further, in some examples, the selected potential navigation action may be selected according to a scoring parameter.

[0584] 幾つかの実施形態では、ホスト車両をナビゲートするためのシステムは、ホスト車両の環境を表す少なくとも1つの画像を画像捕捉装置から受信することと、ホスト車両のナビゲーション目標を達成するための計画されたナビゲーション動作を少なくとも1つの運転ポリシに基づいて決定することとを行うようにプログラムされる少なくとも1つの処理デバイスを含み得る。プロセッサは、少なくとも1つの画像を分析してホスト車両の環境内の目標車両を識別することと、計画されたナビゲーション動作が行われた場合に生じることになる、ホスト車両と目標車両との間の次の状態の距離を決定することと、ホスト車両の現在の最大ブレーキ能力及びホスト車両の現在の速度を決定することと、目標車両の現在の速度を決定し、且つ目標車両の少なくとも1つの認識された特性に基づいて目標車両の最大ブレーキ能力を仮定することと、ホスト車両の最大ブレーキ能力及びホスト車両の現在の速度を所与として、目標車両の現在の速度及び目標車両の仮定された最大ブレーキ能力に基づいて決定される目標車両の移動距離に、決定された次の状態の距離を加算したもの未満である停止距離内でホスト車両が停止され得る場合、計画されたナビゲーション動作を実施することとを行うこともできる。停止距離は、ホスト車両がブレーキなしの反応時間中に移動する距離を更に含み得る。   [0584] In some embodiments, a system for navigating a host vehicle includes receiving at least one image representative of an environment of the host vehicle from an image capture device and achieving a navigation goal for the host vehicle. And determining at least one planned navigation action based on at least one driving policy. The processor analyzes the at least one image to identify a target vehicle in the environment of the host vehicle, and a process between the host vehicle and the target vehicle that will occur if a planned navigation operation is performed. Determining the next state distance; determining the current maximum braking capacity of the host vehicle and the current speed of the host vehicle; determining the current speed of the target vehicle; and recognizing at least one of the target vehicles. Assuming the maximum braking capacity of the target vehicle based on the determined characteristics, and the current speed of the target vehicle and the assumed maximum of the target vehicle, given the maximum braking capacity of the host vehicle and the current speed of the host vehicle. The host vehicle stops within a stop distance that is less than the target vehicle travel distance determined based on the braking capacity plus the determined next state distance. To obtain, it can be performed and performing a planned navigation operation. The stopping distance may further include the distance the host vehicle travels during a reaction time without brakes.

[0585] 目標車両の最大ブレーキ能力がそれに基づいて決定される目標車両の認識される特性は、任意の適切な特性を含み得る。幾つかの実施形態では、この特性が車両の種類(例えば、そのそれぞれが異なるブレーキプロファイルに関連し得るオートバイ、車、バス、トラック)、車両のサイズ、予測される又は既知の車両の重さ、(例えば、既知のブレーキ能力を調べるために使用され得る)車両のモデル等を含み得る。   [0585] The recognized characteristics of the target vehicle on which the maximum braking capability of the target vehicle is determined may include any suitable characteristics. In some embodiments, this characteristic may include vehicle type (e.g., motorcycle, car, bus, truck, each of which may be associated with a different braking profile), vehicle size, predicted or known vehicle weight, It may include, for example, a model of the vehicle (which may be used to determine known braking capabilities, etc.).

[0586] 幾つかの場合、安全な状態の判定を2つ以上の目標車両に対して行うことができる。例えば、幾つかの場合、(距離及びブレーキ能力に基づく)安全な状態の判定は、ホスト車両に先行する2つ以上の識別された目標車両に基づき得る。かかる判定は、とりわけ先頭の目標車両の前に何があるかに関する情報を入手できない場合に有用であり得る。この場合、安全な状態、安全な距離、及び/又は利用可能なDEPを判定するために、検出可能な先頭車両が動かない又はほぼ動かない障害物との差し迫った衝突を経験すると仮定することができ、そのため、追走する目標車両は、自らのブレーキプロファイルが認めるよりも速く停止に到達し得る(例えば、第2の目標車両は第1の先頭車両と衝突し、その結果、予期される最大ブレーキ条件よりも速く停止に到達し得る)。その場合、安全な状態、安全な追走距離、DEPの決定をホスト車両に対する識別された先頭の目標車両の位置に基づかせることが重要であり得る。   [0586] In some cases, the determination of the safe state can be made for two or more target vehicles. For example, in some cases, the determination of a safe state (based on distance and braking capacity) may be based on two or more identified target vehicles preceding the host vehicle. Such a determination may be particularly useful when information about what is in front of the leading target vehicle is not available. In this case, it may be assumed that the detectable lead vehicle experiences an imminent collision with an immovable or almost immobile obstacle to determine the safe condition, safe distance, and / or available DEP. Yes, so the following target vehicle may reach a stop faster than its braking profile allows (e.g., the second target vehicle collides with the first leading vehicle, resulting in an expected maximum Stops can be reached faster than braking conditions). In that case, it may be important to base the determination of the safe condition, safe following distance, and DEP on the position of the identified first target vehicle relative to the host vehicle.

[0587] 幾つかの実施形態では、このような安全な状態から安全な状態へのナビゲーションシステムは、ホスト車両の環境を表す少なくとも1つの画像を画像捕捉装置から受信するようにプログラムされる少なくとも1つの処理デバイスを含み得る。ここでも他の実施形態と同様に、画像捕捉装置(例えば、カメラ)によって捕捉される画像情報をライダ又はレーダシステム等の1つ又は複数の他のセンサから得られる情報で補うことができる。幾つかの実施形態では、ナビゲートに使用される画像情報は、光学カメラからではなく、ライダ又はレーダシステムから生じることさえできる。少なくとも1つのプロセッサは、ホスト車両のナビゲーション目標を達成するための計画されたナビゲーション動作を少なくとも1つの運転ポリシに基づいて決定することができる。プロセッサは、(例えば、ホスト車両の環境の画像をそれから光学や距離マップ等に基づいて得ることができるカメラ、レーダ、ライダ、又は他の任意の装置から得られる)少なくとも1つの画像を分析してホスト車両の前方の第1の目標車両及び第1の目標車両の前方の第2の目標車両を識別することができる。次いで、プロセッサは、計画されたナビゲーション動作が行われた場合に生じることになる、ホスト車両と第2の目標車両との間の次の状態の距離を決定することができる。次に、プロセッサは、ホスト車両の現在の最大ブレーキ能力及びホスト車両の現在の速度を決定することができる。プロセッサは、ホスト車両の最大ブレーキ能力及びホスト車両の現在の速度を所与として、ホスト車両と第2の目標車両との間の決定された次の状態の距離未満である停止距離内でホスト車両が停止され得る場合、計画されたナビゲーション動作を実施することができる。   [0587] In some embodiments, such a safe-to-safe navigation system comprises at least one program programmed to receive from the image capture device at least one image representative of the environment of the host vehicle. One processing device may be included. Again, as in other embodiments, image information captured by an image capture device (eg, a camera) can be supplemented with information obtained from one or more other sensors, such as a lidar or radar system. In some embodiments, the image information used to navigate can even come from a lidar or radar system rather than from an optical camera. The at least one processor may determine a planned navigation action to achieve a navigation goal for the host vehicle based on the at least one driving policy. The processor analyzes at least one image (e.g., obtained from a camera, radar, lidar, or any other device from which images of the environment of the host vehicle can be obtained based on optics, distance maps, etc.). A first target vehicle ahead of the host vehicle and a second target vehicle ahead of the first target vehicle can be identified. Then, the processor would occur if the planned navigation operation is performed, it is possible to determine the distance of the next state between the host vehicle and the second target vehicle. The processor can then determine the host vehicle's current maximum braking capacity and the host vehicle's current speed. Processor, given the current speed of the maximum braking capacity of the host vehicle and the host vehicle, the host vehicle and the host vehicle in the stopping distance determined is less than the distance of the next state between the second target vehicle Can be stopped, a planned navigation action can be performed.

[0588] すなわち、衝突なしに又はホスト車両に責任が帰する衝突なしに、先行する可視の目標車両とホスト車両との間に次の状態の距離において停止するのに十分な距離があるとホスト車両のプロセッサが判定する場合、及び先行する可視の目標車両が任意の瞬間において突然完全に停止すると仮定し、ホスト車両のプロセッサは、計画されたナビゲーション動作を行うことができる。他方では、衝突なしにホスト車両を停止させるのに十分な空間がない場合、計画されたナビゲーション動作が行われない可能性がある。   [0588] That is, if there is sufficient distance between the preceding visible target vehicle and the host vehicle to stop at the next state distance without a collision or without a collision attributable to the host vehicle. If the vehicle's processor determines, and assuming that the preceding visible target vehicle suddenly comes to a complete stop at any moment, the host vehicle's processor can perform the planned navigation action. On the other hand, if there is not enough space to stop the host vehicle without a collision, the planned navigation action may not be performed.

[0589] 加えて、幾つかの実施形態では、次の状態の距離がベンチマークとして使用され得るが、他の事例では、計画されたナビゲーション動作を行うべきかどうかを判定するために別の距離値が使用され得る。上記で説明したものと同様に、幾つかの場合、衝突を回避するためにホスト車両を停止しなければならない可能性がある実際の距離は、予測される次の状態の距離を下回る場合がある。例えば、先行する可視の目標車両の後に1つ又は複数の他の車両(上記の例では第1の目標車両)が続く場合、実際の予測される所要停止距離は、予測される次の状態の距離から先行する可視の目標車両を追走する目標車両の長さを引いたものになる。先行する可視の目標車両が突然停止した場合、後続の目標車両が先行する可視の目標車両と衝突し、その結果、それらの車両も衝突を回避するためにホスト車両によって回避されなければならないと想定することができる。従って、ホスト車両のプロセッサは、次の状態の距離からホスト車両と先行する可視の/検出された目標車両との間に介在する任意の目標車両の合計長を引いたものを評価して、衝突なしに最大ブレーキ条件下でホスト車両を停止させるのに十分な空間があるかどうかを判定することができる。   [0589] Additionally, in some embodiments, the next state distance may be used as a benchmark, but in other cases, another distance value may be used to determine whether to perform a planned navigation action. Can be used. Similar to what was described above, in some cases the actual distance that the host vehicle may have to stop to avoid a collision may be less than the expected next state distance . For example, if the preceding visible target vehicle is followed by one or more other vehicles (the first target vehicle in the example above), the actual predicted required stop distance will be the predicted next stop condition. The distance is obtained by subtracting the length of the target vehicle following the preceding visible target vehicle from the distance. Assuming that the preceding visible target vehicle suddenly stops, the following target vehicle collides with the preceding visible target vehicle, and consequently those vehicles must also be avoided by the host vehicle to avoid the collision. can do. Accordingly, the host vehicle processor evaluates the next state distance minus the total length of any intervening target vehicles between the host vehicle and the preceding visible / detected target vehicle to provide a collision. Without maximum braking conditions, it can be determined whether there is sufficient space to stop the host vehicle.

[0590] 他の実施形態では、ホスト車両と1つ又は複数の先行する目標車両との間の衝突を評価するためのベンチマーク距離は、予測される次の状態の距離を上回る場合がある。例えば、幾つかの場合、先行する可視の/検出された目標車両が直ちにではないが迅速に停止する場合があり、それにより先行する可視の/検出された目標車両が想定される衝突後に短距離移動する。例えば、その車両が駐車中の車に衝突した場合、衝突側の車両は完全に止まるまで幾らかの距離を引き続き移動し得る。想定される衝突後の移動距離は、関連する目標車両に関する想定又は決定された最小停止距離を下回る場合がある。従って、幾つかの場合、ホスト車両のプロセッサは、計画されたナビゲーション動作を行うかどうかを評価する際に次の状態の距離を長くすることができる。例えば、この決定の際、先行する/可視の目標車両が想定される差し迫った衝突後に移動し得る妥当な距離に対処するために、次の状態の距離を5%、10%、20%等長くすることができ、又は所定の固定距離(10m、20m、50m等)で補うことができる。   [0590] In other embodiments, the benchmark distance for evaluating a collision between the host vehicle and one or more preceding target vehicles may be greater than a predicted next state distance. For example, in some cases, the leading visible / detected target vehicle may stop quickly but not immediately, such that the leading visible / detected target vehicle is short-ranged after a possible collision. Moving. For example, if the vehicle collides with a parked vehicle, the colliding vehicle may continue to travel some distance until it completely stops. The assumed post-collision travel distance may be less than the assumed or determined minimum stopping distance for the associated target vehicle. Thus, in some cases, the host vehicle's processor may increase the distance of the next state when evaluating whether to perform a planned navigation operation. For example, in making this determination, the next state distance should be increased by 5%, 10%, 20%, etc., to account for the reasonable distance that the leading / visible target vehicle can travel after a possible imminent collision. Or supplemented at a predetermined fixed distance (10 m, 20 m, 50 m, etc.).

[0591] 評価の際に次の状態の距離を想定距離値の分だけ長くすることに加えて、先行する可視の/検出された目標車両による衝突後の移動距離と、先行する可視の/検出された目標車両を追走する(先行する可視の/検出された車両が突然停止した後、その車両と多重衝突すると仮定され得る)任意の目標車両の長さとの両方を考慮して次の状態の距離を修正することができる。   [0591] In addition to increasing the distance of the next state during the evaluation by the assumed distance value, the distance traveled after the collision by the preceding visible / detected target vehicle and the preceding visible / detected The next state taking into account both the length of any target vehicle following the followed target vehicle (which may be assumed to be in multiple collisions with the preceding visible / detected vehicle after a sudden stop of that vehicle) Can modify the distance.

[0592] 計画されたナビゲーション動作を行うかどうかの判定を、ホスト車両と、先行する可視の/検出された目標車両との間の(先行する可視の/検出された目標車両の衝突後の移動及び/又は先行する可視の/検出された目標車両を追走する車両の長さを考慮することによって修正される)次の状態の距離に基づかせることに加えて、ホスト車両は、自らの判定において1つ又は複数の先行車両のブレーキ能力を考慮し続けることができる。例えば、ホスト車両のプロセッサは、計画されたナビゲーション動作が行われた場合に生じることになる、ホスト車両と第1の目標車両(例えば、先行する可視の/検出された目標車両を追走する目標車両)との間の次の状態の距離を決定することと、第1の目標車両の現在の速度を決定し、且つ第1の目標車両の少なくとも1つの認識された特性に基づいて第1の目標車両の最大ブレーキ能力を仮定することと、ホスト車両の最大ブレーキ能力及びホスト車両の現在の速度を所与として、第1の目標車両の現在の速度及び第1の目標車両の仮定された最大ブレーキ能力に基づいて決定される第1の目標車両の移動距離に、ホスト車両と第1の目標車両との間の決定された次の状態の距離を加算したもの未満である停止距離内でホスト車両が停止され得ない場合、計画されたナビゲーション動作を実施しないこととを、続けることができる。ここでも上記の例と同様に、第1の目標車両の認識された特性は、車両の種類、車両のサイズ、車両のモデル等を含み得る。   [0592] The determination as to whether to perform the planned navigation operation is made by determining whether the host vehicle and the preceding visible / detected target vehicle have moved (the preceding visible / detected target vehicle has moved after the collision). And / or modified by considering the length of the vehicle following the preceding visible / detected target vehicle). , The braking capacity of one or more preceding vehicles can be taken into account. For example, the host vehicle processor may determine that the host vehicle and a first target vehicle (eg, a target following a preceding visible / detected target vehicle) will occur when a planned navigation operation is performed. Determining a distance of a next state between the first target vehicle and the first target vehicle, and determining a current speed of the first target vehicle and based on at least one recognized characteristic of the first target vehicle. Assuming the maximum braking capability of the target vehicle, and given the maximum braking capability of the host vehicle and the current speed of the host vehicle, the current speed of the first target vehicle and the assumed maximum of the first target vehicle. The host within a stopping distance that is less than the distance traveled by the first target vehicle determined based on the braking capability plus the determined next state distance between the host vehicle and the first target vehicle. Vehicle If sealed obtained not, and not to implement the planned navigation operation can be continued. Again, as in the above example, the recognized characteristics of the first target vehicle may include the vehicle type, vehicle size, vehicle model, and the like.

[0593] 幾つかの場合、(例えば、他の車両の動作により)ホスト車両は、衝突が差し迫っており不可避であると判定する場合がある。その場合、ホスト車両のプロセッサは、結果として生じる衝突がホスト車両の責任を発生させないナビゲーション動作(存在する場合)を選択するように構成され得る。加えて又は或いは、ホスト車両のプロセッサは、現在の軌道よりも又は1つ若しくは複数の他のナビゲーション動作と比較してホスト車両に一層少ない潜在的損害を与え又は目標物に一層少ない潜在的損害を与えるナビゲーション動作を選択するように構成され得る。更に幾つかの場合、ホスト車両のプロセッサは、衝突が予期される1つ又は複数の物体の種類を検討することに基づいてナビゲーション動作を選択することができる。例えば、第1のナビゲーション動作では、駐車中の車との衝突に直面し、又は第2のナビゲーション動作では動かない物体との衝突に直面する場合、ホスト車両により少ない潜在的損害を与える動作(例えば、駐車中の車との衝突をもたらす動作)を選択することができる。第1のナビゲーション動作では、ホスト車両と同様の方向に移動する車との衝突に直面し、又は第2のナビゲーション動作では駐車中の車との衝突に直面する場合、ホスト車両により少ない潜在的損害を与える動作(例えば、移動中の車との衝突をもたらす動作)を選択することができる。第1のナビゲーション動作の結果として歩行者との衝突に直面し、又は第2のナビゲーション動作では他の任意の物体との衝突に直面する場合、歩行者との衝突に対する任意の代替策を提供する動作を選択することができる。   In some cases, the host vehicle may determine that a collision is imminent and unavoidable (eg, due to the operation of another vehicle). In that case, the processor of the host vehicle may be configured to select a navigation action, if any, for which the resulting collision does not create responsibility for the host vehicle. Additionally or alternatively, the processor of the host vehicle may cause less potential damage to the host vehicle or less potential damage to the target than the current trajectory or compared to one or more other navigation operations. It can be configured to select a navigation action to give. Further, in some cases, the processor of the host vehicle may select a navigation action based on considering the type of object or objects for which a collision is expected. For example, if a first navigation operation encounters a collision with a parked car or a second navigation operation encounters a collision with an immovable object, an operation that causes less potential damage to the host vehicle (e.g., , An action that results in a collision with a parked car). Less potential damage to the host vehicle if the first navigation operation encounters a collision with a car traveling in the same direction as the host vehicle or the second navigation operation encounters a collision with a parked car (For example, an operation that causes a collision with a moving car). Provide any alternative to collision with pedestrians when facing a collision with a pedestrian as a result of a first navigation operation or a collision with any other object in a second navigation operation Actions can be selected.

[0594] 実際には、ホスト車両をナビゲートするためのシステムは、ホスト車両の環境を表す少なくとも1つの画像(例えば、可視画像、ライダ画像、レーダ画像等)を画像捕捉装置から受信することと、ホスト車両の現在のナビゲーション状態のインジケータを少なくとも1つのセンサから受信することと、少なくとも1つの画像の分析及びホスト車両の現在のナビゲーション状態のインジケータに基づいて、ホスト車両と1つ又は複数の物体との間の衝突が不可避であると判定することとを行うようにプログラムされる少なくとも1つの処理デバイスを含み得る。プロセッサは、利用可能な代替策を評価することができる。例えば、プロセッサは、少なくとも1つの運転ポリシに基づいて第1の物体との予期される衝突を伴うホスト車両のための第1の計画されたナビゲーション動作と、第2の物体との予期される衝突を伴うホスト車両のための第2の計画されたナビゲーション動作とを決定することができる。潜在的な事故責任を決定するために、第1の計画されたナビゲーション動作及び第2の計画されたナビゲーション動作を少なくとも1つの事故責任規則に対してテストすることができる。少なくとも1つの事故責任規則に対する第1の計画されたナビゲーション動作のテストが、第1の計画されたナビゲーション動作が行われる場合にホスト車両について潜在的な事故責任があり得ることを示す場合、プロセッサは、第1の計画されたナビゲーション動作をホスト車両に実施させないことができる。少なくとも1つの事故責任規則に対する第2の計画されたナビゲーション動作のテストが、第2の計画されたナビゲーション動作が行われる場合にホスト車両について事故責任が生じないであろうことを示す場合、プロセッサは、第2の計画されたナビゲーション動作をホスト車両に実施させることができる。物体は、他の車両又は車両ではない物体(例えば、道路の瓦礫、木、ポール、標識、歩行者等)を含み得る。   [0594] In practice, a system for navigating the host vehicle, at least one image representing the host vehicle environment (e.g., a visible image, lidar images, radar images, etc.) to receive from the image capture device and Receiving an indicator of a current navigation state of the host vehicle from at least one sensor and analyzing the at least one image and an indicator of the current navigation state of the host vehicle based on the at least one sensor and the one or more objects. And determining that a collision between is inevitable is unavoidable. The processor can evaluate available alternatives. For example, the processor may include a first planned navigation action for the host vehicle with an expected collision with the first object based on the at least one driving policy, and an expected collision with the second object. And a second planned navigation action for the host vehicle with The first planned navigation action and the second planned navigation action can be tested against at least one accident liability rule to determine potential accident liability. If the test of the first planned navigation action against the at least one accident liability rule indicates that there is potential accident liability for the host vehicle when the first planned navigation action is performed, the processor , It is possible to prevent the host vehicle from performing the first planned navigation operation. If the test of the second planned navigation action for the at least one accident liability rule indicates that no accident liability will occur for the host vehicle if the second planned navigation action is performed, the processor may include: , May cause the host vehicle to perform a second planned navigation operation. The objects may include other vehicles or non-vehicle objects (eg, road debris, trees, poles, signs, pedestrians, etc.).

[0595] 以下の図面及び解説は、開示するシステム及び方法をナビゲートし実施するときに生じ得る様々なシナリオの例を与える。これらの例では、ある動作であって、その動作を行った場合に結果として生じる事故についてホスト車両に帰せられる過失が発生する、動作を行うことをホスト車両が回避し得る。   [0595] The following figures and description provide examples of various scenarios that may occur when navigating and implementing the disclosed systems and methods. In these examples, the host vehicle may avoid performing an operation that results in negligence attributed to the host vehicle for an operation that results if the operation were performed.

[0596] 図28A及び図28Bは、以下のシナリオ及び規則の例を示す。図28Aに示すように、車両2804(例えば、目標車両)を取り囲む領域は、車両2804の後ろで距離を置いてレーン内を走行している車両2802(例えば、ホスト車両)にとっての最小安全距離コリドールを表す。開示する実施形態と合致する1つの規則によれば、車両2802に過失が帰せられる事故を回避するために、車両2802は、車両2802を取り囲む領域内に留まることによって最小安全距離を保つ必要がある。対照的に、図28Bに示すように、車両2804がブレーキをかけた場合、事故が発生した場合には車両2802に帰責事由がある。   FIGS. 28A and 28B show examples of the following scenarios and rules. As shown in FIG. 28A, the area surrounding a vehicle 2804 (eg, a target vehicle) is the minimum safe distance for a vehicle 2802 (eg, a host vehicle) traveling in a lane at a distance behind vehicle 2804. Represents According to one rule consistent with the disclosed embodiments, vehicle 2802 must maintain a minimum safe distance by staying within the area surrounding vehicle 2802 to avoid an accident in which vehicle 2802 is at fault. . In contrast, as shown in FIG. 28B, when the vehicle 2804 applies a brake, and in the event of an accident, the vehicle 2802 has a cause for liability.

[0597] 図29A及び図29Bは、割り込みシナリオにおける過失の例を示す。これらのシナリオでは、車両2902の周りの安全コリドールが割り込み操作の帰責事由を決定する。図29Aに示すように、車両2902が車両2902の前に割り込んでおり、(車両2902を取り囲む領域によって示す)安全な距離を侵害しており、従って帰責事由がある。図29Bに示すように、車両2902が車両2902の前に割り込んでいるが、車両2904の前の安全な距離を保っている。   FIGS. 29A and 29B show examples of negligence in an interrupt scenario. In these scenarios, a safety corridor around the vehicle 2902 determines the culprit of the interrupt operation. As shown in FIG. 29A, the vehicle 2902 has interrupted in front of the vehicle 2902 and has violated a safe distance (indicated by the area surrounding the vehicle 2902), and is therefore attributable. As shown in FIG. 29B, the vehicle 2902 interrupts in front of the vehicle 2902, but maintains a safe distance in front of the vehicle 2904.

[0598] 図30A及び図30Bは、割り込みシナリオにおける過失の例を示す。これらのシナリオでは、車両3002に帰責事由があるかどうかを車両3004の周りの安全コリドールが決定する。図30Aでは、車両3002が車両3006の後ろを走行しており、目標車両3004が移動しているレーンに車線変更する。このシナリオでは、車両3002が安全な距離を侵害しており、従って事故が発生した場合には帰責事由がある。図30Bでは、車両3002が車両3004の後ろに割り込み、安全な距離を保つ。   FIGS. 30A and 30B show examples of negligence in an interrupt scenario. In these scenarios, the safety corridor around vehicle 3004 determines whether vehicle 3002 is attributable. In FIG. 30A, vehicle 3002 is traveling behind vehicle 3006 and changes lanes to the lane in which target vehicle 3004 is moving. In this scenario, the vehicle 3002 has violated the safe distance, and thus has an attributable cause in the event of an accident. In FIG. 30B, vehicle 3002 interrupts behind vehicle 3004 and maintains a safe distance.

[0599] 図31A〜図31Dは、ドリフトシナリオにおける過失の例を示す。図31Aにおいて、このシナリオは、車両3102の幅広コリドールに割り込む車両3104による僅かな横方向の操作で始まる。図31Bでは、車両3104が車両3102の正規コリドールに割り込み続けており、安全距離領域を侵害している。事故が発生した場合、車両3104に過失がある。図31Cでは、車両3104は、その初期位置を保つ一方、車両3102が横方向に移動して正規安全距離地帯の侵害を「強いて」いる。事故が発生した場合、車両3102に過失がある。図31Bでは、車両3102及び車両3104が互いに向かって横方向に移動する。事故が発生した場合、両方の車両によって過失が分担される。   FIG. 31A to FIG. 31D show examples of negligence in a drift scenario. In FIG. 31A, this scenario begins with a slight lateral maneuver by vehicle 3104 interrupting the wide corridor of vehicle 3102. In FIG. 31B, vehicle 3104 continues to interrupt the normal corridor of vehicle 3102, violating the safe distance area. If an accident occurs, the vehicle 3104 is negligent. In FIG. 31C, vehicle 3104 has maintained its initial position while vehicle 3102 has moved laterally to "force" a violation of the normal safety distance zone. When an accident occurs, the vehicle 3102 has a fault. In FIG. 31B, vehicle 3102 and vehicle 3104 move laterally toward each other. In the event of an accident, the fault is shared by both vehicles.

[0600] 図32A及び図32Bは、双方向交通シナリオにおける過失の例を示す。図32Aでは、車両3202が車両3206を追い越し、車両3202は、車両3204からの安全な距離を保つ割り込み操作を行っている。事故が発生した場合、妥当な力でブレーキをかけなかったことについて車両3204に過失がある。図32Bでは、車両3202が車両3204からの安全な縦方向距離を保つことなしに割り込んでいる。事故が発生した場合、車両3202に過失がある。   [0600] FIGS. 32A and 32B show examples of negligence in a two-way traffic scenario. In FIG. 32A, the vehicle 3202 overtakes the vehicle 3206, and the vehicle 3202 performs an interruption operation for keeping a safe distance from the vehicle 3204. In the event of an accident, vehicle 3204 is negligible in not braking with reasonable force. In FIG. 32B, vehicle 3202 has interrupted without maintaining a safe vertical distance from vehicle 3204. If an accident occurs, the vehicle 3202 is negligent.

[0601] 図33A及び図33Bは、双方向交通シナリオにおける過失の例を示す。図33Aでは、車両3302が対向車両3204の経路内にドリフトし、安全な距離を保っている。事故が発生した場合、妥当な力でブレーキをかけなかったことについて車両3204に過失がある。図33Bでは、車両3202が対向車両3204の経路内にドリフトし、安全な縦方向距離を侵害している。事故が発生した場合、車両3204に過失がある。   [0601] FIGS. 33A and 33B show examples of negligence in a two-way traffic scenario. In FIG. 33A, vehicle 3302 has drifted into the path of oncoming vehicle 3204, maintaining a safe distance. In the event of an accident, vehicle 3204 is negligible in not braking with reasonable force. In FIG. 33B, vehicle 3202 has drifted into the path of oncoming vehicle 3204, violating a safe longitudinal distance. If an accident occurs, there is a fault in the vehicle 3204.

[0602] 図34A及び図34Bは、ルート優先権シナリオにおける過失の例を示す。図34Aでは、車両3202が一時停止の標識を無視している。信号機によって車両3204に与えられた優先権を尊重していないことについて、過失は、車両3202に帰する。図34Bでは、車両3202に優先権はないが車両3204の信号が青に変わったとき既に交差点に入っていた。車両3204が車両3202に衝突した場合、車両3204に過失がある。   [0602] FIGS. 34A and 34B show examples of negligence in a root priority scenario. In FIG. 34A, vehicle 3202 ignores the temporary stop sign. Negligence is attributed to the vehicle 3202 for not respecting the priority given to the vehicle 3204 by the traffic light. In FIG. 34B, the vehicle 3202 has no priority but has already entered the intersection when the traffic light of the vehicle 3204 turns green. When the vehicle 3204 collides with the vehicle 3202, the vehicle 3204 has negligence.

[0603] 図35A及び図35Bは、ルート優先権シナリオにおける過失の例を示す。図35Aでは、接近している車両3504の経路内に車両3502がバックしている。車両3502は、安全な距離を保つ割り込み操作を行っている。事故が発生した場合、妥当な力でブレーキをかけなかったことについて車両3504に過失がある。図35Bでは、安全な縦方向距離を保つことなしに車両3502の車が割り込んでいる。事故が発生した場合、車両3502に過失がある。   [0603] FIGS. 35A and 35B show examples of negligence in a route priority scenario. In FIG. 35A, the vehicle 3502 is backing in the path of the approaching vehicle 3504. The vehicle 3502 is performing an interruption operation for maintaining a safe distance. In the event of an accident, vehicle 3504 is negligible in not braking with reasonable force. In FIG. 35B, the vehicle 3502 is interrupting without maintaining a safe vertical distance. If an accident occurs, the vehicle 3502 is negligent.

[0604] 図36A及び図36Bは、ルート優先権シナリオにおける過失の例を示す。図36Aでは、車両3602及び車両3604が同じ方向に走行している一方、車両3602が車両3604の経路を横切って左折している。車両3602は安全な距離を保つ割り込み操作を行っている。事故が発生した場合、妥当な力でブレーキをかけなかったことについて車両3604に過失がある。図36Bでは、安全な縦方向距離を保つことなしに車両3602が割り込んでいる。事故が発生した場合、車両3602に過失がある。   [0604] FIGS. 36A and 36B show examples of negligence in a root priority scenario. In FIG. 36A, vehicle 3602 and vehicle 3604 are traveling in the same direction, while vehicle 3602 is turning left across the path of vehicle 3604. The vehicle 3602 is performing an interruption operation for maintaining a safe distance. In the event of an accident, vehicle 3604 is negligible in not braking with reasonable force. In FIG. 36B, vehicle 3602 is interrupting without maintaining a safe vertical distance. When an accident occurs, the vehicle 3602 is negligent.

[0605] 図37A及び図37Bは、ルート優先権シナリオにおける過失の例を示す。図37Aでは、車両3702が左折したいが、対向車両3704に道を譲らなければならない。車両3702は、左折して車両3704に対する安全な距離を侵害している。車両3702に過失がある。図37Bでは、車両3702が左折して車両3704に対する安全な距離を保っている。事故が発生した場合、妥当な力でブレーキをかけなかったことについて車両3704に過失がある。   FIG. 37A and FIG. 37B show examples of negligence in a route priority scenario. In FIG. 37A, vehicle 3702 wants to turn left, but must yield to oncoming vehicle 3704. Vehicle 3702 turns left and violates a safe distance to vehicle 3704. The vehicle 3702 has a fault. In FIG. 37B, vehicle 3702 turns left to maintain a safe distance to vehicle 3704. In the event of an accident, vehicle 3704 is negligible in not braking with reasonable force.

[0606] 図38A及び図38Bは、ルート優先権シナリオにおける過失の例を示す。図38Aでは、車両3802及び車両3804が直進しており、車両3802には一時停止の標識がある。車両3802が交差点に入り、車両3804に対する安全な距離を侵害している。車両3802に過失がある。図38Bでは、車両3802が車両3804に対する安全な距離を保ちながら交差点に入っている。事故が発生した場合、妥当な力でブレーキをかけなかったことについて車両3804に過失がある。   FIG. 38A and FIG. 38B show examples of negligence in a route priority scenario. In FIG. 38A, the vehicle 3802 and the vehicle 3804 are traveling straight, and the vehicle 3802 has a sign of a stop. Vehicle 3802 enters an intersection and violates a safe distance to vehicle 3804. The vehicle 3802 has a fault. In FIG. 38B, vehicle 3802 is entering an intersection while maintaining a safe distance from vehicle 3804. In the event of an accident, vehicle 3804 is negligible in not braking with reasonable force.

[0607] 図39A及び図39Bは、ルート優先権シナリオにおける過失の例を示す。図39Aでは、車両3902が左折したいが右側から来る車両3904に道を譲らなければならない。車両3902は、交差点に入り優先通行権及び車両3904に対する安全な距離を侵害している。車両3902に過失がある。図39Bでは、車両3902が優先通行権及び車両3904に対する安全な距離を保ちながら交差点に入っている。事故が発生した場合、妥当な力でブレーキをかけなかったことについて車両3904に過失がある。   FIG. 39A and FIG. 39B show examples of negligence in a route priority scenario. In FIG. 39A, vehicle 3902 wants to turn left, but must yield to vehicle 3904 coming from the right. Vehicle 3902 enters an intersection and violates the priority right of travel and the safe distance to vehicle 3904. The vehicle 3902 has a fault. In FIG. 39B, the vehicle 3902 is entering the intersection while maintaining a priority right to travel and a safe distance to the vehicle 3904. In the event of an accident, vehicle 3904 is negligent of not braking with reasonable force.

[0608] 図40A及び図40Bは、信号機シナリオにおける過失の例を示す。図40Aでは、車両4002が赤信号を無視している。信号機によって車両4004に与えられた優先権を尊重していないことについて、過失は、車両4002に帰する。図40Bでは、車両4002に優先権はないが、車両4004の信号が青に変わったときに車両4002が既に交差点に入っていた。車両4004が車両4002に衝突した場合、車両4004に過失がある。   [0608] FIGS. 40A and 40B show examples of negligence in a traffic light scenario. In FIG. 40A, vehicle 4002 ignores the red light. Negligence is attributed to the vehicle 4002 for not respecting the priority given to the vehicle 4004 by the traffic light. In FIG. 40B, vehicle 4002 has no priority, but vehicle 4002 was already at the intersection when the traffic light for vehicle 4004 turned green. When the vehicle 4004 collides with the vehicle 4002, the vehicle 4004 has negligence.

[0609] 図41A及び図41Bは、信号機シナリオにおける過失の例を示す。車両4102が対向車両4104の経路を横切って左折している。優先権は、車両4104にある。図41では、車両4102が左折し、車両4104に対する安全な距離を侵害している。過失は、車両4102に帰せられる。図41Bでは、車両4102が左折して車両4104に対する安全な距離を保っている。事故が発生した場合、妥当な力でブレーキをかけなかったことについて車両4104に過失がある。   [0609] FIGS. 41A and 41B show examples of negligence in a traffic light scenario. Vehicle 4102 is left across the path of the oncoming vehicle 4104. Priority is on the vehicle 4104. In FIG. 41, the vehicle 4102 turns left, violating the safe distance to the vehicle 4104. Negligence is attributed to the vehicle 4102. In FIG. 41B, vehicle 4102 turns left to maintain a safe distance to vehicle 4104. In the event of an accident, vehicle 4104 is negligible in not braking with reasonable force.

[0610] 図42A及び図42Bは、信号機シナリオにおける過失の例を示す。図42Aでは、車両4202が右折し、直進している車両4204の経路に割り込んでいる。赤信号時の右折は、適法な操作であると想定されるが、車両4204に対する安全な距離を車両4202が侵害しているため、車両4204に優先通行権がある。過失は、車両4202に帰せられる。図42Bでは、車両4202が右折して車両4204に対する安全な距離を保っている。事故が発生した場合、妥当な力でブレーキをかけなかったことについて車両4204に過失がある。   [0610] FIGS. 42A and 42B show an example of a fault in the traffic scenario. In FIG. 42A, the vehicle 4202 turns right and interrupts the route of the vehicle 4204 traveling straight. A right turn at a red light is considered to be a legal operation, but the vehicle 4202 has a right of priority because the vehicle 4202 violates a safe distance to the vehicle 4204. The fault is attributable to the vehicle 4202. In FIG. 42B, vehicle 4202 turns right to maintain a safe distance to vehicle 4204. In the event of an accident, vehicle 4204 is negligible in not braking with reasonable force.

[0611] 図43A〜図43Cは、交通弱者(VRU)シナリオの例を示す。車両が操作を行う場合の動物又はVRUとの事故は、割り込みの異形として処理し、幾つかの例外はあるが、デフォルトの過失は、車にある。図43Aでは、車両4302が安全な距離を保ち事故を回避できることを保証しながら動物(又はVRU)の経路内に割り込んでいる。図43Bでは、車両4302が動物(又はVRU)の経路内に割り込んでおり、安全な距離を侵害している。過失は、車両4302に帰せられる。図43Cでは、車両4302が動物を認識して停止し、止まるのに十分な時間を動物に与えている。動物が車に衝突した場合、動物に過失がある。   [0611] FIGS. 43A to 43C show examples of traffic vulnerable (VRU) scenarios. Accidents with animals or VRUs when the vehicle performs operations are treated as a variant of the interruption, and with some exceptions, the default fault is in the vehicle. In FIG. 43A, the vehicle 4302 has been interrupted into the animal (or VRU) path while ensuring that the vehicle 4302 can maintain a safe distance and avoid an accident. In FIG. 43B, vehicle 4302 has interrupted the path of the animal (or VRU), violating the safe distance. The fault is attributable to the vehicle 4302. In FIG. 43C, vehicle 4302 recognizes the animal and stops, giving the animal enough time to stop. If an animal collides with a car, the animal is at fault.

[0612] 図44A〜図44Cは、交通弱者(VRU)シナリオの例を示す。図44Aでは、信号機がある交差点で車両4402が左折し、横断歩道内の歩行者と遭遇する。車両4402は、赤信号であり、VRUは、青信号である。車両4402に帰責事由がある。図44Bでは、車両4402が青信号であり、VRUが赤信号である。VRUが横断歩道に入った場合、VRUに帰責事由がある。図44Cでは、車両4402が青信号であり、VRUが赤信号である。VRUが横断歩道内に既にいた場合、車両4402に帰責事由がある。   [0612] FIGS. 44A to 44C show examples of traffic vulnerable (VRU) scenarios. In FIG. 44A, a vehicle 4402 turns left at an intersection with a traffic light and encounters a pedestrian in a crosswalk. Vehicle 4402 is a red light and VRU is a green light. The vehicle 4402 has a cause for retribution. In FIG. 44B, vehicle 4402 is a green light and VRU is a red light. If the VRU enters the pedestrian crossing, the VRU has attributable reasons. In FIG. 44C, vehicle 4402 is a green light and VRU is a red light. If the VRU was already within the pedestrian crossing, the vehicle 4402 has a blame.

[0613] 図45A〜図45Cは、交通弱者(VRU)シナリオの例を示す。図45Aでは、車両4402が右折し、自転車と遭遇する。自転車は、青信号である。車両4502に帰責事由がある。図45Bでは、自転車が赤信号である。自転車が交差点に入った場合、自転車に帰責事由がある。図45Cでは、自転車が赤信号であるが、交差点に既に入っている。車両4502に帰責事由がある。   [0613] FIGS. 45A to 45C show examples of traffic vulnerable (VRU) scenarios. In FIG. 45A, vehicle 4402 turns right and encounters a bicycle. Bicycles are green light. The vehicle 4502 has a cause for retribution. In FIG. 45B, the bicycle is a red light. If a bicycle enters an intersection, there is a reason for blaming the bicycle. In FIG. 45C, the bicycle is at a red light, but has already entered the intersection. The vehicle 4502 has a cause for retribution.

[0614] 図46A〜図46Dは、交通弱者(VRU)シナリオの例を示す。車両が遂行操作を行わない場合のVRUとの事故の過失は、幾つかの例外はあるが、デフォルトで車にある。図46Aでは、車両4602が安全な距離を保つことを常に確認し、VRUとの事故を回避できることを保証しなければならない。図46Bでは、車両4602が安全な距離を保たない場合、車両4602に過失がある。図46Cでは、車両4602が、場合により車両5604によって隠れるVRUとの衝突を回避するのに十分遅い速度を保たない場合、又は法定速度を上回って走行する場合、車両4602に過失がある。図46Dでは、VRUが場合により車両4604によって隠れる別のシナリオにおいて、車両4602が十分遅い速度を保つがVRUの速度が妥当な閾値を上回る場合、VRUに過失がある。   [0614] FIGS. 46A to 46D show examples of traffic vulnerable (VRU) scenarios. The negligence of an accident with a VRU when the vehicle does not perform a maneuver is in the vehicle by default, with a few exceptions. In FIG. 46A, it must always be ensured that the vehicle 4602 maintains a safe distance to ensure that an accident with the VRU can be avoided. In Figure 46B, when the vehicle 4602 is not kept a safe distance, there is a fault in the vehicle 4602. In FIG. 46C, the vehicle 4602 is negligible if the vehicle 4602 does not maintain a speed that is slow enough to avoid a collision with a VRU that may be hidden by the vehicle 5604, or travels above a legal speed. In FIG. 46D, in another scenario where the VRU is optionally hidden by the vehicle 4604, if the vehicle 4602 maintains a sufficiently low speed but the speed of the VRU is above a reasonable threshold, the VRU is negligent.

[0615] 本明細書で開示したように、RSSは、マルチエージェントシナリオのためのフレームワークを定める。静的物体との事故、道路からの離脱、制御不能、又は車両故障の過失は、ホスト側にある。RSSは、ホストの経路内に他の物体が危険を伴って入ってこない限り(その場合、過失は、その物体にある)他の物体との事故が起きないようにする慎重な操作を定める。目標物に過失がある確実な衝突の場合、ホストは、自らのブレーキをかける。システムは、回避操舵をその操作が「慎重」である(別の事故を引き起こさないことが認められる)場合にのみ検討し得る。   [0615] As disclosed herein, RSS defines a framework for multi-agent scenarios. Accidents with static objects, departure from the road, loss of control, or negligence of vehicle failure are on the host side. RSS specifies a careful operation that will not cause an accident with another object unless another object enters the path of the host with danger (in which case the fault is on that object). In the event of a definite crash where the target is negligent, the host applies his brakes. The system, the work around the steering can be considered only if it is "cautious" (that does not cause another accident is observed).

[0616] 非衝突インシデントは、車両火災、道路のくぼみ、落下物等によって引き起こされる事故を含む。これらの事例では、安全な距離で「静的物体」が見えるようになるか又は慎重な回避操作が存在すると仮定する、「静的物体」シナリオとして分類され得る道路のくぼみ及び落下物等のホストが回避可能なシナリオを除き、過失は、デフォルトでホストにあり得る。ホスト車両が静止しているマルチエージェントシナリオではホストに過失はない。この場合、本質的に目標物が危険な割り込みを行っている。例えば、静止している車に自転車がぶつかった場合、ホストに過失はない。   [0616] Non-collision incidents include accidents caused by vehicle fires, road pits, falling objects, and the like. In these cases, hosts such as road dips and falling objects that can be classified as a "static object" scenario, assuming that a "static object" becomes visible at a safe distance or that there is a careful avoidance maneuver. Except in scenarios where can be avoided, the fault can be on the host by default. In a multi-agent scenario where the host vehicle is stationary, there is no fault to the host. In this case, the target is essentially performing a dangerous interruption. For example, if a bicycle hits a stationary car, there is no fault to the host.

[0617] RSSは、レーンマークのない駐車場又は広い環状交差路等、道路が明確に構造化されていない場合に過失を割り当てるためのガイドラインも含む。これらの非構造化道路シナリオでは、各車両の自らの経路からの逸脱を調べて、領域内の他の物体が調節を行うことを可能にするのに十分な距離を各車両が与えたかどうかを判定することによって過失が割り当てられる。   [0617] RSS also includes guidelines for assigning fault when roads are not clearly structured, such as parking lots without lane markings or large roundabouts. In these unstructured road scenarios, each vehicle's departure from its own path is examined to determine if each vehicle has provided enough distance to allow other objects in the area to make adjustments. Judgment assigns negligence.

[0618] 上記説明は、例示を目的として提示されている。上記説明は網羅的ではなく、開示される厳密な形態又は実施形態に限定されない。変更形態及び適合形態は、本明細書を考慮し、開示される実施形態を実施することから当業者に明らかになるであろう。更に、開示される実施形態の態様は、メモリに記憶されるものとして記載されるが、これらの態様が、補助記憶装置等の他のタイプのコンピュータ可読媒体、例えばハードディスク若しくはCD ROM又は他の形態のRAM若しくはROM、USBメディア、DVD、Blu-ray(登録商標)、4K超HD Blu-ray、又は他の光学駆動媒体に記憶することも可能なことを当業者は理解するであろう。   [0618] The descriptions above have been presented for purposes of illustration. The above description is not exhaustive and is not limited to the precise forms or embodiments disclosed. Modifications and adaptations will become apparent to those skilled in the art from consideration of the specification and practice of the disclosed embodiments. Furthermore, although aspects of the disclosed embodiments are described as being stored in memory, these aspects may be implemented on other types of computer readable media, such as auxiliary storage devices, such as hard disks or CD ROMs or other forms. Those skilled in the art will understand that the storage may be on a RAM or ROM, USB media, DVD, Blu-ray®, 4K Ultra HD Blu-ray, or other optical drive media.

[0619] 記載の説明及び開示される方法に基づくコンピュータプログラムは、経験のある開発者の技能内にある。様々なプログラム又はプログラムモジュールは、当業者に既知の任意の技法を使用して作成することができるか、又は既存のソフトウェアに関連して設計することができる。例えば、プログラムセクション又はプログラムモジュールは、.Net Framework、.Net Compact Framework(及びVisual Basic、C等の関連する言語)、Java(登録商標)、C++、Objective-C、HTML、HTML/AJAX組み合わせ、XML、又はJavaアプレットを包含したHTMLにおいて又はそれにより設計することができる。   [0619] Computer programs based on the written description and the disclosed method are within the skills of an experienced developer. The various programs or program modules can be created using any technique known to those skilled in the art, or can be designed in conjunction with existing software. For example, the program section or program module may be a .Net Framework, .Net Compact Framework (and related languages such as Visual Basic, C), Java (registered trademark), C ++, Objective-C, HTML, HTML / AJAX combination, XML , Or in HTML that includes Java applets.

[0620] 更に、例示的な実施形態を本明細書において説明したが、あらゆる実施形態の範囲は、本開示に基づいて当業者により理解されるような均等な要素、変更形態、省略形態、組合せ(例えば、様々な実施形態にわたる態様の)、適合形態、及び/又は代替形態を有する。特許請求の範囲での限定は、特許請求の範囲に利用される言語に基づいて広く解釈されるべきであり、本明細書に記載される例又は本願の実行中の例に限定されない。例は、非排他的として解釈されるべきである。更に、開示される方法のステップは、ステップの順序替え及び/又はステップの挿入又は削除を含め、任意の方法で変更し得る。従って、本明細書及び例が単なる例示として見なされることが意図され、真の範囲及び趣旨は、以下の特許請求の範囲及びその全範囲の均等物により示される。   [0620] Further, while example embodiments have been described herein, the scope of any embodiment should be understood as equivalent elements, modifications, abbreviations, combinations, etc. (E.g., aspects across various embodiments), adaptations, and / or alternatives. The limitations in the claims are to be interpreted broadly based on the language utilized in the claims and are not limited to the examples described herein or the working examples of the present application. Examples should be interpreted as non-exclusive. In addition, the steps of the disclosed method may be modified in any manner, including reordering steps and / or inserting or deleting steps. It is therefore intended that the specification and examples be considered as exemplary only, with a true scope and spirit being indicated by the following claims and their full range of equivalents.

Claims (43)

ホスト車両のためのナビゲーションシステムであって、
前記ホスト車両の環境を表す少なくとも1つの画像を画像捕捉装置から受信することと、
前記ホスト車両のナビゲーション目標を達成するための計画されたナビゲーション動作を少なくとも1つの運転ポリシに基づいて決定することと、
前記少なくとも1つの画像を分析して前記ホスト車両の前記環境内の目標車両を識別することと、
前記識別された目標車両に対する前記ホスト車両の潜在的な事故責任を決定するために、前記計画されたナビゲーション動作を少なくとも1つの事故責任規則に対してテストすることと、
前記少なくとも1つの事故責任規則に対する前記計画されたナビゲーション動作の前記テストが、前記計画されたナビゲーション動作が行われる場合に前記ホスト車両について潜在的な事故責任があることを示す場合、前記計画されたナビゲーション動作を前記ホスト車両に実施させないことと、
前記少なくとも1つの事故責任規則に対する前記計画されたナビゲーション動作の前記テストが、前記計画されたナビゲーション動作が行われる場合に前記ホスト車両について事故責任が生じないであろうことを示す場合、前記計画されたナビゲーション動作を前記ホスト車両に実施させることと
を行うようにプログラムされる少なくとも1つの処理デバイス
を含むナビゲーションシステム。
A navigation system for a host vehicle,
Receiving at least one image representative of the environment of the host vehicle from an image capture device;
Determining a planned navigation action for achieving a navigation goal of the host vehicle based on at least one driving policy;
Analyzing the at least one image to identify a target vehicle in the environment of the host vehicle;
Testing the planned navigation behavior against at least one accident liability rule to determine a potential accident liability of the host vehicle with respect to the identified target vehicle;
If the test of the planned navigation action against the at least one accident liability rule indicates that there is potential accident liability for the host vehicle when the planned navigation action is performed, Not allowing the host vehicle to perform a navigation operation;
If the test of the planned navigation action against the at least one accident liability rule indicates that no accident liability will occur for the host vehicle if the planned navigation action is performed. A navigation system including at least one processing device programmed to cause the host vehicle to perform the navigation operation.
前記少なくとも1つの処理デバイスは、前記計画されたナビゲーション動作の実施から生じる次のナビゲーション状態においてデフォルトの緊急手続きが前記ホスト車両にとって利用可能でない限り、前記計画されたナビゲーション動作を実施しないように更にプログラムされる、請求項1に記載のナビゲーションシステム。   The at least one processing device is further programmed to not perform the planned navigation operation unless a default emergency procedure is available to the host vehicle in a next navigation state resulting from performing the planned navigation operation. It is the navigation system of claim 1. 前記計画されたナビゲーション動作は、少なくとも1つのデフォルトの緊急手続きを含む、請求項1に記載のナビゲーションシステム。   The navigation system according to claim 1, wherein the planned navigation operation includes at least one default emergency procedure. 前記少なくとも1つの処理デバイスは、
前記ホスト車両の環境を表す前記少なくとも1つの画像の分析に基づいて前記ホスト車両の前記環境内の複数の他の目標車両を識別し、且つ前記複数の他の目標車両のそれぞれに対する前記ホスト車両の潜在的な事故責任を決定するために、少なくとも1つの事故責任規則に対する前記計画されたナビゲーション動作の前記テストを繰り返すことと、
前記少なくとも1つの事故責任規則に対する前記計画されたナビゲーション動作の前記繰り返されたテストが、前記計画されたナビゲーション動作が行われる場合に前記ホスト車両について潜在的な事故責任があることを示す場合、前記計画されたナビゲーション動作を前記ホスト車両に実施させないことと、
前記少なくとも1つの事故責任規則に対する前記計画されたナビゲーション動作の前記繰り返されたテストが、前記計画されたナビゲーション動作が行われる場合に前記ホスト車両について事故責任が生じないであろうことを示す場合、前記計画されたナビゲーション動作を前記ホスト車両に実施させることと
を行うように更にプログラムされる、請求項1に記載のナビゲーションシステム。
The at least one processing device comprises:
Identifying a plurality of other target vehicles in the environment of the host vehicle based on an analysis of the at least one image representing the environment of the host vehicle, and identifying the host vehicle for each of the plurality of other target vehicles. Repeating the test of the planned navigation action for at least one accident liability rule to determine potential accident liability;
If said repeated test of said planned navigation action against said at least one accident liability rule indicates that there is potential accident liability for said host vehicle when said planned navigation action is performed; Not allowing the host vehicle to perform the planned navigation operation;
If the repeated test of the planned navigation action against the at least one accident liability rule indicates that no accident liability will occur for the host vehicle if the planned navigation action is performed; The navigation system of claim 1, further programmed to cause the host vehicle to perform the planned navigation operation.
前記少なくとも1つの事故責任規則は、前記識別された目標車両の後方の距離であって、その範囲内に前記ホスト車両が事故責任の可能性なしに進むことができない距離を定める追走規則を含む、請求項1に記載のナビゲーションシステム。   The at least one accident liability rule includes a following rule that defines a distance behind the identified target vehicle within which the host vehicle cannot travel without the possibility of accident liability. The navigation system according to claim 1. 前記少なくとも1つの事故責任規則は、前記識別された目標車両の前方の距離であって、その範囲内に前記ホスト車両が事故責任の可能性なしに進むことができない距離を定める先行規則を含む、請求項1に記載のナビゲーションシステム。   The at least one accident liability rule includes a precedence rule that defines a distance ahead of the identified target vehicle within which the host vehicle cannot travel without the possibility of accident liability; The navigation system according to claim 1. 前記運転ポリシは、前記少なくとも1つの事故責任規則に基づいてトレーニングされるトレーニング済みシステムによって実装される、請求項1に記載のナビゲーションシステム。   The navigation system according to claim 1, wherein the driving policy is implemented by a trained system trained based on the at least one accident liability rule. 前記トレーニング済みシステムは、ニューラルネットワークを含む、請求項7に記載のナビゲーションシステム。   The navigation system according to claim 7, wherein the trained system comprises a neural network. ホスト車両のためのナビゲーションシステムであって、
前記ホスト車両の環境を表す少なくとも1つの画像を画像捕捉装置から受信することと、
前記ホスト車両のための複数の潜在的なナビゲーション動作を少なくとも1つの運転ポリシに基づいて決定することと、
前記少なくとも1つの画像を分析して前記ホスト車両の前記環境内の目標車両を識別することと、
前記識別された目標車両に対する前記ホスト車両の潜在的な事故責任を決定するために、前記複数の潜在的なナビゲーション動作を少なくとも1つの事故責任規則に対してテストすることと、
前記潜在的なナビゲーション動作の1つを選択することであって、前記潜在的なナビゲーション動作の前記1つについて、前記テストは、前記選択された潜在的なナビゲーション動作が行われる場合に前記ホスト車両について事故責任が生じないであろうことを示す、選択することと、
前記選択された潜在的なナビゲーション動作を前記ホスト車両に実施させることと
を行うようにプログラムされる少なくとも1つの処理デバイス
を含むナビゲーションシステム。
A navigation system for a host vehicle,
Receiving at least one image representative of the environment of the host vehicle from an image capture device;
Determining a plurality of potential navigation actions for the host vehicle based on at least one driving policy;
Analyzing the at least one image to identify a target vehicle in the environment of the host vehicle;
Testing the plurality of potential navigation actions against at least one accident liability rule to determine a potential accident liability of the host vehicle with respect to the identified target vehicle;
Selecting one of the potential navigation actions, wherein for the one of the potential navigation actions, the test is performed when the selected potential navigation action is performed. Selecting, indicating that no liability will arise for
A navigation system including at least one processing device programmed to cause the host vehicle to perform the selected potential navigation operation.
前記選択された潜在的なナビゲーション動作は、前記複数の潜在的なナビゲーション動作のサブセットから選択され、前記複数の潜在的なナビゲーション動作の前記サブセットについて、前記テストは、前記複数の潜在的なナビゲーション動作の前記サブセットのいずれかが行われた場合に前記ホスト車両について事故責任が生じないであろうことを示す、請求項9に記載のナビゲーションシステム。   The selected potential navigation action is selected from a subset of the plurality of potential navigation actions, and for the subset of the plurality of potential navigation actions, the test comprises: 10. The navigation system of claim 9, indicating that no accident liability will occur for the host vehicle if any of the subsets are performed. 前記選択された潜在的なナビゲーション動作は、スコアリングパラメータに従って選択される、請求項10に記載のナビゲーションシステム。   The navigation system according to claim 10, wherein the selected potential navigation action is selected according to a scoring parameter. ホスト車両をナビゲートするためのシステムであって、
前記ホスト車両の環境を表す少なくとも1つの画像を画像捕捉装置から受信することと、
前記ホスト車両のナビゲーション目標を達成するための2つ以上の計画されたナビゲーション動作を少なくとも1つの運転ポリシに基づいて決定することと、
前記少なくとも1つの画像を分析して前記ホスト車両の前記環境内の目標車両を識別することと、
潜在的な事故責任を決定するために、前記2つ以上の計画されたナビゲーション動作のそれぞれを少なくとも1つの事故責任規則に対してテストすることと、
前記2つ以上の計画されたナビゲーション動作のそれぞれについて、前記テストが、前記2つ以上の計画されたナビゲーション動作の特定の1つが行われる場合に前記ホスト車両について潜在的な事故責任があることを示す場合、前記計画されたナビゲーション動作の前記特定の1つを前記ホスト車両に実施させないことと、
前記2つ以上の計画されたナビゲーション動作のそれぞれについて、前記テストが、前記2つ以上の計画されたナビゲーション動作の特定の1つが行われる場合に前記ホスト車両について事故責任が生じないであろうことを示す場合、前記2つ以上の計画されたナビゲーション動作の前記特定の1つを、実施のための存立可能な候補として識別することと、
少なくとも1つのコスト関数に基づき、実施のための前記存立可能な候補の中から行われるナビゲーション動作を選択することと、
前記選択されたナビゲーション動作を前記ホスト車両に実施させることと
を行うようにプログラムされる少なくとも1つの処理デバイス
を含むシステム。
A system for navigating a host vehicle,
Receiving at least one image representative of the environment of the host vehicle from an image capture device;
Determining two or more planned navigation actions to achieve a navigation goal of the host vehicle based on at least one driving policy;
Analyzing the at least one image to identify a target vehicle in the environment of the host vehicle;
Testing each of the two or more planned navigation actions against at least one accident liability rule to determine potential accident liability;
For each of the two or more planned navigation actions, the test determines that there is a potential accident liability for the host vehicle if a particular one of the two or more planned navigation actions is performed. If indicating, not allowing said host vehicle to perform said particular one of said planned navigation actions;
For each of the two or more planned navigation actions, the test will determine that if one particular of the two or more planned navigation actions is performed, no accident liability will result for the host vehicle. Identifying the particular one of the two or more planned navigation actions as a viable candidate for implementation;
Selecting a navigation action to be performed among the viable candidates for implementation based on at least one cost function;
A system comprising at least one processing device programmed to cause the host vehicle to perform the selected navigation operation.
ホスト車両のための事故責任追跡システムであって、
前記ホスト車両の環境を表す少なくとも1つの画像を画像捕捉装置から受信することと、
前記少なくとも1つの画像を分析して前記ホスト車両の前記環境内の目標車両を識別することと、
前記少なくとも1つの画像の分析に基づき、前記識別された目標車両のナビゲーション状態の1つ又は複数の特性を決定することと、
前記識別された目標車両の前記ナビゲーション状態の前記決定された1つ又は複数の特性を少なくとも1つの事故責任規則と比較することと、
前記識別された目標車両の前記ナビゲーション状態の前記決定された1つ又は複数の特性の前記少なくとも1つの事故責任規則との前記比較に基づき、前記識別された目標車両側の潜在的な事故責任を示す少なくとも1つの値を記憶することと、
前記ホスト車両と少なくとも1つの目標車両との間の事故後、前記事故の責任を決定するために、前記記憶された少なくとも1つの値を出力することと
を行うようにプログラムされる少なくとも1つの処理デバイス
を含む事故責任追跡システム。
An accident liability tracking system for the host vehicle,
Receiving at least one image representative of the environment of the host vehicle from an image capture device;
Analyzing the at least one image to identify a target vehicle in the environment of the host vehicle;
Determining one or more characteristics of a navigation state of the identified target vehicle based on an analysis of the at least one image;
Comparing the determined one or more characteristics of the navigation state of the identified target vehicle to at least one accident liability rule;
Determining, based on the comparison of the determined one or more characteristics of the navigation state of the identified target vehicle with the at least one accident liability rule, a potential accident liability on the identified target vehicle side. Storing at least one value to indicate;
At least one process programmed to output the stored at least one value to determine a liability for the accident after an accident between the host vehicle and at least one target vehicle. Accident liability tracking system including devices.
前記少なくとも1つの処理デバイスは、前記ホスト車両が前記識別された目標車両との衝突を回避できない場合、前記識別された目標車両に関する衝突責任値を割り当て且つ記憶するように更にプログラムされる、請求項13に記載の追跡システム。   The at least one processing device is further programmed to assign and store a collision liability value for the identified target vehicle if the host vehicle cannot avoid a collision with the identified target vehicle. 14. The tracking system according to claim 13. 前記ホスト車両と前記識別された目標車両との間の事故後に衝突責任値にアクセスし、且つそれをダウンロードするためのインタフェースを更に含む、請求項13に記載の追跡システム。   14. The tracking system of claim 13, further comprising an interface for accessing and downloading crash liability values after an accident between the host vehicle and the identified target vehicle. 前記少なくとも1つの処理デバイスは、前記ホスト車両の前記環境内の複数の目標車両を検出することと、前記複数の目標車両のそれぞれのナビゲーション状態特性を決定することと、前記目標車両のそれぞれに関する前記それぞれのナビゲーション状態特性の前記少なくとも1つの事故責任規則との比較に基づき、前記複数の目標車両のそれぞれの1つの側の潜在的な事故責任を示す値を決定及び記憶することとを行うように更にプログラムされる、請求項13に記載の追跡システム。   The at least one processing device is for detecting a plurality of target vehicles in the environment of the host vehicle; determining a navigation state characteristic of each of the plurality of target vehicles; Determining and storing a value indicative of a potential accident liability on one side of each of the plurality of target vehicles based on a comparison of a respective navigation state characteristic with the at least one accident liability rule. 14. The tracking system according to claim 13, further programmed. 前記少なくとも1つの事故責任規則は、横方向速度規則を含む、請求項13に記載の追跡システム。   14. The tracking system of claim 13, wherein the at least one accident liability rule includes a lateral speed rule. 前記少なくとも1つの事故責任規則は、横方向位置規則を含む、請求項13に記載の追跡システム。   14. The tracking system of claim 13, wherein the at least one accident liability rule includes a lateral position rule. 前記少なくとも1つの事故責任規則は、運転方向の優先権の規則を含む、請求項13に記載の追跡システム。   14. The tracking system of claim 13, wherein the at least one accident liability rule comprises a driving direction priority rule. 前記少なくとも1つの事故責任規則は、信号機に基づく規則を含む、請求項13に記載の追跡システム。   14. The tracking system of claim 13, wherein the at least one accident liability rule comprises a traffic light based rule. 前記少なくとも1つの事故責任規則は、交通標識に基づく規則を含む、請求項13に記載の追跡システム。   14. The tracking system of claim 13, wherein the at least one accident liability rule comprises a traffic sign based rule. 前記少なくとも1つの事故責任規則は、ルートの優先権の規則を含む、請求項13に記載の追跡システム。   14. The tracking system of claim 13, wherein the at least one accident liability rule comprises a route priority rule. ホスト車両をナビゲートするためのシステムであって、
前記ホスト車両の環境を表す少なくとも1つの画像を画像捕捉装置から受信することと、
前記ホスト車両のナビゲーション目標を達成するための計画されたナビゲーション動作を少なくとも1つの運転ポリシに基づいて決定することと、
前記少なくとも1つの画像を分析して前記ホスト車両の前記環境内の目標車両を識別することと、
潜在的な事故責任を決定するために、前記計画されたナビゲーション動作を少なくとも1つの事故責任規則に対してテストすることと、
前記少なくとも1つの事故責任規則に対する前記計画されたナビゲーション動作の前記テストが、前記計画されたナビゲーション動作が行われる場合に前記ホスト車両について潜在的な事故責任があることを示す場合、前記計画されたナビゲーション動作を前記ホスト車両に実施させないことと、
前記少なくとも1つの事故責任規則に対する前記計画されたナビゲーション動作の前記テストが、前記計画されたナビゲーション動作が行われる場合に前記ホスト車両について事故責任が生じないであろうことを示す場合、前記計画されたナビゲーション動作を前記ホスト車両に実施させることと
を行うようにプログラムされる少なくとも1つの処理デバイス
を含み、前記少なくとも1つの処理デバイスは、
前記少なくとも1つの画像の分析に基づき、前記識別された目標車両のナビゲーション状態の1つ又は複数の特性を決定することと、
前記識別された目標車両の前記ナビゲーション状態の前記決定された1つ又は複数の特性を前記少なくとも1つの事故責任規則と比較することと、
前記識別された目標車両の前記ナビゲーション状態の前記決定された1つ又は複数の特性の前記少なくとも1つの事故責任規則との前記比較に基づき、前記識別された目標車両の側の潜在的な事故責任を示す少なくとも1つの値を記憶することと
を行うように更にプログラムされる、システム。
A system for navigating a host vehicle,
Receiving at least one image representative of the environment of the host vehicle from an image capture device;
Determining a planned navigation action for achieving a navigation goal of the host vehicle based on at least one driving policy;
Analyzing the at least one image to identify a target vehicle in the environment of the host vehicle;
Testing said planned navigation actions against at least one accident liability rule to determine potential accident liability;
If the test of the planned navigation action against the at least one accident liability rule indicates that there is potential accident liability for the host vehicle when the planned navigation action is performed, Not allowing the host vehicle to perform a navigation operation;
If the test of the planned navigation action against the at least one accident liability rule indicates that no accident liability will occur for the host vehicle if the planned navigation action is performed. And at least one processing device programmed to cause the host vehicle to perform the navigation operation, wherein the at least one processing device comprises:
Determining one or more characteristics of a navigation state of the identified target vehicle based on an analysis of the at least one image;
Comparing the determined one or more characteristics of the navigation state of the identified target vehicle to the at least one accident liability rule;
Potential accident liability on the side of the identified target vehicle based on the comparison of the determined one or more characteristics of the navigation state of the identified target vehicle with the at least one accident liability rule. Storing at least one value indicative of:
前記プロセッサは、前記ホスト車両と少なくとも1つの目標車両との間の事故後、前記事故の責任を決定するために、前記記憶された少なくとも1つの値を出力するように更にプログラムされる、請求項23に記載のシステム。   The processor is further programmed to output the stored at least one value after an accident between the host vehicle and at least one target vehicle to determine responsibility for the accident. 24. The system according to 23. 前記少なくとも1つの事故責任規則は、横方向速度規則を含む、請求項23に記載のシステム。   24. The system of claim 23, wherein the at least one accident liability rule comprises a lateral speed rule. 前記少なくとも1つの事故責任規則は、横方向位置規則を含む、請求項23に記載のシステム。   24. The system of claim 23, wherein the at least one accident liability rule includes a lateral position rule. 前記少なくとも1つの事故責任規則は、運転方向の優先権の速度の規則を含む、請求項23に記載のシステム。   24. The system of claim 23, wherein the at least one accident liability rule includes a driving direction priority speed rule. 前記少なくとも1つの事故責任規則は、信号機に基づく規則を含む、請求項23に記載のシステム。   24. The system of claim 23, wherein the at least one accident liability rule comprises a traffic light based rule. 前記少なくとも1つの事故責任規則は、交通標識に基づく規則を含む、請求項23に記載のシステム。   24. The system of claim 23, wherein the at least one accident liability rule comprises a traffic sign based rule. 前記少なくとも1つの事故責任規則は、ルートの優先権の規則を含む、請求項23に記載のシステム。   24. The system of claim 23, wherein the at least one accident liability rule comprises a route priority rule. ホスト車両をナビゲートするためのシステムであって、
前記ホスト車両の環境を表す少なくとも1つの画像を画像捕捉装置から受信することと、
前記ホスト車両のナビゲーション目標を達成するための計画されたナビゲーション動作を少なくとも1つの運転ポリシに基づいて決定することと、
前記少なくとも1つの画像を分析して前記ホスト車両の前記環境内の目標車両を識別することと、
前記計画されたナビゲーション動作が行われた場合に生じることになる、前記ホスト車両と前記目標車両との間の次の状態の距離を決定することと、
前記ホスト車両の現在の最大ブレーキ能力及び前記ホスト車両の現在の速度を決定することと、
前記目標車両の現在の速度を決定し、且つ前記目標車両の少なくとも1つの認識された特性に基づいて前記目標車両の最大ブレーキ能力を仮定することと、
前記ホスト車両の前記最大ブレーキ能力及び前記ホスト車両の現在の速度を所与として、前記目標車両の前記現在の速度及び前記目標車両の前記仮定された最大ブレーキ能力に基づいて決定される目標車両の移動距離に、前記決定された次の状態の距離を加算したもの未満である停止距離内で前記ホスト車両が停止され得る場合、前記計画されたナビゲーション動作を実施することと
を行うようにプログラムされる少なくとも1つの処理デバイス
を含むシステム。
A system for navigating a host vehicle,
Receiving at least one image representative of the environment of the host vehicle from an image capture device;
Determining a planned navigation action for achieving a navigation goal of the host vehicle based on at least one driving policy;
Analyzing the at least one image to identify a target vehicle in the environment of the host vehicle;
Determining the next state distance between the host vehicle and the target vehicle, which will occur when the planned navigation action is performed;
Determining a current maximum braking capacity of the host vehicle and a current speed of the host vehicle;
Determining a current speed of the target vehicle and assuming a maximum braking capacity of the target vehicle based on at least one recognized characteristic of the target vehicle;
Given the maximum braking capability of the host vehicle and the current speed of the host vehicle, the target vehicle is determined based on the current speed of the target vehicle and the assumed maximum braking capability of the target vehicle. And performing the planned navigation action if the host vehicle can be stopped within a stopping distance that is less than the determined moving distance plus the determined next state distance. A system comprising at least one processing device.
前記停止距離は、前記ホスト車両がブレーキなしで反応時間中に移動する距離を更に含む、請求項31に記載のシステム。   32. The system of claim 31, wherein the stopping distance further comprises a distance that the host vehicle travels during a reaction time without a brake. 前記目標車両の前記認識された特性は、車両の種類を含む、請求項31に記載のシステム。   32. The system of claim 31, wherein the recognized characteristics of the target vehicle include a vehicle type. 前記目標車両の前記認識された特性は、車両のサイズである、請求項31に記載のシステム。   32. The system of claim 31, wherein the recognized characteristic of the target vehicle is a size of the vehicle. 前記目標車両の前記認識された特性は、車両のモデルを含む、請求項31に記載のシステム。   32. The system of claim 31, wherein the recognized characteristics of the target vehicle include a model of the vehicle. ホスト車両をナビゲートするためのシステムであって、
前記ホスト車両の環境を表す少なくとも1つの画像を画像捕捉装置から受信することと、
前記ホスト車両のナビゲーション目標を達成するための計画されたナビゲーション動作を少なくとも1つの運転ポリシに基づいて決定することと、
前記少なくとも1つの画像を分析して、前記ホスト車両の前方の第1の目標車両及び前記第1の目標車両の前方の第2の目標車両を識別することと、
前記計画されたナビゲーション動作が行われた場合に生じることになる、前記ホスト車両と前記第2の目標車両との間の次の状態の距離を決定することと、
前記ホスト車両の現在の最大ブレーキ能力及び前記ホスト車両の現在の速度を決定することと、
前記ホスト車両の前記最大ブレーキ能力及び前記ホスト車両の前記現在の速度を所与として、前記ホスト車両と前記第2の目標車両との間の前記決定された次の状態の距離未満である停止距離内で前記ホスト車両が停止され得る場合、前記計画されたナビゲーション動作を実施することと
を行うようにプログラムされる少なくとも1つの処理デバイス
を含むシステム。
A system for navigating a host vehicle,
Receiving at least one image representative of the environment of the host vehicle from an image capture device;
Determining a planned navigation action for achieving a navigation goal of the host vehicle based on at least one driving policy;
Analyzing the at least one image to identify a first target vehicle ahead of the host vehicle and a second target vehicle ahead of the first target vehicle;
Determining a next state distance between the host vehicle and the second target vehicle, which will occur when the planned navigation operation is performed;
Determining a current maximum braking capacity of the host vehicle and a current speed of the host vehicle;
A stop distance that is less than the determined next state distance between the host vehicle and the second target vehicle, given the maximum braking capacity of the host vehicle and the current speed of the host vehicle. And performing at least one processing device when the host vehicle can be stopped.
前記少なくとも1つのプロセッサは、
前記計画されたナビゲーション動作が行われた場合に生じることになる、前記ホスト車両と前記第1の目標車両との間の次の状態の距離を決定することと、
前記第1の目標車両の現在の速度を決定し、且つ前記第1の目標車両の少なくとも1つの認識された特性に基づいて前記第1の目標車両の最大ブレーキ能力を仮定することと、
前記ホスト車両の前記最大ブレーキ能力及び前記ホスト車両の前記現在の速度を所与として、前記第1の目標車両の前記現在の速度及び前記第1の目標車両の前記仮定された最大ブレーキ能力に基づいて決定される第1の目標車両の移動距離に、前記ホスト車両と前記第1の目標車両との間の前記決定された次の状態の距離を加算したもの未満である停止距離内で前記ホスト車両が停止され得ない場合、前記計画されたナビゲーション動作を実施しないことと
を行うように更にプログラムされる、請求項36に記載のシステム。
The at least one processor comprises:
Determining a next state distance between the host vehicle and the first target vehicle that will occur when the planned navigation action is performed;
Determining a current speed of the first target vehicle and assuming a maximum braking capability of the first target vehicle based on at least one recognized characteristic of the first target vehicle;
Given the maximum braking capability of the host vehicle and the current speed of the host vehicle, based on the current speed of the first target vehicle and the assumed maximum braking capability of the first target vehicle The host within a stop distance that is less than the sum of the distance traveled by the first target vehicle and the distance determined in the next state between the host vehicle and the first target vehicle. 37. The system of claim 36, further programmed to: do not perform the planned navigation action if the vehicle cannot be stopped.
前記第1の目標車両の前記認識された特性は、車両の種類を含む、請求項36に記載のシステム。   37. The system of claim 36, wherein the recognized characteristics of the first target vehicle include a vehicle type. 前記第1の目標車両の前記認識された特性は、車両のサイズである、請求項36に記載のシステム。   37. The system of claim 36, wherein the recognized characteristic of the first target vehicle is a size of the vehicle. 前記第1の目標車両の前記認識された特性は、車両のモデルを含む、請求項36に記載のシステム。   37. The system of claim 36, wherein the recognized characteristics of the first target vehicle include a model of the vehicle. ホスト車両をナビゲートするためのシステムであって、
前記ホスト車両の環境を表す少なくとも1つの画像を画像捕捉装置から受信することと、
前記ホスト車両の現在のナビゲーション状態のインジケータを少なくとも1つのセンサから受信することと、
前記少なくとも1つの画像の分析及び前記ホスト車両の前記現在のナビゲーション状態の前記インジケータに基づき、前記ホスト車両と1つ又は複数の物体との間の衝突が不可避であると決定することと、
少なくとも1つの運転ポリシに基づき、第1の物体との予期される衝突を伴う前記ホスト車両のための第1の計画されたナビゲーション動作と、第2の物体との予期される衝突を伴う前記ホスト車両のための第2の計画されたナビゲーション動作とを決定することと、
潜在的な事故責任を決定するために、前記第1の計画されたナビゲーション動作及び前記第2の計画されたナビゲーション動作を少なくとも1つの事故責任規則に対してテストすることと、
前記少なくとも1つの事故責任規則に対する前記第1の計画されたナビゲーション動作の前記テストが、前記第1の計画されたナビゲーション動作が行われる場合に前記ホスト車両について潜在的な事故責任があることを示す場合、前記第1の計画されたナビゲーション動作を前記ホスト車両に実施させないことと、
前記少なくとも1つの事故責任規則に対する前記第2の計画されたナビゲーション動作の前記テストが、前記第2の計画されたナビゲーション動作が行われる場合に前記ホスト車両について事故責任が生じないであろうことを示す場合、前記第2の計画されたナビゲーション動作を前記ホスト車両に実施させることと
を行うようにプログラムされる少なくとも1つの処理デバイス
を含むシステム。
A system for navigating a host vehicle,
Receiving at least one image representative of the environment of the host vehicle from an image capture device;
Receiving from the at least one sensor an indicator of the current navigation state of the host vehicle;
Determining that a collision between the host vehicle and one or more objects is unavoidable based on the analysis of the at least one image and the indicator of the current navigation state of the host vehicle;
A first planned navigation action for the host vehicle with an expected collision with a first object based on at least one driving policy, and the host with an expected collision with a second object; Determining a second planned navigation action for the vehicle;
Testing the first planned navigation action and the second planned navigation action against at least one accident liability rule to determine potential accident liability;
The test of the first planned navigation action against the at least one accident liability rule indicates that there is potential accident liability for the host vehicle when the first planned navigation action is performed. Not allowing the host vehicle to perform the first planned navigation operation;
The test of the second planned navigation action against the at least one accident liability rule indicates that no accident liability will occur for the host vehicle if the second planned navigation action is performed. If indicated, a system comprising at least one processing device programmed to cause the host vehicle to perform the second planned navigation operation.
前記第1の物体及び前記第2の物体の少なくとも1つは、別の車両を含む、請求項41に記載のシステム。   42. The system of claim 41, wherein at least one of said first object and said second object comprises another vehicle. 前記第1の物体及び前記第2の物体の少なくとも1つは、車両ではない物体を含む、請求項41に記載のシステム。   42. The system of claim 41, wherein at least one of the first object and the second object comprises an object that is not a vehicle.
JP2019527180A 2016-12-23 2017-12-21 Navigation system with limited liability Active JP6708793B2 (en)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201662438563P 2016-12-23 2016-12-23
US62/438,563 2016-12-23
US201762546343P 2017-08-16 2017-08-16
US62/546,343 2017-08-16
US201762565244P 2017-09-29 2017-09-29
US62/565,244 2017-09-29
US201762582687P 2017-11-07 2017-11-07
US62/582,687 2017-11-07
PCT/IB2017/001684 WO2018115963A2 (en) 2016-12-23 2017-12-21 Navigational system with imposed liability constraints

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020089156A Division JP2020187754A (en) 2016-12-23 2020-05-21 Navigation system in accordance with held responsibility restriction

Publications (2)

Publication Number Publication Date
JP2020504860A true JP2020504860A (en) 2020-02-13
JP6708793B2 JP6708793B2 (en) 2020-06-10

Family

ID=61054425

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019527180A Active JP6708793B2 (en) 2016-12-23 2017-12-21 Navigation system with limited liability
JP2020089156A Pending JP2020187754A (en) 2016-12-23 2020-05-21 Navigation system in accordance with held responsibility restriction

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020089156A Pending JP2020187754A (en) 2016-12-23 2020-05-21 Navigation system in accordance with held responsibility restriction

Country Status (7)

Country Link
US (6) US11416943B2 (en)
EP (6) EP4220603A1 (en)
JP (2) JP6708793B2 (en)
KR (4) KR20190091366A (en)
CN (1) CN110214264A (en)
IL (3) IL288191B2 (en)
WO (1) WO2018115963A2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111402449A (en) * 2020-03-27 2020-07-10 斑马网络技术有限公司 Driving safety early warning method, driving recorder and server
JP2020123335A (en) * 2019-01-30 2020-08-13 株式会社ストラドビジョン Method and apparatus for executing multiple agent sensor fusion by cooperative travel based on reinforcement learning
CN111562118A (en) * 2020-06-30 2020-08-21 中汽院智能网联科技有限公司 Method for testing AEB VRU performance in night environment
US11409297B2 (en) * 2018-12-20 2022-08-09 Robert Bosch Gmbh Method for operating an automated vehicle

Families Citing this family (154)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017154967A1 (en) * 2016-03-11 2017-09-14 日本電気株式会社 Abnormal travel detecting device, abnormal travel detecting method, storage medium storing program for same, and abnormal travel detecting system
JP6524943B2 (en) * 2016-03-17 2019-06-05 株式会社デンソー Driving support device
KR20190091366A (en) * 2016-12-23 2019-08-05 모빌아이 비젼 테크놀로지스 엘티디. Navigation system with imposed liability restrictions
US20180208203A1 (en) * 2017-01-26 2018-07-26 International Business Machines Corporation System, method and computer program product for braking control when approaching a traffic signal
CN110431037B (en) 2017-02-10 2022-11-29 日产北美公司 Autonomous vehicle operation management including application of partially observable Markov decision process model examples
US11074510B2 (en) * 2017-03-06 2021-07-27 International Business Machines Corporation Embodied cognition platform for use in and control of a device
CN115855022A (en) * 2017-04-07 2023-03-28 辉达公司 Performing autonomous path navigation using deep neural networks
EP3401849A1 (en) * 2017-05-09 2018-11-14 dSPACE digital signal processing and control engineering GmbH Determination of the maturity of a technical system
US11816981B2 (en) * 2017-05-23 2023-11-14 D.R Roads A.I Ltd. Traffic monitoring and management systems and methods
EP3422132B1 (en) * 2017-06-27 2020-06-03 TTTech Auto AG Method and fault tolerant computer architecture for reducing false negatives in fail-safe trajectory planning for a moving entity
US10739773B2 (en) * 2017-09-28 2020-08-11 Nec Corporation Generative adversarial inverse trajectory optimization for probabilistic vehicle forecasting
US10019011B1 (en) * 2017-10-09 2018-07-10 Uber Technologies, Inc. Autonomous vehicles featuring machine-learned yield model
US10739776B2 (en) * 2017-10-12 2020-08-11 Honda Motor Co., Ltd. Autonomous vehicle policy generation
US11093829B2 (en) * 2017-10-12 2021-08-17 Honda Motor Co., Ltd. Interaction-aware decision making
US11657266B2 (en) * 2018-11-16 2023-05-23 Honda Motor Co., Ltd. Cooperative multi-goal, multi-agent, multi-stage reinforcement learning
US11702070B2 (en) 2017-10-31 2023-07-18 Nissan North America, Inc. Autonomous vehicle operation with explicit occlusion reasoning
JP6939428B2 (en) * 2017-11-01 2021-09-22 トヨタ自動車株式会社 Vehicle control device
EP3726329A4 (en) * 2017-12-12 2021-01-27 Sony Corporation Information processing device, moving body, control system, information processing method, and program
WO2019117774A1 (en) * 2017-12-14 2019-06-20 Saab Ab Flight vision system and method for presenting images from the surrounding of an airborne vehicle in a flight vision system
US11130497B2 (en) 2017-12-18 2021-09-28 Plusai Limited Method and system for ensemble vehicle control prediction in autonomous driving vehicles
KR102463720B1 (en) * 2017-12-18 2022-11-07 현대자동차주식회사 System and Method for creating driving route of vehicle
US20190185012A1 (en) 2017-12-18 2019-06-20 PlusAI Corp Method and system for personalized motion planning in autonomous driving vehicles
WO2020204871A1 (en) 2017-12-22 2020-10-08 Nissan North America, Inc. Shared autonomous vehicle operational management
US20190220016A1 (en) * 2018-01-15 2019-07-18 Uber Technologies, Inc. Discrete Decision Architecture for Motion Planning System of an Autonomous Vehicle
DE102018200814B3 (en) * 2018-01-18 2019-07-18 Audi Ag Method for operating a fully automatic guidance of a motor vehicle trained vehicle guidance system of the motor vehicle and motor vehicle
US11282389B2 (en) * 2018-02-20 2022-03-22 Nortek Security & Control Llc Pedestrian detection for vehicle driving assistance
DE112018007275T5 (en) * 2018-03-14 2020-12-10 Honda Motor Co., Ltd. Information notification device of straddle seat vehicle, straddle seat vehicle and information notification method
DE102018002156A1 (en) * 2018-03-16 2019-09-19 Trw Automotive Gmbh An improved control system and method for autonomous control of a motor vehicle
US11561541B2 (en) 2018-04-09 2023-01-24 SafeAI, Inc. Dynamically controlling sensor behavior
US11467590B2 (en) 2018-04-09 2022-10-11 SafeAI, Inc. Techniques for considering uncertainty in use of artificial intelligence models
US10809735B2 (en) * 2018-04-09 2020-10-20 SafeAI, Inc. System and method for a framework of robust and safe reinforcement learning application in real world autonomous vehicle application
US11169536B2 (en) 2018-04-09 2021-11-09 SafeAI, Inc. Analysis of scenarios for controlling vehicle operations
US11625036B2 (en) 2018-04-09 2023-04-11 SafeAl, Inc. User interface for presenting decisions
CN111989631A (en) * 2018-04-20 2020-11-24 本田技研工业株式会社 Self-position estimation method
WO2020014683A1 (en) * 2018-07-13 2020-01-16 Kache.AI Systems and methods for autonomous object detection and vehicle following
US10703370B2 (en) * 2018-08-24 2020-07-07 Ford Global Technologies, Llc Vehicle action control
US10832062B1 (en) * 2018-09-28 2020-11-10 Zoox, Inc. Image embedding for object tracking
US10793123B2 (en) 2018-10-04 2020-10-06 Waymo Llc Emergency braking for autonomous vehicles
US10816987B2 (en) * 2018-10-15 2020-10-27 Zoox, Inc. Responsive vehicle control
US20200133308A1 (en) * 2018-10-18 2020-04-30 Cartica Ai Ltd Vehicle to vehicle (v2v) communication less truck platooning
CN112969622A (en) * 2018-10-30 2021-06-15 动态Ad有限责任公司 Redundancy in autonomous vehicles
US11198494B2 (en) 2018-11-01 2021-12-14 Brunswick Corporation Methods and systems for controlling propulsion of a marine vessel to enhance proximity sensing in a marine environment
US11209820B2 (en) * 2018-11-14 2021-12-28 Honda Motor Co., Ltd. System and method for providing autonomous vehicular navigation within a crowded environment
US11346950B2 (en) * 2018-11-19 2022-05-31 Huawei Technologies Co., Ltd. System, device and method of generating a high resolution and high accuracy point cloud
US11794865B1 (en) 2018-11-21 2023-10-24 Brunswick Corporation Proximity sensing system and method for a marine vessel
US11436927B2 (en) 2018-11-21 2022-09-06 Brunswick Corporation Proximity sensing system and method for a marine vessel with automated proximity sensor location estimation
US11403955B2 (en) 2018-12-14 2022-08-02 Brunswick Corporation Marine propulsion control system and method with proximity-based velocity limiting
US10955853B2 (en) 2018-12-18 2021-03-23 Beijing Voyager Technology Co., Ltd. Systems and methods for autonomous driving
CN111338333B (en) * 2018-12-18 2021-08-31 北京航迹科技有限公司 System and method for autonomous driving
US11373537B2 (en) 2018-12-21 2022-06-28 Brunswick Corporation Marine propulsion control system and method with collision avoidance override
WO2020133415A1 (en) * 2018-12-29 2020-07-02 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for constructing a high-definition map based on landmarks
JP7029479B2 (en) * 2019-01-30 2022-03-03 バイドゥ ドットコム タイムス テクノロジー (ベイジン) カンパニー リミテッド Point cloud ghost effect detection system for self-driving cars
CN111771206A (en) * 2019-01-30 2020-10-13 百度时代网络技术(北京)有限公司 Map zoning system for autonomous vehicles
US11702178B2 (en) * 2019-01-31 2023-07-18 Brunswick Corporation Marine propulsion control system, method, and user interface for marine vessel docking and launch
US11257378B2 (en) 2019-01-31 2022-02-22 Brunswick Corporation Marine propulsion control system and method
WO2020184281A1 (en) * 2019-03-08 2020-09-17 マツダ株式会社 Arithmetic operation device for vehicle
US11550320B2 (en) * 2019-03-18 2023-01-10 Pony Ai Inc. Vehicle redundant processing resource usage
JP2020164045A (en) * 2019-03-29 2020-10-08 マツダ株式会社 Vehicle travel control device
WO2020201796A1 (en) * 2019-03-29 2020-10-08 日産自動車株式会社 Vehicle control method and vehicle control device
GB2588983B (en) * 2019-04-25 2022-05-25 Motional Ad Llc Graphical user interface for display of autonomous vehicle behaviors
KR102653342B1 (en) * 2019-05-20 2024-04-02 현대모비스 주식회사 Autonomous driving apparatus and method
WO2020241971A1 (en) * 2019-05-30 2020-12-03 엘지전자 주식회사 Traffic accident management device and traffic accident management method
DE102020206660A1 (en) * 2019-05-30 2020-12-03 Robert Bosch Gesellschaft mit beschränkter Haftung REDUNDANT ENVIRONMENTAL PERCEPTION TRACKING FOR AUTOMATED DRIVING SYSTEMS
US20220073104A1 (en) * 2019-05-30 2022-03-10 Lg Electronics Inc. Traffic accident management device and traffic accident management method
US11643115B2 (en) * 2019-05-31 2023-05-09 Waymo Llc Tracking vanished objects for autonomous vehicles
JP7251629B2 (en) * 2019-07-15 2023-04-04 株式会社Soken Running memory system and running memory method
CN112242069B (en) * 2019-07-17 2021-10-01 华为技术有限公司 Method and device for determining vehicle speed
US11048256B2 (en) 2019-08-09 2021-06-29 Waymo Llc Parking behaviors for autonomous vehicles
US11161502B2 (en) * 2019-08-13 2021-11-02 Zoox, Inc. Cost-based path determination
JP7275993B2 (en) * 2019-08-21 2023-05-18 株式会社Soken Vehicle control device and vehicle control method
US11167754B2 (en) 2019-08-22 2021-11-09 Argo AI, LLC Systems and methods for trajectory based safekeeping of vehicles
US11072326B2 (en) * 2019-08-22 2021-07-27 Argo AI, LLC Systems and methods for trajectory based safekeeping of vehicles
CN110502033B (en) * 2019-09-04 2022-08-09 中国人民解放军国防科技大学 Fixed-wing unmanned aerial vehicle cluster control method based on reinforcement learning
FR3100515B1 (en) * 2019-09-05 2021-09-17 Renault Sas Method for controlling an inter-vehicle distance regulation system
JP7313998B2 (en) * 2019-09-18 2023-07-25 株式会社トプコン Survey data processing device, survey data processing method and program for survey data processing
WO2021061094A1 (en) * 2019-09-23 2021-04-01 Advanced New Technologies Co., Ltd. System and method for routing optimization
US11279349B2 (en) * 2019-09-26 2022-03-22 Intel Corporation Safety module, automated driving system, and methods thereof
US11178388B2 (en) * 2019-10-07 2021-11-16 Gentex Corporation 3D display system for camera monitoring system
CN114585549A (en) 2019-10-09 2022-06-03 株式会社电装 Vehicle driving switching device, vehicle driving system, and vehicle driving switching method
DE112020004949T5 (en) 2019-10-14 2022-08-04 Denso Corporation VEHICLE ONBOARD DEVICE AND DRIVING ASSISTANCE METHOD
JP7207257B2 (en) * 2019-10-15 2023-01-18 トヨタ自動車株式会社 vehicle control system
US11273806B2 (en) * 2019-10-17 2022-03-15 Ford Global Technologies, Llc Enhanced collision mitigation
WO2021092334A1 (en) * 2019-11-06 2021-05-14 Ohio State Innovation Foundation Systems and methods for vehicle dynamics and powertrain control using multiple horizon optimization
CN110949381B (en) * 2019-11-12 2021-02-12 深圳大学 Method and device for monitoring driving behavior risk degree
CN111123738B (en) * 2019-11-25 2023-06-30 的卢技术有限公司 Method and system for improving training efficiency of deep reinforcement learning algorithm in simulation environment
US11899454B2 (en) 2019-11-26 2024-02-13 Nissan North America, Inc. Objective-based reasoning in autonomous vehicle decision-making
JP7279623B2 (en) * 2019-11-26 2023-05-23 トヨタ自動車株式会社 Information processing device, information processing system, and program
US11635758B2 (en) * 2019-11-26 2023-04-25 Nissan North America, Inc. Risk aware executor with action set recommendations
CN111161533B (en) * 2019-12-04 2021-11-02 支付宝(杭州)信息技术有限公司 Traffic accident processing method and device and electronic equipment
US10969232B1 (en) * 2019-12-06 2021-04-06 Ushr Inc. Alignment of standard-definition and High-Definition maps
US11513520B2 (en) * 2019-12-10 2022-11-29 International Business Machines Corporation Formally safe symbolic reinforcement learning on visual inputs
CN110906935B (en) * 2019-12-13 2023-06-13 河海大学常州校区 Unmanned ship path planning method
JP7184213B2 (en) 2019-12-18 2022-12-06 株式会社Soken Automatic driving device, rule judgment device
US11613269B2 (en) 2019-12-23 2023-03-28 Nissan North America, Inc. Learning safety and human-centered constraints in autonomous vehicles
RU2750243C2 (en) 2019-12-24 2021-06-24 Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" Method and system for generating a trajectory for a self-driving car (sdc)
US11300957B2 (en) 2019-12-26 2022-04-12 Nissan North America, Inc. Multiple objective explanation and control interface design
DE102020200183A1 (en) * 2020-01-09 2021-07-15 Continental Automotive Gmbh Method for creating a probabilistic free space map with static and dynamic objects
WO2021146910A1 (en) * 2020-01-21 2021-07-29 深圳元戎启行科技有限公司 Graph computation based vehicle driving data processing method and apparatus, and computer device
US11577746B2 (en) 2020-01-31 2023-02-14 Nissan North America, Inc. Explainability of autonomous vehicle decision making
US11714971B2 (en) 2020-01-31 2023-08-01 Nissan North America, Inc. Explainability of autonomous vehicle decision making
CN111324120A (en) * 2020-02-26 2020-06-23 中汽研汽车检验中心(天津)有限公司 Cut-in and cut-out scene extraction method for automatic driving front vehicle
US11385642B2 (en) 2020-02-27 2022-07-12 Zoox, Inc. Perpendicular cut-in training
US11782438B2 (en) 2020-03-17 2023-10-10 Nissan North America, Inc. Apparatus and method for post-processing a decision-making model of an autonomous vehicle using multivariate data
DE102020107880A1 (en) * 2020-03-23 2021-09-23 Ford Global Technologies, Llc Method for controlling a cruise control system in a curve
CN112689826B (en) * 2020-04-09 2021-12-17 华为技术有限公司 Method and device for generating instruction unit group
CN111497842B (en) * 2020-04-30 2023-03-24 重庆大学 Man-machine double-closed-loop layered cooperative longitudinal car following control method
US11708093B2 (en) 2020-05-08 2023-07-25 Zoox, Inc. Trajectories with intent
US11554790B2 (en) 2020-05-08 2023-01-17 Zoox, Inc. Trajectory classification
EP4146510A4 (en) * 2020-05-08 2024-05-01 Zoox Inc Trajectory classification
KR102342070B1 (en) * 2020-05-21 2021-12-22 계명대학교 산학협력단 Verification apparatus and method for autonomous emergency braking system using single lens camera
CN111780981B (en) * 2020-05-21 2022-02-18 东南大学 Intelligent vehicle formation lane change performance evaluation method
US11511751B2 (en) 2020-05-29 2022-11-29 Toyota Research Institute, Inc. Merge situation exposure algorithms to maximize exposure time
US11030893B1 (en) * 2020-06-05 2021-06-08 Samuel Messinger System for reducing speed of a vehicle and method thereof
US11256937B2 (en) * 2020-07-17 2022-02-22 Toyota Motor Engineering & Manufacturing North America, Inc. Anomalous event detection and/or validation using inherent human behavior
CN111824182B (en) * 2020-07-30 2022-03-22 吉林大学 Three-axis heavy vehicle self-adaptive cruise control algorithm based on deep reinforcement learning
US20220034673A1 (en) * 2020-08-03 2022-02-03 GM Global Technology Operations LLC Trailer-considerate route recommendations
CN112149344B (en) * 2020-08-24 2023-03-28 同济大学 Football robot with ball strategy selection method based on reinforcement learning
US11814075B2 (en) 2020-08-26 2023-11-14 Motional Ad Llc Conditional motion predictions
WO2022063397A1 (en) * 2020-09-23 2022-03-31 Bayerische Motoren Werke Aktiengesellschaft Determining correctness of image data of camera system
KR102528759B1 (en) * 2020-09-29 2023-05-08 주식회사 더코더 Safety control system of autonomic driving vehicle and method performing thereof
CN112249008B (en) * 2020-09-30 2021-10-26 南京航空航天大学 Unmanned automobile early warning method aiming at complex dynamic environment
US11731661B2 (en) 2020-10-01 2023-08-22 Argo AI, LLC Systems and methods for imminent collision avoidance
US11358598B2 (en) 2020-10-01 2022-06-14 Argo AI, LLC Methods and systems for performing outlet inference by an autonomous vehicle to determine feasible paths through an intersection
US11618444B2 (en) 2020-10-01 2023-04-04 Argo AI, LLC Methods and systems for autonomous vehicle inference of routes for actors exhibiting unrecognized behavior
GB2601110A (en) * 2020-11-10 2022-05-25 Sony Interactive Entertainment Inc Latency mitigation system and method
US20220185289A1 (en) * 2020-12-14 2022-06-16 Zoox, Inc. Lane change gap finder
CN112590791B (en) * 2020-12-16 2022-03-11 东南大学 Intelligent vehicle lane change gap selection method and device based on game theory
DE112021001037T5 (en) * 2020-12-17 2023-01-26 Mobileye Vision Technologies Ltd. TEST SYSTEM FOR VEHICLE OPERATION - SAFETY MODELS
US11807267B2 (en) 2020-12-31 2023-11-07 Toyota Research Institute, Inc. Systems and methods for risk-sensitive sequential action control for robotic devices
CN113485099B (en) * 2020-12-31 2023-09-22 中国电子科技集团公司信息科学研究院 Online learning control method of nonlinear discrete time system
CN113111003B (en) * 2021-01-11 2022-05-03 北京赛目科技有限公司 Scene-independent unmanned driving simulation test evaluation method and device
KR102479484B1 (en) * 2021-01-13 2022-12-22 부경대학교 산학협력단 System and Method for Improving Traffic for Autonomous Vehicles at Non Signalized Intersections
WO2022158272A1 (en) 2021-01-22 2022-07-28 株式会社デンソー Processing method, processing system, processing program, and processing device
CN112947415B (en) * 2021-01-26 2022-07-29 同济大学 Indoor path planning method based on meaning information of barrier
CN112902969B (en) * 2021-02-03 2023-08-01 重庆大学 Path planning method of unmanned aerial vehicle in data collection process
JP7428273B2 (en) 2021-02-05 2024-02-06 株式会社デンソー Processing method, processing system, processing program, storage medium, processing device
US20220274624A1 (en) * 2021-02-26 2022-09-01 Nissan North America, Inc. Learning in Lane-Level Route Planner
EP4068241A1 (en) * 2021-03-30 2022-10-05 Siemens Industry Software NV Driving assistance system and method of controlling autonomous vehicles
US11945441B2 (en) 2021-03-31 2024-04-02 Nissan North America, Inc. Explainability and interface design for lane-level route planner
CN113264064B (en) * 2021-03-31 2022-05-10 志行千里(北京)科技有限公司 Automatic driving method for intersection scene and related equipment
US11708075B2 (en) * 2021-04-08 2023-07-25 Ford Global Technologies, Llc Enhanced adaptive cruise control
US20220381579A1 (en) * 2021-05-26 2022-12-01 Robert Bosch Gmbh Turning path guidance system for vehicles
US11921506B2 (en) * 2021-05-28 2024-03-05 Nissan North America, Inc. Belief state determination for real-time decision-making
KR20230001071A (en) * 2021-06-25 2023-01-04 현대자동차주식회사 Autonomous vehicle, control system for remotely controlling the same, and method thereof
US20230020503A1 (en) * 2021-07-08 2023-01-19 Ford Global Technologies, Llc Machine control
WO2023284932A1 (en) * 2021-07-12 2023-01-19 Dr. Ing. H.C. F. Porsche Aktiengeselischaf Device and method for cut-in maneuver auto-labeling
US11724739B2 (en) * 2021-07-22 2023-08-15 GM Global Technology Operations LLC Vehicle actuation commands to affect transient handling
CN113781816B (en) * 2021-09-24 2022-11-08 神华准格尔能源有限责任公司 Mining vehicle control method, storage medium and electronic device
TWI790825B (en) 2021-11-19 2023-01-21 財團法人工業技術研究院 Safe following distance estimation stystem and estimation method thereof
CN114291092B (en) * 2022-01-26 2023-05-16 中国联合网络通信集团有限公司 Vehicle lane change control method and device, electronic control unit and storage medium
CN114241778B (en) * 2022-02-23 2022-05-17 东南大学 Multi-objective optimization control method and system for expressway internet of vehicles cooperating with ramp junction
US20230331256A1 (en) * 2022-04-15 2023-10-19 Motional Ad Llc Discerning fault for rule violations of autonomous vehicles for data processing
WO2023204098A1 (en) * 2022-04-19 2023-10-26 大学共同利用機関法人情報・システム研究機構 Safety rule generation device, navigation system, safety rule generation method, navigation method, and program
CN114639246A (en) * 2022-05-18 2022-06-17 哈尔滨工业大学 Expressway ramp confluence area vehicle-road cooperative control method and system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070064036A (en) * 2005-12-16 2007-06-20 주식회사 대우일렉트로닉스 Car navigation device
KR20070099112A (en) * 2006-04-03 2007-10-09 정양권 A method and the system of traffic accident black box with navigation function
JP2013003928A (en) * 2011-06-18 2013-01-07 Hitachi Solutions Ltd Vehicle accident cause estimation system
JP2013170877A (en) * 2012-02-20 2013-09-02 Denso Corp Center device and navigation system
US20130231824A1 (en) * 2012-03-05 2013-09-05 Florida A&M University Artificial Intelligence Valet Systems and Methods
JP2015501459A (en) * 2011-09-19 2015-01-15 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited Computing platform for the development and deployment of sensor-driven vehicle telemetry applications and services
US20150151725A1 (en) * 2013-12-04 2015-06-04 Mobileye Vision Technologies Ltd. Systems and methods for implementing a multi-segment braking profile for a vehicle
US20160001775A1 (en) * 2014-07-03 2016-01-07 Robert Bosch Gmbh Method for ascertaining an emergency trajectory and method for partially automated or automated driving of an ego-vehicle

Family Cites Families (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0520592A (en) 1991-07-11 1993-01-29 Taku Kumagai Recording method for automobile operation condition and device for performing the same method
EP0913751B1 (en) 1997-11-03 2003-09-03 Volkswagen Aktiengesellschaft Autonomous vehicle and guiding method for an autonomous vehicle
US7117137B1 (en) 1999-12-29 2006-10-03 Ge Harris Railway Electronics, Llc Adaptive train model
JP2003063273A (en) 2001-08-30 2003-03-05 Hitachi Ltd Vehicle running controller
US7124027B1 (en) 2002-07-11 2006-10-17 Yazaki North America, Inc. Vehicular collision avoidance system
JP3925474B2 (en) * 2003-07-18 2007-06-06 日産自動車株式会社 Lane change support device
DE602005007006D1 (en) 2004-04-08 2008-07-03 Mobileye Technologies Ltd COLLISION WARNING SYSTEM
JP4327062B2 (en) * 2004-10-25 2009-09-09 三菱電機株式会社 Navigation device
US20070010944A1 (en) 2005-07-09 2007-01-11 Ferrebee James H Jr Driver-adjustable sensor apparatus, system, & method for improving traffic safety
JP4684954B2 (en) * 2005-08-31 2011-05-18 本田技研工業株式会社 Vehicle travel safety device
US8244408B2 (en) * 2009-03-09 2012-08-14 GM Global Technology Operations LLC Method to assess risk associated with operating an autonomic vehicle control system
EP2289754B1 (en) * 2009-08-31 2015-04-29 Toyota Motor Europe NV/SA Vehicle or traffic control method and system
JP5240316B2 (en) * 2010-10-26 2013-07-17 株式会社デンソー Vehicle occupant non-operation driving system
US8694222B2 (en) * 2011-10-26 2014-04-08 GM Global Technology Operations LLC Collision avoidance system and method of operating the same
US20130197736A1 (en) * 2012-01-30 2013-08-01 Google Inc. Vehicle control based on perception uncertainty
US8473144B1 (en) * 2012-10-30 2013-06-25 Google Inc. Controlling vehicle lateral lane positioning
CN103065371B (en) * 2012-12-03 2016-04-06 深圳市元征科技股份有限公司 Traffic accident responsibility definition method
US9174672B2 (en) * 2013-10-28 2015-11-03 GM Global Technology Operations LLC Path planning for evasive steering maneuver in presence of target vehicle and surrounding objects
EP2869283B1 (en) * 2013-10-31 2017-08-16 Inria Institut National de Recherche en Informatique et en Automatique Method and system of driving assistance for collision avoidance
KR101559886B1 (en) 2013-12-27 2015-10-26 한국과학기술원 An Apparatus and Method for Clustering Control of Transport
EP2892020A1 (en) * 2014-01-06 2015-07-08 Harman International Industries, Incorporated Continuous identity monitoring for classifying driving data for driving performance analysis
US9340207B2 (en) * 2014-01-16 2016-05-17 Toyota Motor Engineering & Manufacturing North America, Inc. Lateral maneuver planner for automated driving system
KR20150115288A (en) 2014-04-03 2015-10-14 한화테크윈 주식회사 Cruise control system and control method thereof
US10185997B1 (en) 2014-05-20 2019-01-22 State Farm Mutual Automobile Insurance Company Accident fault determination for autonomous vehicles
KR20160013713A (en) * 2014-07-28 2016-02-05 현대자동차주식회사 Global path generation apparatus for autonomous vehicle and method thereof
JP6307383B2 (en) * 2014-08-07 2018-04-04 日立オートモティブシステムズ株式会社 Action planning device
WO2016024314A1 (en) * 2014-08-11 2016-02-18 日産自動車株式会社 Travel control device and method for vehicle
DE102014221898A1 (en) 2014-10-28 2016-04-28 Bayerische Motoren Werke Aktiengesellschaft Fiber composite component with failure behavior of a ductile material
KR101664582B1 (en) * 2014-11-12 2016-10-10 현대자동차주식회사 Path Planning Apparatus and Method for Autonomous Vehicle
US10192283B2 (en) 2014-12-22 2019-01-29 Cognex Corporation System and method for determining clutter in an acquired image
US9836963B1 (en) * 2015-01-20 2017-12-05 State Farm Mutual Automobile Insurance Company Determining corrective actions based upon broadcast of telematics data originating from another vehicle
KR101675306B1 (en) * 2015-03-20 2016-11-11 현대자동차주식회사 Accident information manage apparatus, vehicle having the same and method for managing accident information
KR101665553B1 (en) 2015-03-20 2016-10-24 현대자동차주식회사 Accident information analysis apparatus, server having the same and method for analyzing accident information
US9868443B2 (en) * 2015-04-27 2018-01-16 GM Global Technology Operations LLC Reactive path planning for autonomous driving
KR101724887B1 (en) * 2015-08-10 2017-04-07 현대자동차주식회사 Autonomous Driving Control Apparatus and Method for Determining Lane Change and Timing thereof Based on Analysis for Shapes and Links of Forward Road
US10839302B2 (en) * 2015-11-24 2020-11-17 The Research Foundation For The State University Of New York Approximate value iteration with complex returns by bounding
US9862364B2 (en) 2015-12-04 2018-01-09 Waymo Llc Collision mitigated braking for autonomous vehicles
JP2017142145A (en) * 2016-02-10 2017-08-17 株式会社ゼンリン Lane change assist device, vehicle control device, and method therefor
EP3417242B1 (en) * 2016-02-15 2022-12-21 Allstate Insurance Company Real time risk assessment and operational changes with semi-autonomous vehicles
EP3417240A4 (en) * 2016-02-15 2019-07-17 Allstate Insurance Company Early notification of non-autonomous area
CN106114507B (en) * 2016-06-21 2018-04-03 百度在线网络技术(北京)有限公司 Local path planning method and device for intelligent vehicle
US9953535B1 (en) 2016-06-27 2018-04-24 Amazon Technologies, Inc. Annotated virtual track to inform autonomous vehicle control
CN106157614B (en) * 2016-06-29 2020-09-04 北京奇虎科技有限公司 Automobile accident responsibility determination method and system
WO2018046102A1 (en) * 2016-09-10 2018-03-15 Swiss Reinsurance Company Ltd. Automated, telematics-based system with score-driven triggering and operation of automated sharing economy risk-transfer systems and corresponding method thereof
JP6577926B2 (en) * 2016-09-26 2019-09-18 本田技研工業株式会社 Driving support device and driving support method
US10452068B2 (en) * 2016-10-17 2019-10-22 Uber Technologies, Inc. Neural network system for autonomous vehicle control
US10248874B2 (en) 2016-11-22 2019-04-02 Ford Global Technologies, Llc Brake light detection
KR20190091366A (en) * 2016-12-23 2019-08-05 모빌아이 비젼 테크놀로지스 엘티디. Navigation system with imposed liability restrictions
CN107067718B (en) * 2016-12-29 2020-05-01 盯盯拍(深圳)技术股份有限公司 Traffic accident responsibility evaluation method, traffic accident responsibility evaluation device, and traffic accident responsibility evaluation system
CN108305477B (en) * 2017-04-20 2019-08-13 腾讯科技(深圳)有限公司 A kind of choosing lane method and terminal
CA3071780A1 (en) * 2017-08-02 2019-02-07 Nissan Motor Co., Ltd. Travel assistance method and travel assistance device
US10668925B2 (en) * 2017-09-05 2020-06-02 Baidu Usa Llc Driver intention-based lane assistant system for autonomous driving vehicles
US11360475B2 (en) * 2017-12-05 2022-06-14 Waymo Llc Real-time lane change selection for autonomous vehicles
WO2019117774A1 (en) 2017-12-14 2019-06-20 Saab Ab Flight vision system and method for presenting images from the surrounding of an airborne vehicle in a flight vision system
EP3947094A4 (en) * 2019-03-29 2022-12-14 INTEL Corporation Autonomous vehicle system
JP7295684B2 (en) * 2019-03-29 2023-06-21 株式会社日本総合研究所 Accident liability identification method, accident liability identification device and computer program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070064036A (en) * 2005-12-16 2007-06-20 주식회사 대우일렉트로닉스 Car navigation device
KR20070099112A (en) * 2006-04-03 2007-10-09 정양권 A method and the system of traffic accident black box with navigation function
JP2013003928A (en) * 2011-06-18 2013-01-07 Hitachi Solutions Ltd Vehicle accident cause estimation system
JP2015501459A (en) * 2011-09-19 2015-01-15 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited Computing platform for the development and deployment of sensor-driven vehicle telemetry applications and services
JP2013170877A (en) * 2012-02-20 2013-09-02 Denso Corp Center device and navigation system
US20130231824A1 (en) * 2012-03-05 2013-09-05 Florida A&M University Artificial Intelligence Valet Systems and Methods
US20150151725A1 (en) * 2013-12-04 2015-06-04 Mobileye Vision Technologies Ltd. Systems and methods for implementing a multi-segment braking profile for a vehicle
US20160001775A1 (en) * 2014-07-03 2016-01-07 Robert Bosch Gmbh Method for ascertaining an emergency trajectory and method for partially automated or automated driving of an ego-vehicle

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11409297B2 (en) * 2018-12-20 2022-08-09 Robert Bosch Gmbh Method for operating an automated vehicle
JP2020123335A (en) * 2019-01-30 2020-08-13 株式会社ストラドビジョン Method and apparatus for executing multiple agent sensor fusion by cooperative travel based on reinforcement learning
CN111402449A (en) * 2020-03-27 2020-07-10 斑马网络技术有限公司 Driving safety early warning method, driving recorder and server
CN111562118A (en) * 2020-06-30 2020-08-21 中汽院智能网联科技有限公司 Method for testing AEB VRU performance in night environment

Also Published As

Publication number Publication date
US11727497B2 (en) 2023-08-15
US10937107B2 (en) 2021-03-02
US20190291727A1 (en) 2019-09-26
KR102316406B1 (en) 2021-10-25
US10970790B2 (en) 2021-04-06
IL266725B (en) 2021-08-31
US11416943B2 (en) 2022-08-16
EP3559600A2 (en) 2019-10-30
US20240046363A1 (en) 2024-02-08
IL288191A (en) 2022-01-01
KR20200049888A (en) 2020-05-08
US11164264B2 (en) 2021-11-02
KR20220110857A (en) 2022-08-09
WO2018115963A2 (en) 2018-06-28
KR102469732B1 (en) 2022-11-23
US20190299983A1 (en) 2019-10-03
CN110214264A (en) 2019-09-06
EP3836122A1 (en) 2021-06-16
IL266725A (en) 2019-07-31
EP3805889A1 (en) 2021-04-14
IL288191B1 (en) 2023-06-01
IL284500B (en) 2021-12-01
KR20190091366A (en) 2019-08-05
EP3832419A1 (en) 2021-06-09
US20210166325A1 (en) 2021-06-03
US20190295179A1 (en) 2019-09-26
IL284500A (en) 2021-08-31
IL288191B2 (en) 2023-10-01
EP4220603A1 (en) 2023-08-02
CN112629551A (en) 2021-04-09
JP2020187754A (en) 2020-11-19
KR20210113694A (en) 2021-09-16
JP6708793B2 (en) 2020-06-10
US20210110483A1 (en) 2021-04-15
EP3828657A1 (en) 2021-06-02
WO2018115963A3 (en) 2018-09-27
KR102426734B1 (en) 2022-07-29

Similar Documents

Publication Publication Date Title
JP7367255B2 (en) Systems and methods for navigating a vehicle
JP6708793B2 (en) Navigation system with limited liability
US20210094577A1 (en) Systems and Methods for Navigating with Safe Distances
KR20190099088A (en) Navigation based on vehicle activity
CN112762951B (en) System and method for navigating a vehicle
CN112629551B (en) Navigation system with imposed responsibility constraints

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190725

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190725

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20191008

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191025

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200521

R150 Certificate of patent or registration of utility model

Ref document number: 6708793

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250