CN111258217B - 实时对象行为预测 - Google Patents
实时对象行为预测 Download PDFInfo
- Publication number
- CN111258217B CN111258217B CN201910823043.2A CN201910823043A CN111258217B CN 111258217 B CN111258217 B CN 111258217B CN 201910823043 A CN201910823043 A CN 201910823043A CN 111258217 B CN111258217 B CN 111258217B
- Authority
- CN
- China
- Prior art keywords
- objects
- neural network
- autonomous vehicle
- map information
- perception
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 claims abstract description 108
- 230000006399 behavior Effects 0.000 claims abstract description 49
- 238000012545 processing Methods 0.000 claims abstract description 40
- 238000000034 method Methods 0.000 claims abstract description 39
- 238000010801 machine learning Methods 0.000 claims abstract description 27
- 230000007613 environmental effect Effects 0.000 claims abstract description 11
- 230000008447 perception Effects 0.000 claims description 39
- 238000013527 convolutional neural network Methods 0.000 claims description 22
- 230000015654 memory Effects 0.000 claims description 17
- 230000001133 acceleration Effects 0.000 claims description 12
- 230000003068 static effect Effects 0.000 claims description 10
- 238000012549 training Methods 0.000 abstract description 32
- 238000004422 calculation algorithm Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 14
- 238000004891 communication Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 13
- 238000013135 deep learning Methods 0.000 description 5
- 230000002085 persistent effect Effects 0.000 description 5
- 238000007405 data analysis Methods 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 238000001994 activation Methods 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 238000013178 mathematical model Methods 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 238000003909 pattern recognition Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000005291 magnetic effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009429 electrical wiring Methods 0.000 description 1
- 229910000078 germane Inorganic materials 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/04—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
- G05B13/048—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators using a predictor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/18—Conjoint control of vehicle sub-units of different type or different function including control of braking systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/20—Conjoint control of vehicle sub-units of different type or different function including control of steering systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
- G05B13/027—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/04—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
- G05B13/042—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a parameter or coefficient is automatically adjusted to optimise the performance
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0242—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0248—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0259—Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/027—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0278—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/028—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/143—Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0062—Adapting control system settings
- B60W2050/0075—Automatic parameter input, automatic initialising or calibrating means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/20—Static objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4041—Position
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4042—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2555/00—Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
- B60W2555/60—Traffic rules, e.g. speed limits or right of way
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/10—Historical data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/50—External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Artificial Intelligence (AREA)
- Automation & Control Theory (AREA)
- Evolutionary Computation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Aviation & Aerospace Engineering (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Electromagnetism (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Combustion & Propulsion (AREA)
- General Engineering & Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Game Theory and Decision Science (AREA)
- Business, Economics & Management (AREA)
- Biodiversity & Conservation Biology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Probability & Statistics with Applications (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Optics & Photonics (AREA)
- Acoustics & Sound (AREA)
Abstract
在一个实施方式中,一种方法、设备和系统可在自动驾驶车辆(ADV)处使用机器学习来预测环境对象的行为。生成包括至少第一神经网络和第二神经网络的数据处理架构,第一神经网络和第二神经网络已经用训练数据集训练过。使用包括已训练的神经网络的数据处理架构来预测ADV环境中的一个或多个对象的行为。至少部分地基于ADV环境中的一个或多个对象的所预测的行为来生成驾驶信号,以控制ADV的操作。
Description
技术领域
本公开的实施方式总体涉及操作自动驾驶车辆。更具体地,本公开的实施方式涉及在控制自动驾驶车辆中使用机器学习算法进行预测。
背景技术
以自动驾驶模式运行(例如,无人驾驶)的车辆可将乘员、尤其是驾驶员从一些驾驶相关的职责中解放出来。当以自动驾驶模式运行时,车辆可使用车载传感器导航到各个位置,从而允许车辆在最少人机交互的情况下或在没有任何乘客的一些情况下行驶。
安全和可靠的自动驾驶技术需要准确预测自动驾驶车辆周围的其它对象的行为。已经开发了关于如何对来自周围环境的特征进行编码的解决方案。然而,预测对象的交互仍然是困难且耗时的,因为传统上它涉及对对象中的每个执行预测并在所有对象之间迭代地计算。
发明内容
根据本公开的一方面,提供了一种用于在自动驾驶车辆处使用机器学习预测环境对象的行为的计算机实施的方法,包括:
对在某个时间点从所述自动驾驶车辆的感知模块接收的感知数据应用第一神经网络,以提取一组感知特征;
基于来自所述第一神经网络的所提取的感知特征和从地图获得的地图信息,使用第二神经网络预测所述自动驾驶车辆的环境中的一个或多个对象的行为;以及
至少部分地基于所述自动驾驶车辆的环境中的所述一个或多个对象的所预测的行为来生成控制命令,以控制所述自动驾驶车辆的操作。
根据本公开的另一方面,提供了一种存储有指令的非暂时性机器可读介质,所述指令在由处理器执行时致使所述处理器执行用于在自动驾驶车辆处使用机器学习预测环境对象的行为的操作,所述操作包括:
对在某个时间点从所述自动驾驶车辆的感知模块接收的感知数据应用第一神经网络,以提取一组感知特征;
基于来自所述第一神经网络的所提取的感知特征和从地图获得的地图信息,使用第二神经网络预测所述自动驾驶车辆的环境中的一个或多个对象的行为;以及
至少部分地基于所述自动驾驶车辆的环境中的所述一个或多个对象的所预测的行为来生成控制命令,以控制所述自动驾驶车辆的操作。
根据本公开的又一方面,提供了一种数据处理系统,包括:
处理器;以及
存储器,所述存储器联接至所述处理器,以存储指令,所述指令在由所述处理器执行时致使所述处理器执行用于在自动驾驶车辆处使用机器学习预测环境对象的行为的操作,所述操作包括:
对在某个时间点从所述自动驾驶车辆的感知模块接收的感知数据应用第一神经网络,以提取一组感知特征;
基于来自所述第一神经网络的所提取的感知特征和从地图获得的地图信息,使用第二神经网络预测所述自动驾驶车辆的环境中的一个或多个对象的行为;以及至少部分地基于所述自动驾驶车辆的环境中的所述一个或多个对象的所预测的行为来生成控制命令,以控制所述自动驾驶车辆的操作。
附图说明
本公开的实施方式在附图的各图中以举例而非限制的方式示出,附图中的相同参考标记指示相似元件。
图1是示出根据一个实施方式的网络化系统的框图。
图2是示出根据一个实施方式的自动驾驶车辆的示例的框图。
图3A至图3B是示出根据一个实施方式的与自动驾驶车辆一起使用的感知与规划系统的示例的框图。
图4是示出根据一个实施方式的卷积神经网络(CNN)内的各种层的图示。
图5是示出根据一个实施方式的深度神经网络的训练和部署的图示。
图6是示出根据一个实施方式的数据处理架构的框图。
图7A和图7B是示出根据一个实施方式的数据的示例性视觉表示的图示。
图8是示出根据一个实施方式的用于在自动驾驶车辆(ADV)处使用机器学习来预测环境对象的行为的示例性方法的流程图。
图9是示出根据一个实施方式的数据处理系统的框图。
具体实施方式
将参考以下所讨论的细节来描述本公开的各种实施方式和方面,附图将示出所述各种实施方式。下列描述和附图是本公开的说明,而不应当解释为对本公开进行限制。描述了许多特定细节以提供对本公开的各种实施方式的全面理解。然而,在某些情况下,并未描述众所周知的或常规的细节,以提供对本公开的实施方式的简洁讨论。
本说明书中对“一个实施方式”或“实施方式”的提及意味着结合该实施方式所描述的特定特征、结构或特性可包括在本公开的至少一个实施方式中。短语“在一个实施方式中”在本说明书中各个地方的出现不必全部指同一实施方式。
根据一些实施方式,一种方法、设备和系统可在自动驾驶车辆(ADV)处使用机器学习来预测环境对象的行为。生成包括至少第一神经网络和第二神经网络的数据处理架构,第一神经网络和第二神经网络已经用训练数据集训练过。使用包括已训练的神经网络的数据处理架构来预测ADV环境中的一个或多个对象的行为。至少部分地基于ADV环境中的一个或多个对象的所预测的行为来生成驾驶信号,以控制ADV的操作。
在一个实施方式中,一个或多个对象包括ADV的感知和预测区域中的汽车、自行车和/或行人。第一神经网络是多层感知器,以及第二神经网络是卷积神经网络(CNN)。
在一个实施方式中,第一神经网络从一个或多个先前的规划周期接收一个或多个对象的历史特征作为输入,并且生成一个或多个对象的所提取的历史特征作为输出,以及第二神经网络接收一个或多个对象的所提取的历史特征以及地图信息作为输入,并生成一个或多个对象的所预测的行为作为输出。
在一个实施方式中,一个或多个对象的历史特征包括以下中的一个或多个:位置、速度或加速度,以及地图信息来源于高清晰度地图,并且包括以下中的一个或多个:车道特征分量、交通信号分量,静态对象分量或常规地图信息分量。
在一个实施方式中,基于ADV的矩形感知和预测区域的网格细分,用相关联的块信息标记一个或多个对象的所提取的历史特征和地图信息,该网格细分包括基于网格将ADV的矩形感知和预测区域细分成多个均匀大小的矩形块。
在一个实施方式中,一个或多个对象的所预测的行为表示为数字列表,该数字指示对于预测包含对象的感知和预测区域中的每个块,以下中的一个或多个:对象类型、关于与块相关联的对象的所预测的行为的一个或多个特征,或置信水平。
图1是示出根据本公开的一个实施方式的自动驾驶车辆网络配置的框图。参考图1,网络配置100包括可通过网络102通信地联接到一个或多个服务器103至104的自动驾驶车辆101。尽管示出一个自动驾驶车辆,但多个自动驾驶车辆可通过网络102联接到彼此和/或联接到服务器103至104。网络102可以是任何类型的网络,例如,有线或无线的局域网(LAN)、诸如互联网的广域网(WAN)、蜂窝网络、卫星网络或其组合。服务器103至104可以是任何类型的服务器或服务器群集,诸如,网络或云服务器、应用服务器、后端服务器或其组合。服务器103至104可以是数据分析服务器、内容服务器、交通信息服务器、地图和兴趣点(MPOI)服务器或位置服务器等。
自动驾驶车辆是指可配置成处于自动驾驶模式下的车辆,在所述自动驾驶模式下车辆在极少或没有来自驾驶员的输入的情况下导航通过环境。这种自动驾驶车辆可包括传感器系统,所述传感器系统具有配置成检测与车辆运行环境有关的信息的一个或多个传感器。所述车辆和其相关联的控制器使用所检测的信息来导航通过所述环境。自动驾驶车辆101可在手动模式下、在全自动驾驶模式下或者在部分自动驾驶模式下运行。
在一个实施方式中,自动驾驶车辆101包括,但不限于,感知与规划系统110、车辆控制系统111、无线通信系统112、用户接口系统113和传感器系统115。自动驾驶车辆101还可包括普通车辆中包括的某些常用部件,诸如:发动机、车轮、方向盘、变速器等,所述部件可由车辆控制系统111和/或感知与规划系统110使用多种通信信号和/或命令进行控制,该多种通信信号和/或命令例如,加速信号或命令、减速信号或命令、转向信号或命令、制动信号或命令等。
部件110至115可经由互连件、总线、网络或其组合通信地联接到彼此。例如,部件110至115可经由控制器局域网(CAN)总线通信地联接到彼此。CAN总线是设计成允许微控制器和装置在没有主机的应用中与彼此通信的车辆总线标准。它是最初是为汽车内的复用电气布线设计的基于消息的协议,但也用于许多其它环境。
现在参考图2,在一个实施方式中,传感器系统115包括但不限于一个或多个摄像机211、全球定位系统(GPS)单元212、惯性测量单元(IMU)213、雷达单元214以及光探测和测距(LIDAR)单元215。GPS单元212可包括收发器,所述收发器可操作以提供关于自动驾驶车辆的位置的信息。IMU单元213可基于惯性加速度来感测自动驾驶车辆的位置和定向变化。雷达单元214可表示利用无线电信号来感测自动驾驶车辆的本地环境内的对象的系统。在一些实施方式中,除感测对象之外,雷达单元214可另外感测对象的速度和/或前进方向。LIDAR单元215可使用激光来感测自动驾驶车辆所处环境中的对象。除其它系统部件之外,LIDAR单元215还可包括一个或多个激光源、激光扫描器以及一个或多个检测器。摄像机211可包括用来采集自动驾驶车辆周围环境的图像的一个或多个装置。摄像机211可以是静物摄像机和/或视频摄像机。摄像机可以是可机械地移动的,例如,通过将摄像机安装在旋转和/或倾斜平台上。
传感器系统115还可包括其它传感器,诸如:声纳传感器、红外传感器、转向传感器、油门传感器、制动传感器以及音频传感器(例如,麦克风)。音频传感器可配置成从自动驾驶车辆周围的环境中采集声音。转向传感器可配置成感测方向盘、车辆的车轮或其组合的转向角度。油门传感器和制动传感器分别感测车辆的油门位置和制动位置。在一些情形下,油门传感器和制动传感器可集成为集成式油门/制动传感器。
在一个实施方式中,车辆控制系统111包括但不限于转向单元201、油门单元202(也称为加速单元)和制动单元203。转向单元201用来调整车辆的方向或前进方向。油门单元202用来控制电动机或发动机的速度,电动机或发动机的速度进而控制车辆的速度和加速度。制动单元203通过提供摩擦使车辆的车轮或轮胎减速而使车辆减速。应注意,如图2所示的部件可以以硬件、软件或其组合实施。
返回参考图1,无线通信系统112允许自动驾驶车辆101与诸如装置、传感器、其它车辆等外部系统之间的通信。例如,无线通信系统112可以与一个或多个装置直接无线通信,或者经由通信网络进行无线通信,诸如,通过网络102与服务器103至104通信。无线通信系统112可使用任何蜂窝通信网络或无线局域网(WLAN),例如,使用WiFi,以与另一部件或系统通信。无线通信系统112可例如使用红外链路、蓝牙等与装置(例如,乘客的移动装置、显示装置、车辆101内的扬声器)直接通信。用户接口系统113可以是在车辆101内实施的外围装置的部分,包括例如键盘、触摸屏显示装置、麦克风和扬声器等。
自动驾驶车辆101的功能中的一些或全部可由感知与规划系统110控制或管理,尤其当在自动驾驶模式下操作时。感知与规划系统110包括必要的硬件(例如,处理器、存储器、存储装置)和软件(例如,操作系统、规划和路线安排程序),以从传感器系统115、控制系统111、无线通信系统112和/或用户接口系统113接收信息,处理所接收的信息,规划从起始点到目的地点的路线或路径,随后基于规划和控制信息来驾驶车辆101。可替代地,感知与规划系统110可与车辆控制系统111集成在一起。
例如,作为乘客的用户可例如经由用户接口来指定行程的起始位置和目的地。感知与规划系统110获得行程相关数据。例如,感知与规划系统110可从MPOI服务器中获得位置和路线信息,所述MPOI服务器可以是服务器103至104的一部分。位置服务器提供位置服务,并且MPOI服务器提供地图服务和某些位置的POI。可替代地,此类位置和MPOI信息可本地高速缓存在感知与规划系统110的永久性存储装置中。
当自动驾驶车辆101沿着路线移动时,感知与规划系统110也可从交通信息系统或服务器(TIS)获得实时交通信息。应注意,服务器103至104可由第三方实体进行操作。可替代地,服务器103至104的功能可与感知与规划系统110集成在一起。基于实时交通信息、MPOI信息和位置信息以及由传感器系统115检测或感测的实时本地环境数据(例如,障碍物、对象、附近车辆),感知与规划系统110可规划最佳路线并且根据所规划的路线例如经由控制系统111来驾驶车辆101,以安全且高效到达指定目的地。
服务器103可以是数据分析系统,从而为各种客户执行数据分析服务。在一个实施方式中,数据分析系统103包括数据收集器121和机器学习引擎122。数据收集器121从各种车辆(自动驾驶车辆或由人类驾驶员驾驶的常规车辆)收集驾驶统计数据123。驾驶统计数据123包括指示所发出的驾驶指令(例如,油门、制动、转向指令)以及由车辆的传感器在不同的时间点捕捉到的车辆的响应(例如,速度、加速、减速、方向)的信息。驾驶统计数据123还可包括描述不同时间点下的驾驶环境的信息,例如,路线(包括起始位置和目的地位置)、MPOI、道路状况、天气状况等。
基于驾驶统计数据123,出于各种目的,机器学习引擎122生成或训练一组规则、算法和/或预测模型124。在一个实施方式中,算法124可包括基于神经网络的数据处理架构,用于预测主动驾驶车辆的感知和预测区域中的对象的行为。
然后算法124可上传到ADV上以在自动驾驶期间实时使用。
图3A和图3B是示出根据一个实施方式的与自动驾驶车辆一起使用的感知与规划系统的示例的框图。系统300可实施为图1的自动驾驶车辆101的一部分,包括但不限于感知与规划系统110、控制系统111和传感器系统115。参考图3A至图3B,感知与规划系统110包括但不限于定位模块301、感知模块302、预测模块303、决策模块304、规划模块305、控制模块306、路线安排模块307、机器学习模块308。
模块301至308中的一些或全部可以以软件、硬件或其组合实施。例如,这些模块可安装在永久性存储装置352中、加载到存储器351中,并且由一个或多个处理器(未示出)执行。应注意,这些模块中的一些或全部可通信地联接到图2的车辆控制系统111的一些或全部模块或者与它们集成在一起。模块301至308中的一些可一起集成为集成模块。
定位模块301确定自动驾驶车辆300的当前位置(例如,利用GPS单元212)以及管理与用户的行程或路线相关的任何数据。定位模块301(又称作为地图与路线模块)管理与用户的行程或路线相关的任何数据。用户可例如经由用户接口登录并且指定行程的起始位置和目的地。定位模块301与自动驾驶车辆300的诸如地图与路线信息311的其它部件通信,以获得行程相关数据。例如,定位模块301可从位置服务器和地图与POI(MPOI)服务器获得位置和路线信息。位置服务器提供位置服务,并且MPOI服务器提供地图服务和某些位置的POI,从而可作为地图与路线信息311的一部分高速缓存。当自动驾驶车辆300沿着路线移动时,定位模块301也可从交通信息系统或服务器获得实时交通信息。
基于由传感器系统115提供的传感器数据和由定位模块301获得的定位信息,感知模块302确定对周围环境的感知。感知信息可表示普通驾驶员在驾驶员正驾驶的车辆周围将感知到的东西。感知可包括例如采用对象形式的车道配置、交通灯信号、另一车辆的相对位置、行人、建筑物、人行横道或其它交通相关标志(例如,停止标志、让行标志)等。车道配置包括描述一个或多个车道的信息,诸如,例如车道的形状(例如,直线或弯曲)、车道的宽度、道路中的车道数量、单向或双向车道、合并或分开车道、出口车道等。
感知模块302可包括计算机视觉系统或计算机视觉系统的功能,以处理并分析由一个或多个摄像机采集的图像,从而识别自动驾驶车辆环境中的对象和/或特征。所述对象可包括交通信号、道路边界、其它车辆、行人和/或障碍物等。计算机视觉系统可使用对象识别算法、视频跟踪以及其它计算机视觉技术。在一些实施方式中,计算机视觉系统可绘制环境地图,跟踪对象,以及估算对象的速度等。感知模块302也可基于由诸如雷达和/或LIDAR的其它传感器提供的其它传感器数据来检测对象。
针对每个对象,预测模块303预测对象在这种情况下将如何表现。预测是基于感知数据执行的,该感知数据在考虑一组地图/路线信息311和交通规则312的时间点感知驾驶环境。例如,如果对象为相反方向上的车辆且当前驾驶环境包括十字路口,则预测模块303将预测车辆是否可能会笔直向前移动或转弯。如果感知数据表明十字路口没有交通灯,则预测模块303可能会预测车辆在进入十字路口之前可能需要完全停车。如果感知数据表明车辆目前处于左转唯一车道或右转唯一车道,则预测模块303可能预测车辆将更可能分别左转或右转。
针对每个对象,决策模块304做出关于如何处置对象的决策。例如,针对特定对象(例如,交叉路线中的另一车辆)以及描述对象的元数据(例如,速度、方向、转弯角度),决策模块304决定如何与所述对象相遇(例如,超车、让行、停止、超过)。决策模块304可根据诸如交通规则或驾驶规则312的规则集来做出此类决策,所述规则集可存储在永久性存储装置352中。
路线安排模块307配置成提供从起始点到目的地点的一个或多个路线或路径。对于从起始位置到目的地位置的给定行程,例如从用户接收的给定行程,路线安排模块307获得路线与地图信息311,并确定从起始位置至到达目的地位置的所有可能路线或路径。路线安排模块307可生成地形图形式的参考线,它确定了从起始位置至到达目的地位置的每个路线。参考线是指不受其它诸如其它车辆、障碍物或交通状况的任何干扰的理想路线或路径。即,如果道路上没有其它车辆、行人或障碍物,则ADV应精确地或紧密地跟随参考线。然后,将地形图提供至决策模块304和/或规划模块305。决策模块304和/或规划模块305检查所有可能的路线,以根据由其它模块提供的其它数据选择和更改最佳路线中的一个,其中,其它数据诸如为来自定位模块301的交通状况、由感知模块302感知到的驾驶环境以及由预测模块303预测的交通状况。根据时间点下的特定驾驶环境,用于控制ADV的实际路径或路线可能接近于或不同于由路线安排模块307提供的参考线。
基于针对所感知到的对象中的每个的决策,规划模块305使用由路线安排模块307提供的参考线作为基础,为自动驾驶车辆规划路径或路线以及驾驶参数(例如,距离、速度和/或转弯角度)。换言之,针对给定的对象,决策模块304决定对该对象做什么,而规划模块305确定如何去做。例如,针对给定的对象,决策模块304可决定超过所述对象,而规划模块305可确定在所述对象的左侧还是右侧超过。规划和控制数据由规划模块305生成,包括描述车辆300在下一移动循环(例如,下一路线/路径段)中将如何移动的信息。例如,规划和控制数据可指示车辆300以30英里每小时(mph)的速度移动10米,随后以25mph的速度变到右侧车道。
基于规划和控制数据,控制模块306根据由规划和控制数据限定的路线或路径通过将适当的命令或信号发送到车辆控制系统111来控制并驾驶自动驾驶车辆。所述规划和控制数据包括足够的信息,以沿着路径或路线在不同的时间点使用适当的车辆设置或驾驶参数(例如,油门、制动、转向命令)将车辆从路线或路径的第一点驾驶到第二点。
在一个实施方式中,规划阶段在多个规划周期(也称作为驾驶周期)中执行,例如,在每个时间间隔为100毫秒(ms)的周期中执行。对于规划周期或驾驶周期中的每一个,将基于规划和控制数据发出一个或多个控制命令。即,对于每100ms,规划模块305规划下一个路线段或路径段,例如,包括目标位置和ADV到达目标位置所需要的时间。可替代地,规划模块305还可规定具体的速度、方向和/或转向角等。在一个实施方式中,规划模块305为下一个预定时段(诸如,5秒)规划路线段或路径段。对于每个规划周期,规划模块305基于在前一周期中规划的目标位置规划用于当前周期(例如,下一个5秒)的目标位置。控制模块306然后基于当前周期的规划和控制数据生成一个或多个控制命令(例如,油门、制动、转向控制命令)。
应注意,决策模块304和规划模块305可集成为集成模块。决策模块304/规划模块305可包括导航系统或导航系统的功能,以确定自动驾驶车辆的驾驶路径。例如,导航系统可确定用于影响自动驾驶车辆沿着以下路径移动的一系列速度和前进方向:所述路径在使自动驾驶车辆沿着通往最终目的地的基于车行道的路径前进的同时,基本上避免感知到的障碍物。目的地可根据经由用户接口系统113进行的用户输入来设定。导航系统可在自动驾驶车辆正在运行的同时动态地更新驾驶路径。导航系统可将来自GPS系统和一个或多个地图的数据合并,以确定用于自动驾驶车辆的驾驶路径。
机器学习模块308可利用诸如人工神经网络的机器学习技术实现数据处理架构,机器学习技术可用于基于已知数据生成预测。机器学习模块308可利用先前训练的神经网络313来提取感知特征并根据地图信息(例如,车道配置、静态对象等)预测障碍物的行为。
机器学习算法是可基于一组数据进行学习的算法。机器学习算法的实施方式可设计成对数据集内的高级抽象概念进行建模。例如,图象识别算法可用于确定给定输入属于几个类别中的哪一个;回归算法可输出给定输入的数值;以及模式识别算法可用于生成翻译文本或执行文本到语音和/或语音识别。
示例性类型的机器学习算法是神经网络。存在许多类型的神经网络;简单类型的神经网络是前馈网络。前馈网络可实施为非循环图,在该非循环图中节点以层的形式排列。通常,前馈网络拓扑包括由至少一个隐藏层分隔的输入层和输出层。隐藏层将由输入层接收的输入转换为可用于在输出层中生成输出的表示。网络节点经由边缘完全连接至相邻层中的节点,但是每个层内的节点之间没有边缘。在前馈网络的输入层的节点处接收的数据经由激活函数传播(即,“前馈”)至输出层的节点,该激活函数基于分别与连接各层的边缘中的每个相关的系数(“权重”)计算网络中每个连续层的节点的状态。取决于由正在执行的算法表示的具体模型,来自神经网络算法的输出可采用各种形式。
在机器学习算法可用于对特定问题建模之前,使用训练数据集训练算法。训练神经网络涉及选择网络拓扑,使用表示由网络建模的问题的一组训练数据,以及调整权重直到网络模型以对训练数据集的所有实例的最小误差执行为止。例如,在用于神经网络的监督学习训练过程期间,将网络响应于表示训练数据集中的实例的输入而产生的输出与该实例的“正确”标记输出进行比较,计算表示该输出与标记输出之间的差异的误差信号,以及调整与连接相关联的权重,以便在误差信号向后传播通过网络层时使该误差最小化。当从训练数据集的实例生成的输出中的每个的误差最小化时,认为该网络是“经过训练的”。
可将神经网络概括为具有图形关系的功能网络。如本领域中所公知的,存在在机器学习中使用的各种类型的神经网络实施例。如前所述,一种示例性类型的神经网络是前馈网络。
第二示例性类型的神经网络是卷积神经网络(CNN)。CNN是专用前馈神经网络,用于处理具有已知的网格状拓扑(诸如图像数据)的数据。因此,CNN通常用于计算视觉和图像识别应用,但是它们也可用于其它类型的模式识别,诸如在自动驾驶车辆的背景下的语音和语言处理和对象意图预测。CNN输入层中的节点被组织成一组“滤波器”(受视网膜中发现的接收域启发的特征检测器),并且每组滤波器的输出传播至网络的连续层中的节点。CNN的计算包括将卷积数学运算应用于每个滤波器以产生该滤波器的输出。卷积是由两个函数执行的特殊类型的数学运算,以产生作为两个原始函数之一的修改版本的第三函数。在卷积网络术语中,卷积的第一函数可称为输入,而第二函数可称为卷积核。输出可称为特征图。例如,卷积层的输入可以是限定输入图像的各种颜色分量的多维数据阵列。卷积核可以是多维参数阵列,其中,参数通过用于神经网络的训练过程进行调整。
上述示例性神经网络可用于进行深度学习。深度学习是使用深度神经网络的机器学习。与仅包含单个隐藏层的浅层神经网络相比,用于深度学习的深度神经网络是由多个隐藏层组成的人工神经网络。更深层的神经网络通常需要更密集的计算来训练。然而,网络的附加隐藏层能够实现多步骤模式识别,相对于浅层机器学习技术,该多步骤模式识别导致输出误差减小。
用于深度学习的深度神经网络通常包括用于执行特征识别的、联接至后端网络的的前端网络,其中,后端网络表示可基于提供给模型的特征表示执行操作(例如,对象分类、语音识别、对象意图预测等)的数学模型。深度学习能够在不需要为模型执行手工制作的特征工程的情况下执行机器学习。相反,深度神经网络可基于输入数据内的统计结构或相关性来学习特征。所学习的特征可提供给数学模型,该数学模型可将检测到的特征映射到输出。网络使用的数学模型通常专用于要执行的特定任务,并且将使用不同的模型来执行不同的任务。
一旦构造了神经网络,就可将学习模型应用于网络以训练网络执行特定任务。学习模型描述如何调整模型内的权重以减少网络的输出误差。误差的反向传播是用于训练神经网络的常用方法。输入向量呈现给网络以进行处理。使用损失函数将网络的输出与期望的输出进行比较,并且计算输出层中的神经元中的每个的误差值。然后误差值向后传播,直到每个神经元均具有相关联的误差值,该误差值粗略地表示其对原始输出的贡献。然后,网络可使用诸如随机梯度下降算法的算法从这些误差中学习,以更新神经网络的权重。
图4是示出根据一个实施方式的卷积神经网络(CNN)内的各种层的图示400。输入402可包括多个分量。例如,用于对图像处理建模的示例性CNN可接收描述输入图像的红色、绿色和蓝色(RGB)分量的输入402。输入402可由多个卷积层(例如,卷积层404、卷积层406)进行处理。可选地,来自多个卷积层的输出可由一组全连接层408处理。如先前针对前馈网络所描述的,全连接层中的神经元具有与前一层中的所有激活的完全连接。来自全连接层408的输出可用于从网络生成输出结果。可使用矩阵乘法而不是卷积来计算全连接层408内的激活。并非所有CNN实施例都使用全连接层408。例如,在一些实施例中,卷积层406可生成CNN的输出。
卷积层是稀疏地连接的,这不同于在全连接层408中发现的传统神经网络配置。传统的神经网络层是完全连接的,使得每个输出单元与每个输入单元相互作用。然而,卷积层是稀疏地连接的,因为如图所示,区域的卷积的输出被输入(而不是区域中的节点中的每个的相应状态值)至后续层的节点。与卷积层相关联的内核执行卷积运算,其输出发送至下一层。在卷积层内执行的降维是使CNN能够缩放以处理大型输入(例如,大型图像)的一个方面。
图5是示出根据一个实施方式的深度神经网络的训练和部署的图示500。一旦已针对任务构造了给定网络,就使用训练数据集502训练神经网络。已为训练过程开发了各种训练框架504。训练框架504可钩入未训练的神经网络506,并且使得未训练的神经网络506能够被训练以生成已训练的神经网络508。
为了启动训练过程,可随机地或通过使用深度置信网络的预训练来选择初始权重。然后,训练周期以监督或无监督的方式进行。
监督学习是一种学习方法,在该学习方法中训练作为中介操作来执行,诸如当训练数据集502包括与输入的期望输出配对的输入时,或者训练数据集502包括具有已知输出的输入以及神经网络的输出是手动分级的。网络对输入进行处理并将得到的输出与一组预期或期望的输出进行比较。然后,误差通过系统传播回来。训练框架504可调整控制未训练的神经网络506的权重。训练框架504可提供工具来监测未训练的神经网络506朝向适合于基于已知输入数据生成正确答案的模型收敛的程度。在调整网络的权重以精炼由神经网络生成的输出时,训练过程重复发生。训练过程可继续,直到神经网络达到与已训练的神经网络508相关联的统计上期望的精度。然后可部署已训练的神经网络508以实现任何数量的机器学习操作。
无监督学习是网络尝试使用未标记的数据训练自己的学习方法。因此,对于无监督学习,训练数据集502将包括没有任何相关联输出数据的输入数据。未训练的神经网络506可学习未标记输入内的群组,并且可确定各个输入如何与整个数据集相关。无监督训练可用于生成自组织映射,这是一种能够执行有助于减少数据维度的操作的已训练的神经网络508。无监督训练也可用于执行异常检测,其允许识别输入数据集中偏离数据的正常模式的数据点。
参考图6,示出了图示根据一个实施方式的数据处理架构600的框图。由ADV检测到的感知和预测区域中的对象的历史特征602被馈送至第一神经网络604。该对象可包括汽车、自行车、行人等。对象的历史特征可包括但不限于:多个先前的规划周期(例如,10个先前的规划周期)中的位置(例如,坐标)、速度(大小和方向)、加速度(大小和方向)等。在馈送至第一神经网络604之前,对象历史特征可串接在一起以形成对象特征列表。第一神经网络604可以是诸如多层感知器的全连接网络,其共享所有对象的相同参数(权重)。
第一神经网络604的输出可配置成包括少量(例如,1至3个)的提取的对象历史特征606,并且成为第二神经网络610的输入的对象分量606。对象分量606与地图信息分量608一起馈送至第二神经网络610。地图信息分量608基于地图与路线信息311(例如,高清晰度地图)生成,并且可包括但不限于:用于感知和预测区域的车道特征分量、交通信号分量、静态对象分量、常规地图信息分量等。
在一个实施方式中,感知和预测区域可以是矩形区域,并且可基于网格进一步细分为多个大小相等的矩形块。感知和预测区域可大致对应于ADV的感知范围。例如,感知和预测区域可以是100米长和40米宽。构成感知和预测区域的块的大小可凭经验选择,并且在一个实施方式中,可选择成使得每个块一次可包含不多于一个对象。例如,块可以是2米×2米。
在馈送至第二神经网络610之前,可基于网格细分来标记对象分量606和地图信息分量608。换言之,提取的对象历史特征和地图信息(车道、交通信号、静态对象等)可用与它们相关联的块来标记。因此,如上所述,第二神经网络610的输入的、包括对象分量606和地图信息分量608的各个分量可形象化为基于网格彼此对齐的堆叠层。
第二神经网络610可以是CNN,并且可配置成输出一列数字作为预测结果612,针对预测包含对象的感知和预测区域中的每个块,该一列数字可表示对象类型(例如,汽车、自行车、行人等)、关于与该块相关联的对象的所预测的行为(例如,速度、加速度等)的一个或多个特征,以及置信水平。
应理解,第一神经网络604和第二神经网络610在它们可用于对ADV操作进行预测之前需要用训练数据集训练,该训练数据集包括记录的对象行为ground truth数据和地图信息。
参考图7A和图7B,示出了说明根据一个实施方式的数据的示例性视觉表示的图示700A、图示700B。应理解,图7A和图7B仅用于说明性目的,并且所示元件(例如,块、层、对象等)的数量不限制本公开。图7A示出了ADV的矩形感知和预测区域700A,该区域800A基于网格细分为相等大小的矩形块。图7B示出了馈送至第二神经网络610的地图信息分量608和对象分量606的视觉表示700B。如前所述,地图信息分量608和对象分量606基于网格对齐。地图信息分量(层)608可包括例如以下中的一个或多个:车道特征分量(层)、交通信号分量(层)、静态对象分量(层)或常规地图信息分量(层)。应理解,与相同块相关联的对象分量606包括与相同对象相关的提取的对象历史特征。
参考图8,示出了说明根据一个实施方式的用于在自动驾驶车辆(ADV)处使用机器学习来预测环境对象的行为的示例性方法800的流程图。方法800可在硬件、软件或两者的组合(例如,图9的系统1500)中实施。在框810处,生成包括至少第一神经网络和第二神经网络的数据处理架构,第一神经网络和第二神经网络已经用训练数据集训练过。在框820处,使用包括已训练的神经网络的数据处理架构来预测ADV环境中的一个或多个对象的行为。在框830处,至少部分地基于ADV环境中的一个或多个对象的所预测的行为来生成驾驶信号,以控制ADV的操作。
在一个实施方式中,该一个或多个对象包括ADV的感知和预测区域中的汽车、自行车和/或行人。第一神经网络是多层感知器,以及第二神经网络是卷积神经网络(CNN)。
在一个实施方式中,第一神经网络从一个或多个先前的规划周期接收一个或多个对象的历史特征作为输入,并且生成一个或多个对象的所提取的历史特征作为输出,以及第二神经网络接收一个或多个对象的所提取的历史特征以及地图信息作为输入,并生成一个或多个对象的所预测的行为作为输出。
在一个实施方式中,一个或多个对象的历史特征包括以下中的一个或多个:位置、速度或加速度,以及地图信息来源于高清晰度地图,并且包括以下中的一个或多个:车道特征分量、交通信号分量、静态对象分量或常规地图信息分量。
在一个实施方式中,基于ADV的矩形感知和预测区域的网格细分,用相关联的块信息标记一个或多个对象的所提取的历史特征和地图信息,该网格细分包括基于网格将ADV的矩形感知和预测区域细分成多个均匀大小的矩形块。
在一个实施方式中,一个或多个对象的所预测的行为表示为一列数字,对于预测包含对象的感知和预测区域中的每个块,该数字指示以下中的一个或多个:对象类型、关于与块相关联的对象的所预测的行为的一个或多个特征,或置信水平。
应注意,如上文示出和描述的部件中的一些或全部可在软件、硬件或其组合中实施。例如,此类部件可实施为安装并存储在永久性存储装置中的软件,所述软件可通过处理器(未示出)加载在存储器中并在存储器中执行以实施贯穿本申请所述的过程或操作。可替代地,此类部件可实施为编程或嵌入到专用硬件(诸如,集成电路(例如,专用集成电路或ASIC)、数字信号处理器(DSP)或现场可编程门阵列(FPGA))中的可执行代码,所述可执行代码可经由来自应用的相应驱动程序和/或操作系统来访问。此外,此类部件可实施为处理器或处理器内核中的特定硬件逻辑,作为可由软件部件通过一个或多个特定指令访问的指令集的一部分。
图9是示出可与本公开的一个实施方式一起使用的数据处理系统的示例的框图。例如,系统1500可表示以上所述的执行上述过程或方法中的任一个的任何数据处理系统,例如,图1的感知与规划系统110或者服务器103至104中的任一个。系统1500可包括许多不同的部件。这些部件可实施为集成电路(IC)、集成电路的部分、分立电子装置或适用于电路板(诸如,计算机系统的主板或插入卡)的其它模块或者实施为以其它方式并入计算机系统的机架内的部件。
还应注意,系统1500旨在示出计算机系统的许多部件的高阶视图。然而,应当理解的是,某些实施例中可具有附加的部件,此外,其它实施例中可具有所示部件的不同布置。系统1500可表示台式计算机、膝上型计算机、平板计算机、服务器、移动电话、媒体播放器、个人数字助理(PDA)、智能手表、个人通信器、游戏装置、网络路由器或集线器、无线接入点(AP)或中继器、机顶盒或其组合。此外,虽然仅示出了单个机器或系统,但是术语“机器”或“系统”还应当理解为包括单独地或共同地执行一个(或多个)指令集以执行本文所讨论的任何一种或多种方法的机器或系统的任何集合。
在一个实施方式中,系统1500包括通过总线或互连件1510连接的处理器1501、存储器1503以及装置1505至1508。处理器1501可表示其中包括单个处理器内核或多个处理器内核的单个处理器或多个处理器。处理器1501可表示一个或多个通用处理器,诸如,微处理器、中央处理单元(CPU)等。更具体地,处理器1501可以是复杂指令集计算(CISC)微处理器、精简指令集计算(RISC)微处理器、超长指令字(VLIW)微处理器、或实施其它指令集的处理器、或实施指令集组合的处理器。处理器1501还可以是一个或多个专用处理器,诸如,专用集成电路(ASIC)、蜂窝或基带处理器、现场可编程门阵列(FPGA)、数字信号处理器(DSP)、网络处理器、图形处理器、通信处理器、加密处理器、协处理器、嵌入式处理器、或者能够处理指令的任何其它类型的逻辑。
处理器1501(其可以是低功率多核处理器套接口,诸如超低电压处理器)可充当用于与所述系统的各种部件通信的主处理单元和中央集线器。这种处理器可实施为片上系统(SoC)。处理器1501配置成执行用于执行本文所讨论的操作和步骤的指令。系统1500还可包括与可选的图形子系统1504通信的图形接口,图形子系统1504可包括显示控制器、图形处理器和/或显示装置。
处理器1501可与存储器1503通信,存储器1503在一个实施方式中可经由多个存储器装置实施以提供给定量的系统存储。存储器1503可包括一个或多个易失性存储(或存储器)装置,诸如,随机存取存储器(RAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、静态RAM(SRAM)或者其它类型的存储装置。存储器1503可存储包括由处理器1501或任何其它装置执行的指令序列的信息。例如,各种操作系统、装置驱动程序、固件(例如,输入输出基本系统或BIOS)和/或应用的可执行代码和/或数据可加载到存储器1503中并由处理器1501执行。操作系统可以是任何类型的操作系统,例如,机器人操作系统(ROS)、来自公司的操作系统、来自苹果公司的Mac来自公司的LINUX、UNIX,或者其它实时或嵌入式操作系统。
系统1500还可包括IO装置,诸如装置1505至1508,包括网络接口装置1505、可选的输入装置1506,以及其它可选的IO装置1507。网络接口装置1505可包括无线收发器和/或网络接口卡(NIC)。所述无线收发器可以是WiFi收发器、红外收发器、蓝牙收发器、WiMax收发器、无线蜂窝电话收发器、卫星收发器(例如,全球定位系统(GPS)收发器)或其它射频(RF)收发器或者它们的组合。NIC可以是以太网卡。
输入装置1506可包括鼠标、触摸板、触敏屏幕(其可与显示装置1504集成在一起)、指针装置(诸如,手写笔)和/或键盘(例如,物理键盘或作为触敏屏幕的一部分显示的虚拟键盘)。例如,输入装置1506可包括联接到触摸屏的触摸屏控制器。触摸屏和触摸屏控制器例如可使用多种触敏技术(包括但不限于电容、电阻、红外和表面声波技术)中的任一种,以及其它接近传感器阵列或用于确定与触摸屏接触的一个或多个点的其它元件来检测其接触和移动或间断。
IO装置1507可包括音频装置。音频装置可包括扬声器和/或麦克风,以促进支持语音的功能,诸如语音识别、语音复制、数字记录和/或电话功能。其它IO装置1507还可包括通用串行总线(USB)端口、并行端口、串行端口、打印机、网络接口、总线桥(例如,PCI-PCI桥)、传感器(例如,诸如加速度计运动传感器、陀螺仪、磁强计、光传感器、罗盘、接近传感器等)或者它们的组合。装置1507还可包括成像处理子系统(例如,摄像机),所述成像处理子系统可包括用于促进摄像机功能(诸如,记录照片和视频片段)的光学传感器,诸如电荷耦合装置(CCD)或互补金属氧化物半导体(CMOS)光学传感器。某些传感器可经由传感器集线器(未示出)联接到互连件1510,而诸如键盘或热传感器的其它装置可根据系统1500的具体配置或设计由嵌入式控制器(未示出)控制。
为了提供对诸如数据、应用、一个或多个操作系统等信息的永久性存储,大容量存储装置(未示出)也可联接到处理器1501。在各种实施方式中,为了实现更薄且更轻的系统设计并且改进系统响应性,这种大容量存储装置可经由固态装置(SSD)来实施。然而,在其它实施方式中,大容量存储装置可主要使用硬盘驱动器(HDD)来实施,其中较小量的SSD存储装置充当SSD高速缓存以在断电事件期间实现上下文状态以及其它此类信息的非易失性存储,从而使得在系统活动重新启动时能够实现快速通电。另外,闪存装置可例如经由串行外围接口(SPI)联接到处理器1501。这种闪存装置可提供系统软件的非易失性存储,所述系统软件包括所述系统的BIOS以及其它固件。
存储装置1508可包括计算机可访问的存储介质1509(也称为机器可读存储介质或计算机可读介质),其上存储有体现本文所述的任何一种或多种方法或功能的一个或多个指令集或软件(例如,模块、单元和/或逻辑1528)。处理模块/单元/逻辑1528可表示上述部件中的任一个,例如规划模块305、控制模块306、机器学习模块308。处理模块/单元/逻辑1528还可在其由数据处理系统1500、存储器1503和处理器1501执行期间完全地或至少部分地驻留在存储器1503内和/或处理器1501内,数据处理系统1500、存储器1503和处理器1501也构成机器可访问的存储介质。处理模块/单元/逻辑1528还可通过网络经由网络接口装置1505进行传输或接收。
计算机可读存储介质1509也可用来永久性地存储以上描述的一些软件功能。虽然计算机可读存储介质1509在示例性实施方式中被示为单个介质,但是术语“计算机可读存储介质”应当被认为包括存储所述一个或多个指令集的单个介质或多个介质(例如,集中式或分布式数据库和/或相关联的高速缓存和服务器)。术语“计算机可读存储介质”还应当被认为包括能够存储或编码指令集的任何介质,所述指令集用于由机器执行并且使得所述机器执行本公开的任何一种或多种方法。因此,术语“计算机可读存储介质”应当被认为包括但不限于固态存储器以及光学介质和磁性介质,或者任何其它非暂时性机器可读介质。
本文所述的处理模块/单元/逻辑1528、部件以及其它特征可实施为分立硬件部件或集成在硬件部件(诸如,ASICS、FPGA、DSP或类似装置)的功能中。此外,处理模块/单元/逻辑1528可实施为硬件装置内的固件或功能电路。此外,处理模块/单元/逻辑1528可以以硬件装置和软件部件的任何组合来实施。
应注意,虽然系统1500示出为具有数据处理系统的各种部件,但是并不旨在表示使部件互连的任何特定架构或方式;因为此类细节和本公开的实施方式没有密切关系。还应当认识到,具有更少部件或可能具有更多部件的网络计算机、手持计算机、移动电话、服务器和/或其它数据处理系统也可与本公开的实施方式一起使用。
前述详细描述中的一些部分已经根据在计算机存储器内对数据位的运算的算法和符号表示而呈现。这些算法描述和表示是数据处理领域中的技术人员所使用的方式,以将他们的工作实质最有效地传达给本领域中的其他技术人员。本文中,算法通常被认为是导致所期望结果的自洽操作序列。这些操作是指需要对物理量进行物理操控的操作。
然而,应当牢记,所有这些和类似的术语均旨在与适当的物理量关联,并且仅仅是应用于这些量的方便标记。除非在以上讨论中以其它方式明确地指出,否则应当了解,在整个说明书中,利用术语(诸如所附权利要求书中所阐述的术语)进行的讨论是指计算机系统或类似电子计算装置的动作和处理,所述计算机系统或电子计算装置操控计算机系统的寄存器和存储器内的表示为物理(电子)量的数据,并将所述数据变换成计算机系统存储器或寄存器或者其它此类信息存储装置、传输或显示装置内类似地表示为物理量的其它数据。
本公开的实施方式还涉及用于执行本文中的操作的设备。这种计算机程序存储在非暂时性计算机可读介质中。机器可读介质包括用于以机器(例如,计算机)可读的形式存储信息的任何机构。例如,机器可读(例如,计算机可读)介质包括机器(例如,计算机)可读存储介质(例如,只读存储器(“ROM”)、随机存取存储器(“RAM”)、磁盘存储介质、光存储介质、闪存存储器装置)。
前述附图中所描绘的过程或方法可由处理逻辑来执行,所述处理逻辑包括硬件(例如,电路、专用逻辑等)、软件(例如,体现在非暂时性计算机可读介质上)或两者的组合。尽管所述过程或方法在上文是依据一些顺序操作来描述的,但是应当了解,所述操作中的一些可按不同的顺序执行。此外,一些操作可并行地执行而不是顺序地执行。
本公开的实施方式并未参考任何特定的编程语言进行描述。应认识到,可使用多种编程语言来实施如本文描述的本公开的实施方式的教导。
在以上的说明书中,已经参考本公开的具体示例性实施方式对本公开的实施方式进行了描述。将显而易见的是,在不脱离所附权利要求书中阐述的本公开的更宽泛精神和范围的情况下,可对本发明作出各种修改。因此,应当在说明性意义而不是限制性意义上来理解本说明书和附图。
Claims (18)
1.一种用于在自动驾驶车辆处使用机器学习预测环境对象的行为的计算机实施的方法,包括:
对在某个时间点从所述自动驾驶车辆的感知模块接收的感知数据应用第一神经网络,以提取一组历史特征;
基于来自所述第一神经网络的所提取的历史特征和从地图获得的地图信息,使用第二神经网络预测所述自动驾驶车辆的环境中的一个或多个对象的行为;以及
至少部分地基于所述自动驾驶车辆的环境中的所述一个或多个对象的所预测的行为来生成控制命令,以控制所述自动驾驶车辆的操作,
其中,所述一个或多个对象的所述历史特征包括以下中的一个或多个:位置、速度或加速度,以及其中,所述地图信息来源于高清晰度地图,并且包括以下中的一个或多个:车道特征分量、交通信号分量、静态对象分量或常规地图信息分量。
2.根据权利要求1所述的方法,其中,所述一个或多个对象包括汽车、自行车和/或行人。
3.根据权利要求1所述的方法,其中,所述第一神经网络是多层感知器,以及所述第二神经网络是卷积神经网络。
4.根据权利要求3所述的方法,其中,所述第一神经网络从一个或多个先前的规划周期接收所述一个或多个对象的所述历史特征作为输入,以及生成所述一个或多个对象的所提取的历史特征作为输出,以及其中,所述第二神经网络接收所述一个或多个对象的所提取的历史特征以及地图信息作为输入,以及生成所述一个或多个对象的所预测的行为作为输出。
5.根据权利要求4所述的方法,其中,基于所述自动驾驶车辆的矩形感知和预测区域的网格细分,用相关联的块信息标记所述一个或多个对象的所提取的历史特征和所述地图信息,所述网格细分包括基于网格将所述自动驾驶车辆的所述矩形感知和预测区域细分成多个均匀大小的矩形块。
6.根据权利要求5所述的方法,其中,所述一个或多个对象的所预测的行为表示为一列数字,对于预测包含对象的所述感知和预测区域中的每个块,所述数字指示以下中的一个或多个:对象类型、关于与所述块相关联的所述对象的所预测的行为的一个或多个特征,或置信水平。
7.一种存储有指令的非暂时性机器可读介质,所述指令在由处理器执行时致使所述处理器执行用于在自动驾驶车辆处使用机器学习预测环境对象的行为的操作,所述操作包括:
对在某个时间点从所述自动驾驶车辆的感知模块接收的感知数据应用第一神经网络,以提取一组历史特征;
基于来自所述第一神经网络的所提取的历史特征和从地图获得的地图信息,使用第二神经网络预测所述自动驾驶车辆的环境中的一个或多个对象的行为;以及
至少部分地基于所述自动驾驶车辆的环境中的所述一个或多个对象的所预测的行为来生成控制命令,以控制所述自动驾驶车辆的操作,其中,所述一个或多个对象的所述历史特征包括以下中的一个或多个:位置、速度或加速度,以及其中,所述地图信息来源于高清晰度地图,并且包括以下中的一个或多个:车道特征分量、交通信号分量、静态对象分量或常规地图信息分量。
8.根据权利要求7所述的非暂时性机器可读介质,其中,所述一个或多个对象包括汽车、自行车和/或行人。
9.根据权利要求7所述的非暂时性机器可读介质,其中,所述第一神经网络是多层感知器,以及所述第二神经网络是卷积神经网络。
10.根据权利要求9所述的非暂时性机器可读介质,其中,所述第一神经网络从一个或多个先前的规划周期接收所述一个或多个对象的历史特征作为输入,以及生成所述一个或多个对象的所提取的历史特征作为输出,以及其中,所述第二神经网络接收所述一个或多个对象的所提取的历史特征以及地图信息作为输入,以及生成所述一个或多个对象的所预测的行为作为输出。
11.根据权利要求10所述的非暂时性机器可读介质,其中,基于所述自动驾驶车辆的矩形感知和预测区域的网格细分,用相关联的块信息标记所述一个或多个对象的所提取的历史特征和所述地图信息,所述网格细分包括基于网格将所述自动驾驶车辆的所述矩形感知和预测区域细分成多个均匀大小的矩形块。
12.根据权利要求11所述的非暂时性机器可读介质,其中,所述一个或多个对象的所预测的行为表示为一列数字,对于预测包含对象的所述感知和预测区域中的每个块,所述数字指示以下中的一个或多个:对象类型、关于与所述块相关联的所述对象的所预测的行为的一个或多个特征,或置信水平。
13.一种数据处理系统,包括:
处理器;以及
存储器,所述存储器联接至所述处理器,以存储指令,所述指令在由所述处理器执行时致使所述处理器执行用于在自动驾驶车辆处使用机器学习预测环境对象的行为的操作,所述操作包括:
对在某个时间点从所述自动驾驶车辆的感知模块接收的感知数据应用第一神经网络,以提取一组历史特征;
基于来自所述第一神经网络的所提取的历史特征和从地图获得的地图信息,使用第二神经网络预测所述自动驾驶车辆的环境中的一个或多个对象的行为;以及
至少部分地基于所述自动驾驶车辆的环境中的所述一个或多个对象的所预测的行为来生成控制命令,以控制所述自动驾驶车辆的操作,
其中,所述一个或多个对象的所述历史特征包括以下中的一个或多个:位置、速度或加速度,以及其中,所述地图信息来源于高清晰度地图,并且包括以下中的一个或多个:车道特征分量、交通信号分量、静态对象分量或常规地图信息分量。
14.根据权利要求13所述的数据处理系统,其中,所述一个或多个对象包括汽车、自行车和/或行人。
15.根据权利要求13所述的数据处理系统,其中,所述第一神经网络是多层感知器,以及所述第二神经网络是卷积神经网络。
16.根据权利要求15所述的数据处理系统,其中,所述第一神经网络从一个或多个先前的规划周期接收所述一个或多个对象的历史特征作为输入,以及生成所述一个或多个对象的所提取的历史特征作为输出,以及其中,所述第二神经网络接收所述一个或多个对象的所提取的历史特征以及地图信息作为输入,以及生成所述一个或多个对象的所预测的行为作为输出。
17.根据权利要求16所述的数据处理系统,其中,基于所述自动驾驶车辆的矩形感知和预测区域的网格细分,用相关联的块信息标记所述一个或多个对象的所提取的历史特征和所述地图信息,所述网格细分包括基于网格将所述自动驾驶车辆的所述矩形感知和预测区域细分成多个均匀大小的矩形块。
18.根据权利要求17所述的数据处理系统,其中,所述一个或多个对象的所预测的行为表示为一列数字,对于预测包含对象的所述感知和预测区域中的每个块,所述数字指示以下中的一个或多个:对象类型、关于与所述块相关联的所述对象的所预测的行为的一个或多个特征,或置信水平。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/206,636 | 2018-11-30 | ||
US16/206,636 US10997729B2 (en) | 2018-11-30 | 2018-11-30 | Real time object behavior prediction |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111258217A CN111258217A (zh) | 2020-06-09 |
CN111258217B true CN111258217B (zh) | 2023-04-18 |
Family
ID=67841018
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910823043.2A Active CN111258217B (zh) | 2018-11-30 | 2019-09-02 | 实时对象行为预测 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10997729B2 (zh) |
EP (1) | EP3660734A1 (zh) |
JP (1) | JP7222868B2 (zh) |
CN (1) | CN111258217B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117521725A (zh) * | 2016-11-04 | 2024-02-06 | 渊慧科技有限公司 | 加强学习系统 |
CN114127738A (zh) * | 2019-05-06 | 2022-03-01 | 哲内提 | 自动地图制作和定位 |
JP7124797B2 (ja) * | 2019-06-28 | 2022-08-24 | トヨタ自動車株式会社 | 機械学習方法および移動ロボット |
US11203348B2 (en) | 2019-10-28 | 2021-12-21 | Denso International America, Inc. | System and method for predicting and interpreting driving behavior |
US11334797B2 (en) * | 2019-10-28 | 2022-05-17 | Denso International America, Inc. | System and method for predicting and interpreting driving behavior |
US20210252698A1 (en) * | 2020-02-14 | 2021-08-19 | Nvidia Corporation | Robotic control using deep learning |
US11531865B2 (en) * | 2020-02-28 | 2022-12-20 | Toyota Research Institute, Inc. | Systems and methods for parallel autonomy of a vehicle |
US11335104B2 (en) * | 2020-03-31 | 2022-05-17 | Toyota Research Institute, Inc. | Methods and system for predicting driver awareness of a feature in a scene |
CN111753371B (zh) * | 2020-06-04 | 2024-03-15 | 纵目科技(上海)股份有限公司 | 一种车身控制网络模型的训练方法、系统、终端和存储介质 |
CN111572562A (zh) * | 2020-07-03 | 2020-08-25 | 腾讯科技(深圳)有限公司 | 自动驾驶方法、装置、设备、系统、车辆和计算机可读存储介质 |
WO2022006777A1 (zh) * | 2020-07-08 | 2022-01-13 | 深圳元戎启行科技有限公司 | 对周围移动物体进行变道分类的方法、系统、计算机设备及存储介质 |
US20220111860A1 (en) * | 2020-10-14 | 2022-04-14 | Volkswagen Aktiengesellschaft | Detecting objects and determining behaviors of objects |
US20220244727A1 (en) * | 2021-02-01 | 2022-08-04 | Nvidia Corporation | Patching deployed deep neural networks for autonomous machine applications |
CN113091747B (zh) * | 2021-04-09 | 2022-08-05 | 北京深睿博联科技有限责任公司 | 一种基于辅助信息的盲人导航方法及装置 |
US12037001B1 (en) * | 2021-07-21 | 2024-07-16 | Ambarella International Lp | Dynamic actuation map using a neural network fed by visual odometry |
US11887317B2 (en) * | 2021-08-30 | 2024-01-30 | Ford Global Technologies, Llc | Object trajectory forecasting |
CN115019500B (zh) * | 2022-07-20 | 2024-03-29 | 深圳市旗扬特种装备技术工程有限公司 | 一种行人过街信号灯控制方法、装置、系统及计算机设备 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10361802B1 (en) * | 1999-02-01 | 2019-07-23 | Blanding Hovenweep, Llc | Adaptive pattern recognition based control system and method |
CN103605285A (zh) * | 2013-11-21 | 2014-02-26 | 南京理工大学 | 汽车驾驶机器人系统的模糊神经网络控制方法 |
JP6257482B2 (ja) | 2014-09-03 | 2018-01-10 | 株式会社デンソーアイティーラボラトリ | 自動運転支援システム、自動運転支援方法及び自動運転装置 |
US20180101434A1 (en) | 2014-12-31 | 2018-04-12 | International Business Machines Corporation | Listing types in a distributed storage system |
EP3272611B1 (en) * | 2015-04-21 | 2019-07-24 | Panasonic Intellectual Property Management Co., Ltd. | Information processing system, information processing method, and program |
CN109416883B (zh) | 2016-06-27 | 2020-05-26 | 日产自动车株式会社 | 车辆控制方法及车辆控制装置 |
JP6731819B2 (ja) | 2016-09-26 | 2020-07-29 | 日立オートモティブシステムズ株式会社 | 移動体軌道予測システム |
US10343685B2 (en) * | 2016-09-28 | 2019-07-09 | Baidu Usa Llc | Physical model and machine learning combined method to simulate autonomous vehicle movement |
JP6769284B2 (ja) | 2016-12-16 | 2020-10-14 | 横河電機株式会社 | 設定装置、設定方法、設定プログラム、記録媒体、及び端末装置 |
JP6905367B2 (ja) * | 2017-03-21 | 2021-07-21 | 株式会社Subaru | 車両の走行制御装置 |
JP2018173860A (ja) * | 2017-03-31 | 2018-11-08 | アイシン・エィ・ダブリュ株式会社 | 走行支援装置及びコンピュータプログラム |
JP6673293B2 (ja) * | 2017-05-24 | 2020-03-25 | トヨタ自動車株式会社 | 車両システム |
CN106990714A (zh) * | 2017-06-05 | 2017-07-28 | 李德毅 | 基于深度学习的适配控制方法与装置 |
WO2018232680A1 (en) * | 2017-06-22 | 2018-12-27 | Baidu.Com Times Technology (Beijing) Co., Ltd. | EVALUATION FRAME FOR PREDICTED TRAJECTORIES IN A SELF-CONTAINING VEHICLE TRAFFIC PREDICTION |
JP7346401B2 (ja) * | 2017-11-10 | 2023-09-19 | エヌビディア コーポレーション | 安全で信頼できる自動運転車両のためのシステム及び方法 |
JP6454799B2 (ja) * | 2018-01-29 | 2019-01-16 | 日立オートモティブシステムズ株式会社 | 行動計画装置 |
US11042156B2 (en) * | 2018-05-14 | 2021-06-22 | Honda Motor Co., Ltd. | System and method for learning and executing naturalistic driving behavior |
CN113056749B (zh) * | 2018-09-11 | 2024-05-24 | 辉达公司 | 用于自主机器应用的未来对象轨迹预测 |
-
2018
- 2018-11-30 US US16/206,636 patent/US10997729B2/en active Active
-
2019
- 2019-09-02 EP EP19194978.3A patent/EP3660734A1/en not_active Ceased
- 2019-09-02 CN CN201910823043.2A patent/CN111258217B/zh active Active
- 2019-10-18 JP JP2019190970A patent/JP7222868B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP7222868B2 (ja) | 2023-02-15 |
US10997729B2 (en) | 2021-05-04 |
EP3660734A1 (en) | 2020-06-03 |
US20200175691A1 (en) | 2020-06-04 |
JP2020083308A (ja) | 2020-06-04 |
CN111258217A (zh) | 2020-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111258217B (zh) | 实时对象行为预测 | |
CN111252061B (zh) | 用于自动驾驶车辆的实时决策制定 | |
CN110641472B (zh) | 基于神经网络的用于自主车辆的安全监控系统 | |
US11068724B2 (en) | Deep learning continuous lane lines detection system for autonomous vehicles | |
CN108475057B (zh) | 基于车辆周围的情境预测车辆的一个或多个轨迹的方法和系统 | |
US11231717B2 (en) | Auto-tuning motion planning system for autonomous vehicles | |
CN112034834B (zh) | 使用强化学习来加速自动驾驶车辆的轨迹规划的离线代理 | |
CN108537326B (zh) | 用于自动驾驶车辆的方法、介质和系统 | |
CN110389585B (zh) | 用于自动驾驶车辆的基于学习的速度规划器 | |
CN110462543B (zh) | 用于评估自动驾驶车辆的感知要求的基于仿真的方法 | |
CN109196432B (zh) | 用于自动驾驶车辆的速度控制参数估计方法、介质和系统 | |
CN109937343B (zh) | 用于自动驾驶车辆交通预测中的预测轨迹的评估框架 | |
US11467591B2 (en) | Online agent using reinforcement learning to plan an open space trajectory for autonomous vehicles | |
CN108604095B (zh) | 确定操作自动驾驶车辆的转向率的方法、介质及处理系统 | |
CN111240312B (zh) | 用于自动驾驶车辆的基于学习的动态建模方法 | |
CN111380534B (zh) | 用于自动驾驶车辆的基于st图学习的方法 | |
CN111948938B (zh) | 规划用于自动驾驶车辆的开放空间轨迹的松弛优化模型 | |
CN108334077B (zh) | 确定自动驾驶车辆的速度控制的单位增益的方法和系统 | |
JP2019185783A (ja) | シミュレーションプラットフォームに配置された、機械学習モデルを訓練するためのシステム及び方法 | |
CN112084830A (zh) | 通过基于视觉的感知系统检测对抗样本 | |
CN112034833B (zh) | 规划用于自动驾驶车辆的开放空间轨迹的在线代理 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |