JP7222868B2 - オブジェクト挙動のリアルタイム予測 - Google Patents

オブジェクト挙動のリアルタイム予測 Download PDF

Info

Publication number
JP7222868B2
JP7222868B2 JP2019190970A JP2019190970A JP7222868B2 JP 7222868 B2 JP7222868 B2 JP 7222868B2 JP 2019190970 A JP2019190970 A JP 2019190970A JP 2019190970 A JP2019190970 A JP 2019190970A JP 7222868 B2 JP7222868 B2 JP 7222868B2
Authority
JP
Japan
Prior art keywords
objects
neural network
autonomous vehicle
map information
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019190970A
Other languages
English (en)
Other versions
JP2020083308A (ja
Inventor
リャンリャン ヂャン
ホンイー サン
ドン リー
ヂャンタオ フー
ジンハオ ミャオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu USA LLC
Original Assignee
Baidu USA LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu USA LLC filed Critical Baidu USA LLC
Publication of JP2020083308A publication Critical patent/JP2020083308A/ja
Application granted granted Critical
Publication of JP7222868B2 publication Critical patent/JP7222868B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • G05B13/048Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators using a predictor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • G05B13/042Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a parameter or coefficient is automatically adjusted to optimise the performance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0259Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4042Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • Evolutionary Computation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Electromagnetism (AREA)
  • Biomedical Technology (AREA)
  • Databases & Information Systems (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • General Engineering & Computer Science (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Optics & Photonics (AREA)
  • Acoustics & Sound (AREA)

Description

本願の実施形態は、主に自動運転車両の動作に関する。より具体的には、本開示の実施形態は、自動運転車両を制御する際に機械学習アルゴリズムにより予測することに関する。
車両が自動運転モード(例えば、ドライバーレス)で走行している場合に、乗員、特に運転手を運転に関連するいくつかの責務から解放することができる。自動運転モードで走行している場合に、車両が車載センサを用いて様々な場所にナビゲートされることができ、ヒューマンコンピュータインタラクションが最小限に抑えられた場合、又は乗員がいない状況下などで走行することを可能にする。
安全で信頼できる自動運転技術は、自動運転車両の周囲の他のオブジェクトの挙動を正確に予測することを必要とする。周囲環境からの特徴をどのように符号化するかに関する解決的手段が開発された。しかしながら、オブジェクトのインタラクションを予測することは、従来からオブジェクトのそれぞれに対して予測を実行するとともに、全てのオブジェクトの間で繰り返し算出する必要があるため、依然として困難で時間がかかることである。
本開示の一態様によれば、自動運転車両において機械学習により環境オブジェクトの挙動を予測するためのコンピュータによって実施される方法であって、
ある時点で前記自動運転車両の感知モジュールから受信された感知データに対して第1ニューラルネットワークを適用して1組の感知特徴を抽出することと、
前記第1ニューラルネットワークから抽出された感知特徴と、地図から取得された地図情報とに基づいて、第2ニューラルネットワークを用いて前記自動運転車両の環境における1つ又は複数のオブジェクトの挙動を予測することと、
前記自動運転車両の環境における前記1つ又は複数のオブジェクトの予測された挙動に少なくとも部分的に基づいて制御コマンドを生成して、前記自動運転車両の動作を制御することと、を含むコンピュータによって実施される方法を提供する。
本開示の他の態様によれば、指令が格納されている非一時的機械可読媒体であって、前記指令は、プロセッサによって実行されるときに、自動運転車両において機械学習により環境オブジェクトの挙動を予測するための動作を前記プロセッサに実行させ、前記動作は、
ある時点で前記自動運転車両の感知モジュールから受信された感知データに対して第1ニューラルネットワークを適用して1組の感知特徴を抽出することと、
前記第1ニューラルネットワークから抽出された感知特徴と、地図から取得された地図情報とに基づいて、第2ニューラルネットワークを用いて前記自動運転車両の環境における1つ又は複数のオブジェクトの挙動を予測することと、
前記自動運転車両の環境における前記1つ又は複数のオブジェクトの予測された挙動に少なくとも部分的に基づいて制御コマンドを生成して、前記自動運転車両の動作を制御することと、を含む非一時的機械可読媒体を提供する。
本開示の更なる態様によれば、プロセッサと、指令を格納するために前記プロセッサに接続されるメモリとを備えるデータ処理システムであって、前記指令は、前記プロセッサによって実行されるときに、自動運転車両において機械学習により環境オブジェクトの挙動を予測するための動作を前記プロセッサに実行させ、前記動作は、
ある時点で前記自動運転車両の感知モジュールから受信された感知データに対して第1ニューラルネットワークを適用して1組の感知特徴を抽出することと、
前記第1ニューラルネットワークから抽出された感知特徴と、地図から取得された地図情報とに基づいて、第2ニューラルネットワークを用いて前記自動運転車両の環境における1つ又は複数のオブジェクトの挙動を予測することと、
前記自動運転車両の環境における前記1つ又は複数のオブジェクトの予測された挙動に少なくとも部分的に基づいて制御コマンドを生成して、前記自動運転車両の動作を制御することと、を含むデータ処理システムを提供する。
本開示の実施形態は、添付図面の各図において、限定的ではなく例示的な形態で示され、図面における同じ図面符号は、同様の要素を示す。
一実施形態に係るネットワーク化システムを示すブロック図である。
一実施形態に係る自動運転車両の一例を示すブロック図である。
一実施形態に係る自動運転車両と一緒に用いられる感知・計画システムの一例を示すブロック図である。 一実施形態に係る自動運転車両と一緒に用いられる感知・計画システムの一例を示すブロック図である。
一実施形態に係る畳み込みニューラルネットワーク(CNN)内の様々な層を示す図である。
一実施形態に係る深層ニューラルネットワークのトレーニング及び展開を示す図である。
一実施形態に係るデータ処理アーキテクチャを示すブロック図である。
一実施形態に係るデータの例示的な視覚表現を示す図である。 一実施形態に係るデータの例示的な視覚表現を示す図である。
一実施形態に係る、自動運転車両(ADV)において機械学習により環境オブジェクトの挙動を予測するための例示的な方法を示すフローチャートである。
一実施形態に係るデータ処理システムを示すブロック図である。
以下、説明の詳細を参照しながら、本開示の様々な実施形態及び態様について説明し、添付の図面は、前記様々な実施形態を示す。以下の説明及び図面は、本開示を説明するためのものであり、本開示を限定するものとして解釈されるべきではない。本開示の様々な実施形態を完全に把握するために、多数の特定の詳細を説明する。しかしながら、場合によっては、本開示の実施形態に対する簡潔な説明を提供するために、周知又は従来の詳細について説明していない。
本明細書において「一実施形態」又は「実施形態」とは、該実施形態に関連して説明された特定の特徴、構造、又は特性が、本開示の少なくとも1つの実施形態に含まれてもよいことを意味する。本明細書の様々な箇所における「一実施形態において」という表現は、本明細書の全体において全てが同一の実施形態を指すとは限らない。
いくつかの実施形態によれば、方法、装置及びシステムは、自動運転車両(ADV)において機械学習により環境オブジェクトの挙動を予測することができる。第1ニューラルネットワーク及び第2ニューラルネットワークを少なくとも含むデータ処理アーキテクチャを生成し、第1ニューラルネットワーク及び第2ニューラルネットワークがトレーニングデータセットによりトレーニング済みである。トレーニング済みニューラルネットワークを含むデータ処理アーキテクチャを用いて、ADV環境における1つ又は複数のオブジェクトの挙動を予測する。ADVの動作を制御するために、ADV環境における1つ又は複数のオブジェクトの予測された挙動に少なくとも部分的に基づいて運転信号を生成する。
一実施形態において、1つ又は複数のオブジェクトは、ADVの感知及び予測領域における自動車、自転車及び/又は歩行者を含む。第1ニューラルネットワークは、多層パーセプトロンであり、第2ニューラルネットワークは、畳み込みニューラルネットワーク(CNN)である。
一実施形態において、第1ニューラルネットワークは、1つ又は複数の以前の計画周期から1つ又は複数のオブジェクトの履歴特徴(historical features)を入力として受け取るとともに、1つ又は複数のオブジェクトの抽出された履歴特徴を出力として生成し、第2ニューラルネットワークは、1つ又は複数のオブジェクトの抽出された履歴特徴及び地図情報を入力として受け取るとともに、1つ又は複数のオブジェクトの予測された挙動を出力として生成する。
一実施形態において、1つ又は複数のオブジェクトの履歴特徴は、位置、速度又は加速度のうち1つ又は複数を含み、地図情報は、高精細地図に由来するとともに、車線特徴成分、交通信号成分、静的オブジェクト成分又は一般地図情報成分のうち1つ又は複数を含む。
一実施形態において、ADVの矩形感知(rectangular perception)及び予測領域のグリッドサブディビジョンに基づいて、1つ又は複数のオブジェクトの抽出された履歴特徴及び地図情報を、関連付けられるブロック情報でラベル付けし、該グリッドサブディビジョンは、ADVの矩形感知及び予測領域をグリッドに基づいて、複数の均一サイズの矩形ブロックに細分化することを含む。
一実施形態において、1つ又は複数のオブジェクトの予測された挙動は、オブジェクトが含まれると予測される感知及び予測領域におけるブロック毎について、オブジェクト種類、ブロックに関連付けられたオブジェクトの予測された挙動に関する1つ又は複数の特徴、又は信頼度レベルのうち1つ又は複数を示す数字リストとして表示される。
図1は本開示の一実施形態に係る自動運転車両のネットワーク構成を示すブロック図である。図1を参照して、ネットワーク構成100は、ネットワーク102を介して1つ又は複数のサーバ103~104に通信可能に接続される自動運転車両101を備える。1台の自動運転車両のみが示されているが、複数の自動運転車両はネットワーク102を介して互いに接続され、及び/又はサーバ103~104に接続されてもよい。ネットワーク102は、有線又は無線のローカルエリアネットワーク(LAN)、インターネットなどのワイドエリアネットワーク(WAN)、セルラーネットワーク、衛星ネットワーク又はそれらの組み合わせなどの任意のタイプのネットワークであってもよい。サーバ103~104は、Web又はクラウドサーバ、アプリケーションサーバ、バックエンドサーバ又はそれらの組み合わせなどの任意のタイプのサーバ又はサーバクラスタであってもよい。サーバ103~104は、データ解析サーバ、コンテンツサーバ、交通情報サーバ、地図・ポイントオブインタレスト(MPOI)サーバ又は位置サーバなどであってもよい。
自動運転車両とは、運転手からの入力がほとんど又は全くない状態でナビゲートされて環境を通過する自動運転モードにあるように構成されることが可能な車両を指す。このような自動運転車両は、車両が走行している環境に関する情報を検出するように構成される1つ又は複数のセンサを有するセンサシステムを備えてもよい。前記車両及びその関連コントローラが、検出された情報を用いてナビゲートして前記環境を通過する。自動運転車両101が手動モード、完全自動運転モード又は一部自動運転モードで走行することができる。
一実施形態において、自動運転車両101は、感知・計画システム110、車両制御システム111、無線通信システム112、ユーザインタフェースシステム113、及びセンサシステム115を含むが、これらに限定されない。自動運転車両101は、エンジン、車輪、ステアリングホイール、変速機などの一般車両に含まれるいくつかの共通構成要素をさらに含んでもよく、前記構成要素は車両制御システム111及び/又は感知・計画システム110により、加速信号又はコマンド、減速信号又はコマンド、ステアリング信号又はコマンド、ブレーキ信号又はコマンドなどの複数の通信信号及び/又はコマンドを用いて制御することができる。
構成要素110~115は、インターコネクト、バス、ネットワーク又はそれらの組み合わせを介して互いに通信可能に接続されてもよい。例えば、構成要素110~115は、コントローラエリアネットワーク(CAN)バスを介して互いに通信可能に接続されてもよい。CANバスは、ホストコンピュータなしのアプリケーションにおいてマイクロコントローラ及びデバイスが相互に通信できるように設計された車両バス規格である。これは、当初は自動車内の多重電気配線のために設計されたメッセージベースのプロトコルであるが、他の多くの環境においても使用される。
次に図2を参照して、一実施形態において、センサシステム115は、1つ又は複数のカメラ211と、全地球測位システム(GPS)ユニット212と、慣性計測ユニット(IMU)213と、レーダユニット214と、光検出と測距(LIDAR)ユニット215とを含むが、それらに限定されない。GPSユニット212は、自動運転車両の位置に関する情報を提供するように動作されることが可能な送受信機を備えてもよい。IMUユニット213は、慣性加速度に基づいて自動運転車両の位置及び向きの変化を感知することができる。レーダユニット214は、無線信号を用いて自動運転車両のローカル環境内のオブジェクトを感知するシステムを表してもよい。いくつかの実施形態において、レーダユニット214は、オブジェクトを感知することに加えて、オブジェクトの速度及び/又は進行方向を更に感知することができる。LIDARユニット215は、自動運転車両が位置している環境内のオブジェクトをレーザで感知することができる。他のシステム構成要素に加えて、LIDARユニット215は、1つ又は複数のレーザ光源、レーザースキャナ及び1つ又は複数の検出器をさらに備えてもよい。カメラ211は、自動運転車両の周囲の環境の画像を取り込むための1つ又は複数のデバイスを含んでもよい。カメラ211は、スチルカメラ及び/又はビデオカメラであってもよい。カメラは、例えば、回転プラットフォーム及び/又は傾斜プラットフォームに取り付けられることによって、機械的に移動可能なものであってもよい。
センサシステム115は、ソナーセンサ、赤外線センサ、ステアリングセンサ、スロットルセンサ、ブレーキセンサ及びオーディオセンサ(例えば、マイクロホン)などの他のセンサをさらに含んでもよい。オーディオセンサは、自動運転車両の周囲の環境から音声を取り込むように構成されてもよい。ステアリングセンサは、ステアリングホイールの操舵角、車両の車輪の変向角度、又はそれらの組み合わせを感知するように構成されてもよい。スロットルセンサ及びブレーキセンサは、車両のスロットル位置及びブレーキ位置をそれぞれ検出する。場合によっては、スロットルセンサ及びブレーキセンサは、集積型スロットル/ブレーキセンサとして統合されてもよい。
一実施形態において、車両制御システム111は、ステアリングユニット201と、スロットルユニット202(加速ユニットとも呼ばれる)と、ブレーキユニット203とを含むが、それらに限定されない。ステアリングユニット201は、車両の方向又は進行方向を調整するために用いられる。スロットルユニット202は、モータ又はエンジンの速度を制御して、さらにモータ又はエンジンの速度が車両の速度及び加速度を制御するために用いられる。ブレーキユニット203は、車両の車輪又はタイヤを減速させる摩擦を与えることによって車両を減速させる。なお、図2に示される構成要素は、ハードウェア、ソフトウェア、又はそれらの組み合わせで実装されてもよい。
図1を再び参照して、無線通信システム112は、自動運転車両101と、デバイス、センサ、他の車両などの外部システムとの間の通信を可能にする。例えば、無線通信システム112は、1つ又は複数のデバイスと直接無線通信するか、又は通信ネットワークを介して無線通信し、例えばネットワーク102を介してサーバ103~104と通信することができる。無線通信システム112は、WiFi(登録商標)などの任意のセルラー通信ネットワーク又は無線ローカルエリアネットワーク(WLAN)を用いて、他の構成要素又はシステムと通信することができる。無線通信システム112は、例えば、赤外線リンク、ブルートゥース(登録商標)などを用いて、デバイス(例えば、乗員の携帯装置、表示装置、車両101内のスピーカ)と直接通信することができる。ユーザインタフェースシステム113は、例えばキーボード、タッチスクリーン表示装置、マイクロホン及びスピーカなどを含む、車両101内に実装される周辺装置の一部であってもよい。
自動運転車両101の機能の一部又は全部は、特に自動運転モードで動作された場合に、感知・計画システム110によって制御又は管理されてもよい。感知・計画システム110は、センサシステム115、制御システム111、無線通信システム112及び/又はユーザインターフェースシステム113から情報を受信し、受信された情報を処理し、出発地から目的地までのルート又は経路を計画し、次いで計画及び制御情報に基づいて車両101を運転するために、必要なハードウェア(例えば、プロセッサ、メモリ、記憶デバイス)及びソフトウェア(例えば、オペレーティングシステム、計画及びルーティングプログラム)を備える。あるいは、感知・計画システム110は、車両制御システム111と一体化されてもよい。
例えば、乗員としてのユーザは、ユーザインタフェースを介して行程の出発位置及び目的地を指定することができる。感知・計画システム110は行程関連データを取得する。例えば、感知・計画システム110は、サーバ103~104の一部であってもよいMPOIサーバから位置及びルート情報を取得することができる。位置サーバは、位置サービスを提供し、MPOIサーバは、地図サービス及びある位置のPOIを提供する。あるいは、そのような位置及びMPOI情報は、感知・計画システム110の永続性記憶装置にローカルにキャッシュされてもよい。
自動運転車両101がルートに沿って走行している間に、感知・計画システム110は、交通情報システム又はサーバ(TIS)からリアルタイム交通情報を取得することができる。なお、サーバ103~104は、第三者機関によって操作されてもよい。あるいは、サーバ103~104の機能は、感知・計画システム110と一体化されてもよい。リアルタイム交通情報、MPOI情報、位置情報及びセンサシステム115によって検出又は感知されたリアルタイムなローカル環境データ(例えば、障害物、オブジェクト、付近の車両)に基づいて、感知・計画システム110は、安全で効率的に指定された目的地に到達するように、最適なルートを計画し、かつ計画されたルートにより例えば制御システム111を介して車両101を運転することができる。
サーバ103は、様々なクライアントにデータ解析サービスを実行するデータ解析システムであってもよい。一実施形態において、データ解析システム103は、データコレクタ121と、機械学習エンジン122とを備える。データコレクタ121は、自動運転車両又は人間運転手によって運転される一般車両などの様々な車両から運転統計データ123を収集する。運転統計データ123は、発行された運転命令(例えば、スロットル、ブレーキ及びステアリング命令)、並びに異なる時点で車両のセンサにより取得された車両の応答(例えば、速度、加速、減速、方向)を表す情報を含む。運転統計データ123は、例えば、出発地及び目的地の位置を含むルート、MPOI、道路状況、気象状況などのような、異なる時点における運転環境を記述する情報をさらに含むことができる。
運転統計データ123に基づいて、機械学習エンジン122は、様々な目的でルールセット、アルゴリズム及び/又は予測モデル124を生成又はトレーニングする。一実施形態において、アルゴリズム124は、自動運転車両の感知及び予測領域におけるオブジェクトの挙動を予測するための、ニューラルネットワークに基づくデータ処理アーキテクチャを含んでもよい。
次に、アルゴリズム124は、自動運転中にリアルタイムで使用するためにADVにアップロードすることができる。
図3A及び図3Bは、一実施形態に係る自動運転車両と一緒に用いられる感知・計画システムの一例を示すブロック図である。システム300は、感知・計画システム110、制御システム111及びセンサシステム115を含むが、これらに限定されなく、図1の自動運転車両101の一部として実施されてもよい。図3A~図3Bを参照し、感知・計画システム110は、測位モジュール301と、感知モジュール302と、予測モジュール303と、決定モジュール304と、計画モジュール305と、制御モジュール306と、ルーティングモジュール307と、機械学習モジュール308とを含むが、それらに限定されない。
モジュール301~308の一部又はすべては、ソフトウェア、ハードウェア、又はそれらの組み合わせによって実装されてもよい。例えば、これらのモジュールは、永続性記憶装置352にインストールされ、メモリ351にロードされ、1つ又は複数のプロセッサ(図示せず)によって実行されてもよい。なお、これらのモジュールの一部又はすべては、図2に示す車両制御システム111におけるモジュールの一部又はすべてに通信可能に接続されるか、又は一体に統合されてもよい。モジュール301~308の一部は、集積モジュールとして一体化されてもよい。
測位モジュール301は、自動運転車両300(例えば、GPSユニット212を利用して)の現在位置を確定し、ユーザの行程又はルートに関するあらゆるデータを管理する。測位モジュール301(地図・ルートモジュールとも呼ばれる)は、ユーザの行程又はルートに関連するあらゆるデータを管理する。ユーザは、例えばユーザインターフェースを介してログインして行程の出発位置及び目的位置を指定することができる。測位モジュール301は、行程に関連するデータを取得するために、自動運転車両300の地図・ルート情報311などの他の構成要素と通信する。例えば、測位モジュール301は、位置サーバと、地図・ポイントオブインタレスト(MPOI)サーバから位置及びルート情報を取得することができる。位置サーバは、位置サービスを提供し、MPOIサーバは、地図サービスとある位置のPOIとを提供し、地図・ルート情報311の一部としてキャッシュされてもよい。自動運転車両300がルートに沿って走行している間に、測位モジュール301は、さらに交通情報システム又はサーバからリアルタイム交通情報を取得することができる。
センサシステム115により提供されたセンサデータ、及び測位モジュール301により得られた測位情報に基づいて、感知モジュール302は周囲環境に対する感知を確定する。感知情報は、一般運転手が運転手によって運転されている車両の周囲で感知するものを表すことができる。感知とは、例えばオブジェクトの形態で、車線構成、信号機信号、他の車両の相対位置、歩行者、建築物、横断歩道又は他の交通関連標識(例えば、止まれ標識、ゆずれ標識)などを含むことができる。車線構成は、例えば、車線の形状(例えば、直線又はカーブ)、車線の幅、道路内の車線数、一方向又は二方向車線、合流車線又は分流車線、退出車線など、1つ又は複数の車線を記述する情報を含む。
感知モジュール302は、1つ又は複数のカメラによって取り込まれた画像を処理及び解析して、自動運転車両の環境におけるオブジェクト及び/又は特徴を認識するために、コンピュータビジョンシステム又はコンピュータビジョンシステムの機能を含むことができる。前記オブジェクトは、交通信号、道路境界、他の車両、歩行者及び/又は障害物などを含んでもよい。コンピュータビジョンシステムは、オブジェクト認識アルゴリズム、ビデオトラッキング、及び他のコンピュータビジョン技術を使用することができる。いくつかの実施形態において、コンピュータビジョンシステムは、環境地図の描画、オブジェクトの追跡、及びオブジェクトの速度の推定などを行うことができる。感知モジュール302は、レーダ及び/又はLIDARのような他のセンサによって提供される他のセンサデータに基づいてオブジェクトを検出することもできる。
オブジェクトのそれぞれについて、予測モジュール303は、その場合にオブジェクトがどのように挙動するかを予測する。予測は、一組の地図・ルート情報311及び交通ルール312を考慮してその時点で運転環境を感知する感知データに基づいて実行される。例えば、オブジェクトが対向車両であり、現在の運転環境が交差点を含む場合に、予測モジュール303は、車両が前方に直進するか、又は曲がるかを予測する。感知データが、交差点に信号機がないことを示す場合に、予測モジュール303は、交差点に進入する前に車両が完全に停止する必要があると予測することが可能である。感知データが、車両が現在左折専用車線又は右折専用車線にあることを示す場合に、予測モジュール303は、車両がそれぞれ左折又は右折する可能性がより高いと予測することが可能である。
オブジェクトのそれぞれについて、決定モジュール304は、オブジェクトを如何に扱うかについて決定を行う。例えば、特定のオブジェクト(例えば、交差ルートにおける他の車両)及びオブジェクトを記述するメタデータ(例えば、速度、方向、曲がり角)について、決定モジュール304は、前記オブジェクトとどのように出会うか(例えば、追い越し、道譲り、停止、追い抜き)を決定する。決定モジュール304は、交通ルール又は運転ルール312などのルールセットに基づいてそのような決定を行うことができ、前記ルールセットは永続性記憶装置352に格納されていてもよい。
ルーティングモジュール307は、出発地から目的地までの1つ又は複数のルート又は経路を提供するように構成される。出発位置から目的位置までの所与の行程(例えば、ユーザから受信された所与の行程)について、ルーティングモジュール307は、ルート・地図情報311を取得し、出発位置から目的位置までのすべての可能なルート又は経路を確定する。ルーティングモジュール307は、出発位置から目的位置までの各ルートを特定する地形図形態の基準線を生成することができる。基準線は、他の車両、障害物、又は交通状況などの他のいかなる干渉も受けない理想的なルート又は経路を指す。即ち、ADVは、道路上に他の車両、歩行者又は障害物がない場合に、基準線に精確的にまたは密接的に従うべきである。次いで、地形図を決定モジュール304及び/又は計画モジュール305に提供する。決定モジュール304及び/又は計画モジュール305は、全ての可能なルートを検査し、測位モジュール301からの交通状況、感知モジュール302によって感知される運転環境、及び予測モジュール303によって予測される交通状況などの、他のモジュールによって提供される他のデータに基づいて最適なルートのうちの1つを選択及び変更する。特定の時点における特定の運転環境に応じて、ADVを制御するための実際の経路又はルートは、ルーティングモジュール307によって提供される基準線に近づいているか、又は異なっていてもよい。
感知されたオブジェクトのそれぞれについての決定に基づいて、計画モジュール305は、ルーティングモジュール307によって提供された基準線をベースとして、自動運転車両のための経路又はルート、並びに運転パラメータ(例えば、距離、速度、及び/又は曲がり角)を計画する。言い換えれば、所与のオブジェクトについて、決定モジュール304は、該オブジェクトに対して何を行うかを決定し、計画モジュール305は、どのように行うかを確定する。例えば、所与のオブジェクトについて、決定モジュール304は前記オブジェクトを追い抜くか否かを決定することができ、計画モジュール305は前記オブジェクトを左側から追い抜くか又は右側から追い抜くかを確定することができる。計画及び制御データは、計画モジュール305により生成され、車両300が次の移動周期(例えば、次のルート/経路区間)にはどのように移動するかを記述する情報を含む。例えば、計画及び制御データは車両300が30マイル/時間(mph)の速度で10メートル走行し、次に25mphの速度で右車線に変更するように指示することができる。
制御モジュール306は、計画及び制御データに基づいて、計画及び制御データにより定義されたルート又は経路に応じて適当なコマンド若しくは信号を車両制御システム111に送信することにより自動運転車両を制御及び走行させる。前記計画及び制御データは、ルート又は経路に沿って異なる時点で適切な車両構成又は運転パラメータ(例えば、スロットル、ブレーキ及びステアリングコマンド)を使用して車両をルート又は経路の第1点から第2点まで走行させるための十分な情報を含む。
一実施形態において、計画段階は、例えば、時間間隔が100ミリ秒(ms)の周期など、複数の計画周期(planning cycles,運転周期とも呼ばれる)で実行される。計画周期又は運転周期のそれぞれについて、計画及び制御データに基づいて1つ又は複数の制御コマンドを発する。即ち、100msごとに、計画モジュール305は、次のルートセグメント又は経路区間(例えば、目標位置及びADVが目標位置に到着するのに必要な時間が含まれる)を計画する。あるいは、計画モジュール305は、具体的な速度、方向及び/又は操舵角などを更に指定することができる。一実施形態において、計画モジュール305は、次の所定期間(例えば、5秒)のルートセグメント又は経路区間を計画する。計画周期のそれぞれについて、計画モジュール305は、前の周期で計画された目標位置に基づいて、現在の周期(例えば、次の5秒)のための目標位置を計画する。制御モジュール306は、次に、現在の周期における計画及び制御データに基づいて、1つ又は複数の制御コマンド(例えば、スロットル、ブレーキ、ステアリング制御コマンド)を生成する。
なお、決定モジュール304及び計画モジュール305は、集積モジュールとして一体化されてもよい。決定モジュール304/計画モジュール305は、自動運転車両の運転経路を確定するために、ナビゲーションシステム又はナビゲーションシステムの機能を含んでいてもよい。例えば、ナビゲーションシステムは、自動運転車両の以下の経路に沿った走行を達成するための一連の速度及び進行方向を確定することができ、前記経路では、自動運転車両が最終的な目的地に通じる走行車線ベースの経路に沿って前進するとともに、障害物の感知を実質的に回避できる。目的地は、ユーザインターフェースシステム113により行われるユーザ入力に従って設定されてもよい。ナビゲーションシステムは、自動運転車両が走行している間に、運転経路を動的に更新することができる。ナビゲーションシステムは、自動運転車両のための運転経路を確定するために、GPSシステム及び1つ又は複数の地図からのデータを統合することができる。
機械学習モジュール308は、既知のデータに基づいて予測を生成するために使用可能な人工ニューラルネットワークなどの機械学習技術によりデータ処理アーキテクチャを実装することができる。機械学習モジュール308は、以前にトレーニングされたニューラルネットワーク313により、感知特徴を抽出するとともに、地図情報(例えば、車線構成、静的オブジェクトなど)から障害物の挙動を予測することができる。
機械学習アルゴリズムは、一組のデータに基づいて学習を行うことができるアルゴリズムである。機械学習アルゴリズムの実施形態は、データセット内の高レベルの抽象化概念をモデル化するように設計されてもよい。例えば、画像認識アルゴリズムは、所定の入力がいくつかのカテゴリのどれに属するかを判定するために用いられてもよく、回帰アルゴリズムは、所定の入力値を出力してもよく、パターン認識アルゴリズムは、翻訳テキストを生成するか、又はテキストから音声及び/又は音声認識を実行するために用いられてもよい。
機械学習アルゴリズムの例示的なタイプは、ニューラルネットワークである。ニューラルネットワークには多くのタイプがあり、簡単タイプのニューラルネットワークは、フィードフォワードネットワークである。フィードフォワードネットワークは、ノードが層の形態で配列される非循環グラフとして実装されてもよい。通常、フィードフォワードネットワークトポロジは、少なくとも1つの隠れ層によって分離された入力層及び出力層を含む。隠れ層は、入力層によって受け取られた入力を、出力層において出力を生成するための表現に変換してもよい。ネットワークノードは、エッジを介して隣接する層におけるノードに完全に結合されるが、各層内のノードの間にエッジはない。フィードフォワードネットワークの入力層のノードで受信されたデータは、各層を結合するエッジのそれぞれに関連付けられる係数(「重み」)に基づいてネットワークにおける連続層毎のノードの状態を計算する活性化関数を介して出力層のノードに伝播する(即ち、「フィードフォワード」)。ニューラルネットワークアルゴリズムからの出力は、実行中のアルゴリズムによって表される具体的なモデルに応じて、様々な形態を取っても良い。
機械学習アルゴリズムが特定の問題をモデル化する前に、トレーニングデータセットを用いてアルゴリズムをトレーニングしてもよい。ニューラルネットワークをトレーニングすることは、ネットワークトポロジを選択することと、ネットワークによってモデル化された問題を示すトレーニングデータのセットを用いることと、ネットワークモデルがトレーニングデータセットの全てのインスタンスに対する最小の誤差で実行するまで重みを調整することとを含む。例えば、ニューラルネットワークのための教師あり学習トレーニングプロセスの間に、トレーニングデータセットにおけるインスタンスを表す入力に応答してネットワークによって生成された出力と、該インスタンスの「正しい」ラベル付き出力とを比較し、該出力とラベル付き出力との差を表す誤差信号を計算し、誤差信号がネットワーク層を後方に伝播するときに該誤差を最小化するように結合に関連付けられた重みを調整する。該ネットワークは、トレーニングデータセットのインスタンスから生成された出力におけるそれぞれの誤差が最小化されたときに、「トレーニングされた」と見なされる。
ニューラルネットワークを、グラフ関係を有する機能ネットワークに要約してもよい。当該技術分野で周知のように、機械学習で使用されるニューラルネットワークの実施形態には様々なタイプがある。前述のように、例示的なタイプのニューラルネットワークは、フィードフォワードネットワークである。
第2の例示的なタイプのニューラルネットワークは、畳み込みニューラルネットワーク(CNN)である。CNNは、画像データなどの既知のグリッドトポロジを有するデータを処理するための専用フィードフォワードニューラルネットワークである。したがって、CNNは、通常、視覚及び画像認識アプリケーションの計算に用いられるが、自動運転車両の背景での音声及び言語処理と、オブジェクト意図予測などの、他のタイプのパターン認識にも使用可能である。CNN入力層におけるノードは、1組の「フィルタ」(網膜に発現される受信ドメインによって触発された特徴検出器)に編成され、フィルタの組毎の出力はネットワークの連続層におけるノードに伝播される。CNNの計算は、フィルタ毎に畳み込み演算を適用して該フィルタの出力を発生することを含む。畳み込みは、2つの元の関数のいずれかの修正バージョンである第3関数を生成するために、2つの関数によって実行される特別タイプの演算である。畳み込みネットワーク用語では、畳み込まれた第1関数は入力と呼ばれ、第2関数は畳み込みカーネルと呼ばれてもよい。出力は、特徴マップと呼ばれてもよい。例えば、畳み込み層への入力は、入力画像の様々な色成分を画定する多次元データアレイであってもよい。畳み込みカーネルは、ニューラルネットワークのためのトレーニングプロセスによってパラメータが調整される多次元パラメータアレイであってもよい。
上述した例示的なニューラルネットワークは、深層学習を行うために用いられてもよい。深層学習は深層ニューラルネットワークによる機械学習である。深層学習のための深層ニューラルネットワークは、単一の隠れ層のみを含む浅層ニューラルネットワークと比べて、複数の隠れ層からなる人工ニューラルネットワークである。より深い層のニューラルネットワークは、一般的には、トレーニングのためにより高密度の計算を必要とする。しかしながら、ネットワークの追加の隠れ層は、浅層機械学習(shallow machine learning)技術に対して、出力誤差の減少につながるマルチステップパターン認識が可能になる。
深層学習のための深層ニューラルネットワークは、一般的に、特徴認識を実行するための、バックエンドネットワークに接続されたフロントエンドネットワークを含み、ここで、バックエンドネットワークはモデルに提供された特徴表現に基づいて、オブジェクト分類、音声認識、オブジェクト意図予測などの動作を実行してもよい数学モデルを表す。深層学習は、モデルに対して手動による特徴量エンジニアリングを実行する必要なく、機械学習を実行することができる。それに反して、深層ニューラルネットワークは、入力データにおける統計的構造又は相関関係に基づいて特徴を学習することができる。学習された特徴は、検出された特徴を出力にマッピングすることができる数学モデルに提供されてもよい。ネットワークで用いられる数学モデルは、通常、実行される特定のタスクに特化しており、異なるモデルを用いて異なるタスクを実行する。
ニューラルネットワークが構築されると、特定のタスクを実行するようにネットワークをトレーニングするために、学習モデルをネットワークに適用することができる。学習モデルは、ネットワークの出力誤差を低減するためにモデルにおける重みをどのように調整するかを記述する。誤差の逆伝播は、ニューラルネットワークをトレーニングするための一般的な方法である。入力ベクトルは、処理のためにネットワークに提示される。損失関数を用いて、ネットワークの出力を所望の出力と比較し、出力層におけるニューロンのそれぞれの誤差値を計算する。誤差値は、それぞれのニューロンが、元の出力への寄与を大まかに表す関連誤差値を有するまで、後方へ伝播する。次いで、ネットワークは、ニューラルネットワークの重みを更新するために、確率的勾配降下法などのアルゴリズムを用いて、これらの誤差から学習することができる。
図4は、一実施形態に係る畳み込みニューラルネットワーク(CNN)内の様々な層を示す図400である。入力402は、複数の成分を含むことができる。例えば、画像処理をモデル化するための例示的なCNNは、入力画像の赤、緑、及び青(RGB)成分を記述する入力402を受け取ることができる。入力402は、畳み込み層404、畳み込み層406などの複数の畳み込み層によって処理されてもよい。あるいは、複数の畳み込み層からの出力は、1組の全結合層408によって処理されてもよい。フィードフォワードネットワークについて前述したように、全結合層におけるニューロンは、前の層のすべての活性化との完全結合を有する。全結合層408からの出力は、ネットワークから出力結果を生成するために用いられてもよい。全結合層408内の活性化は、畳み込みの代わりに行列乗算によって計算されてもよい。全てのCNN実施例が全結合層408を用いるわけではない。例えば、いくつかの実施例において、畳み込み層406はCNNの出力を生成してもよい。
畳み込み層は、全結合層408に見られる従来のニューラルネットワーク構成とは異なり、疎に結合されている。従来のニューラルネットワーク層は、それぞれの出力ユニットがそれぞれの入力ユニットと相互作用するように完全に結合される。しかし、図に示されるように、領域の畳み込みの出力が領域におけるそれぞれのノードの対応する状態値の代わりに後続層のノードに入力されるので、畳み込み層は疎に結合されている。畳み込み層に関連付けられたカーネルは、畳み込み演算を実行し、その出力は次の層に送信される。畳み込み層内で実行される次元削減は、大型画像などの大型入力を処理するためにCNNがスケーリングできる一態様である。
図5は、一実施形態に係る深層ニューラルネットワークのトレーニング及び展開を示す図500である。タスクのために所定のネットワークが構築されると、トレーニングデータセット502を用いてニューラルネットワークをトレーニングする。トレーニングプロセスのために、様々なトレーニングフレームワーク504が開発されている。トレーニングフレームワーク504は、トレーニングされていないニューラルネットワーク506にフックされてもよく、トレーニング済みニューラルネットワーク508を生成するために、トレーニングされていないニューラルネットワーク506がトレーニングされることを可能にする。
トレーニングプロセスを開始するために、初期重みは、ランダムに、又は深層信念ネットワークの事前トレーニングにより選択されてもよい。トレーニングサイクルは、教師あり又は教師なしのいずれかの方法で行われる。
教師あり学習は、トレーニングデータセット502が入力の所望の出力と対になった入力を含む場合、又はトレーニングデータセット502が既知の出力を有する入力を含んで、ニューラルネットワークの出力が手動で評価されたものである場合などのような、トレーニングが媒介操作として実行される学習方法である。ネットワークは入力を処理して、得られた出力を1組の予期又は所望の出力と比較する。次に、誤差がシステムを通じて伝播されて来る。トレーニングフレームワーク504は、トレーニングされていないニューラルネットワーク506の重みを制御調整することができる。トレーニングフレームワーク504は、トレーニングされていないニューラルネットワーク506が、既知の入力データに基づいて正解を生成するのに適したモデルに向けて収束する度合いを監視するツールを提供することができる。ニューラルネットワークによって生成された出力を改良するようにネットワークの重みを調整するときに、トレーニングプロセスが繰り返し行われる。トレーニングプロセスは、ニューラルネットワークが、トレーニング済みニューラルネットワーク508に関連付けられた統計的に所期の精度に達するまで継続されてもよい。次いで、トレーニング済みニューラルネットワーク508を展開して任意の数の機械学習動作を実現してもよい。
教師なし学習は、ネットワークがラベル付けされていないデータを用いて自体をトレーニングしようとする学習方法である。したがって、教師なし学習の場合、トレーニングデータセット502には、出力データが全く関連付けられていない入力データが含まれる。トレーニングされていないニューラルネットワーク506は、入力にラベル付けされていない群を学習することができ、それぞれの入力がデータセット全体とどのように関連するかを確定することができる。教師なしトレーニングは、データ次元を削減するのに役立つ動作を実行することができるトレーニング済みニューラルネットワーク50である自己組織化マップを生成するために用いられてもよい。教師なしトレーニングは、入力データセット内のデータの通常パターンから逸脱するデータポイントへの識別を許容する異常検出の実行にも用いられてもよい。
図6を参照して、一実施形態に係るデータ処理アーキテクチャ600を示すブロック図が示されている。ADVによって検出された感知及び予測領域におけるオブジェクトの履歴特徴602は、第1ニューラルネットワーク604に提供される。該オブジェクトは、自動車、自転車、歩行者などを含んでもよい。オブジェクトの履歴特徴は、複数の以前の計画周期(例えば、10個の以前の計画周期)における位置(例えば、座標)、速度(大きさ及び方向)、加速度(大きさ及び方向)などを含み得るが、これらに限定されない。第1ニューラルネットワーク604に提供される前に、オブジェクトの履歴特徴は、一緒に直列接続されてオブジェクト特徴リストを形成してもよい。第1ニューラルネットワーク604は、すべてのオブジェクトの同一パラメータ(重み)を共有する多層パーセプトロンなどの全結合ネットワークであってもよい。
第1ニューラルネットワーク604の出力は、少数(たとえば、1~3個)の抽出されたオブジェクト履歴特徴606を含むとともに、第2ニューラルネットワーク610の入力のオブジェクト成分606となるように構成されてもよい。オブジェクト成分606は、地図情報成分608とともに第2ニューラルネットワーク610に提供される。地図情報成分608は、地図・ルート情報311(例えば、高精細地図)に基づいて生成され、感知及び予測領域のための車線特徴成分、交通信号成分、静的オブジェクト成分、一般地図情報成分などを含み得るが、これらに限定されない。
一実施形態において、感知及び予測領域は、矩形領域であってもよく、グリッドに基づいて複数の均一サイズの矩形ブロックに更に細分化されてもよい。感知及び予測領域は、ADVの感知範囲にほぼ対応してもよい。例えば、感知及び予測領域は、100メートルの長さ及び40メートルの幅を有してもよい。感知及び予測領域を構成するブロックのサイズは、経験によって選択されてもよく、一実施形態において、各ブロックが一度に1つ以下のオブジェクトを含み得るように選択されてもよい。例えば、ブロックは2m×2mであってもよい。
第2ニューラルネットワーク610に提供される前に、オブジェクト成分606及び地図情報成分608は、グリッドサブディビジョンに基づいてラベル付けされてもよい。言い換えれば、抽出されたオブジェクト履歴特徴及び地図情報(車線、交通信号、静的オブジェクトなど)は、それらに関連付けられたブロックでラベル付けされてもよい。したがって、上述したように、オブジェクト成分606及び地図情報成分608を含む第2ニューラルネットワーク610の入力の様々な成分は、グリッドに基づいて互いに整列されるスタック層として視覚化されてもよい。
第2ニューラルネットワーク610はCNNであってもよく、オブジェクトが含まれると予測される感知及び予測領域におけるそれぞれのブロックについて、オブジェクトタイプ(自動車、自転車、歩行者など)、該ブロックに関連付けられたオブジェクトの予測される挙動(例えば、速度、加速度など)に関する1つ又は複数の特徴、及び信頼度レベルを表すことができる数字の列を予測結果612として出力するように構成されてもよい。
なお、第1ニューラルネットワーク604及び第2ニューラルネットワーク610は、ADV動作の予測に使用される前に、記録されたオブジェクト挙動グラウンドトゥルースデータ(object behavior ground truth data)及び地図情報を含むトレーニングデータセットでトレーニングされる必要がある。
図7A及び図7Bを参照して、一実施形態に係るデータの例示的な視覚的表現を示すダイアグラム700A、700Bが示されている。なお、図7A及び図7Bは、説明するためのものにすぎず、示されるブロック、層、オブジェクトなどの要素の数は、本開示を限定するものではない。図7Aは、グリッドに基づいて等しいサイズの矩形ブロックに細分化されたADVの矩形感知及び予測領域700Aを示す。図7Bは、第2ニューラルネットワーク610に提供される地図情報成分60及びオブジェクト成分60の視覚的表現700Bを示す。上述したように、地図情報成分60及びオブジェクト成分60は、グリッドに基づいて整列される。地図情報成分(層)60は、例えば、車線特徴成分(層)、交通信号成分(層)、静的オブジェクト成分(層)、又は、一般地図情報成分(層)のうち1つ又は複数を含んでもよい。なお、同じブロックに関連付けられたオブジェクト成分60は、同じオブジェクトに関連付けられた抽出されたオブジェクト履歴特徴を含む。
図8を参照して、一実施形態に係る、自動運転車両(ADV)において機械学習により環境オブジェクトの挙動を予測するための例示的な方法800を示すフローチャートが示されている。方法800は、ハードウェア、ソフトウェア、又は両方の組み合わせ(例えば、図9のシステム1500)において実施されてもよい。ブロック810では、第1ニューラルネットワーク及び第2ニューラルネットワークを少なくとも含むデータ処理アーキテクチャを生成し、第1ニューラルネットワーク及び第2ニューラルネットワークは既にトレーニングデータセットによりトレーニングされた。ブロック820では、トレーニング済みニューラルネットワークを含むデータ処理アーキテクチャを用いて、ADV環境における1つ又は複数のオブジェクトの挙動を予測する。ブロック830では、ADVの動作を制御するために、ADV環境における1つ又は複数のオブジェクトの予測された挙動に少なくとも部分的に基づいて運転信号を生成する。
一実施形態において、該1つ又は複数のオブジェクトは、ADVの感知及び予測領域における自動車、自転車及び/又は歩行者を含む。第1ニューラルネットワークは、多層パーセプトロンであり、第2ニューラルネットワークは、畳み込みニューラルネットワーク(CNN)である。
一実施形態において、第1ニューラルネットワークは、1つ又は複数の以前の計画周期から1つ又は複数のオブジェクトの履歴特徴を入力として受け取るとともに、1つ又は複数のオブジェクトの抽出された履歴特徴を出力として生成し、第2ニューラルネットワークは、1つ又は複数のオブジェクトの抽出された履歴特徴及び地図情報を入力として受け取るとともに、1つ又は複数のオブジェクトの予測された挙動を出力として生成する。
一実施形態において、1つ又は複数のオブジェクトの履歴特徴は、位置、速度又は加速度のうち1つ又は複数を含み、地図情報は、高精細地図に由来するとともに、車線特徴成分、交通信号成分、静的オブジェクト成分又は一般地図情報成分のうち1つ又は複数を含む。
一実施形態において、ADVの矩形感知及び予測領域のグリッドサブディビジョンに基づいて、1つ又は複数のオブジェクトの抽出された履歴特徴及び地図情報を、関連付けられるブロック情報でラベル付けし、該グリッドサブディビジョンは、ADVの矩形感知及び予測領域をグリッドに基づいて複数の均一サイズの矩形ブロックに細分化することを含む。
一実施形態において、1つ又は複数のオブジェクトの予測された挙動は、オブジェクトが含まれると予測される感知及び予測領域におけるブロック毎について、オブジェクト種類、ブロックに関連付けられたオブジェクトの予測された挙動に関する1つ又は複数の特徴、又は信頼度レベルのうち1つ又は複数を示す数字の列として表示される。
なお、以上に例示及び記述された構成要素の一部又は全部は、ソフトウェア、ハードウェア又はそれらの組み合わせで実施されてもよい。例えば、このような構成要素は、永続性記憶装置にインストールされるとともに格納されるソフトウェアとして実施されてもよく、前記ソフトウェアは、本開示にわたって記載されたプロセス又は動作を実施するように、プロセッサ(図示せず)を介してメモリにロードして実行されてもよい。あるいは、このような構成要素は、集積回路(例えば、特定用途向け集積回路又はASIC)、デジタル信号プロセッサ(DSP)、又はフィールドプログラマブルゲートアレイ(FPGA)のような専用ハードウェアにプログラミング又は埋め込まれた実行可能なコードとして実施されてもよく、前記実行可能なコードは、アプリケーションからの対応するドライバ及び/又はオペレーティングシステムを介してアクセスすることができる。また、このような構成要素は、ソフトウェア構成要素が1つ又は複数の特定の命令によってアクセス可能な命令セットの一部として、プロセッサ又はプロセッサコアにおける特定のハードウェアロジックとして実施されてもよい。
図9は、本開示の一実施形態と一緒に使用可能なデータ処理システムの一例を示すブロック図である。例えば、システム1500は、前記プロセス又は方法のいずれかを実行する上述したデータ処理システムのいずれか(例えば、図1の感知・計画システム110、又はサーバ103~104のいずれか)を示してもよい。システム1500は、多数の異なる構成要素を備えていてもよい。これらの構成要素は、集積回路(IC)、集積回路の一部、ディスクリート型電子デバイス、又は回路基板(例えば、コンピュータシステムのマザーボード若しくはアドインカード)に適するその他のモジュールとして実現されることができ、又は、他の形態でコンピュータシステムのシャーシ内に組み込まれる構成要素として実施されてもよい。
さらに注意すべきなのは、システム1500は、コンピュータシステムの多数の構成要素の高レベルビューを示すことを意図している。しかしながら、いくつかの実施例においては、付加的構成要素が存在する場合もあることを理解すべきである。また、他の実施例においては示される構成要素が異なる配置を有してもよい。システム1500は、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、サーバ、携帯電話、メディアプレヤー、パーソナルデジタルアシスタント(PDA)、スマートウォッチ、パーソナルコミュニケーター、ゲーミングデバイス、ネットワークルーター又はハブ、無線アクセスポイント(AP)又はリピーター、セット・トップボックス、又はそれらの組み合わせを示してもよい。また、単一の機械又はシステムのみが示されたが、「機械」又は「システム」という用語は、本明細書で説明されるいずれか1つ又は複数の方法を実行するための、1つ(又は複数)の命令セットを単独で又は共同で実行する機械又はシステムの任意の組み合わせも含まれることを理解されたい。
一実施形態において、システム1500は、バス又はインターコネクト1510を介して接続される、プロセッサ1501と、メモリ1503と、デバイス1505~1508とを備える。プロセッサ1501は、単一のプロセッサコア又は複数のプロセッサコアが含まれる単一のプロセッサ又は複数のプロセッサを示してもよい。プロセッサ1501は、マイクロプロセッサ、中央処理装置(CPU)などのような、1つ又は複数の汎用プロセッサを示してもよい。より具体的には、プロセッサ1501は、複雑命令セットコンピューティング(CISC)マイクロプロセッサ、縮小命令セットコンピューティング(RISC)マイクロプロセッサ、超長命令語(VLIW)マイクロプロセッサ、又は他の命令セットを実装するプロセッサ、又は命令セットの組み合わせを実装するプロセッサであってもよい。プロセッサ1501は、さらに、特定用途向け集積回路(ASIC)、セルラ又はベースバンドプロセッサ、フィールドプログラマブルゲートアレイ(FPGA)、デジタル信号プロセッサ(DSP)、ネットワークプロセッサ、グラフィックプロセッサ、通信プロセッサ、暗号プロセッサ、コプロセッサ、組込みプロセッサのような1つ又は複数の専用プロセッサ、又は命令処理可能な任意の他のタイプのロジックであってもよい。
プロセッサ1501は、超低電圧プロセッサのような低電力マルチコアプロセッサソケットであってもよく、前記システムの様々な構成要素と通信するための主処理ユニット及び中央ハブとして機能していてもよい。このようなプロセッサは、システムオンチップ(SoC)として実装されてもよい。プロセッサ1501は、本明細書で説明される動作及びステップを実行するための命令を実行するように構成される。システム1500は、選択可能なグラフィックサブシステム1504と通信するグラフィックインターフェースをさらに含んでもよく、グラフィックサブシステム1504は、表示コントローラ、グラフィックプロセッサ及び/又は表示装置をさらに備えてもよい。
プロセッサ1501は、メモリ1503と通信してもよく、メモリ1503は、一実施形態において、所定量のシステムメモリを提供するための複数のメモリデバイスによって実装されてもよい。メモリ1503は、ランダムアクセスメモリ(RAM)、ダイナミックRAM(DRAM)、シンクロナスDRAM(SDRAM)、スタティックRAM(SRAM)、又は他のタイプの記憶デバイスのような、1つ又は複数の揮発性記憶(又はメモリ)デバイスを備えてもよい。メモリ1503は、プロセッサ1501又は他の任意のデバイスにより実行される命令シーケンスを含む情報を格納することができる。例えば、様々なオペレーティングシステム、デバイスドライバ、ファームウェア(例えば、基本入出力システム又はBIOS)、及び/又はアプリケーションの実行可能なコード及び/又はデータは、メモリ1503にロードされてもよく、プロセッサ1501により実行されてもよい。オペレーティングシステムは、ロボットオペレーティングシステム(ROS)、Microsoft(登録商標)社からのWindows(登録商標)オペレーティングシステム、アップル社からのMac OS(登録商標)/iOS(登録商標)、Google(登録商標)社からのAndroid(登録商標)、LINUX(登録商標)、UNIX(登録商標)、又は他のリアルタイム若しくは組込みオペレーティングシステムのような、任意の種類のオペレーティングシステムであってもよい。
システム1500は、更に、ネットワークインターフェースデバイス1505、選択可能な入力デバイス1506、及び他の選択可能なI/Oデバイス1507を含むデバイス1505~1508のようなI/Oデバイスを備えてもよい。ネットワークインターフェースデバイス1505は、無線送受信機及び/又はネットワークインターフェースカード(NIC)を備えてもよい。前記無線送受信機は、WiFi送受信機、赤外線送受信機、ブルートゥース送受信機、WiMax送受信機、無線携帯電話送受信機、衛星送受信機(例えば、全地球測位システム(GPS)送受信機)、又は他の無線周波数(RF)送受信機、又はそれらの組み合わせであってもよい。NICは、イーサネット(登録商標)カードであってもよい。
入力デバイス1506は、マウス、タッチパッド、タッチスクリーン(表示装置1504と一体に統合されてもよい)、ポインターデバイス(例えば、スタイラス)、及び/又はキーボード(例えば、物理キーボード又はタッチスクリーンの一部として表示された仮想キーボード)を備えてもよい。例えば、入力デバイス1506は、タッチスクリーンに接続されるタッチスクリーンコントローラを含んでもよい。タッチスクリーン及びタッチスクリーンコントローラは、例えば、様々なタッチ感応技術(コンデンサ、抵抗、赤外線、及び表面弾性波の技術を含むが、それらに限定されない)のいずれか、並びに他の近接センサアレイ、又は、タッチスクリーンと接触する1つ又は複数の点を確定するための他の素子を用いて、それらの接触、移動又は中断を検出することができる。
I/Oデバイス1507は音声装置を備えてもよい。音声装置は、音声認識、音声複製、デジタル記録、及び/又は電話機能のような音声サポート機能を促進するために、スピーカ及び/又はマイクロホンを含んでもよい。その他のI/Oデバイス1507は、ユニバーサルシリアルバス(USB)ポート、パラレルポート、シリアルポート、プリンタ、ネットワークインターフェース、バスブリッジ(例えば、PCI-PCIブリッジ)、センサ(例えば、加速度計、ジャイロスコープ、磁力計、光センサ、コンパス、近接センサなどのモーションセンサ)、又はそれらの組み合わせをさらに備えてもよい。デバイス1507は、結像処理サブシステム(例えば、カメラ)をさらに備えてもよく、前記結像処理サブシステムは、写真及びビデオ断片の記録のようなカメラ機能を促進するための、電荷結合素子(CCD)又は相補型金属酸化物半導体(CMOS)光学センサのような光学センサを備えてもよい。いくつかのセンサは、センサハブ(図示せず)を介してインターコネクト1510に接続されてもよく、キーボード又はサーマルセンサのような他のデバイスはシステム1500の具体的な構成又は設計により、組込みコントローラ(図示せず)により制御されてもよい。
データ、アプリケーション、1つ又は複数のオペレーティングシステムなどの情報の永続的記憶を提供するために、プロセッサ1501には、大容量記憶デバイス(図示せず)が接続されてもよい。様々な実施形態において、薄型化と軽量化のシステム設計を可能にしながら、システムの応答能力を向上させるために、このような大容量記憶デバイスは、ソリッドステートデバイス(SSD)によって実現されてもよい。しかしながら、他の実施形態において、大容量記憶デバイスは、主にハードディスクドライブ(HDD)を使用して実現することができ、より小さい容量のSSD記憶デバイスをSSDキャッシュとして機能することで、停電イベントの間にコンテキスト状態及び他のそのような情報の不揮発性記憶を可能にし、それによりシステム動作が再開するときに通電を速く実現することができる。また、フラッシュデバイスは、例えば、シリアルペリフェラルインターフェース(SPI)を介してプロセッサ1501に接続されてもよい。このようなフラッシュデバイスは、前記システムのBIOS及び他のファームウェアを含むシステムソフトウェアの不揮発性記憶のために機能することができる。
記憶デバイス1508は、本明細書に記載の方法又は機能のいずれか1つ又は複数を具現化する1つ又は複数の命令セット又はソフトウェア(例えば、モジュール、ユニット及び/又はロジック1528)が格納されているコンピュータアクセス可能な記憶媒体1509(機械可読記憶媒体又はコンピュータ可読媒体とも呼ばれる)を備えてもよい。処理モジュール/ユニット/ロジック1528は、計画モジュール305、制御モジュール306、機械学習モジュールなどの前記構成要素のいずれかを示してもよい。処理モジュール/ユニット/ロジック1528は、更に、データ処理システム1500、メモリ1503及びプロセッサ1501による実行中に、メモリ1503内及び/又はプロセッサ1501内に完全的に又は少なくとも部分的に存在してもよく、データ処理システム1500、メモリ1503、及びプロセッサ1501も機械アクセス可能な記憶媒体を構成する。処理モジュール/ユニット/ロジック1528は、更に、ネットワークによってネットワークインターフェースデバイス1505を介して送受信されてもよい。
コンピュータ可読記憶媒体1509は、以上に説明されたいくつかのソフトウェア機能を永続的に格納するために用いることができる。コンピュータ可読記憶媒体1509は、例示的な実施形態において単一の媒体として示されるが、「コンピュータ可読記憶媒体」という用語は、前記1つ又は複数の命令セットが格納される単一の媒体又は複数の媒体(例えば、集中型又は分散型データベース及び/又は関連するキャッシュとサーバ)を含むと解釈されるものとする。「コンピュータ可読記憶媒体」という用語は、更に、命令セットを格納又は符号化可能な任意の媒体を含むと解釈されるものであり、前記命令セットは機械により実行され、本開示のいずれか1つ又は複数の方法を前記機械に実行させるためのものである。したがって、「コンピュータ可読記憶媒体」という用語は、ソリッドステートメモリ、光学媒体及び磁気媒体、又は他の任意の非一時的機械可読媒体を含むが、それらに限定されないと解釈されるものとする。
本明細書に記載の処理モジュール/ユニット/ロジック1528、構成要素及び他の特徴は、ディスクリートハードウェア構成要素として実現されてもよく、又はハードウェア構成要素(例えば、ASICS、FPGA、DSP又は類似のデバイス)の機能に統合されてもよい。さらに、処理モジュール/ユニット/ロジック1528は、ハードウェアデバイスにおけるファームウェア又は機能性回路として実現されていてもよい。また、処理モジュール/ユニット/ロジック1528は、ハードウェアデバイスとソフトウェア構成要素の任意の組み合わせで実現されてもよい。
なお、システム1500は、データ処理システムの様々な構成要素を有するものとして示されているが、構成要素を相互接続する任意の特定のアーキテクチャ又は方式を示すことを意図するものではなく、そのような詳細は、本開示の実施形態とは密接な関係がない。また、より少ない構成要素又はより多くの構成要素を有するネットワークコンピュータ、ハンドヘルドコンピュータ、携帯電話、サーバ及び/又は他のデータ処理システムも、本開示の実施形態と共に使用可能であることを理解されたい。
上述した詳細な説明の一部は、コンピュータメモリにおけるデータビットに対する演算のアルゴリズムと記号表現により示された。これらのアルゴリズムの説明及び表現は、データ処理分野における当業者によって使用される、それらの作業実質を所属分野の他の当業者に最も効果的に伝達する方法である。本明細書では、一般的に、アルゴリズムは、所望の結果につながるセルフコンシステントシーケンスと考えられる。これらの動作は、物理量の物理的処置が必要とされるものである。
しかしながら、念頭に置くべきなのは、これらの用語及び類似の用語の全ては、適切な物理量に関連付けられるものであり、且つただこれらの量を標識しやすくするためのものに過ぎない。以上の説明で他に明示的に記載されていない限り、本明細書の全体にわたって理解すべきなのは、用語(例えば、添付された特許請求の範囲に記載のもの)による説明とは、コンピュータシステム、又は類似の電子計算装置の動作及び処理を指し、前記コンピュータシステム又は電子計算装置は、コンピュータシステムのレジスタ及びメモリにおける物理(電子)量として示されたデータを制御するとともに、前記データをコンピュータシステムメモリ又はレジスタ又はこのような他の情報記憶装置、伝送又は表示装置において同様に物理量として示された他のデータに変換する。
本開示の実施形態は、さらに本明細書における動作を実行するための装置に関する。このようなコンピュータプログラムは、非一時的コンピュータ可読媒体に格納される。機械可読媒体は、機械(例えば、コンピュータ)により読み取り可能な形態で情報を格納するための任意の機構を備える。例えば、機械可読(例えば、コンピュータ可読)媒体は、機械(例えば、コンピュータ)可読記憶媒体(例えば、読み出し専用メモリ(「ROM」)、ランダムアクセスメモリ(「RAM」)、磁気ディスク記憶媒体、光学記憶媒体、フラッシュメモリデバイス)を備える。
上述した図面において説明されたプロセス又は方法は、ハードウェア(例えば、回路、専用ロジックなど)、ソフトウェア(例えば、非一時的コンピュータ可読媒体に具現化されるもの)、又は両方の組み合わせを含む処理ロジックにより実行されてもよい。前記プロセス又は方法は、以上で特定の順序に応じて説明されたが、前記動作の一部が異なる順序で実行されてもよいことを理解されたい。また、いくつかの動作は、順番ではなく並行して実行されてもよい。
本開示の実施形態は、いずれの特定のプログラミング言語を参照することなく記載されている。理解すべきなのは、本明細書に記載の本開示の実施形態の教示を実現するために、様々なプログラミング言語を使用することができる。
本明細書において、本開示の実施形態は、既にその具体的な例示的な実施形態を参照しながら記載された。明らかなように、添付された特許請求の範囲に記載された本開示のより広い趣旨及び範囲を逸脱しない限り、本開示に対して様々な変更を行うことができる。したがって、本明細書及び図面は、限定的な意味でなく、例示的な意味で理解されるべきである。

Claims (22)

  1. 自動運転車両において機械学習により環境オブジェクトの挙動を予測するためのコンピュータによって実施される方法であって、
    ある時点で前記自動運転車両の感知モジュールから受信された感知データに対して、トレーニングデータセットによりトレーニングされた第1ニューラルネットワークを適用して1組の感知特徴を抽出することと、
    前記第1ニューラルネットワークから抽出された感知特徴と、地図から取得された地図情報とに基づいて、前記地図情報を含むトレーニングデータセットによりトレーニングされた第2ニューラルネットワークを用いて、前記自動運転車両の環境における1つ又は複数のオブジェクトの挙動を予測することと、
    前記自動運転車両の環境における前記1つ又は複数のオブジェクトの予測された挙動に少なくとも部分的に基づいて制御コマンドを生成して、前記自動運転車両の動作を制御することと、を含み、
    前記地図情報は、高精細地図に基づいて生成された画像データであるとともに、車線特徴成分、交通信号成分、静的オブジェクト成分及び一般地図情報成分のうち1つ又は複数を含む、コンピュータによって実施される方法。
  2. 前記1つ又は複数のオブジェクトは、自動車、自転車及び/又は歩行者を含む請求項1に記載の方法。
  3. 前記第1ニューラルネットワークは、多層パーセプトロンであり、前記第2ニューラルネットワークは、畳み込みニューラルネットワークである請求項1に記載の方法。
  4. 前記第1ニューラルネットワークは、1つ又は複数の以前の計画周期から前記1つ又は複数のオブジェクトの履歴特徴を入力として受け取り、前記1つ又は複数のオブジェクトの抽出された履歴特徴を出力として生成し、前記第2ニューラルネットワークは、前記1つ又は複数のオブジェクトの抽出された履歴特徴及び地図情報を入力として受け取り、前記1つ又は複数のオブジェクトの予測された挙動を出力として生成する請求項3に記載の方法。
  5. 前記1つ又は複数のオブジェクトの前記履歴特徴は、位置、速度及び加速度のうち1つ又は複数を含む、請求項4に記載の方法。
  6. 前記自動運転車両の矩形感知及び予測領域のグリッドサブディビジョンに基づいて、前記1つ又は複数のオブジェクトの抽出された履歴特徴及び前記地図情報を、関連付けられるブロック情報でラベル付けし、前記グリッドサブディビジョンは、前記自動運転車両の前記矩形感知及び予測領域をグリッドに基づいて複数の均一サイズの矩形ブロックに細分化することを含む請求項4に記載の方法。
  7. 前記1つ又は複数のオブジェクトの予測された挙動は、
    オブジェクトが含まれると予測される前記矩形感知及び予測領域におけるブロック毎について、オブジェクト種類、前記ブロックに関連付けられた前記オブジェクトの予測された挙動に関する1つ又は複数の特徴、及び信頼度レベルのうち1つ又は複数を示す数字の列として表示される請求項6に記載の方法。
  8. 指令が格納されている非一時的機械可読媒体であって、前記指令は、プロセッサによって実行されるときに、自動運転車両において機械学習により環境オブジェクトの挙動を予測するための動作を前記プロセッサに実行させ、前記動作は、
    ある時点で前記自動運転車両の感知モジュールから受信された感知データに対して、トレーニングデータセットによりトレーニングされた第1ニューラルネットワークを適用して1組の感知特徴を抽出することと、
    前記第1ニューラルネットワークから抽出された感知特徴と、地図から取得された地図情報とに基づいて、前記地図情報を含むトレーニングデータセットによりトレーニングされた第2ニューラルネットワークを用いて、前記自動運転車両の環境における1つ又は複数のオブジェクトの挙動を予測することと、
    前記自動運転車両の環境における前記1つ又は複数のオブジェクトの予測された挙動に少なくとも部分的に基づいて制御コマンドを生成して、前記自動運転車両の動作を制御することと、を含み、
    前記地図情報は、高精細地図に基づいて生成された画像データであるとともに、車線特徴成分、交通信号成分、静的オブジェクト成分及び一般地図情報成分のうち1つ又は複数を含む、非一時的機械可読媒体。
  9. 前記1つ又は複数のオブジェクトは、自動車、自転車及び/又は歩行者を含む請求項8に記載の非一時的機械可読媒体。
  10. 前記第1ニューラルネットワークは、多層パーセプトロンであり、前記第2ニューラルネットワークは、畳み込みニューラルネットワークである請求項8に記載の非一時的機械可読媒体。
  11. 前記第1ニューラルネットワークは、1つ又は複数の以前の計画周期から前記1つ又は複数のオブジェクトの履歴特徴を入力として受け取り、前記1つ又は複数のオブジェクトの抽出された履歴特徴を出力として生成し、前記第2ニューラルネットワークは、前記1つ又は複数のオブジェクトの抽出された履歴特徴及び地図情報を入力として受け取り、前記1つ又は複数のオブジェクトの予測された挙動を出力として生成する請求項10に記載の非一時的機械可読媒体。
  12. 前記1つ又は複数のオブジェクトの前記履歴特徴は、位置、速度及び加速度のうち1つ又は複数を含む、請求項11に記載の非一時的機械可読媒体。
  13. 前記自動運転車両の矩形感知及び予測領域のグリッドサブディビジョンに基づいて、前記1つ又は複数のオブジェクトの抽出された履歴特徴及び前記地図情報を、関連付けられるブロック情報でラベル付けし、前記グリッドサブディビジョンは、前記自動運転車両の前記矩形感知及び予測領域をグリッドに基づいて複数の均一サイズの矩形ブロックに細分化することを含む請求項11に記載の非一時的機械可読媒体。
  14. 前記1つ又は複数のオブジェクトの予測された挙動は、
    オブジェクトが含まれると予測される前記矩形感知及び予測領域におけるブロック毎について、オブジェクト種類、前記ブロックに関連付けられた前記オブジェクトの予測された挙動に関する1つ又は複数の特徴、及び信頼度レベルのうち1つ又は複数を示す数字の列として表示される請求項13に記載の非一時的機械可読媒体。
  15. プロセッサと、指令を格納するために前記プロセッサに接続されるメモリとを備えるデータ処理システムであって、前記指令は、前記プロセッサによって実行されるときに、自動運転車両において機械学習により環境オブジェクトの挙動を予測するための動作を前記プロセッサに実行させ、前記動作は、
    ある時点で前記自動運転車両の感知モジュールから受信された感知データに対して、トレーニングデータセットによりトレーニングされた第1ニューラルネットワークを適用して1組の感知特徴を抽出することと、
    前記第1ニューラルネットワークから抽出された感知特徴と、地図から取得された地図情報とに基づいて、前記地図情報を含むトレーニングデータセットによりトレーニングされた第2ニューラルネットワークを用いて、前記自動運転車両の環境における1つ又は複数のオブジェクトの挙動を予測することと、
    前記自動運転車両の環境における前記1つ又は複数のオブジェクトの予測された挙動に少なくとも部分的に基づいて制御コマンドを生成して、前記自動運転車両の動作を制御することと、を含み、
    前記地図情報は、高精細地図に基づいて生成された画像データであるとともに、車線特徴成分、交通信号成分、静的オブジェクト成分及び一般地図情報成分のうち1つ又は複数を含む、データ処理システム。
  16. 前記1つ又は複数のオブジェクトは、自動車、自転車及び/又は歩行者を含む請求項15に記載のデータ処理システム。
  17. 前記第1ニューラルネットワークは、多層パーセプトロンであり、前記第2ニューラルネットワークは、畳み込みニューラルネットワークである請求項15に記載のデータ処理システム。
  18. 前記第1ニューラルネットワークは、1つ又は複数の以前の計画周期から前記1つ又は複数のオブジェクトの履歴特徴を入力として受け取り、前記1つ又は複数のオブジェクトの抽出された履歴特徴を出力として生成し、前記第2ニューラルネットワークは、前記1つ又は複数のオブジェクトの抽出された履歴特徴及び地図情報を入力として受け取り、前記1つ又は複数のオブジェクトの予測された挙動を出力として生成する請求項17に記載のデータ処理システム。
  19. 前記1つ又は複数のオブジェクトの前記履歴特徴は、位置、速度及び加速度のうち1つ又は複数を含む、請求項18に記載のデータ処理システム。
  20. 前記自動運転車両の矩形感知及び予測領域のグリッドサブディビジョンに基づいて、前記1つ又は複数のオブジェクトの抽出された履歴特徴及び前記地図情報を、関連付けられるブロック情報でラベル付けし、前記グリッドサブディビジョンは、前記自動運転車両の前記矩形感知及び予測領域をグリッドに基づいて複数の均一サイズの矩形ブロックに細分化することを含む請求項18に記載のデータ処理システム。
  21. 前記1つ又は複数のオブジェクトの予測された挙動は、
    オブジェクトが含まれると予測される前記矩形感知及び予測領域におけるブロック毎について、オブジェクト種類、前記ブロックに関連付けられた前記オブジェクトの予測された挙動に関する1つ又は複数の特徴、及び信頼度レベルのうち1つ又は複数を示す数字の列として表示される請求項20に記載のデータ処理システム。
  22. コンピュータプログラムであって、
    前記コンピュータプログラムがプロセッサにより実行されると、請求項1~7のいずれか一項に記載の方法を実現する、コンピュータプログラム。
JP2019190970A 2018-11-30 2019-10-18 オブジェクト挙動のリアルタイム予測 Active JP7222868B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/206,636 2018-11-30
US16/206,636 US10997729B2 (en) 2018-11-30 2018-11-30 Real time object behavior prediction

Publications (2)

Publication Number Publication Date
JP2020083308A JP2020083308A (ja) 2020-06-04
JP7222868B2 true JP7222868B2 (ja) 2023-02-15

Family

ID=67841018

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019190970A Active JP7222868B2 (ja) 2018-11-30 2019-10-18 オブジェクト挙動のリアルタイム予測

Country Status (4)

Country Link
US (1) US10997729B2 (ja)
EP (1) EP3660734A1 (ja)
JP (1) JP7222868B2 (ja)
CN (1) CN111258217B (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117521725A (zh) * 2016-11-04 2024-02-06 渊慧科技有限公司 加强学习系统
US20220214186A1 (en) * 2019-05-06 2022-07-07 Zenuity Ab Automated map making and positioning
JP7124797B2 (ja) * 2019-06-28 2022-08-24 トヨタ自動車株式会社 機械学習方法および移動ロボット
US11203348B2 (en) 2019-10-28 2021-12-21 Denso International America, Inc. System and method for predicting and interpreting driving behavior
US11334797B2 (en) * 2019-10-28 2022-05-17 Denso International America, Inc. System and method for predicting and interpreting driving behavior
US20210252698A1 (en) * 2020-02-14 2021-08-19 Nvidia Corporation Robotic control using deep learning
US11531865B2 (en) * 2020-02-28 2022-12-20 Toyota Research Institute, Inc. Systems and methods for parallel autonomy of a vehicle
US11335104B2 (en) * 2020-03-31 2022-05-17 Toyota Research Institute, Inc. Methods and system for predicting driver awareness of a feature in a scene
CN111753371B (zh) * 2020-06-04 2024-03-15 纵目科技(上海)股份有限公司 一种车身控制网络模型的训练方法、系统、终端和存储介质
CN111572562A (zh) * 2020-07-03 2020-08-25 腾讯科技(深圳)有限公司 自动驾驶方法、装置、设备、系统、车辆和计算机可读存储介质
WO2022006777A1 (zh) * 2020-07-08 2022-01-13 深圳元戎启行科技有限公司 对周围移动物体进行变道分类的方法、系统、计算机设备及存储介质
US20220111860A1 (en) * 2020-10-14 2022-04-14 Volkswagen Aktiengesellschaft Detecting objects and determining behaviors of objects
US20220244727A1 (en) * 2021-02-01 2022-08-04 Nvidia Corporation Patching deployed deep neural networks for autonomous machine applications
CN113091747B (zh) * 2021-04-09 2022-08-05 北京深睿博联科技有限责任公司 一种基于辅助信息的盲人导航方法及装置
US11887317B2 (en) * 2021-08-30 2024-01-30 Ford Global Technologies, Llc Object trajectory forecasting
CN115019500B (zh) * 2022-07-20 2024-03-29 深圳市旗扬特种装备技术工程有限公司 一种行人过街信号灯控制方法、装置、系统及计算机设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018002984A1 (ja) 2016-06-27 2018-01-04 日産自動車株式会社 車両制御方法及び車両制御装置
JP2018154304A (ja) 2017-03-21 2018-10-04 株式会社Subaru 車両の走行制御装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10361802B1 (en) * 1999-02-01 2019-07-23 Blanding Hovenweep, Llc Adaptive pattern recognition based control system and method
CN103605285A (zh) * 2013-11-21 2014-02-26 南京理工大学 汽车驾驶机器人系统的模糊神经网络控制方法
JP6257482B2 (ja) 2014-09-03 2018-01-10 株式会社デンソーアイティーラボラトリ 自動運転支援システム、自動運転支援方法及び自動運転装置
US20180101434A1 (en) 2014-12-31 2018-04-12 International Business Machines Corporation Listing types in a distributed storage system
JP6074553B1 (ja) * 2015-04-21 2017-02-01 パナソニックIpマネジメント株式会社 情報処理システム、情報処理方法、およびプログラム
JP6731819B2 (ja) 2016-09-26 2020-07-29 日立オートモティブシステムズ株式会社 移動体軌道予測システム
US10343685B2 (en) * 2016-09-28 2019-07-09 Baidu Usa Llc Physical model and machine learning combined method to simulate autonomous vehicle movement
JP6769284B2 (ja) 2016-12-16 2020-10-14 横河電機株式会社 設定装置、設定方法、設定プログラム、記録媒体、及び端末装置
JP2018173860A (ja) * 2017-03-31 2018-11-08 アイシン・エィ・ダブリュ株式会社 走行支援装置及びコンピュータプログラム
JP6673293B2 (ja) * 2017-05-24 2020-03-25 トヨタ自動車株式会社 車両システム
CN106990714A (zh) * 2017-06-05 2017-07-28 李德毅 基于深度学习的适配控制方法与装置
KR102070527B1 (ko) * 2017-06-22 2020-01-28 바이두닷컴 타임즈 테크놀로지(베이징) 컴퍼니 리미티드 자율 주행 차량 교통 예측에서 예측되는 궤적에 대한 평가 프레임 워크
EP3707572B1 (en) * 2017-11-10 2023-08-23 Nvidia Corporation Systems and methods for safe and reliable autonomous vehicles
JP6454799B2 (ja) * 2018-01-29 2019-01-16 日立オートモティブシステムズ株式会社 行動計画装置
US11042156B2 (en) * 2018-05-14 2021-06-22 Honda Motor Co., Ltd. System and method for learning and executing naturalistic driving behavior
CN113056749B (zh) * 2018-09-11 2024-05-24 辉达公司 用于自主机器应用的未来对象轨迹预测

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018002984A1 (ja) 2016-06-27 2018-01-04 日産自動車株式会社 車両制御方法及び車両制御装置
JP2018154304A (ja) 2017-03-21 2018-10-04 株式会社Subaru 車両の走行制御装置

Also Published As

Publication number Publication date
EP3660734A1 (en) 2020-06-03
CN111258217B (zh) 2023-04-18
CN111258217A (zh) 2020-06-09
US10997729B2 (en) 2021-05-04
US20200175691A1 (en) 2020-06-04
JP2020083308A (ja) 2020-06-04

Similar Documents

Publication Publication Date Title
JP7222868B2 (ja) オブジェクト挙動のリアルタイム予測
JP7086911B2 (ja) 自動運転車両のためのリアルタイム意思決定
US11493926B2 (en) Offline agent using reinforcement learning to speedup trajectory planning for autonomous vehicles
US11467591B2 (en) Online agent using reinforcement learning to plan an open space trajectory for autonomous vehicles
CN111971574B (zh) 用于自动驾驶车辆的lidar定位的基于深度学习的特征提取
CN111771135B (zh) 自动驾驶车辆中使用rnn和lstm进行时间平滑的lidar定位
CN111380534B (zh) 用于自动驾驶车辆的基于st图学习的方法
US20200150671A1 (en) Auto-tuning motion planning system for autonomous vehicles
JP2023507695A (ja) 自律運転アプリケーションのための3次元交差点構造予測
JP2020004402A (ja) ニューラルネットワークに基づく自動運転車両用の安全監視システム
CN111948938B (zh) 规划用于自动驾驶车辆的开放空间轨迹的松弛优化模型
CN111771141A (zh) 自动驾驶车辆中使用3d cnn网络进行解决方案推断的lidar定位
KR20190013689A (ko) 자율 주행 차량 교통 예측에서 예측되는 궤적에 대한 평가 프레임 워크
CN111240312A (zh) 用于自动驾驶车辆的基于学习的动态建模方法
JP7149288B2 (ja) 自動運転車両のための螺旋曲線に基づく垂直駐車計画システム
JP7143269B2 (ja) 車両挙動予測のための圧縮環境特徴の表示
CN112146680B (zh) 基于特征图确定消失点
CN112232104A (zh) 使用相对距离表示消失点
CN112149484B (zh) 基于车道线确定消失点
US20230035780A1 (en) Systematic fault detection in vehicle control systems
CN112149484A (zh) 基于车道线确定消失点

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191106

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210303

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211116

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20211116

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20211124

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20211130

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20220121

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20220125

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220510

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220726

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221020

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20221206

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20230110

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230203

R150 Certificate of patent or registration of utility model

Ref document number: 7222868

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150