JP2020125102A - ライダ、レーダ及びカメラセンサのデータを使用する強化学習に基づく自律走行時の最適化されたリソース割当てのための方法及び装置 - Google Patents
ライダ、レーダ及びカメラセンサのデータを使用する強化学習に基づく自律走行時の最適化されたリソース割当てのための方法及び装置 Download PDFInfo
- Publication number
- JP2020125102A JP2020125102A JP2020004217A JP2020004217A JP2020125102A JP 2020125102 A JP2020125102 A JP 2020125102A JP 2020004217 A JP2020004217 A JP 2020004217A JP 2020004217 A JP2020004217 A JP 2020004217A JP 2020125102 A JP2020125102 A JP 2020125102A
- Authority
- JP
- Japan
- Prior art keywords
- attention
- vehicle
- data
- computing device
- autonomous
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 73
- 230000002787 reinforcement Effects 0.000 title claims abstract description 24
- 238000013468 resource allocation Methods 0.000 title claims abstract description 13
- 230000002093 peripheral effect Effects 0.000 claims abstract description 22
- 230000008859 change Effects 0.000 claims abstract description 14
- 238000004364 calculation method Methods 0.000 claims abstract description 9
- 230000008569 process Effects 0.000 claims description 41
- 238000013528 artificial neural network Methods 0.000 claims description 32
- 238000001514 detection method Methods 0.000 claims description 25
- 238000011176 pooling Methods 0.000 claims description 7
- 238000009499 grossing Methods 0.000 claims description 6
- 230000007935 neutral effect Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 5
- 238000007781 pre-processing Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/14—Adaptive cruise control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R11/04—Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0248—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3234—Power saving characterised by the action undertaken
- G06F1/329—Power saving characterised by the action undertaken by task scheduling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5094—Allocation of resources, e.g. of the central processing unit [CPU] where the allocation takes into account power or heat criteria
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2300/00—Purposes or special features of road vehicle drive control systems
- B60Y2300/08—Predicting or avoiding probable or impending collision
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2300/00—Purposes or special features of road vehicle drive control systems
- B60Y2300/14—Cruise control
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9318—Controlling the steering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Mechanical Engineering (AREA)
- Electromagnetism (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Aviation & Aerospace Engineering (AREA)
- Transportation (AREA)
- Optics & Photonics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
Description
本発明は、自律走行車両に使用するための最適化されたリソース割当てのための方法及び装置{METHOD AND DEVICE FOR OPTIMIZED RESOURCE ALLOCATION IN AUTONOMOUS DRIVING ON THE BASIS OF REINFORCEMENT LEARNING USING DATA FROM LIDAR, RADAR, AND CAMERA SENSOR}に関する。
Claims (18)
- 強化学習により自律走行時に効率的にリソースの割当てを遂行する方法において、
(a)コンピューティング装置が、少なくとも1つのアテンションセンサデータを取得すると、アテンションネットワークをもって、前記アテンションセンサデータを参照して少なくとも1つのニューラルネットワーク演算を遂行することにより1つ以上のアテンションスコアを計算させる段階;
(b)前記コンピューティング装置が、検出ネットワークをもって、前記アテンションスコアを参照して自律走行車両に設置された一つ以上のカメラのうち少なくとも一部により取得された少なくとも一つのビデオデータを取得させ、前記ビデオデータを参照して少なくとも一つの自律走行用判断データを生成させる段階;
(c)前記コンピューティング装置が、ドライブネットワークをもって、前記判断データを参照して前記自律走行車両を運行させ、運行中である前記自律走行車両の周辺状況の変化を示す少なくとも一つの状況データを取得させ、前記状況データを参照して少なくとも一つのリワードを生成させる段階;
(d)前記コンピューティング装置が、前記アテンションネットワークをもって、前記リワードを参照して前記ニューラルネットワーク演算に使用される一つ以上のパラメータの少なくとも一部を調整させる段階;
を含むことを特徴とする方法。 - 前記(a)段階は、
前記ニューラルネットワーク演算は、前記アテンションセンサデータが入力される少なくとも1つのコンボリューションレイヤと、少なくとも1つのプーリングレイヤと、少なくとも1つのFCレイヤと、前記アテンションスコアが出力される少なくとも1つのソフトマックスレイヤとの演算を含み、前記自律走行車両近傍の空間に含まれた各角度の範囲ごとに少なくとも1つの走行危険レベルを決定させることを特徴とする請求項1に記載の方法。 - 前記(b)段階は、
前記コンピューティング装置が、前記検出ネットワークをもって、第1閾値以上の前記アテンションスコアを有する特定の角度範囲に対応する、前記自律走行車両に設置された特定カメラの特定ビデオデータを取得させることを特徴とする請求項1に記載の方法。 - 前記(b)段階は、
前記コンピューティング装置が、前記検出ネットワークをもって、少なくとも一つの領域が少なくとも一つのROIとして設定された前記ビデオデータを使用することで前記判断データを生成させ、前記領域は第1閾値以上のアテンションスコアを有する特定の角度範囲に対応する領域であることを特徴とする請求項1に記載の方法。 - 前記(c)段階は、
前記状況データは、(i)前記自律走行車両から所定の距離以内の少なくとも1つの隣接した周辺車両の少なくとも1つの車両警笛が使用中であるかに関する情報、(ii)前記少なくとも1つの隣接した周辺車両の速力変化情報、(iii)前記自律走行車両と前記隣接した周辺車両との少なくとも1つの事故情報のうち少なくとも一部を含むことを特徴とする請求項1に記載の方法。 - 前記(a)段階は、
前記アテンションセンサデータはレーダを使用して取得されるか、ライダを使用して取得されるか、両方を使用して取得され、
前記ライダを使用するか又は前記レーダ及び前記ライダをいずれも使用して前記アテンションセンサデータが取得された場合、前記コンピューティング装置が、前記アテンションネットワークをもって、前記アテンションセンサデータに含まれた各3次元座標を参照して少なくとも一つの希少デプスイメージ(sparse depth image)を生成させ、前記希少デプスイメージに少なくとも一つのスムージング(smoothing)演算を適用させて少なくとも一つの高密度デプスイメージ(dense depth image)を生成させ、前記高密度デプスイメージを参照して前記ニューラルネットワーク演算を遂行することで前記アテンションスコアを計算させることを特徴とする請求項1に記載の方法。 - 前記自律走行車両は仮想空間で具現されるようにし、前記仮想空間で前記自律走行車両が運行される過程を通じて前記パラメータの少なくとも一部が調整されることを特徴とする請求項1に記載の方法。
- 前記仮想空間で、前記自律走行車両から所定の距離以内に位置する一つ以上の仮想物体間の関係に関する情報を参照して、前記アテンションセンサデータ、前記ビデオデータ、前記状況データが取得されるように前記アテンションセンサデータ、前記ビデオデータ、前記状況データの変形がプログラミングされていることを特徴とする請求項7に記載の方法。
- 前記仮想空間は、(i)前記自律走行車両から所定の距離以内の周辺車両が第1臨界時間内に前記自律走行車両と衝突する可能性があるものと検出されると、前記仮想空間にある少なくとも一つの前記周辺車両が警笛を鳴らすようにプログラミングされ、(ii)前記周辺車両が第2臨界時間内に前記自律走行車両と衝突する可能性があるものと検出されると、前記周辺車両の速力を落とすようにプログラミングされ、前記第1臨界時間は前記第2臨界時間に比べて大きいか、同じであることを特徴とする請求項7に記載の方法。
- 強化学習により自律走行時に効率的にリソースの割当てを遂行するコンピューティング装置において、
各インストラクションを格納する少なくとも一つのメモリと、
(I)アテンションネットワークをもって、少なくとも一つのアテンションセンサデータを参照して少なくとも一つのニューラルネットワーク演算を遂行することにより一つ以上のアテンションスコアを計算させるプロセス;(II)検出ネットワークをもって、前記アテンションスコアを参照して、自律走行車両に設置された一つ以上のカメラのうち少なくとも一部によって取得された少なくとも一つのビデオデータを取得させ、前記ビデオデータを参照して少なくとも一つの自律走行用判断データを生成させるプロセス;(III)ドライブネットワークをもって、前記判断データを参照して前記自律走行車両を運行させ、運行中である前記自律走行車両の周辺状況の変化を示す少なくとも一つの状況データを取得させ、前記状況データを参照して少なくとも一つのリワードを生成させるプロセス;(IV)前記アテンションネットワークをもって、前記リワードを参照して前記ニューラルネットワーク演算に使用される一つ以上のパラメータの少なくとも一部を調整させるプロセス;を遂行するための前記各インストラクションを実行するように構成された少なくとも一つのプロセッサと、
を含むことを特徴とするコンピューティング装置。 - 前記(I)プロセスで、
前記ニューラルネットワーク演算は、前記アテンションセンサデータが入力される少なくとも一つのコンボリューションレイヤと、少なくとも一つのプーリングレイヤと、少なくとも一つのFCレイヤと、前記アテンションスコアとが出力される少なくとも一つのソフトマックスレイヤの演算を含み、前記自律走行車両近傍の空間に含まれた各角度の範囲ごとに少なくとも一つの走行危険レベルを決定させることを特徴とする請求項10に記載のコンピューティング装置。 - 前記(II)プロセスで、
前記プロセッサが、前記検出ネットワークをもって、第1閾値以上の前記アテンションスコアを有する特定の角度範囲に対応する、前記自律走行車両に設置された特定カメラの特定ビデオデータを取得させることを特徴とする請求項10に記載のコンピューティング装置。 - 前記(II)プロセスで、
前記プロセッサが、前記検出ネットワークをもって、少なくとも一つの領域が少なくとも一つのROIとして設定された前記ビデオデータを使用することで前記判断データを生成させ、前記領域は第1閾値以上のアテンションスコアを有する特定の角度範囲に対応する領域であることを特徴とする請求項10に記載のコンピューティング装置。 - 前記(III)プロセスで、
前記状況データは、(i)前記自律走行車両から所定の距離以内の少なくとも1つの隣接した周辺車両の少なくとも1つの車両警笛が使用中であるかに関する情報、(ii)前記少なくとも1つの隣接した周辺車両の速力変化情報、(iii)前記自律走行車両と前記隣接した周辺車両との少なくとも1つの事故情報のうち少なくとも一部を含むことを特徴とする請求項10に記載のコンピューティング装置。 - 前記(I)プロセスで、
前記アテンションセンサデータはレーダを使用して取得されるか、ライダを使用して取得されるか、両方を使用して取得され、
前記ライダを使用するか又は前記レーダ及び前記ライダをいずれも使用して前記アテンションセンサデータが取得された場合、前記プロセッサが、前記アテンションネットワークをもって、前記アテンションセンサデータに含まれた各3次元座標を参照して少なくとも一つの希少デプスイメージ(sparse depth image)を生成させ、前記希少デプスイメージに少なくとも一つのスムージング(smoothing)演算を適用させて少なくとも一つの高密度デプスイメージ(dense depth image)を生成させ、前記高密度デプスイメージを参照して前記ニューラルネットワーク演算を遂行することで前記アテンションスコアを計算させることを特徴とする請求項10に記載のコンピューティング装置。 - 前記自律走行車両は仮想空間で具現されるようにし、前記仮想空間で前記自律走行車両が運行される過程を通じて前記パラメータの少なくとも一部が調整されることを特徴とする請求項10に記載のコンピューティング装置。
- 前記仮想空間で、前記自律走行車両から所定の距離以内に位置する一つ以上の仮想物体間の関係に関する情報を参照して、前記アテンションセンサデータ、前記ビデオデータ、前記状況データが取得されるように前記アテンションセンサデータ、前記ビデオデータ、前記状況データの変形がプログラミングされていることを特徴とする請求項16に記載のコンピューティング装置。
- 前記仮想空間は、(i)前記自律走行車両から所定の距離以内の周辺車両が第1臨界時間内に前記自律走行車両と衝突する可能性があるものと検出されると、前記仮想空間にある少なくとも一つの前記周辺車両が警笛を鳴らすようにプログラミングされ、(ii)前記周辺車両が第2臨界時間内に前記自律走行車両と衝突する可能性があるものと検出されると、前記周辺車両の速力を落とすようにプログラミングされ、前記第1臨界時間は前記第2臨界時間に比べて大きいか、同じであることを特徴とする請求項16に記載のコンピューティング装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/263511 | 2019-01-31 | ||
US16/263,511 US10503174B1 (en) | 2019-01-31 | 2019-01-31 | Method and device for optimized resource allocation in autonomous driving on the basis of reinforcement learning using data from lidar, radar, and camera sensor |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020125102A true JP2020125102A (ja) | 2020-08-20 |
JP6982897B2 JP6982897B2 (ja) | 2021-12-17 |
Family
ID=68766170
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020004217A Active JP6982897B2 (ja) | 2019-01-31 | 2020-01-15 | ライダ、レーダ及びカメラセンサのデータを使用する強化学習に基づく自律走行時の最適化されたリソース割当てのための方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10503174B1 (ja) |
EP (1) | EP3690708A1 (ja) |
JP (1) | JP6982897B2 (ja) |
KR (1) | KR102277531B1 (ja) |
CN (1) | CN111507157B (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022019092A1 (ja) | 2020-07-22 | 2022-01-27 | パナソニックIpマネジメント株式会社 | 複合部材 |
WO2022054176A1 (ja) * | 2020-09-09 | 2022-03-17 | 日本電信電話株式会社 | 制御対象デバイス選択装置、制御対象デバイス選択方法およびプログラム |
KR102538104B1 (ko) * | 2022-06-17 | 2023-05-31 | 한국건설기술연구원 | 라이다 검지형 도로 시설물 |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11927668B2 (en) | 2018-11-30 | 2024-03-12 | Qualcomm Incorporated | Radar deep learning |
US10728461B1 (en) * | 2019-01-31 | 2020-07-28 | StradVision, Inc. | Method for correcting misalignment of camera by selectively using information generated by itself and information generated by other entities and device using the same |
US11276189B2 (en) * | 2019-03-06 | 2022-03-15 | Qualcomm Incorporated | Radar-aided single image three-dimensional depth reconstruction |
US11556000B1 (en) | 2019-08-22 | 2023-01-17 | Red Creamery Llc | Distally-actuated scanning mirror |
EP3851962A1 (en) * | 2020-01-15 | 2021-07-21 | Bayerische Motoren Werke Aktiengesellschaft | Method, computer program and apparatus for assigning sensory resources of an autonomously operated system |
CN111260937B (zh) * | 2020-02-24 | 2021-09-14 | 武汉大学深圳研究院 | 一种基于强化学习的十字路口交通信号灯控制方法 |
EP4141663A4 (en) * | 2020-07-17 | 2023-05-31 | Huawei Technologies Co., Ltd. | DATA PROCESSING METHOD AND APPARATUS, AND INTELLIGENT VEHICLE |
US20230294729A1 (en) * | 2020-08-18 | 2023-09-21 | Foresight Automotive Ltd. | Method and system for assessment of sensor performance |
CN112052776B (zh) * | 2020-09-01 | 2021-09-10 | 中国人民解放军国防科技大学 | 无人车自主驾驶行为优化方法、装置和计算机设备 |
CN111882878B (zh) * | 2020-09-02 | 2021-07-02 | 烟台大学 | 一种基于交通流预测的最大化关键道路通行能力的方法 |
CN112198506B (zh) * | 2020-09-14 | 2022-11-04 | 桂林电子科技大学 | 一种超宽带穿墙雷达学习成像的方法、装置、系统和可读存储介质 |
CN112485781B (zh) * | 2020-11-18 | 2022-10-28 | 济南和普威视光电技术有限公司 | 一种基于深度学习的反无人机无人值守系统及方法 |
CN112616131B (zh) * | 2020-12-11 | 2022-05-13 | 北京邮电大学 | 一种基于视频内容优先级的车联网资源分配方法 |
KR102433577B1 (ko) | 2020-12-18 | 2022-08-18 | 연세대학교 산학협력단 | 차량 네트워크의 자원 재할당 제어 방법 및 장치 |
US11884296B2 (en) | 2020-12-21 | 2024-01-30 | Qualcomm Incorporated | Allocating processing resources to concurrently-executing neural networks |
CN113253249B (zh) * | 2021-04-19 | 2023-04-28 | 中国电子科技集团公司第二十九研究所 | 一种基于深度强化学习的mimo雷达功率分配设计方法 |
CN113435253B (zh) * | 2021-05-31 | 2022-12-02 | 西安电子科技大学 | 一种多源影像联合城区地表覆盖分类方法 |
DE102021003567A1 (de) | 2021-07-12 | 2021-08-26 | Daimler Ag | Verfahren zur Erkennung von Objektbeziehungen und Attributierungen aus Sensordaten |
CN113867332B (zh) * | 2021-08-18 | 2024-05-14 | 中国科学院自动化研究所 | 一种无人车自学习控制方法、装置、设备及可读存储介质 |
US11851068B2 (en) | 2021-10-25 | 2023-12-26 | Ford Global Technologies, Llc | Enhanced target detection |
KR20230071437A (ko) | 2021-11-16 | 2023-05-23 | 에스케이하이닉스 주식회사 | 자율 주행 장치 |
CN114358128A (zh) * | 2021-12-06 | 2022-04-15 | 深圳先进技术研究院 | 一种训练端到端的自动驾驶策略的方法 |
CN114919581B (zh) * | 2022-05-11 | 2024-04-26 | 中南大学 | 智能车辆无序交叉路口的行为决策方法、计算机装置 |
CN116343513B (zh) * | 2023-03-07 | 2023-10-24 | 江苏纬信工程咨询有限公司 | 农村公路超视距风险点安全监测预警方法及其系统 |
CN116661465B (zh) * | 2023-07-04 | 2023-10-31 | 无锡八英里电子科技有限公司 | 一种基于时序分析与多传感器融合的机器人自动行驶方法 |
CN116678506B (zh) * | 2023-08-02 | 2023-10-10 | 国检测试控股集团南京国材检测有限公司 | 一种无线传输热损检测装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011039864A (ja) * | 2009-08-13 | 2011-02-24 | Suzuki Motor Corp | ドライブレコーダ装置 |
JP2015221648A (ja) * | 2014-05-23 | 2015-12-10 | 三菱電機株式会社 | サスペンション制御装置 |
JP2018198012A (ja) * | 2017-05-24 | 2018-12-13 | 日本電信電話株式会社 | ネットワーク学習装置、行動決定装置、ネットワーク学習方法、及びプログラム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4218670B2 (ja) | 2005-09-27 | 2009-02-04 | オムロン株式会社 | 前方撮影装置 |
KR101663027B1 (ko) * | 2015-01-12 | 2016-10-07 | 한국기술교육대학교 산학협력단 | 레이더센서가 구비된 차량용 블랙박스 및 그 제어 방법 |
KR102137213B1 (ko) * | 2015-11-16 | 2020-08-13 | 삼성전자 주식회사 | 자율 주행을 위한 모델 학습 장치 및 방법과 자율 주행 장치 |
EP3400419A2 (en) * | 2016-01-05 | 2018-11-14 | Mobileye Vision Technologies Ltd. | Trained navigational system with imposed constraints |
JP6838248B2 (ja) * | 2016-02-22 | 2021-03-03 | 日立Astemo株式会社 | 情報処理装置 |
US9802599B2 (en) * | 2016-03-08 | 2017-10-31 | Ford Global Technologies, Llc | Vehicle lane placement |
US10061316B2 (en) * | 2016-07-08 | 2018-08-28 | Toyota Motor Engineering & Manufacturing North America, Inc. | Control policy learning and vehicle control method based on reinforcement learning without active exploration |
US10176388B1 (en) * | 2016-11-14 | 2019-01-08 | Zoox, Inc. | Spatial and temporal information for semantic segmentation |
KR20180094725A (ko) * | 2017-02-16 | 2018-08-24 | 삼성전자주식회사 | 자율 주행을 위한 차량 제어 방법, 차량 제어 장치 및 자율 주행을 위한 학습 방법 |
US10176596B1 (en) * | 2017-07-06 | 2019-01-08 | GM Global Technology Operations LLC | Calibration verification methods for autonomous vehicle operations |
US11836611B2 (en) * | 2017-07-25 | 2023-12-05 | University Of Massachusetts | Method for meta-level continual learning |
US10019011B1 (en) * | 2017-10-09 | 2018-07-10 | Uber Technologies, Inc. | Autonomous vehicles featuring machine-learned yield model |
CN108196535B (zh) * | 2017-12-12 | 2021-09-07 | 清华大学苏州汽车研究院(吴江) | 基于增强学习和多传感器融合的自动驾驶系统 |
US10816984B2 (en) | 2018-04-13 | 2020-10-27 | Baidu Usa Llc | Automatic data labelling for autonomous driving vehicles |
WO2020241922A1 (ko) * | 2019-05-29 | 2020-12-03 | 엘지전자 주식회사 | 차량 제어 장치 |
-
2019
- 2019-01-31 US US16/263,511 patent/US10503174B1/en active Active
- 2019-11-15 KR KR1020190147096A patent/KR102277531B1/ko active IP Right Grant
-
2020
- 2020-01-13 EP EP20151454.4A patent/EP3690708A1/en active Pending
- 2020-01-15 JP JP2020004217A patent/JP6982897B2/ja active Active
- 2020-01-19 CN CN202010059382.0A patent/CN111507157B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011039864A (ja) * | 2009-08-13 | 2011-02-24 | Suzuki Motor Corp | ドライブレコーダ装置 |
JP2015221648A (ja) * | 2014-05-23 | 2015-12-10 | 三菱電機株式会社 | サスペンション制御装置 |
JP2018198012A (ja) * | 2017-05-24 | 2018-12-13 | 日本電信電話株式会社 | ネットワーク学習装置、行動決定装置、ネットワーク学習方法、及びプログラム |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022019092A1 (ja) | 2020-07-22 | 2022-01-27 | パナソニックIpマネジメント株式会社 | 複合部材 |
WO2022054176A1 (ja) * | 2020-09-09 | 2022-03-17 | 日本電信電話株式会社 | 制御対象デバイス選択装置、制御対象デバイス選択方法およびプログラム |
JP7405272B2 (ja) | 2020-09-09 | 2023-12-26 | 日本電信電話株式会社 | 制御対象デバイス選択装置、制御対象デバイス選択方法およびプログラム |
KR102538104B1 (ko) * | 2022-06-17 | 2023-05-31 | 한국건설기술연구원 | 라이다 검지형 도로 시설물 |
Also Published As
Publication number | Publication date |
---|---|
EP3690708A1 (en) | 2020-08-05 |
US10503174B1 (en) | 2019-12-10 |
JP6982897B2 (ja) | 2021-12-17 |
KR102277531B1 (ko) | 2021-07-15 |
CN111507157B (zh) | 2023-07-21 |
KR20200096096A (ko) | 2020-08-11 |
CN111507157A (zh) | 2020-08-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020125102A (ja) | ライダ、レーダ及びカメラセンサのデータを使用する強化学習に基づく自律走行時の最適化されたリソース割当てのための方法及び装置 | |
US10991156B2 (en) | Multi-modal data fusion for enhanced 3D perception for platforms | |
US10948907B2 (en) | Self-driving mobile robots using human-robot interactions | |
JP2020126639A (ja) | 安全な自律走行を支援する学習方法、そしてこれを利用した学習装置、テスト方法、及びテスト装置 | |
JP2021089724A (ja) | 構造的制約及び物理的制約を伴う3d自動ラベル付け | |
CN114845914A (zh) | 自主机器应用中的车道变换规划和控制 | |
JP6941386B2 (ja) | 自律走行の安全性を提供するための方法及び装置 | |
JP6979228B2 (ja) | V2v通信によって取得された、他の自律走行車両の空間探知結果を自身の自律走行車両の空間探知結果と統合する学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置{learning method and learning device for integrating object detection information acquired through v2v communication from other autonomous vehicle with object detection information generated by present autonomous vehicle, and testing method and testing device using the same} | |
JP6910664B2 (ja) | 自動駐車システム内のセマンティックセグメンテーションを利用した駐車領域を検出するための方法及び装置 | |
CN111091038A (zh) | 训练方法、计算机可读介质和检测消失点的方法及装置 | |
CN112298168B (zh) | 一种车位检测方法及装置、自动泊车方法及装置 | |
CN111508272B (zh) | 提供基于照相机的鲁棒物体距离预测的方法及装置 | |
CN112883790A (zh) | 一种基于单目摄像头的3d物体检测方法 | |
CN114973050A (zh) | 自动驾驶应用中深度神经网络感知的地面实况数据生成 | |
KR102372687B1 (ko) | 비최대값 억제를 학습하는 병합 네트워크를 이용한 이종 센서 융합을 위한 학습 방법 및 학습 장치 | |
CN111508253B (zh) | 提供自动行驶服务平台的方法及利用其的服务器 | |
CN114170826B (zh) | 自动驾驶控制方法和装置、电子设备和存储介质 | |
WO2023154568A1 (en) | Method and system for conditional operation of an autonomous agent | |
WO2022247303A1 (zh) | 预测控制的方法、装置、设备及计算机可读存储介质 | |
CN115701623A (zh) | 自主机器应用中范围图像映射的置信传播 | |
Memon et al. | Self-driving car using lidar sensing and image processing | |
CN116189150B (zh) | 基于融合输出的单目3d目标检测方法、装置、设备和介质 | |
EP3229173B1 (en) | Method and apparatus for determining a traversable path | |
JP2021012446A (ja) | 学習装置及びプログラム | |
US11915436B1 (en) | System for aligning sensor data with maps comprising covariances |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200115 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200706 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200709 |
|
RD13 | Notification of appointment of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7433 Effective date: 20201022 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210308 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210602 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211111 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211115 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6982897 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |