JP2020126633A - Avm及び強化学習を利用して自律走行の安全性を達成するためのアテンション−ドリブンアルゴリズムを利用したリソース割り当てのための方法及び装置{method and device for attention−driven resource allocation by using avmand reinforcement learning to thereby achieve safety of autonomous driving} - Google Patents
Avm及び強化学習を利用して自律走行の安全性を達成するためのアテンション−ドリブンアルゴリズムを利用したリソース割り当てのための方法及び装置{method and device for attention−driven resource allocation by using avmand reinforcement learning to thereby achieve safety of autonomous driving} Download PDFInfo
- Publication number
- JP2020126633A JP2020126633A JP2020008883A JP2020008883A JP2020126633A JP 2020126633 A JP2020126633 A JP 2020126633A JP 2020008883 A JP2020008883 A JP 2020008883A JP 2020008883 A JP2020008883 A JP 2020008883A JP 2020126633 A JP2020126633 A JP 2020126633A
- Authority
- JP
- Japan
- Prior art keywords
- cnn
- confidence
- information
- predicted
- rpn
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 253
- 230000002787 reinforcement Effects 0.000 title claims abstract description 100
- 238000013468 resource allocation Methods 0.000 title description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 351
- 230000008569 process Effects 0.000 claims description 199
- 238000001514 detection method Methods 0.000 claims description 161
- 239000003795 chemical substances by application Substances 0.000 claims description 80
- 238000012549 training Methods 0.000 claims description 35
- 238000004364 calculation method Methods 0.000 claims description 16
- 238000011176 pooling Methods 0.000 claims description 11
- 230000001629 suppression Effects 0.000 claims description 5
- 238000004422 calculation algorithm Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 7
- 210000002569 neuron Anatomy 0.000 description 6
- 230000006854 communication Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0015—Planning or execution of driving tasks specially adapted for safety
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Transportation (AREA)
- Pure & Applied Mathematics (AREA)
- Automation & Control Theory (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Mechanical Engineering (AREA)
- Computational Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Biodiversity & Conservation Biology (AREA)
- Human Computer Interaction (AREA)
- Operations Research (AREA)
- Algebra (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
Oは前記第M再検出確率及び前記第M特定領域に関する情報を含む第M原本ベクトルであり、O’は前記第M原本ベクトルにノイズを適用して生成された第M調整ベクトルであり、R(O)及びR(O’)はそれぞれ前記第M原本リワード及び前記第M調整ベクトルに対応する第M調整リワードであり、εは前記グラディエントの発散を防止するための定数(constant)であることを特徴とする。
Nregはアンカー演算を遂行して生成された前記コンボリューション特徴マップのサイズに対応する定数であり、Nclsは前記トレーニングイメージに対応する定数であり、ciは前記RPNコンフィデンスコアのうち、前記コンボリューション特徴マップの第iピクセルに対応する第iRPNコンフィデンススコアを意味し、piは前記第iピクセルに対応する第i予測RPN分類結果を意味し、pi *は前記第iピクセルに対応する第i原本正解RPN分類結果を意味し、tiは前記第iピクセルに対応する第i予測RPNリグレッション結果を意味し、ti *は前記第iピクセルに対応する第i原本正解RPNリグレッション結果を意味し、前記第i原本正解RPN分類結果及び前記第i原本正解RPNリグレッション結果は、前記原本正解物体検出結果に対応することを特徴とする。
Nreg及びNclsは前記予測ROIの個数であり、ciは前記CNNコンフィデンススコアのうち前記予測ROIから選択された第i予測ROIに対応する第iCNNコンフィデンススコアを意味し、piは前記第i予測ROIに対応する第i予測CNN分類結果を意味し、pi *は前記第iピクセルに対応する第i原本正解CNN分類結果を意味し、tiは前記第i予測ROIに対応する第i予測CNNリグレッション結果を意味し、ti *は前記第iピクセルに対応する第i原本正解CNNリグレッション結果を意味し、前記第i予測CNN分類結果及び前記第i予測CNNリグレッション結果は、前記予測物体検出結果に対応することを特徴とする。
c’xyは前記第X_Y統合コンフィデンススコアを意味し、cxyは前記リサイズされたRPNコンフィデンスマップ上の前記座標 (x,y)に対応する第X_YリサイズされたRPNコンフィデンススコアを意味し、criは前記NMS結果で決定された、前記座標(x,y)を含みriとして表現される第i予測ROIに対する第iCNNコンフィデンススコアを意味することを特徴とする。
Oは前記第M再検出確率及び前記第M特定領域に関する情報を含む第M原本ベクトルであり、O’は前記第M原本ベクトルにノイズを適用して生成された第M調整ベクトルであり、R(O)及びR(O’)はそれぞれ前記第M原本リワード及び前記第M調整ベクトルに対応する第M調整リワードであり、εは前記グラディエントの発散を防止するための定数であることを特徴とする。
Nregはアンカー演算を遂行して生成された前記コンボリューション特徴マップのサイズに対応する定数であり、Nclsは前記トレーニングイメージに対応する定数であり、ciは前記RPNコンフィデンスコアのうち、前記コンボリューション特徴マップの第iピクセルに対応する第iRPNコンフィデンススコアを意味し、piは前記第iピクセルに対応する第i予測RPN分類結果を意味し、pi *は前記第iピクセルに対応する第i原本正解RPN分類結果を意味し、tiは前記第iピクセルに対応する第i予測RPNリグレッション結果を意味し、ti *は前記第iピクセルに対応する第i原本正解RPNリグレッション結果を意味し、前記第i原本正解RPN分類結果及び前記第i原本正解RPNリグレッション結果は、前記原本正解物体検出結果に対応することを特徴とする。
Nreg及びNclsは前記予測ROIの個数であり、ciは前記CNNコンフィデンススコアのうち前記予測ROIから選択された第i予測ROIに対応する第iCNNコンフィデンススコアを意味し、piは前記第i予測ROIに対応する第i予測CNN分類結果を意味し、pi *は前記第iピクセルに対応する第i原本正解CNN分類結果を意味し、tiは前記第i予測ROIに対応する第i予測CNNリグレッション結果を意味し、ti *は前記第iピクセルに対応する第i原本正解CNNリグレッション結果を意味し、前記第i予測CNN分類結果及び前記第i予測CNNリグレッション結果は、前記予測物体検出結果に対応することを特徴とする。
c’xyは前記第X_Y統合コンフィデンススコアを意味し、cxyは前記リサイズされたRPNコンフィデンスマップ上の前記座標(x,y)に対応する第X_YリサイズされたRPNコンフィデンススコアを意味し、criは前記NMS結果で決定された、前記座標(x,y)を含みriとして表現される第i予測ROIに対する第iCNNコンフィデンススコアを意味することを特徴とする。
前記数式において、W及びHは状況イメージの横及び縦の長さをそれぞれ意味し、I(O)xyは第M調整コンフィデンス情報に含まれている、状況イメージ上の座標(x,y)に対する第Mコンフィデンススコアのうち一つを意味し、Ixyは第M−1調整コンフィデンス情報に含まれている、(x,y)座標に対する前記第M−1コンフィデンススコアのうち一つを意味し得る。また、SMは第M特定領域の合計を意味し、cは予め設定された定数(constant)を意味し得る。この際、再検出プロセスが適用される領域のサイズが演算リソースの使用量に比例するので、前項に位置するシグマ演算を遂行することによって第M演算費用を計算することができ、後項に位置するシグマ演算を遂行することによって第M演算費用を計算することができる。
この場合、Oは第M再検出確率及び第M特定領域に関する情報を含む第M原本ベクトルであり、O’は第M原本ベクトルに一部のノイズを適用して生成された第M調整ベクトルを意味し得る。また、R(O)及びR(O’)はそれぞれ第M原本リワード及び第M調整ベクトルに対応する第M調整リワードであり、εはグラディエントの発散を防止するための定数であり得る。
前記数式において、dm,tm,qmはそれぞれ再検出プロセスに適合する候補倍率それぞれに対するそれぞれの確率を表し、dm’,tm’,qm’はそれぞれこれらに対応する調整確率それぞれを表し得る。前記確率の調整過程は、再検出確率及び特定領域を調整した過程と類似し得る。これを通じて、強化学習エージェント160は第L倍数情報を生成することが可能になる。
ここで、c’xyは第X_Y統合コンフィデンススコアを意味し得、cxyはリサイズされたRPNコンフィデンスマップ上で、座標(x,y)に対応する第X_YリサイズされたRPNコンフィデンススコアを意味し得る。また、criはNMS結果で決定された、座標を(x,y)を含み、riとして表現される、第i予測ROIに対する第iCNNコンフィデンススコアを意味し得る。学習装置は、コンフィデンスレイヤ150をもって、上記のように生成された統合コンフィデンススコアを利用して統合コンフィデンスマップを生成させることができる。
ここで、Nregはアンカー演算を遂行して生成されたコンボリューション特徴マップのサイズに対応する定数であり、Nclsは前記トレーニングイメージに対応する定数であり得る。また、ciは前記RPNコンフィデンスコアのうちコンボリューション特徴マップの第iピクセルに対応する第iRPNコンフィデンススコアを意味し得、piは前記第iピクセルに対応する第i予測RPN分類結果を意味し、pi *は前記第iピクセルに対応する第i原本正解RPN分類結果を意味し得る。tiは前記第iピクセルに対応する第i予測RPNリグレッション結果を意味し、ti *は前記第iピクセルに対応する第i原本正解RPNリグレッション結果を意味し得る。第i原本正解RPN分類結果及び第i原本正解RPNリグレッション結果は、原本正解物体検出結果に対応し得る。また、Lcls及びLregはスムース−L1ロス(Smooth−L1Loss)のようなロスを生成するための従来技術を、どのようなものであっても利用して実行され得る。
は、RPN140により決定されたアンカー特徴マップの第iピクセルに対応する第i予測RPN分類結果が第i原本正解RPN分類結果と同一である場合を示す。つまり、これはRPN140がコンボリューション特徴マップの第iピクセルを正確に分析した場合である。便宜上、RPN140が第i予測RPN分類結果と第i原本正解RPN分類結果とが同一である確率を臨界確率、ここでは0.5超過であるものと判断した場合、RPN140が第iピクセルに対して「正確に」分析したケースを想定した。最初の項において、(1.1−ci)は、RPN140が第iピクセルを正確に分析した場合にRPN140のパラメータがRPNロスより小さくなるように調節されて第iRPNコンフィデンススコアが大きくなるようにする。詳細には、上記で示されているように生成された最初のサブ項を含む分類ロス項は、RPN140のパラメータを調整することができるようにグラディエント(Gradient)を生成することによって、未来のRPNロスが小さくなるようにするために適用される。したがって、最初のサブ項を含む分類ロス項を利用すれば、RPN140がRPNコンフィデンス特徴マップの値を正確に分析する場合、RPNスコアをより大きく生成することができる。
は、RPN140が第iピクセルを正確に分析しなかった場合を示す。二番目のサブ項において、(0.1+ci)は、RPN140が第iピクセルに対して不正確に分析した場合に第iRPNコンフィデンススコアをより小さくする。学習プロセスのメカニズムは、最初のサブ項で述べたようにその機序が同じである。
Nreg及びNclsは前記予測ROIの個数を意味し、ciは予測ROIのうち第i予測ROIに対応する、CNNコンフィデンススコアのうち第iCNNコンフィデンススコアを意味し得る、また、piは第i予測ROIに対応する、第i予測CNN分類の結果を意味し、pi *は前記第iピクセルに対応する第i原本正解CNN分類結果を意味し得る。そして、tiは第i予測ROIに対応する、第i予測CNNリグレッション結果を意味し、ti *は前記第iピクセルに対応する第i原本正解CNNリグレッション結果を意味し得る。第i予測CNN分類結果と第i予測CNNリグレッション結果とは、予測物体検出結果に対応し得る。本数式において記号は、RPNロスを示した記号と同一であり得るが、上記のようにその意味は異なり得る。
Claims (30)
- 物体検出プロセスと並行して生成された、物体検出の信頼度(Credibility)を表すコンフィデンスコア(Confidence Score)を利用することによって、コンピューティングパワーを節約しながらもより優れた自律走行性能を達成するための方法において、
(a)コンピューティング装置が、対象車両に設置された少なくとも一つのパノラマビューセンサ(Panorama View Sensor)を通じて前記対象車両の周辺に対する少なくとも一つの状況イメージ(Circumstance Image)を取得する段階;
(b)前記コンピューティング装置が、CNN(Convolutional Neural Network)をもって、前記状況イメージにCNN演算を少なくとも一回適用させて、前記状況イメージに関する初期物体情報及び初期コンフィデンス情報を生成させる段階;及び
(c)前記コンピューティング装置が、強化学習エージェントのサポートを受けて作動することによって、前記初期物体情報及び前記初期コンフィデンス情報を参照して、前記状況イメージに関する最終物体情報を生成する段階;
を含むことを特徴とする方法。 - 前記(c)段階は、
(c1)前記コンピューティング装置が、(i)前記強化学習エージェントをもって、前記初期コンフィデンス情報を参照して、前記状況イメージ内の一つ以上の領域のうち、再検出プロセスを適用する予定の一つ以上の第1特定領域それぞれを選択させ、(ii)前記CNNをもって、前記第1特定領域に前記CNN演算を適用して、前記状況イメージに関する第1調整物体情報及び第1調整コンフィデンス情報を生成させる前記再探索プロセスを遂行させる段階;
(c2)前記コンピューティング装置が、繰り返して(i)前記強化学習エージェントをもって、以前に生成された第K−1調整コンフィデンス情報を参照して、前記状況イメージ内の前記領域のうち、前記再検出プロセスを適用する予定の一つ以上の第K特定領域それぞれを選択させ、(ii)前記CNNをもって、前記第K特定領域に前記CNN演算を適用して、前記状況イメージに関する第K調整物体情報及び第K調整コンフィデンス情報を生成させる前記再検出プロセスを遂行する段階;及び
(c3)前記再検出プロセスがN回遂行されることによって第N調整物体情報及び第N調整コンフィデンス情報が生成されると、前記コンピューティング装置が、前記第1調整物体情報ないし前記第N調整物体情報のうち少なくとも一部及び前記初期物体情報を参照して、前記最終物体情報を生成する段階;
を含み、
前記Kは2以上N以下の整数(integer)であり、前記Nは、前記強化学習エージェントが、前記再検出プロセスが遂行されるべきであると判断した回数であることを特徴とする請求項1に記載の方法。 - 前記コンピューティング装置は、前記第M再検出確率が閾値以上である場合に、前記CNNをもって前記第M特定領域に前記CNN演算を適用させ、前記強化学習エージェントは、第M−1調整コンフィデンス情報を参照して第M再検出確率及び一つ以上の第M特定領域を生成し、Mは1以上N以下の整数であり、
前記強化学習エージェントは、Mが1である場合、前記初期コンフィデンス情報を参照して第1再検出確率及び前記第1特定領域を生成することを特徴とする請求項2に記載の方法。 - 前記強化学習エージェントは、それ自体に前記第M−1調整コンフィデンス情報が入力されると、(i)それ自体のパラメータ及び前記第M−1調整コンフィデンス情報を利用して前記第M再検出確率及び前記第M特定領域を生成し、(ii)前記第M再検出確率が前記閾値以上である場合、前記CNNから第M調整コンフィデンス情報を取得し、(iii)前記第M調整コンフィデンス情報とこれに対応する第M調整物体情報とを生成するのに使用された第M演算費用、前記第M−1調整コンフィデンス情報、及び前記第M調整コンフィデンス情報を参照して第M原本リワードを計算し、(iv)前記第M原本リワードを参照して前記パラメータを学習することを特徴とする請求項3に記載の方法。
- 前記強化学習エージェントは、下記数式にしたがって生成されたグラディエントを利用して前記パラメータを学習し、
Oは前記第M再検出確率及び前記第M特定領域に関する情報を含む第M原本ベクトルであり、O’は前記第M原本ベクトルにノイズを適用して生成された第M調整ベクトルであり、R(O)及びR(O’)はそれぞれ前記第M原本リワード及び前記第M調整ベクトルに対応する第M調整リワードであり、εは前記グラディエントの発散を防止するための定数(constant)であることを特徴とする請求項4に記載の方法。 - 前記再検出プロセスが繰り返し遂行されつつ一つ以上の第L特定領域(Lは1以上N以下の整数である)が選択されると、前記コンピューティング装置が、前記強化学習エージェントをもって、前記第L特定領域に対応する第L倍数情報を生成させ、前記第L倍数情報を参照して前記第L特定領域にアップサンプリング(Upsampling)演算を適用して第L特定アップサンプリング済みイメージを生成し、前記CNNをもって、前記第L特定アップサンプリング済みイメージに前記CNN演算を適用して第L調整物体情報及び第L調整コンフィデンス情報を生成させることを特徴とする請求項2に記載の方法。
- 前記(c)段階で、
前記コンピューティング装置が、複数個の状況イメージを部分イメージとして含む統合イメージを生成しつつ、それぞれの前記状況イメージに対する、それぞれの前記初期物体情報とそれぞれの前記初期コンフィデンス情報とを利用して、前記統合イメージに関する統合最終物体情報を生成し、前記統合最終物体情報は、
(c4)前記コンピューティング装置が、(i)それぞれの前記初期コンフィデンス情報を参照して、前記統合イメージに関する第1統合コンフィデンス情報を生成し、(ii)前記強化学習エージェントをもって、前記第1統合コンフィデンス情報を参照して、前記統合イメージ内の一つ以上の領域のうち、前記再検出プロセスを適用する予定の一つ以上の第1特定領域それぞれを選択させ、(iii)前記CNNをもって、前記第1特定領域に前記CNN演算を適用して、前記統合イメージに関するそれぞれの前記第1調整物体情報及びそれぞれの第1調整コンフィデンス情報を生成させる前記再検出プロセスを遂行する段階;
(c5)前記コンピューティング装置が、繰り返して(i)それぞれの第K−1調整コンフィデンス情報を参照して、前記統合イメージに関する第K調整統合コンフィデンス情報を生成し、(ii)前記強化学習エージェントをもって、前記第K調整統合コンフィデンス情報を参照して、前記統合イメージ内の前記領域のうち、前記再検出プロセスを適用する予定の一つ以上の第K特定領域それぞれを選択させ、(iii)前記CNNをもって、前記第K特定領域に前記CNN演算を適用して、前記統合イメージに対するそれぞれの第K調整物体情報及びそれぞれの第K調整コンフィデンス情報を生成させる前記再検出プロセスを遂行する段階;及び
(c6)前記再検出プロセスがN回遂行されることによって、それぞれの第N調整物体情報及びそれぞれの第N調整コンフィデンス情報が生成されると、前記コンピューティング装置が、前記第1調整物体情報ないし第N調整物体情報のうち少なくとも一部及び前記初期物体情報を参照して前記統合最終物体情報を生成する段階;
を通じて生成され、
前記Kは2以上N以下の整数であり、前記Nは、前記強化学習エージェントが、前記再検出プロセスが遂行されるべきであると判断した回数であることを特徴とする請求項1に記載の方法。 - (i)複数の前記パノラマビューセンサのうちカメラに対応する少なくとも一つの第1パノラマビューセンサを通じて少なくとも一つの第1状況イメージが取得されると、前記コンピューティング装置が、3チャンネルイメージに対して最適化された、インプットノード(Input Node)が3個以上である第1CNNをもって、前記第1状況イメージに対して第1CNN演算を少なくとも一回適用させ、(ii)デプスセンサ(Depth Sensor)に対応する少なくとも一つの第2パノラマビューセンサを通じて少なくとも一つの第2状況イメージが取得されると、前記コンピューティング装置が、デプスイメージ(Depth Image)に対して最適化された、インプットノードが1個以上である第2CNNをもって、前記第2状況イメージに対して第2CNN演算を少なくとも一回適用させることを特徴とする請求項7に記載の方法。
- 前記(a)段階以前に、
(a1)トレーニングイメージが取得されると、学習装置が、前記CNNに含まれている少なくとも一つのコンボリューションレイヤをもって、前記トレーニングイメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのコンボリューション特徴マップを生成させる段階;
(a2)前記学習装置が、前記コンボリューション特徴マップに対してアンカー(Anchor)演算を少なくとも一回適用することによって前記トレーニングイメージ上の予測ROI(Region Of Interest)を生成するプロセスを遂行しつつ、RPN(Region Proposal Network)に含まれている少なくとも一つのアンカーレイヤをもって、前記予測ROIが原本正解(Ground−Truth)ROIと同一であるそれぞれの少なくとも一つの確率を表すそれぞれの少なくとも一つのRPNコンフィデンススコアを前記コンボリューション特徴マップのピクセルごとに生成することによって、前記RPNコンフィデンススコアを含むRPNコンフィデンスマップを生成させる段階;
(a3)前記CNNに含まれているROIプーリングレイヤを通じて、前記コンボリューション特徴マップ及び前記予測ROIを利用して生成された少なくとも一つのROIプーリング済み特徴マップが取得されると、前記学習装置は、前記ROIプーリング済み特徴マップを利用して予測物体検出結果を生成するプロセスを遂行しつつ、前記CNNに含まれているFCレイヤをもって、前記予測物体検出結果に含まれるそれぞれの少なくとも一つの予測CNN分類結果と、それぞれの少なくとも一つの予測CNNリグレッション結果とが、原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果と同一であるものと予測されるそれぞれの少なくとも一つの確率を表すそれぞれのCNNコンフィデンススコアを前記予測ROIごとに生成することによって、前記CNNコンフィデンススコアを含むCNNコンフィデンスマップを生成させる段階;及び
(a4)前記学習装置が、ロスレイヤをもって、前記RPNコンフィデンスマップと、前記CNNコンフィデンスマップと、前記予測物体検出結果と、前記原本正解物体検出結果とを参照して少なくとも一つのRPNロス及び少なくとも一つのCNNロスを生成させ、前記RPNロス及び前記CNNロスを利用してバックプロパゲーションを遂行することによって前記CNN及び前記RPNに含まれているパラメータのうち少なくとも一部を学習させる段階;
をさらに含むことを特徴とする請求項1に記載の方法。 - 前記(a4)段階で、
前記学習装置が、前記ロスレイヤをもって、下記数式にしたがって前記RPNロスを生成させ、
Nregはアンカー演算を遂行して生成された前記コンボリューション特徴マップのサイズに対応する定数であり、Nclsは前記トレーニングイメージに対応する定数であり、ciは前記RPNコンフィデンスコアのうち、前記コンボリューション特徴マップの第iピクセルに対応する第iRPNコンフィデンススコアを意味し、piは前記第iピクセルに対応する第i予測RPN分類結果を意味し、pi *は前記第iピクセルに対応する第i原本正解RPN分類結果を意味し、tiは前記第iピクセルに対応する第i予測RPNリグレッション結果を意味し、ti *は前記第iピクセルに対応する第i原本正解RPNリグレッション結果を意味し、
前記第i原本正解RPN分類結果及び前記第i原本正解RPNリグレッション結果は、前記原本正解物体検出結果に対応することを特徴とする請求項9に記載の方法。 - 前記(a4)段階で、
前記学習装置が、前記ロスレイヤをもって、下記数式にしたがって前記CNNロスを生成させ、
Nreg及びNclsは前記予測ROIの個数であり、ciは前記CNNコンフィデンススコアのうち前記予測ROIから選択された第i予測ROIに対応する第iCNNコンフィデンススコアを意味し、piは前記第i予測ROIに対応する第i予測CNN分類結果を意味し、pi *は前記第iピクセルに対応する第i原本正解CNN分類結果を意味し、tiは前記第i予測ROIに対応する第i予測CNNリグレッション結果を意味し、ti *は前記第iピクセルに対応する第i原本正解CNNリグレッション結果を意味し、
前記第i予測CNN分類結果及び前記第i予測CNNリグレッション結果は、前記予測物体検出結果に対応することを特徴とする請求項9に記載の方法。 - 前記(a3)段階以後に、
前記学習装置が、コンフィデンスレイヤをもって、前記RPNコンフィデンスマップ及び前記CNNコンフィデンスマップを参照して、前記トレーニングイメージ内のピクセルごとの統合コンフィデンススコアそれぞれに関する情報を含む統合コンフィデンスマップを生成させることを特徴とする請求項9に記載の方法。 - 前記学習装置が、前記コンフィデンスレイヤをもって、(i)(i−1)前記CNNから、前記予測物体検出結果を生成するプロセスが遂行される途中に生成される、前記予測ROIに対するNMS(Non−Maximum Suppression)結果を取得するプロセス、(i−2)前記RPNコンフィデンスマップに対してリサイズ(Resize)演算を少なくとも一回適用してリサイズされたRPNコンフィデンスマップを生成するプロセス、及び(ii)前記NMS結果と、前記リサイズされたRPNコンフィデンスマップとを参照して、前記統合コンフィデンスマップを生成するプロセスを遂行させることを特徴とする請求項12に記載の方法。
- 前記学習装置が、前記コンフィデンスレイヤをもって、前記統合コンフィデンススコアのうち、前記トレーニングイメージ上の座標(x,y)に対応する第X_Y統合コンフィデンススコアを下記数式にしたがって生成させ、
c’xyは前記第X_Y統合コンフィデンススコアを意味し、cxyは前記リサイズされたRPNコンフィデンスマップ上の前記座標(x,y)に対応する第X_YリサイズされたRPNコンフィデンススコアを意味し、criは前記NMS結果で決定された、前記座標(x,y)を含みriとして表現される第i予測ROIに対する第iCNNコンフィデンススコアを意味することを特徴とする請求項13に記載の方法。 - 前記(b)段階は、
(b1)前記状況イメージが取得されると、前記コンピューティング装置が、前記CNNに含まれている少なくとも一つのコンボリューションレイヤをもって、前記状況イメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのコンボリューション特徴マップを生成させる段階;
(b2)前記コンピューティング装置が、前記コンボリューション特徴マップに対してアンカー演算を少なくとも一回適用することによって、前記状況イメージ上の予測ROIを生成するためのプロセスを遂行しつつ、RPNに含まれている少なくとも一つのアンカーレイヤをもって、前記予測ROIが原本正解ROIと同一である少なくとも一つの確率それぞれを表す、少なくとも一つのRPNコンフィデンススコアそれぞれを前記コンボリューション特徴マップのピクセルごとに生成することによって、前記RPNコンフィデンススコアを含むRPNコンフィデンスマップを生成させる段階;
(b3)前記CNNに含まれているROIプーリングレイヤを通じて、前記コンボリューション特徴マップ及び前記予測ROIを利用して生成された少なくとも一つのROIプーリング済み特徴マップが取得されると、前記コンピューティング装置が、前記ROIプーリング済み特徴マップを利用して予測物体検出結果を生成するプロセスを遂行しつつ、前記CNNに含まれるFCレイヤをもって、前記予測物体検出結果に含まれているそれぞれの少なくとも一つの予測CNN分類結果及びそれぞれの少なくとも一つの予測CNNリグレッション結果が原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果と同一である少なくとも一つの確率それぞれを表すCNNコンフィデンスコアそれぞれを前記予測ROIごとに生成することによって、前記CNNコンフィデンススコアを含むCNNコンフィデンスマップを生成させる段階;及び
(b4)前記コンピューティング装置が、前記CNNと連動して作動するコンフィデンスレイヤをもって、前記RPNコンフィデンスマップ及び前記CNNコンフィデンスマップを参照して統合コンフィデンスマップを生成させる段階を含み、
前記コンピューティング装置は、前記CNNをもって、前記予測物体検出結果を含む前記初期物体情報及び前記統合コンフィデンスマップを含む前記初期コンフィデンス情報を出力させることを特徴とする請求項1に記載の方法。 - 物体検出プロセスと並行して生成された、物体検出の信頼度(Credibility)を表すコンフィデンスコア(Confidence Score)を利用することによって、コンピューティングパワーを節約しながらもより優れた自律走行性能を達成するためのコンピューティング装置において、
インストラクションを格納する少なくとも一つのメモリ;及び
(I)対象車両に設置された少なくとも一つのパノラマビューセンサ(Panorama View Sensor)を通じて前記対象車両の周辺に対する少なくとも一つの状況イメージ(Circumstance Image)を取得するプロセス、(II)CNN(Convolutional Neural Network)をもって、前記状況イメージにCNN演算を少なくとも一回適用させて、前記状況イメージに関する初期物体情報及び初期コンフィデンス情報を生成させるプロセス、及び(III)強化学習エージェントのサポートを受けて作動することによって、前記初期物体情報及び前記初期コンフィデンス情報を参照して、前記状況イメージに関する最終物体情報を生成するプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、
を含むことを特徴とする装置。 - 前記(III)プロセスは、
(III−1)(i)前記強化学習エージェントをもって、前記初期コンフィデンス情報を参照して、前記状況イメージ内の一つ以上の領域のうち、再検出プロセスを適用する予定の一つ以上の第1特定領域それぞれを選択させ、(ii)前記CNNをもって、前記第1特定領域に前記CNN演算を適用して、前記状況イメージに関する第1調整物体情報及び第1調整コンフィデンス情報を生成させる前記再探索プロセスを実行させるプロセス;(III−2)繰り返して(i)前記強化学習エージェントをもって、以前に生成された第K−1調整コンフィデンス情報を参照して、前記状況イメージ内の前記領域のうち、前記再検出プロセスを適用する予定の一つ以上の第K特定領域それぞれを選択させ、(ii)前記CNNをもって、前記第K特定領域に前記CNN演算を適用して、前記状況イメージに関する第K調整物体情報及び第K調整コンフィデンス情報を生成させる前記再検出プロセスを遂行するプロセス;及び(III−3)前記再検出プロセスがN回遂行されることによって第N調整物体情報及び第N調整コンフィデンス情報が生成されると、前記第1調整物体情報ないし前記第N調整物体情報のうち少なくとも一部及び前記初期物体情報を参照して、前記最終物体情報を生成するプロセス;を含み、前記Kは2以上N以下の整数であり、前記Nは前記強化学習エージェントが、前記再検出プロセスが遂行されるべきであると判断した回数であることを特徴とする請求項16に記載の装置。 - 前記プロセッサは、前記第M再検出確率が閾値以上である場合に、前記CNNをもって、前記第M特定領域に前記CNN演算を適用させ、前記強化学習エージェントは、第M−1調整コンフィデンス情報を参照して第M再検出確率及び一つ以上の第M特定領域を生成し、Mは1以上N以下の整数であり、
前記強化学習エージェントは、Mが1である場合、前記初期コンフィデンス情報を参照して第1再検出確率及び前記第1特定領域を生成することを特徴とする請求項17に記載の装置。 - 前記強化学習エージェントは、それ自体に前記第M−1調整コンフィデンス情報が入力されると、(i)それ自体のパラメータ及び前記第M−1調整コンフィデンス情報を利用して前記第M再検出確率及び前記第M特定領域を生成し、(ii)前記第M再検出確率が前記閾値以上である場合、前記CNNから第M調整コンフィデンス情報を取得し、(iii)前記第M調整コンフィデンス情報とこれに対応する第M調整物体情報とを生成するのに使用された第M演算費用、前記第M−1調整コンフィデンス情報、及び前記第M調整コンフィデンス情報を参照して第M原本リワードを計算し、(iv)前記第M原本リワードを参照して前記パラメータを学習することを特徴とする請求項18に記載の装置。
- 前記強化学習エージェントは、下記数式にしたがって生成されたグラディエントを利用して前記パラメータを学習し、
Oは前記第M再検出確率及び前記第M特定領域に関する情報を含む第M原本ベクトルであり、O’は前記第M原本ベクトルにノイズを適用して生成された第M調整ベクトルであり、R(O)及びR(O’)はそれぞれ前記第M原本リワード及び前記第M調整ベクトルに対応する第M調整リワードであり、εは前記グラディエントの発散を防止するための定数であることを特徴とする請求項19に記載の装置。 - 前記再検出プロセスが繰り返し遂行されつつ、一つ以上の第L特定領域(Lは1以上N以下の整数である)が選択されると、前記プロセスが、前記強化学習エージェントをもって、前記第L特定領域に対応する第L倍数情報を生成させ、前記第L倍数情報を参照して前記第L特定領域にアップサンプリング(Upsampling)演算を適用して第L特定アップサンプリング済みイメージを生成し、前記CNNをもって、前記第L特定アップサンプリング済みイメージに前記CNN演算を適用して第L調整物体情報及び第L調整コンフィデンス情報を生成させることを特徴とする請求項17に記載の装置。
- 前記(III)プロセスで、
前記プロセッサが、複数個の状況イメージを部分イメージとして含む統合イメージを生成しつつ、それぞれの前記状況イメージに関するそれぞれの前記初期物体情報とそれぞれの前記初期コンフィデンス情報とを利用して、前記統合イメージに関する統合最終物体情報を生成し、前記統合最終物体情報は、
(III−4)(i)それぞれの前記初期コンフィデンス情報を参照して、前記統合イメージに関する第1統合コンフィデンス情報を生成し、(ii)前記強化学習エージェントをもって、前記第1統合コンフィデンス情報を参照して、前記統合イメージ内の一つ以上の領域のうち、前記再検出プロセスを適用する予定の一つ以上の第1特定領域それぞれを選択させ、(iii)前記CNNをもって、前記第1特定領域に前記CNN演算を適用して、前記統合イメージに関するそれぞれの前記第1調整物体情報及びそれぞれの第1調整コンフィデンス情報を生成させる前記再検出プロセスを遂行するプロセス;(III−5)繰り返して(i)それぞれの第K−1調整コンフィデンス情報を参照して、前記統合イメージに関する第K調整統合コンフィデンス情報を生成し、(ii)前記強化学習エージェントをもって、前記第K調整統合コンフィデンス情報を参照して、前記統合イメージ内の前記領域のうち、前記再検出プロセスを適用する予定の一つ以上の第K特定領域それぞれを選択させ、(iii)前記CNNをもって、前記第K特定領域に前記CNN演算を適用して、前記統合イメージに対するそれぞれの第K調整物体情報及びそれぞれの第K調整コンフィデンス情報を生成させる前記再検出プロセスを遂行するプロセス;及び(III−6)前記再検出プロセスがN回遂行されることによって、それぞれの第N調整物体情報及びそれぞれの第N調整コンフィデンス情報が生成されると、前記第1調整物体情報ないし第N調整物体情報のうち少なくとも一部及び前記初期物体情報を参照して前記統合最終物体情報を生成するプロセス;を通じて生成され、前記Kは2以上N以下の整数であり、前記Nは、前記強化学習エージェントが、前記再検出プロセスが遂行されるべきであると判断した回数であることを特徴とする請求項16に記載の装置。 - (i)複数の前記パノラマビューセンサのうちカメラに対応する少なくとも一つの第1パノラマビューセンサを通じて少なくとも一つの第1状況イメージが取得されると、前記プロセスが、3チャンネルイメージに対して最適化された、インプットノード(Input Node)が3個以上である第1CNNをもって、前記第1状況イメージに対して第1CNN演算を少なくとも一回適用させ、(ii)デプスセンサ(Depth Sensor)に対応する少なくとも一つの第2パノラマビューセンサを通じて少なくとも一つの第2状況イメージが取得されると、前記プロセスが、デプスイメージ(Depth Image)に対して最適化された、インプットノードが1個以上である第2CNNをもって、前記第2状況イメージに対して第2CNN演算を少なくとも一回適用させることを特徴とする請求項22に記載の装置。
- 前記(I)プロセス以前に、
(I−1)トレーニングイメージが取得されると、学習装置が、前記CNNに含まれている少なくとも一つのコンボリューションレイヤをもって、前記トレーニングイメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのコンボリューション特徴マップを生成させるプロセス;(I−2)前記学習装置が、前記コンボリューション特徴マップに対してアンカー(Anchor)演算を少なくとも一回適用することによって、前記トレーニングイメージ上の予測ROI(Region Of Interest)を生成するプロセスを遂行しつつ、RPN(Region Proposal Network)に含まれている少なくとも一つのアンカーレイヤをもって、前記予測ROIが原本正解(Ground−Truth)ROIと同一であるそれぞれの少なくとも一つの確率を表すそれぞれの少なくとも一つのRPNコンフィデンススコアを前記コンボリューション特徴マップのピクセルごとに生成することによって、前記RPNコンフィデンススコアを含むRPNコンフィデンスマップを生成させるプロセス;(I−3)前記CNNに含まれているROIプーリングレイヤを通じて、前記コンボリューション特徴マップ及び前記予測ROIを利用して生成された少なくとも一つのROIプーリング済み特徴マップが取得されると、前記学習装置は、前記ROIプーリング済み特徴マップを利用して予測物体検出結果を生成するプロセスを遂行しつつ、前記CNNに含まれているFCレイヤをもって、前記予測物体検出結果に含まれるそれぞれの少なくとも一つの予測CNN分類結果と、それぞれの少なくとも一つの予測CNNリグレッション結果とが、原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果と同一であるものと予測されるそれぞれの少なくとも一つの確率を表すそれぞれのCNNコンフィデンススコアを前記予測ROIごとに生成することによって、前記CNNコンフィデンススコアを含むCNNコンフィデンスマップを生成させるプロセス;及び(I−4)前記学習装置が、ロスレイヤをもって、前記RPNコンフィデンスマップと、前記CNNコンフィデンスマップと、前記予測物体検出結果と、前記原本正解物体検出結果とを参照して少なくとも一つのRPNロス及び少なくとも一つのCNNロスを生成させ、前記RPNロス及び前記CNNロスを利用してバックプロパゲーションを遂行することによって前記CNN及び前記RPNに含まれているパラメータのうち少なくとも一部を学習させるプロセス;が遂行されることによって、前記CNNが学習されることを特徴とする請求項16に記載の装置。 - 前記(I−4)プロセスで、
前記学習装置が、前記ロスレイヤをもって、下記数式にしたがって前記RPNロスを生成させ、
Nregはアンカー演算を遂行して生成された前記コンボリューション特徴マップのサイズに対応する定数であり、Nclsは前記トレーニングイメージに対応する定数であり、ciは前記RPNコンフィデンスコアのうち、前記コンボリューション特徴マップの第iピクセルに対応する第iRPNコンフィデンススコアを意味し、piは前記第iピクセルに対応する第i予測RPN分類結果を意味し、pi *は前記第iピクセルに対応する第i原本正解RPN分類結果を意味し、tiは前記第iピクセルに対応する第i予測RPNリグレッション結果を意味し、ti *は前記第iピクセルに対応する第i原本正解RPNリグレッション結果を意味し、
前記第i原本正解RPN分類結果及び前記第i原本正解RPNリグレッション結果は、前記原本正解物体検出結果に対応することを特徴とする請求項24に記載の装置。 - 前記(I−4)プロセスで、
前記学習装置が、前記ロスレイヤをもって、下記数式にしたがって前記CNNロスを生成させ、
Nreg及びNclsは前記予測ROIの個数であり、ciは前記CNNコンフィデンススコアのうち前記予測ROIから選択された第i予測ROIに対応する第iCNNコンフィデンススコアを意味し、piは前記第i予測ROIに対応する第i予測CNN分類結果を意味し、pi *は前記第iピクセルに対応する第i原本正解CNN分類結果を意味し、tiは前記第i予測ROIに対応する第i予測CNNリグレッション結果を意味し、ti *は前記第iピクセルに対応する第i原本正解CNNリグレッション結果を意味し、
前記第i予測CNN分類結果及び前記第i予測CNNリグレッション結果は、前記予測物体検出結果に対応することを特徴とする請求項24に記載の装置。 - 前記(I−3)プロセス以後に、
前記学習装置が、コンフィデンスレイヤをもって、前記RPNコンフィデンスマップ及び前記CNNコンフィデンスマップを参照して、前記トレーニングイメージ内のピクセルごとの統合コンフィデンススコアそれぞれに関する情報を含む統合コンフィデンスマップを生成させることを特徴とする請求項24に記載の装置。 - 前記学習装置が、前記コンフィデンスレイヤをもって、(i)(i−1)前記CNNから、前記予測物体検出結果を生成するプロセスが遂行される途中に生成される、前記予測ROIに対するNMS(Non−Maximum Suppression)結果を取得するプロセス、(i−2)前記RPNコンフィデンスマップに対してリサイズ(Resize)演算を少なくとも一回適用してリサイズされたRPNコンフィデンスマップを生成するプロセス、及び(ii)前記NMS結果及び前記リサイズされたRPNコンフィデンスマップを参照して前記統合コンフィデンスマップを生成するプロセスを遂行させることを特徴とする請求項27に記載の装置。
- 前記学習装置が、前記コンフィデンスレイヤをもって、前記統合コンフィデンススコアのうち、前記トレーニングイメージ上の座標(x,y)に対応する第X_Y統合コンフィデンススコアを下記数式にしたがって生成させ、
c’xyは前記第X_Y統合コンフィデンススコアを意味し、cxyは前記リサイズされたRPNコンフィデンスマップ上の前記座標(x,y)に対応する第X_YリサイズされたRPNコンフィデンススコアを意味し、criは前記NMS結果で決定された、前記座標(x,y)を含みriとして表現される第i予測ROIに対する第iCNNコンフィデンススコアを意味することを特徴とする請求項28に記載の装置。 - 前記(II)プロセスは、
(II−1)前記状況イメージが取得されると、前記CNNに含まれている少なくとも一つのコンボリューションレイヤをもって、前記状況イメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのコンボリューション特徴マップを生成させるプロセス;(II−2)前記コンボリューション特徴マップに対してアンカー演算を少なくとも一回適用することによって、前記状況イメージ上の予測ROIを生成するためのプロセスを遂行しつつ、RPNに含まれている少なくとも一つのアンカーレイヤをもって、前記予測ROIが原本正解ROIと同一である少なくとも一つの確率それぞれを表す、少なくとも一つのRPNコンフィデンススコアそれぞれを前記コンボリューション特徴マップのピクセルごとに生成することによって、前記RPNコンフィデンススコアを含むRPNコンフィデンスマップを生成させるプロセス;(II−3)前記CNNに含まれているROIプーリングレイヤを通じて前記コンボリューション特徴マップ及び前記予測ROIを利用して生成された少なくとも一つのROIプーリング済み特徴マップが取得されると、前記ROIプーリング済み特徴マップを利用して予測物体検出結果を生成するプロセスを遂行しつつ、前記CNNに含まれるFCレイヤをもって、前記予測物体検出結果に含まれているそれぞれの少なくとも一つの予測CNN分類結果と、それぞれの少なくとも一つの予測CNNリグレッション結果とが、原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果と同一である少なくとも一つの確率それぞれを表すCNNコンフィデンスコアそれぞれを前記予測ROIごとに生成することによって、前記CNNコンフィデンススコアを含むCNNコンフィデンスマップを生成させるプロセス;及び(II−4)前記CNNと連動して作動するコンフィデンスレイヤをもって、前記RPNコンフィデンスマップ及び前記CNNコンフィデンスマップを参照して統合コンフィデンスマップを生成させるプロセスを含み、前記プロセッサは、前記CNNをもって、前記予測物体検出結果を含む前記初期物体情報と、前記統合コンフィデンスマップを含む前記初期コンフィデンス情報とを出力させることを特徴とする請求項16に記載の装置。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962799321P | 2019-01-31 | 2019-01-31 | |
US62/799321 | 2019-01-31 | ||
US16/739767 | 2020-01-10 | ||
US16/739,767 US10726279B1 (en) | 2019-01-31 | 2020-01-10 | Method and device for attention-driven resource allocation by using AVM and reinforcement learning to thereby achieve safety of autonomous driving |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020126633A true JP2020126633A (ja) | 2020-08-20 |
JP6895694B2 JP6895694B2 (ja) | 2021-06-30 |
Family
ID=69185406
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020008883A Active JP6895694B2 (ja) | 2019-01-31 | 2020-01-23 | Avm及び強化学習を利用して自律走行の安全性を達成するためのアテンション−ドリブンアルゴリズムを利用したリソース割り当てのための方法及び装置{method and device for attention−driven resource allocation by using avmand reinforcement learning to thereby achieve safety of autonomous driving} |
Country Status (5)
Country | Link |
---|---|
US (1) | US10726279B1 (ja) |
EP (1) | EP3690719A1 (ja) |
JP (1) | JP6895694B2 (ja) |
KR (1) | KR102396272B1 (ja) |
CN (1) | CN111507167B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022148383A (ja) * | 2021-03-24 | 2022-10-06 | パナソニックIpマネジメント株式会社 | 学習方法、学習装置、及び、プログラム |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018176000A1 (en) | 2017-03-23 | 2018-09-27 | DeepScale, Inc. | Data synthesis for autonomous control systems |
US10671349B2 (en) | 2017-07-24 | 2020-06-02 | Tesla, Inc. | Accelerated mathematical engine |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
US11157441B2 (en) | 2017-07-24 | 2021-10-26 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
US11215999B2 (en) | 2018-06-20 | 2022-01-04 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
US11361457B2 (en) | 2018-07-20 | 2022-06-14 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
WO2020077117A1 (en) | 2018-10-11 | 2020-04-16 | Tesla, Inc. | Systems and methods for training machine models with augmented data |
US11196678B2 (en) | 2018-10-25 | 2021-12-07 | Tesla, Inc. | QOS manager for system on a chip communications |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
US11150664B2 (en) | 2019-02-01 | 2021-10-19 | Tesla, Inc. | Predicting three-dimensional features for autonomous driving |
US10997461B2 (en) | 2019-02-01 | 2021-05-04 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
US10956755B2 (en) | 2019-02-19 | 2021-03-23 | Tesla, Inc. | Estimating object properties using visual image data |
US12056917B2 (en) | 2019-10-02 | 2024-08-06 | Intelligent Dynamics, Llc | Distributed management and control in autonomous conveyances |
US12008816B2 (en) * | 2020-12-03 | 2024-06-11 | Hl Klemove Corp. | Method and system for real time object detection |
CN113096175B (zh) * | 2021-03-24 | 2023-10-24 | 苏州中科广视文化科技有限公司 | 一种基于卷积神经网络的深度图置信度估计方法 |
GB2608803B (en) * | 2021-07-09 | 2023-11-08 | Milestone Systems As | A video processing apparatus, method and computer program |
KR20230077564A (ko) * | 2021-11-25 | 2023-06-01 | 한국전자기술연구원 | 깊이 이미지 기반 객체 탐지 시스템 및 이의 환경 적응형 딥러닝 모델 생성 및 적용 방법 |
CN115546768B (zh) * | 2022-12-01 | 2023-04-07 | 四川蜀道新能源科技发展有限公司 | 基于多尺度机制和注意力机制的路面标线识别方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170206431A1 (en) * | 2016-01-20 | 2017-07-20 | Microsoft Technology Licensing, Llc | Object detection and classification in images |
US20180068198A1 (en) * | 2016-09-06 | 2018-03-08 | Carnegie Mellon University | Methods and Software for Detecting Objects in an Image Using Contextual Multiscale Fast Region-Based Convolutional Neural Network |
US20180129974A1 (en) * | 2016-11-04 | 2018-05-10 | United Technologies Corporation | Control systems using deep reinforcement learning |
US20180211403A1 (en) * | 2017-01-20 | 2018-07-26 | Ford Global Technologies, Llc | Recurrent Deep Convolutional Neural Network For Object Detection |
US20180267558A1 (en) * | 2017-03-14 | 2018-09-20 | Starsky Robotics, Inc. | Vehicle sensor system and method of use |
CN109145898A (zh) * | 2018-07-26 | 2019-01-04 | 清华大学深圳研究生院 | 一种基于卷积神经网络和迭代机制的物体检测方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5961571A (en) * | 1994-12-27 | 1999-10-05 | Siemens Corporated Research, Inc | Method and apparatus for automatically tracking the location of vehicles |
KR101449295B1 (ko) * | 2013-06-04 | 2014-10-13 | 현대자동차주식회사 | 주차구획 추적 장치 및 방법 |
US10037469B2 (en) * | 2013-12-10 | 2018-07-31 | Google Llc | Image location through large object detection |
US9767381B2 (en) * | 2015-09-22 | 2017-09-19 | Xerox Corporation | Similarity-based detection of prominent objects using deep CNN pooling layers as features |
US9965719B2 (en) * | 2015-11-04 | 2018-05-08 | Nec Corporation | Subcategory-aware convolutional neural networks for object detection |
JP2018005739A (ja) * | 2016-07-06 | 2018-01-11 | 株式会社デンソー | ニューラルネットワークの強化学習方法及び強化学習装置 |
US10657364B2 (en) * | 2016-09-23 | 2020-05-19 | Samsung Electronics Co., Ltd | System and method for deep network fusion for fast and robust object detection |
US10380741B2 (en) * | 2016-12-07 | 2019-08-13 | Samsung Electronics Co., Ltd | System and method for a deep learning machine for object detection |
CN106599939A (zh) * | 2016-12-30 | 2017-04-26 | 深圳市唯特视科技有限公司 | 一种基于区域卷积神经网络的实时目标检测方法 |
US20180268292A1 (en) * | 2017-03-17 | 2018-09-20 | Nec Laboratories America, Inc. | Learning efficient object detection models with knowledge distillation |
CN108052881A (zh) * | 2017-11-30 | 2018-05-18 | 华中科技大学 | 一种实时检测施工现场图像中多类实体对象的方法及设备 |
DE112019000049T5 (de) * | 2018-02-18 | 2020-01-23 | Nvidia Corporation | Für autonomes fahren geeignete objekterfassung und erfassungssicherheit |
CN108596329B (zh) * | 2018-05-11 | 2020-08-07 | 北方民族大学 | 基于端到端深度集成学习网络的三维模型分类方法 |
US11164016B2 (en) * | 2018-05-17 | 2021-11-02 | Uatc, Llc | Object detection and property determination for autonomous vehicles |
-
2020
- 2020-01-10 US US16/739,767 patent/US10726279B1/en active Active
- 2020-01-20 KR KR1020200007629A patent/KR102396272B1/ko active IP Right Grant
- 2020-01-20 EP EP20152682.9A patent/EP3690719A1/en active Pending
- 2020-01-22 CN CN202010073994.5A patent/CN111507167B/zh active Active
- 2020-01-23 JP JP2020008883A patent/JP6895694B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170206431A1 (en) * | 2016-01-20 | 2017-07-20 | Microsoft Technology Licensing, Llc | Object detection and classification in images |
US20180068198A1 (en) * | 2016-09-06 | 2018-03-08 | Carnegie Mellon University | Methods and Software for Detecting Objects in an Image Using Contextual Multiscale Fast Region-Based Convolutional Neural Network |
US20180129974A1 (en) * | 2016-11-04 | 2018-05-10 | United Technologies Corporation | Control systems using deep reinforcement learning |
US20180211403A1 (en) * | 2017-01-20 | 2018-07-26 | Ford Global Technologies, Llc | Recurrent Deep Convolutional Neural Network For Object Detection |
US20180267558A1 (en) * | 2017-03-14 | 2018-09-20 | Starsky Robotics, Inc. | Vehicle sensor system and method of use |
CN109145898A (zh) * | 2018-07-26 | 2019-01-04 | 清华大学深圳研究生院 | 一种基于卷积神经网络和迭代机制的物体检测方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022148383A (ja) * | 2021-03-24 | 2022-10-06 | パナソニックIpマネジメント株式会社 | 学習方法、学習装置、及び、プログラム |
JP7361342B2 (ja) | 2021-03-24 | 2023-10-16 | パナソニックIpマネジメント株式会社 | 学習方法、学習装置、及び、プログラム |
Also Published As
Publication number | Publication date |
---|---|
EP3690719A1 (en) | 2020-08-05 |
KR102396272B1 (ko) | 2022-05-10 |
CN111507167A (zh) | 2020-08-07 |
JP6895694B2 (ja) | 2021-06-30 |
US10726279B1 (en) | 2020-07-28 |
US20200250442A1 (en) | 2020-08-06 |
KR20200095376A (ko) | 2020-08-10 |
CN111507167B (zh) | 2023-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6895694B2 (ja) | Avm及び強化学習を利用して自律走行の安全性を達成するためのアテンション−ドリブンアルゴリズムを利用したリソース割り当てのための方法及び装置{method and device for attention−driven resource allocation by using avmand reinforcement learning to thereby achieve safety of autonomous driving} | |
KR102396274B1 (ko) | 강화 학습 및 v2x 통신을 사용하는 어텐션-드리븐 리소스 할당을 통해 자율 주행의 안전성을 제공하기 위한 방법 및 장치 | |
JP6908946B2 (ja) | 距離予測が可能なレーダを通じて取得される情報とカメラを通じて取得される情報とを統合するセンサ融合を遂行することによって、自律走行を支援するニューラルネットワークを向上させる学習方法及び学習装置、そしてこれを使用したテスト方法及びテスト装置 | |
CN111461106B (zh) | 基于可重配置网络的对象检测方法及装置 | |
JP6890855B2 (ja) | Avmを利用して自律走行の安全性を達成するためのアテンションドリブンアルゴリズムを利用したリソース割り当てのための方法及び装置{method and device for attention−driven resource allocation by using avm to thereby achieve safety of autonomous driving} | |
KR102321004B1 (ko) | 온 디바이스 독립형 예측에 기반하여 자율 주행 차량의 모드를 전환함으로써 자율 주행의 안전성을 도모하는 학습 방법 및 학습 장치, 그리고 이를 이용한 테스팅 방법 및 테스팅 장치 | |
JP6856853B2 (ja) | 極限状況においてフォールトトレランス及びフラクチュエーションロバスト性を向上させるために、ジッタリングが起きたイメージを安定化させるプロセスで生成されたワーピングされたイメージに発生した歪曲を、ganを利用して減らすための学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置 | |
JP6846069B2 (ja) | 遠距離検出または軍事目的のために、イメージコンカチネーションを利用したcnn基盤のハードウェア最適化が可能な物体検出器を学習する方法及び学習装置、それを利用したテスト方法及びテスト装置{learning method and learning device for object detector with hardware optimization based on cnn for detection at distance or military purpose using image concatenation, and testing method and testing device using the same} | |
CN111488786B (zh) | 基于cnn的监视用客体检测器的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200123 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200706 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200710 |
|
RD13 | Notification of appointment of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7433 Effective date: 20201022 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210428 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210517 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210601 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6895694 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |