JP2020126632A - Avmを利用して自律走行の安全性を達成するためのアテンションドリブンアルゴリズムを利用したリソース割り当てのための方法及び装置{method and device for attention−driven resource allocation by using avm to thereby achieve safety of autonomous driving} - Google Patents
Avmを利用して自律走行の安全性を達成するためのアテンションドリブンアルゴリズムを利用したリソース割り当てのための方法及び装置{method and device for attention−driven resource allocation by using avm to thereby achieve safety of autonomous driving} Download PDFInfo
- Publication number
- JP2020126632A JP2020126632A JP2020008882A JP2020008882A JP2020126632A JP 2020126632 A JP2020126632 A JP 2020126632A JP 2020008882 A JP2020008882 A JP 2020008882A JP 2020008882 A JP2020008882 A JP 2020008882A JP 2020126632 A JP2020126632 A JP 2020126632A
- Authority
- JP
- Japan
- Prior art keywords
- cnn
- confidence
- predicted
- information
- rpn
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 233
- 238000013468 resource allocation Methods 0.000 title description 6
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 352
- 230000008569 process Effects 0.000 claims abstract description 176
- 238000001514 detection method Methods 0.000 claims abstract description 152
- 238000012549 training Methods 0.000 claims description 35
- 238000004422 calculation algorithm Methods 0.000 claims description 17
- 238000011176 pooling Methods 0.000 claims description 11
- 230000001629 suppression Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 230000006854 communication Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000007796 conventional method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 241000196324 Embryophyta Species 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241000274582 Pycnanthus angolensis Species 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000011087 paperboard Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Image Processing (AREA)
Abstract
Description
Nregはアンカー演算を遂行して生成された前記コンボリューション特徴マップのサイズに対応する定数(constant)であり、Nclsは前記トレーニングイメージに対応する定数であり、ciは前記RPNコンフィデンスコアのうち、前記コンボリューション特徴マップの第iピクセルに対応する第iRPNコンフィデンススコアを意味し、piは前記第iピクセルに対応する第i予測RPN分類結果を意味し、pi *は前記第iピクセルに対応する第i原本正解RPN分類結果を意味し、tiは前記第iピクセルに対応する第i予測RPNリグレッション結果を意味し、ti *は前記第iピクセルに対応する第i原本正解RPNリグレッション結果を意味し、前記第i原本正解RPN分類結果及び前記第i原本正解RPNリグレッション結果は、前記原本正解物体検出結果に対応することを特徴とする。
Nreg及びNclsは前記予測ROIの個数であり、ciは前記CNNコンフィデンススコアのうち前記予測ROIから選択された第i予測ROIに対応する第iCNNコンフィデンススコアを意味し、piは前記第i予測ROIに対応する第i予測CNN分類結果を意味し、pi *は前記第iピクセルに対応する第i原本正解CNN分類結果を意味し、tiは前記第i予測ROIに対応する第i予測CNNリグレッション結果を意味し、ti *は前記第iピクセルに対応する第i原本正解CNNリグレッション結果を意味し、前記第i予測CNN分類結果及び前記第i予測CNNリグレッション結果は、前記予測物体検出結果に対応することを特徴とする。
c’xyは前記第X_Y統合コンフィデンススコアを意味し、cxyは前記リサイズされたRPNコンフィデンスマップ上の前記座標(x,y)に対応する第X_YリサイズされたRPNコンフィデンススコアを意味し、criは前記NMS結果で決定された、前記座標(x,y)を含みriとして表現される第i予測ROIに対する第iCNNコンフィデンススコアを意味することを特徴とする。
Nregはアンカー演算を遂行して生成された前記コンボリューション特徴マップのサイズに対応する定数であり、Nclsは前記トレーニングイメージに対応する定数であり、ciは前記RPNコンフィデンスコアのうち、前記コンボリューション特徴マップの第iピクセルに対応する第iRPNコンフィデンススコアを意味し、piは前記第iピクセルに対応する第i予測RPN分類結果を意味し、pi *は前記第iピクセルに対応する第i原本正解RPN分類結果を意味し、tiは前記第iピクセルに対応する第i予測RPNリグレッション結果を意味し、ti *は前記第iピクセルに対応する第i原本正解RPNリグレッション結果を意味し、前記第i原本正解RPN分類結果及び前記第i原本正解RPNリグレッション結果は、前記原本正解物体検出結果に対応することを特徴とする。
Nreg及びNclsは前記予測ROIの個数であり、ciは前記CNNコンフィデンススコアのうち前記予測ROIから選択された第i予測ROIに対応する第iCNNコンフィデンススコアを意味し、piは前記第i予測ROIに対応する第i予測CNN分類結果を意味し、pi *は前記第iピクセルに対応する第i原本正解CNN分類結果を意味し、tiは前記第i予測ROIに対応する第i予測CNNリグレッション結果を意味し、ti *は前記第iピクセルに対応する第i原本正解CNNリグレッション結果を意味し、前記第i予測CNN分類結果及び前記第i予測CNNリグレッション結果は、前記予測物体検出結果に対応することを特徴とする。
c’xyは前記第X_Y統合コンフィデンススコアを意味し、cxyは前記リサイズされたRPNコンフィデンスマップ上の前記座標 (x,y)に対応する第X_YリサイズされたRPNコンフィデンススコアを意味し、criは前記NMS結果で決定された、前記座標(x,y)を含みriとして表現される第i予測ROIに対する第iCNNコンフィデンススコアを意味することを特徴とする。
ここで、c’xyは第X_Y統合コンフィデンススコアを意味し得、cxyはリサイズされたRPNコンフィデンスマップ上で、座標(x,y)に対応する第X_YリサイズされたRPNコンフィデンススコアを意味し得る。また、criはNMS結果で決定された、座標(x,y)を含み、riとして表現される、第i予測ROIに対する第iCNNコンフィデンススコアを意味し得る。学習装置は、コンフィデンスレイヤ150をもって、上記のように生成された統合コンフィデンススコアを利用して統合コンフィデンスマップを生成させることができる。
ここで、Nregはアンカー演算を遂行して生成されたコンボリューション特徴マップのサイズに対応する定数(constant)であり、Nclsは前記トレーニングイメージに対応する定数であり得る。また、ciは前記RPNコンフィデンスコアのうちコンボリューション特徴マップの第iピクセルに対応する第iRPNコンフィデンススコアを意味し得、piは前記第iピクセルに対応する第i予測RPN分類結果を意味し、pi *は前記第iピクセルに対応する第i原本正解RPN分類結果を意味し得る。tiは前記第iピクセルに対応する第i予測RPNリグレッション結果を意味し、ti *は前記第iピクセルに対応する第i原本正解RPNリグレッション結果を意味し得る。第i原本正解RPN分類結果及び第i原本正解RPNリグレッション結果は、原本正解物体検出結果に対応し得る。また、Lcls及びLregはスムース−L1ロス(Smooth−L1Loss)のようなロスを生成するための従来技術を、どのようなものであっても利用して実行され得る。
は、RPN140により決定されたアンカー特徴マップの第iピクセルに対応する第i予測RPN分類結果が第i原本正解RPN分類結果と同一である場合を示す。つまり、これはRPN140がコンボリューション特徴マップの第iピクセルを正確に分析した場合である。便宜上、RPN140が第i予測RPN分類結果と第i原本正解RPN分類結果とが同一である確率を臨界確率、ここでは0.5超過であるものと判断した場合、RPN140が第iピクセルに対して「正確に」分析したケースを想定した。最初の項において、(1.1−ci)は、RPN140が第iピクセルを正確に分析した場合にRPN140のパラメータがRPNロスより小さくなるように調節されて第iRPNコンフィデンススコアが大きくなるようにする。詳細には、上記で示されているように生成された最初のサブ項を含む分類ロス項は、RPN140のパラメータを調整することができるようにグラディエント(Gradient)を生成することによって、未来のRPNロスが小さくなるようにするために適用される。したがって、最初のサブ項を含む分類ロス項を利用すれば、RPN140がRPNコンフィデンス特徴マップの値を正確に分析する場合、RPNスコアをより大きく生成することができる。
は、RPN140が第iピクセルを正確に分析しなかった場合を示す。二番目のサブ項において、(0.1+ci)は、RPN140が第iピクセルに対して不正確に分析した場合に第iRPNコンフィデンススコアをより小さくする。学習プロセスのメカニズムは、最初のサブ項で述べたようにその機序が同じである。
Nreg及びNclsは前記予測ROIの個数を意味し、ciは予測ROIのうち第i予測ROIに対応する、CNNコンフィデンススコアのうち第iCNNコンフィデンススコアを意味し得る、また、piは第i予測ROIに対応する、第i予測CNN分類の結果を意味し、pi *は前記第iピクセルに対応する第i原本正解CNN分類結果を意味し得る。そして、tiは第i予測ROIに対応する、第i予測CNNリグレッション結果を意味し、ti *は前記第iピクセルに対応する第i原本正解CNNリグレッション結果を意味し得る。第i予測CNN分類結果と第i予測CNNリグレッション結果とは、予測物体検出結果に対応し得る。本数式において記号は、RPNロスを示した記号と同一であり得るが、上記のようにその意味は異なり得る。
Claims (30)
- 物体検出プロセスと並列して生成された、物体検出の信頼度(Credibility)を示すコンフィデンススコア(Confidence Score)を利用することによって、コンピューティングパワーを節約しながらもより優れた自律走行性能を達成するための方法において、
(a)コンピューティング装置が、対象車両に設置された少なくとも一つのパノラマビューセンサ(Panorama View Sensor)を通じて前記対象車両の周辺に対する少なくとも一つの状況イメージ(Circumstance Image)を取得する段階;
(b)前記コンピューティング装置が、CNN(Convolutional Neural Network)をもって、前記状況イメージに対してCNN演算を少なくとも一回適用させて、前記状況イメージに関する初期物体情報及び初期コンフィデンス情報を生成させる段階;及び
(c)前記コンピューティング装置が、前記初期物体情報及び前記初期コンフィデンス情報を参照して、前記状況イメージに対する最終物体情報を生成する段階;
を含むことを特徴とする方法。 - 前記(c)段階は、
(c1)前記コンピューティング装置が、(i)前記初期コンフィデンス情報を参照して、前記状況イメージに含まれている少なくとも一つの領域のうちそれに対応する前記コンフィデンススコアが閾値未満である少なくとも一つの第1特定領域それぞれを先に選択し、(ii)前記CNNをもって、前記第1特定領域に対してCNN演算を適用させて前記状況イメージに対する第1調整物体情報(Adjusted Object Information)及び第1調整コンフィデンス情報を生成させる、再検出(Re−detection)プロセスを遂行する段階;
(c2)前記コンピューティング装置が、(i)事前に生成された第K−1調整コンフィデンス情報を参照して、前記状況イメージ内の前記領域のうちそれに対応する前記コンフィデンススコアが前記閾値未満である少なくとも一つの第K特定領域それぞれを選択し、(ii)前記CNNをもって、前記第K特定領域に対してCNN演算を適用させて前記状況イメージに対する第K調整物体情報及び第K調整コンフィデンス情報を生成させる、前記再検出プロセスを繰り返し遂行する段階:及び
(c3)前記再検出プロセスがN回遂行されることによって、第N調整物体情報及び第N調整コンフィデンス情報が生成されると、前記コンピューティング装置が、前記初期物体情報と、前記第1調整物体情報ないし前記第N調整物体情報のうち少なくとも一部とを参照して、前記最終物体情報を生成する段階;
を含み、
前記Kは2以上N以下の整数(integer)であり、Nは予め設定された整数であることを特徴とする請求項1に記載の方法。 - Mは1以上N−1以下の整数であり、前記再検出プロセスをM回目遂行しつつ、選択された少なくとも一つの第M特定領域の少なくとも一つの広さの和が閾値未満である場合、前記コンピューティング装置が前記再検出プロセスを繰り返して遂行することを中断し、前記初期物体情報と、前記第1調整物体情報ないし第M−1調整物体情報のうち少なくとも一部とを参照して、前記最終物体情報を生成することを特徴とする請求項2に記載の方法。
- Lは1以上N以下の整数であり、前記再検出プロセスをL回目遂行しつつ、少なくとも一つの第L特定領域が選択されると、前記コンピューティング装置が第L倍数情報を参照して前記第L特定領域に対してアップサンプリング演算(Upsampling Operation)を適用して第L特定アップサンプリングイメージ(Specific Upsampled Image)を生成した後、前記CNNをもって、前記第L特定アップサンプリングイメージに対してCNN演算を適用させて第L調整物体情報及び第L調整コンフィデンス情報を生成させることを特徴とする請求項2に記載の方法。
- 前記コンピューティング装置が、前記初期物体情報と、前記第1調整物体情報ないし前記第N調整物体情報のうち少なくとも一部とを参照して、NMS(Non−Maximum Suppression)アルゴリズム及びボックスボーティング(Box Voting)アルゴリズムのうち少なくとも一つを遂行することによって前記最終物体情報を生成することを特徴とする請求項2に記載の方法。
- 前記(c)段階において、
前記コンピューティング装置が、複数個の前記状況イメージをそれに対する部分イメージ(Partial Image)として含む統合イメージ(Integrated Image)を生成しつつ、それぞれの前記状況イメージに関するそれぞれの前記初期物体情報とそれぞれの前記初期コンフィデンス情報とを利用して前記統合イメージに関する統合最終物体情報を生成することを特徴とし、前記Kは2以上N以下の整数であり、Nは予め設定された整数である場合、前記統合最終物体情報は、
(c4)前記コンピューティング装置が、(i)それぞれの前記初期コンフィデンス情報を参照して、前記統合イメージに対する第1統合コンフィデンス情報を生成した後、(ii)前記第1統合コンフィデンス情報を参照して前記統合イメージ内の少なくとも一つの領域のうちそれに対応するコンフィデンススコアが閾値未満である少なくとも一つのそれぞれの第1特定領域を選択し、(iii)最後に前記CNNをもって、前記第1特定領域に対してCNN演算を適用させて前記統合イメージに関するそれぞれの第1調整物体情報及びそれぞれの第1調整コンフィデンス情報を生成させる、再検出プロセスを遂行する段階;
(c5)前記コンピューティング装置が、(i)それぞれの第K−1調整コンフィデンス情報を参照して、前記統合イメージに対する第K調整統合コンフィデンス情報を生成した後、(ii)前記第K調整統合コンフィデンス情報を参照して前記統合イメージ内の前記領域のうちそれに対応するコンフィデンススコアが前記閾値未満である少なくとも一つの第K特定領域それぞれを選択し、(iii)最後に前記CNNをもって、前記第K特定領域に対してCNN演算を適用させて前記統合イメージに関するそれぞれの第K調整物体情報及びそれぞれの第K調整コンフィデンス情報を生成させる、前記再検出プロセスを繰り返し遂行する段階;及び
(c6)前記再検出プロセスがN回遂行されることによって、それぞれの第N調整物体情報及びそれぞれの第N調整コンフィデンス情報が生成されると、前記コンピューティング装置が、前記初期物体情報と、前記第1調整物体情報ないし第N調整物体情報のうち少なくとも一部とを参照して、前記統合最終物体情報を生成する段階;
を遂行して生成されることを特徴とする請求項1に記載の方法。 - (i)複数の前記パノラマビューセンサのうちカメラに対応する少なくとも一つの第1パノラマビューセンサを通じて少なくとも一つの第1状況イメージが取得されると、前記コンピューティング装置が、3チャンネルイメージに対して最適化された、インプットノード(Input Node)が3個以上である第1CNNをもって、前記第1状況イメージに対して第1CNN演算を少なくとも一回適用させ、(ii)デプスセンサ(Depth Sensor)に対応する少なくとも一つの第2パノラマビューセンサを通じて少なくとも一つの第2状況イメージが取得されると、前記コンピューティング装置が、デプスイメージ(Depth Image)に対して最適化された、インプットノードが1個以上である第2CNNをもって、前記第2状況イメージに対して第2CNN演算を少なくとも一回適用させることを特徴とする請求項6に記載の方法。
- (d)前記コンピューティング装置が、前記最終物体情報を自律走行モジュールに伝達することによって、前記自律走行モジュールが前記最終物体情報を利用して前記対象車両の自律走行を遂行し得るように支援する段階;
をさらに含むことを特徴とする請求項1に記載の方法。 - 前記(a)段階以前に、
(a1)トレーニングイメージが取得されると、学習装置が、前記CNNに含まれている少なくとも一つのコンボリューションレイヤをもって、前記トレーニングイメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのコンボリューション特徴マップ(Convolutional Feature Map)を生成させる段階;
(a2)前記学習装置が、前記コンボリューション特徴マップに対してアンカー演算(Anchor Operation)を少なくとも一回適用することによって前記トレーニングイメージ上の予測ROI(Estimated Region Of Interest)を生成するプロセスを遂行しつつ、RPN(Region Proposal Network)に含まれている少なくとも一つのアンカーレイヤ(Anchor Layer)をもって、前記予測ROIが原本正解(Ground−Truth)ROIと同一であるそれぞれの少なくとも一つの確率を表すそれぞれの少なくとも一つのRPNコンフィデンススコアを前記コンボリューション特徴マップのピクセルごとに生成することによって、前記RPNコンフィデンススコアを含むRPNコンフィデンスマップを生成させる段階;
(a3)前記CNNに含まれているROIプーリングレイヤ(ROI Pooling Layer)を通じて、前記コンボリューション特徴マップ及び前記予測ROIを利用して生成された少なくとも一つのROIプーリング済み特徴マップ(ROI−Pooled Feature Map)が取得されると、前記学習装置は、前記ROIプーリング済み特徴マップを利用して予測物体検出結果(Estimated Object Detection Result)を生成するプロセスを遂行しつつ、前記CNNに含まれているFCレイヤをもって、前記予測物体検出結果に含まれるそれぞれの少なくとも一つの予測CNN分類結果(Estimated CNN Classification Result)及びそれぞれの少なくとも一つの予測CNNリグレッション結果(Estimated CNN Regression Result)が、原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果(GT CNN Classification Result)及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果(GT CNN Regression Result)と同一であるものと予測されるそれぞれの少なくとも一つの確率を表すそれぞれのCNNコンフィデンススコアを前記予測ROIごとに生成することによって、前記CNNコンフィデンススコアを含むCNNコンフィデンスマップを生成させる段階;及び
(a4)前記学習装置が、ロスレイヤをもって、前記RPNコンフィデンスマップと、前記CNNコンフィデンスマップと、前記予測物体検出結果と、前記原本正解物体検出結果とを参照して少なくとも一つのRPNロス及び少なくとも一つのCNNロスを生成させ、前記RPNロス及び前記CNNロスを利用してバックプロパゲーションを遂行することによって前記CNN及び前記RPNに含まれているパラメータのうち少なくとも一部を学習させる段階;
をさらに含むことを特徴とする請求項1に記載の方法。 - 前記(a4)段階で、
前記学習装置が、前記ロスレイヤをもって、下記数式にしたがって前記RPNロスを生成させ、
Nregはアンカー演算を遂行して生成された前記コンボリューション特徴マップのサイズに対応する定数(constant)であり、Nclsは前記トレーニングイメージに対応する定数であり、ciは前記RPNコンフィデンスコアのうち、前記コンボリューション特徴マップの第iピクセルに対応する第iRPNコンフィデンススコアを意味し、piは前記第iピクセルに対応する第i予測RPN分類結果を意味し、pi *は前記第iピクセルに対応する第i原本正解RPN分類結果を意味し、tiは前記第iピクセルに対応する第i予測RPNリグレッション結果を意味し、ti *は前記第iピクセルに対応する第i原本正解RPNリグレッション結果を意味し、
前記第i原本正解RPN分類結果及び前記第i原本正解RPNリグレッション結果は、前記原本正解物体検出結果に対応することを特徴とする請求項9に記載の方法。 - 前記(a4)段階で、
前記学習装置が、前記ロスレイヤをもって、下記数式にしたがって前記CNNロスを生成させ、
Nreg及びNclsは前記予測ROIの個数であり、ciは前記CNNコンフィデンススコアのうち前記予測ROIから選択された第i予測ROIに対応する第iCNNコンフィデンススコアを意味し、piは前記第i予測ROIに対応する第i予測CNN分類結果を意味し、pi *は前記第iピクセルに対応する第i原本正解CNN分類結果を意味し、tiは前記第i予測ROIに対応する第i予測CNNリグレッション結果を意味し、ti *は前記第iピクセルに対応する第i原本正解CNNリグレッション結果を意味し、
前記第i予測CNN分類結果及び前記第i予測CNNリグレッション結果は、前記予測物体検出結果に対応することを特徴とする請求項9に記載の方法。 - 前記(a3)段階以後に、
前記学習装置が、コンフィデンスレイヤをもって、前記RPNコンフィデンスマップ及び前記CNNコンフィデンスマップを参照して、前記トレーニングイメージ内のピクセルごとの統合コンフィデンススコアそれぞれに関する情報を含む統合コンフィデンスマップを生成させることを特徴とする請求項9に記載の方法。 - 前記学習装置が、前記コンフィデンスレイヤをもって、(i)(i−1)前記CNNから、前記予測物体検出結果を生成するプロセスが遂行される途中に生成される、前記予測ROIに対するNMS結果を取得するプロセス、(i−2)前記RPNコンフィデンスマップに対してリサイズ演算(Resizing Operation)を少なくとも一回適用してリサイズされたRPNコンフィデンスマップを生成するプロセス、及び(ii)前記NMS結果と、前記リサイズされたRPNコンフィデンスマップとを参照して、前記統合コンフィデンスマップを生成するプロセスを遂行させることを特徴とする請求項12に記載の方法。
- 前記学習装置が、前記コンフィデンスレイヤをもって、前記統合コンフィデンススコアのうち、前記トレーニングイメージ上の座標(x,y)に対応する第X_Y統合コンフィデンススコアを下記数式にしたがって生成させ、
c’xyは前記第X_Y統合コンフィデンススコアを意味し、cxyは前記リサイズされたRPNコンフィデンスマップ上の前記座標(x,y)に対応する第X_YリサイズされたRPNコンフィデンススコアを意味し、criは前記NMS結果で決定された、前記座標(x,y)を含みriとして表現される第i予測ROIに対する第iCNNコンフィデンススコアを意味することを特徴とする請求項13に記載の方法。 - 前記(b)段階は、
(b1)前記状況イメージが取得されると、前記コンピューティング装置が、前記CNNに含まれている少なくとも一つのコンボリューションレイヤをもって、前記状況イメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのコンボリューション特徴マップを生成させる段階;
(b2)前記コンピューティング装置が、前記コンボリューション特徴マップに対してアンカー演算を少なくとも一回適用することによって、前記状況イメージ上の予測ROIを生成するためのプロセスを遂行しつつ、RPNに含まれている少なくとも一つのアンカーレイヤをもって、前記予測ROIが原本正解ROIと同一である少なくとも一つの確率それぞれを表す、少なくとも一つのRPNコンフィデンススコアそれぞれを前記コンボリューション特徴マップのピクセルごとに生成することによって、前記RPNコンフィデンススコアを含むRPNコンフィデンスマップを生成させる段階;
(b3)前記CNNに含まれているROIプーリングレイヤを通じて、前記コンボリューション特徴マップ及び前記予測ROIを利用して生成された少なくとも一つのROIプーリング済み特徴マップが取得されると、前記コンピューティング装置が、前記ROIプーリング済み特徴マップを利用して予測物体検出結果を生成するプロセスを遂行しつつ、前記CNNに含まれるFCレイヤをもって、前記予測物体検出結果に含まれているそれぞれの少なくとも一つの予測CNN分類結果及びそれぞれの少なくとも一つの予測CNNリグレッション結果が原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果と同一である少なくとも一つの確率それぞれを表すCNNコンフィデンスコアそれぞれを前記予測ROIごとに生成することによって、前記CNNコンフィデンススコアを含むCNNコンフィデンスマップを生成させる段階;及び
(b4)前記コンピューティング装置が、前記CNNと連動して作動するコンフィデンスレイヤをもって、前記RPNコンフィデンスマップ及び前記CNNコンフィデンスマップを参照して統合コンフィデンスマップを生成させる段階を含み、
前記コンピューティング装置は、前記CNNをもって、前記予測物体検出結果を含む前記初期物体情報及び前記統合コンフィデンスマップを含む前記初期コンフィデンス情報を出力させることを特徴とする請求項1に記載の方法。 - 物体検出プロセスと並列して生成された、物体検出の信頼度(Credibility)を示すコンフィデンススコア(Confidence Score)を利用することによって、コンピューティングパワーを節約しながらもより優れた自律走行性能を達成するためのコンピューティング装置において、
インストラクションを格納する少なくとも一つのメモリと、
(I)対象車両に設置された少なくとも一つのパノラマビューセンサ(Panorama View Sensor)を通じて前記対象車両の周辺に対する少なくとも一つの状況イメージ(Circumstance Image)を取得するプロセス;(II)CNN(Convolutional Neural Network)をもって、前記状況イメージに対してCNN演算を少なくとも一回適用させて、前記状況イメージに関する初期物体情報及び初期コンフィデンス情報を生成させるプロセス;及び(III)前記初期物体情報及び前記初期コンフィデンス情報を参照して、前記状況イメージに対する最終物体情報を生成するプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、
を含むことを特徴とする装置。 - 前記(III)プロセスは、
(III−1)(i)前記初期コンフィデンス情報を参照して、前記状況イメージに含まれている少なくとも一つの領域のうちそれに対応する前記コンフィデンススコアが閾値未満である少なくとも一つの第1特定領域それぞれを先に選択し、(ii)前記CNNをもって、前記第1特定領域に対してCNN演算を適用させて前記状況イメージに対する第1調整物体情報(Adjusted Object Information)及び第1調整コンフィデンス情報を生成させる、再検出(Re−detection)プロセスを遂行するプロセス;
(III−2)(i)事前に生成された第K−1調整コンフィデンス情報を参照して、前記状況イメージ内の前記領域のうちそれに対応する前記コンフィデンススコアが前記閾値未満である少なくとも一つの第K特定領域それぞれを選択し、(ii)前記CNNをもって、前記第K特定領域に対してCNN演算を適用させて前記状況イメージに対する第K調整物体情報及び第K調整コンフィデンス情報を生成させる、前記再検出プロセスを繰り返し遂行するプロセス;
(III−3)前記再検出プロセスがN回遂行されることによって、第N調整物体情報及び第N調整コンフィデンス情報が生成されると、前記初期物体情報と、前記第1調整物体情報ないし前記第N調整物体情報のうち少なくとも一部とを参照して、前記最終物体情報を生成するプロセス;
を含み、
前記Kは2以上N以下の整数であり、Nは予め設定された整数であることを特徴とする請求項16に記載の装置。 - Mは1以上N−1以下の整数であり、前記再検出プロセスをM回目遂行しつつ選択された少なくとも一つの第M特定領域の少なくとも一つの広さの和が閾値未満である場合、前記プロセッサが前記再検出プロセスを繰り返し遂行することを中断し、前記初期物体情報と、前記第1調整物体情報ないし第M−1調整物体情報のうち少なくとも一部とを参照して、前記最終物体情報を生成することを特徴とする請求項17に記載の装置。
- Lは1以上N以下の整数であり、前記再検出プロセスをL回目遂行しつつ、少なくとも一つの第L特定領域が選択されると、前記プロセッサが第L倍数情報を参照して前記第L特定領域に対してアップサンプリング演算(Upsampling Operation)を適用して第L特定アップサンプリングイメージ(Specific Upsampled Image)を生成した後、前記CNNをもって、前記第L特定アップサンプリングイメージに対してCNN演算を適用させて第L調整物体情報及び第L調整コンフィデンス情報を生成させることを特徴とする請求項17に記載の装置。
- 前記プロセッサが、前記初期物体情報と、前記第1調整物体情報ないし前記第N調整物体情報のうち少なくとも一部とを参照して、NMS(Non−Maximum Suppression)アルゴリズム及びボックスボーティング(Box Voting)アルゴリズムのうち少なくとも一つを遂行することによって前記最終物体情報を生成することを特徴とする請求項17に記載の装置。
- 前記(III)プロセスで、
複数個の前記状況イメージをそれに対する部分イメージ(Partial Image)として含む統合イメージ(Integrated Image)を生成しつつ、前記プロセッサがそれぞれの前記状況イメージに関するそれぞれの前記初期物体情報とそれぞれの前記初期コンフィデンス情報とを利用して前記統合イメージに関する統合最終物体情報を生成することを特徴とし、前記Kは2以上N以下の整数であり、Nは予め設定された整数である場合、前記統合最終物体情報は、
(III−4)(i)それぞれの前記初期コンフィデンス情報を参照して、前記統合イメージに対する第1統合コンフィデンス情報を生成した後、(ii)前記第1統合コンフィデンス情報を参照して前記統合イメージ内の少なくとも一つの領域のうちそれに対応するコンフィデンススコアが閾値未満である少なくとも一つのそれぞれの第1特定領域を選択し、(iii)最後に前記CNNをもって、前記第1特定領域に対してCNN演算を適用させて前記統合イメージに関するそれぞれの第1調整物体情報及びそれぞれの第1調整コンフィデンス情報を生成させる、再検出プロセスを遂行するプロセス;
(III−5)(i)それぞれの第K−1調整コンフィデンス情報を参照して、前記統合イメージに対する第K調整統合コンフィデンス情報を生成した後、(ii)前記第K調整統合コンフィデンス情報を参照して前記統合イメージ内の前記領域のうちそれに対応するコンフィデンススコアが前記閾値未満である少なくとも一つの第K特定領域それぞれを選択し、(iii)最後に前記CNNをもって、前記第K特定領域に対してCNN演算を適用させて前記統合イメージに関するそれぞれの第K調整物体情報及びそれぞれの第K調整コンフィデンス情報を生成させる、前記再検出プロセスを繰り返し遂行するプロセス;
(III−6)前記再検出プロセスがN回遂行されることによって、それぞれの第N調整物体情報及びそれぞれの第N調整コンフィデンス情報が生成されると、前記初期物体情報と、前記第1調整物体情報ないし第N調整物体情報のうち少なくとも一部とを参照して前記統合最終物体情報を生成するプロセス;
を遂行して生成されることを特徴とする請求項16に記載の装置。 - (i)複数の前記パノラマビューセンサのうちカメラに対応する少なくとも一つの第1パノラマビューセンサを通じて少なくとも一つの第1状況イメージが取得されると、前記プロセスが、3チャンネルイメージに対して最適化された、インプットノード(Input Node)が3個以上である第1CNNをもって、前記第1状況イメージに対して第1CNN演算を少なくとも一回適用させ、(ii)デプスセンサ(Depth Sensor)に対応する少なくとも一つの第2パノラマビューセンサを通じて少なくとも一つの第2状況イメージが取得されると、前記プロセスが、デプスイメージ(Depth Image)に対して最適化された、インプットノードが1個以上である第2CNNをもって、前記第2状況イメージに対して第2CNN演算を少なくとも一回適用させることを特徴とする請求項21に記載の装置。
- (IV)前記プロセッサが、前記最終物体情報を自律走行モジュールに伝達することによって、前記自律走行モジュールが前記最終物体情報を利用して前記対象車両の自律走行を遂行し得るように支援するプロセス;
をさらに含むことを特徴とする請求項16に記載の装置。 - 前記(I)プロセス以前に、
(I−1)トレーニングイメージが取得されると、学習装置が、前記CNNに含まれている少なくとも一つのコンボリューションレイヤをもって、前記トレーニングイメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのコンボリューション特徴マップ(Convolutional Feature Map)を生成させるプロセス;
(I−2)前記学習装置が、前記コンボリューション特徴マップに対してアンカー演算(Anchor Operation)を少なくとも一回適用することによって、前記トレーニングイメージ上の予測ROI(Estimated Region Of Interest)を生成するプロセスを遂行しつつ、RPN(Region Proposal Network)に含まれている少なくとも一つのアンカーレイヤ(Anchor Layer)をもって、前記予測ROIが原本正解(Ground−Truth)ROIと同一であるそれぞれの少なくとも一つの確率を表すそれぞれの少なくとも一つのRPNコンフィデンススコアを前記コンボリューション特徴マップのピクセルごとに生成することによって、前記RPNコンフィデンススコアを含むRPNコンフィデンスマップを生成させるプロセス;
(I−3)前記CNNに含まれているROIプーリングレイヤ(ROI Pooling Layer)を通じて、前記コンボリューション特徴マップ及び前記予測ROIを利用して生成された少なくとも一つのROIプーリング済み特徴マップ(ROI−Pooled Feature Map)が取得されると、前記学習装置は、前記ROIプーリング済み特徴マップを利用して予測物体検出結果(Estimated Object Detection Result)を生成するプロセスを遂行しつつ、前記CNNに含まれているFCレイヤをもって、前記予測物体検出結果に含まれるそれぞれの少なくとも一つの予測CNN分類結果(Estimated CNN Classification Result)及びそれぞれの少なくとも一つの予測CNNリグレッション結果(Estimated CNN Regression Result)が、原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果(GT CNN Classification Result)及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果(GT CNN Regression Result)と同一であるものと予測されるそれぞれの少なくとも一つの確率を表すそれぞれのCNNコンフィデンススコアを前記予測ROIごとに生成することによって、前記CNNコンフィデンススコアを含むCNNコンフィデンスマップを生成させるプロセス;及び
(I−4)前記学習装置が、ロスレイヤをもって、前記RPNコンフィデンスマップと、前記CNNコンフィデンスマップと、前記予測物体検出結果と、前記原本正解物体検出結果とを参照して少なくとも一つのRPNロス及び少なくとも一つのCNNロスを生成させ、前記RPNロス及び前記CNNロスを利用してバックプロパゲーションを遂行することによって前記CNN及び前記RPNに含まれているパラメータのうち少なくとも一部を学習させるプロセス;
をさらに含むことを特徴とする請求項16に記載の装置。 - 前記(I−4)プロセスで、
前記学習装置が、前記ロスレイヤをもって、下記数式にしたがって前記RPNロスを生成させ、
Nregはアンカー演算を遂行して生成された前記コンボリューション特徴マップのサイズに対応する定数であり、Nclsは前記トレーニングイメージに対応する定数であり、ciは前記RPNコンフィデンスコアのうち、前記コンボリューション特徴マップの第iピクセルに対応する第iRPNコンフィデンススコアを意味し、piは前記第iピクセルに対応する第i予測RPN分類結果を意味し、pi *は前記第iピクセルに対応する第i原本正解RPN分類結果を意味し、tiは前記第iピクセルに対応する第i予測RPNリグレッション結果を意味し、ti *は前記第iピクセルに対応する第i原本正解RPNリグレッション結果を意味し、
前記第i原本正解RPN分類結果及び前記第i原本正解RPNリグレッション結果は、前記原本正解物体検出結果に対応することを特徴とする請求項24に記載の装置。 - 前記(I−4)プロセスで、
前記学習装置が、前記ロスレイヤをもって、下記数式にしたがって前記CNNロスを生成させ、
Nreg及びNclsは前記予測ROIの個数であり、ciは前記CNNコンフィデンススコアのうち前記予測ROIから選択された第i予測ROIに対応する第iCNNコンフィデンススコアを意味し、piは前記第i予測ROIに対応する第i予測CNN分類結果を意味し、pi *は前記第iピクセルに対応する第i原本正解CNN分類結果を意味し、tiは前記第i予測ROIに対応する第i予測CNNリグレッション結果を意味し、ti *は前記第iピクセルに対応する第i原本正解CNNリグレッション結果を意味し、
前記第i予測CNN分類結果及び前記第i予測CNNリグレッション結果は、前記予測物体検出結果に対応することを特徴とする請求項24に記載の装置。 - 前記(I−3)プロセス以後に、
前記学習装置が、コンフィデンスレイヤをもって、前記RPNコンフィデンスマップ及び前記CNNコンフィデンスマップを参照して、前記トレーニングイメージ内のピクセルごとの統合コンフィデンススコアそれぞれに関する情報を含む統合コンフィデンスマップを生成させることを特徴とする請求項24に記載の装置。 - 前記学習装置が、前記コンフィデンスレイヤをもって、(i)(i−1)前記CNNから、前記予測物体検出結果を生成するプロセスが遂行される途中に生成される、前記予測ROIに対するNMS結果を取得するプロセス、(i−2)前記RPNコンフィデンスマップに対してリサイズ演算(Resizing Operation)を少なくとも一回適用してリサイズされたRPNコンフィデンスマップを生成するプロセス、及び(ii)前記NMS結果及び前記リサイズされたRPNコンフィデンスマップを参照して前記統合コンフィデンスマップを生成するプロセスを遂行させることを特徴とする請求項27に記載の装置。
- 前記学習装置が、前記コンフィデンスレイヤをもって、前記統合コンフィデンススコアのうち、前記トレーニングイメージ上の座標(x,y)に対応する第X_Y統合コンフィデンススコアを下記数式にしたがって生成させ、
c’xyは前記第X_Y統合コンフィデンススコアを意味し、cxyは前記リサイズされたRPNコンフィデンスマップ上の前記座標(x,y)に対応する第X_YリサイズされたRPNコンフィデンススコアを意味し、criは前記NMS結果で決定された、前記座標(x,y)を含みriとして表現される第i予測ROIに対する第iCNNコンフィデンススコアを意味することを特徴とする請求項28に記載の装置。 - 前記(II)プロセスは、
(II−1)前記状況イメージが取得されると、前記CNNに含まれている少なくとも一つのコンボリューションレイヤをもって、前記状況イメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのコンボリューション特徴マップを生成させるプロセス;
(II−2)前記コンボリューション特徴マップに対してアンカー演算を少なくとも一回適用することによって、前記状況イメージ上の予測ROIを生成するためのプロセスを遂行しつつ、RPNに含まれている少なくとも一つのアンカーレイヤをもって、前記予測ROIが原本正解ROIと同一である少なくとも一つの確率それぞれを表す、少なくとも一つのRPNコンフィデンススコアそれぞれを前記コンボリューション特徴マップのピクセルごとに生成することによって、前記RPNコンフィデンススコアを含むRPNコンフィデンスマップを生成させるプロセス;
(II−3)前記CNNに含まれているROIプーリングレイヤを通じて前記コンボリューション特徴マップ及び前記予測ROIを利用して生成された少なくとも一つのROIプーリング済み特徴マップが取得されると、前記ROIプーリング済み特徴マップを利用して予測物体検出結果を生成するプロセスを遂行しつつ、前記CNNに含まれるFCレイヤをもって、前記予測物体検出結果に含まれているそれぞれの少なくとも一つの予測CNN分類結果及びそれぞれの少なくとも一つの予測CNNリグレッション結果が、原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果と同一である少なくとも一つの確率それぞれを表すCNNコンフィデンスコアそれぞれを前記予測ROIごとに生成することによって、前記CNNコンフィデンススコアを含むCNNコンフィデンスマップを生成させるプロセス;及び
(II−4)前記CNNと連動して作動するコンフィデンスレイヤをもって、前記RPNコンフィデンスマップ及び前記CNNコンフィデンスマップを参照して統合コンフィデンスマップを生成させるプロセスを含み、
前記プロセッサは、前記CNNをもって、前記予測物体検出結果を含む前記初期物体情報と、前記統合コンフィデンスマップを含む前記初期コンフィデンス情報とを出力させることを特徴とする請求項16に記載の装置。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962799307P | 2019-01-31 | 2019-01-31 | |
US62/799307 | 2019-01-31 | ||
US16/732,053 US10776647B2 (en) | 2019-01-31 | 2019-12-31 | Method and device for attention-driven resource allocation by using AVM to thereby achieve safety of autonomous driving |
US16/732053 | 2019-12-31 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020126632A true JP2020126632A (ja) | 2020-08-20 |
JP6890855B2 JP6890855B2 (ja) | 2021-06-18 |
Family
ID=69185399
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020008882A Active JP6890855B2 (ja) | 2019-01-31 | 2020-01-23 | Avmを利用して自律走行の安全性を達成するためのアテンションドリブンアルゴリズムを利用したリソース割り当てのための方法及び装置{method and device for attention−driven resource allocation by using avm to thereby achieve safety of autonomous driving} |
Country Status (5)
Country | Link |
---|---|
US (1) | US10776647B2 (ja) |
EP (1) | EP3690735B1 (ja) |
JP (1) | JP6890855B2 (ja) |
KR (1) | KR102396271B1 (ja) |
CN (1) | CN111507169B (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110569696A (zh) * | 2018-08-31 | 2019-12-13 | 阿里巴巴集团控股有限公司 | 用于车辆部件识别的神经网络系统、方法和装置 |
US11544508B2 (en) * | 2020-11-23 | 2023-01-03 | Nielsen Consumer Llc | Methods, systems, articles of manufacture, and apparatus to recalibrate confidences for image classification |
US11954898B1 (en) * | 2022-11-10 | 2024-04-09 | Superb Ai Co., Ltd. | Learning method and learning device for performing transfer learning on an object detector that has been trained to detect first object classes such that the object detector is able to detect second object classes, and testing method and testing device using the same |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170206431A1 (en) * | 2016-01-20 | 2017-07-20 | Microsoft Technology Licensing, Llc | Object detection and classification in images |
US20180068198A1 (en) * | 2016-09-06 | 2018-03-08 | Carnegie Mellon University | Methods and Software for Detecting Objects in an Image Using Contextual Multiscale Fast Region-Based Convolutional Neural Network |
US20180211403A1 (en) * | 2017-01-20 | 2018-07-26 | Ford Global Technologies, Llc | Recurrent Deep Convolutional Neural Network For Object Detection |
US20180267558A1 (en) * | 2017-03-14 | 2018-09-20 | Starsky Robotics, Inc. | Vehicle sensor system and method of use |
CN109145898A (zh) * | 2018-07-26 | 2019-01-04 | 清华大学深圳研究生院 | 一种基于卷积神经网络和迭代机制的物体检测方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9965719B2 (en) * | 2015-11-04 | 2018-05-08 | Nec Corporation | Subcategory-aware convolutional neural networks for object detection |
US10657364B2 (en) * | 2016-09-23 | 2020-05-19 | Samsung Electronics Co., Ltd | System and method for deep network fusion for fast and robust object detection |
US11062207B2 (en) * | 2016-11-04 | 2021-07-13 | Raytheon Technologies Corporation | Control systems using deep reinforcement learning |
US10380741B2 (en) * | 2016-12-07 | 2019-08-13 | Samsung Electronics Co., Ltd | System and method for a deep learning machine for object detection |
US20180268292A1 (en) * | 2017-03-17 | 2018-09-20 | Nec Laboratories America, Inc. | Learning efficient object detection models with knowledge distillation |
US10467493B2 (en) * | 2017-07-14 | 2019-11-05 | Google Llc | Object detection using neural network systems |
CN111133447B (zh) * | 2018-02-18 | 2024-03-19 | 辉达公司 | 适于自主驾驶的对象检测和检测置信度的方法和系统 |
CN108520197A (zh) * | 2018-02-28 | 2018-09-11 | 中国航空工业集团公司洛阳电光设备研究所 | 一种遥感图像目标检测方法及装置 |
US11164016B2 (en) * | 2018-05-17 | 2021-11-02 | Uatc, Llc | Object detection and property determination for autonomous vehicles |
-
2019
- 2019-12-31 US US16/732,053 patent/US10776647B2/en active Active
-
2020
- 2020-01-13 KR KR1020200004525A patent/KR102396271B1/ko active IP Right Grant
- 2020-01-20 EP EP20152672.0A patent/EP3690735B1/en active Active
- 2020-01-22 CN CN202010074183.7A patent/CN111507169B/zh active Active
- 2020-01-23 JP JP2020008882A patent/JP6890855B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170206431A1 (en) * | 2016-01-20 | 2017-07-20 | Microsoft Technology Licensing, Llc | Object detection and classification in images |
US20180068198A1 (en) * | 2016-09-06 | 2018-03-08 | Carnegie Mellon University | Methods and Software for Detecting Objects in an Image Using Contextual Multiscale Fast Region-Based Convolutional Neural Network |
US20180211403A1 (en) * | 2017-01-20 | 2018-07-26 | Ford Global Technologies, Llc | Recurrent Deep Convolutional Neural Network For Object Detection |
US20180267558A1 (en) * | 2017-03-14 | 2018-09-20 | Starsky Robotics, Inc. | Vehicle sensor system and method of use |
CN109145898A (zh) * | 2018-07-26 | 2019-01-04 | 清华大学深圳研究生院 | 一种基于卷积神经网络和迭代机制的物体检测方法 |
Also Published As
Publication number | Publication date |
---|---|
US20200250450A1 (en) | 2020-08-06 |
US10776647B2 (en) | 2020-09-15 |
EP3690735A1 (en) | 2020-08-05 |
JP6890855B2 (ja) | 2021-06-18 |
KR20200095368A (ko) | 2020-08-10 |
KR102396271B1 (ko) | 2022-05-10 |
EP3690735B1 (en) | 2023-10-11 |
CN111507169B (zh) | 2023-07-28 |
EP3690735C0 (en) | 2023-10-11 |
CN111507169A (zh) | 2020-08-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6895694B2 (ja) | Avm及び強化学習を利用して自律走行の安全性を達成するためのアテンション−ドリブンアルゴリズムを利用したリソース割り当てのための方法及び装置{method and device for attention−driven resource allocation by using avmand reinforcement learning to thereby achieve safety of autonomous driving} | |
KR102396274B1 (ko) | 강화 학습 및 v2x 통신을 사용하는 어텐션-드리븐 리소스 할당을 통해 자율 주행의 안전성을 제공하기 위한 방법 및 장치 | |
US10269125B1 (en) | Method for tracking object by using convolutional neural network including tracking network and computing device using the same | |
JP6890855B2 (ja) | Avmを利用して自律走行の安全性を達成するためのアテンションドリブンアルゴリズムを利用したリソース割り当てのための方法及び装置{method and device for attention−driven resource allocation by using avm to thereby achieve safety of autonomous driving} | |
US10373027B1 (en) | Method for acquiring sample images for inspecting label among auto-labeled images to be used for learning of neural network and sample image acquiring device using the same | |
JP6857370B2 (ja) | ターゲット物体予測ネットワーク及びターゲット物体統合ネットワークを利用して、重要業績評価指標のようなユーザー要求事項に係る最適化のための再構成可能なネットワーク基盤の物体検出器を学習する方法及び学習装置、並びにこれを利用したテスティング方法及びテスティング装置 | |
KR102321004B1 (ko) | 온 디바이스 독립형 예측에 기반하여 자율 주행 차량의 모드를 전환함으로써 자율 주행의 안전성을 도모하는 학습 방법 및 학습 장치, 그리고 이를 이용한 테스팅 방법 및 테스팅 장치 | |
JP6856853B2 (ja) | 極限状況においてフォールトトレランス及びフラクチュエーションロバスト性を向上させるために、ジッタリングが起きたイメージを安定化させるプロセスで生成されたワーピングされたイメージに発生した歪曲を、ganを利用して減らすための学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置 | |
CN111488786B (zh) | 基于cnn的监视用客体检测器的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200123 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200706 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200710 |
|
RD13 | Notification of appointment of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7433 Effective date: 20201022 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210428 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210517 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210519 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6890855 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |