JP2020126633A - Avm及び強化学習を利用して自律走行の安全性を達成するためのアテンション−ドリブンアルゴリズムを利用したリソース割り当てのための方法及び装置{method and device for attention−driven resource allocation by using avmand reinforcement learning to thereby achieve safety of autonomous driving} - Google Patents

Avm及び強化学習を利用して自律走行の安全性を達成するためのアテンション−ドリブンアルゴリズムを利用したリソース割り当てのための方法及び装置{method and device for attention−driven resource allocation by using avmand reinforcement learning to thereby achieve safety of autonomous driving} Download PDF

Info

Publication number
JP2020126633A
JP2020126633A JP2020008883A JP2020008883A JP2020126633A JP 2020126633 A JP2020126633 A JP 2020126633A JP 2020008883 A JP2020008883 A JP 2020008883A JP 2020008883 A JP2020008883 A JP 2020008883A JP 2020126633 A JP2020126633 A JP 2020126633A
Authority
JP
Japan
Prior art keywords
cnn
confidence
information
predicted
rpn
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020008883A
Other languages
English (en)
Other versions
JP6895694B2 (ja
Inventor
金桂賢
Kye-Hyeon Kim
金鎔重
Yongjoong Kim
金鶴京
Hak-Kyoung Kim
南雲鉉
Woonhyun Nam
夫碩▲くん▼
Sukhoon Boo
成明哲
Myungchul Sung
申東洙
Dongsoo Shin
呂東勳
Donghun Yeo
柳宇宙
Wooju Ryu
李明春
Myeong-Chun Lee
李炯樹
Hyungsoo Lee
張泰雄
Taewoong Jang
鄭景中
Kyungjoong Jeong
諸泓模
Hongmo Je
趙浩辰
Hojin Cho
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stradvision Inc
Original Assignee
Stradvision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stradvision Inc filed Critical Stradvision Inc
Publication of JP2020126633A publication Critical patent/JP2020126633A/ja
Application granted granted Critical
Publication of JP6895694B2 publication Critical patent/JP6895694B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Transportation (AREA)
  • Pure & Applied Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Mechanical Engineering (AREA)
  • Computational Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Human Computer Interaction (AREA)
  • Operations Research (AREA)
  • Algebra (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】コンピューティングパワーを節約しながらも、より優れた自律走行性能を達成するための方法を提供する。【解決手段】コンピューティング装置が、対象車両に設置された少なくとも一つのパノラマビューセンサを通じて対象車両の周辺に対する少なくとも一つの状況イメージを取得するS100と、コンピューティング装置が、状況イメージに対してCNN演算を少なくとも一回適用させ、状況イメージに対する初期物体情報及び初期コンフィデンス情報を生成させS200、コンピューティング装置が、強化学習エージェントのサポートを受けて作動することによって、初期物体情報及び初期コンフィデンス情報を参照して、状況イメージに関する最終物体情報を生成するS300。【選択図】図2

Description

本発明は自律走行車両と共に使用する方法及び装置に関し、より詳細には、強化学習を利用して、自律走行の安全性を取得するためのリソース割り当て方法及び、そのための装置に関する。
最近、自律走行技術が研究されて、自律走行車両が運転手の介入なしにかなりの正確度で走行することができるほどに発展した。しかしながら、このような自律走行技術は商用化され得ていない。自律走行技術が大衆的に使用され得ないのには様々な理由があるが、そのうちの一つは、自律走行のための演算は過度に多くのコンピューティングパワーを消耗するという点である。
自律走行のための演算を遂行する際に消耗するコンピューティングパワーを減らすために多大な努力がなされているが、その場合に生じる問題点は、消耗するコンピューティングパワーを減らせば自律走行の性能が劣るということである。自律走行の性能が劣ると、多くのエラーが生じ、運転者及び周囲の人々の生命を脅かすようになる。したがって、コンピューティングパワーを減らしながらも自律走行の性能をある程度保持し得るようにすることが必要であり、このような方法はあまり研究されていないのが事実である。
本発明は、上述した問題点を解決することを目的とする。
本発明は、強化学習アルゴリズム及びAVMを利用して自律走行の安全性を取得するための、アテンション−ドリブンリソース割り当てのための方法を提供することを目的とする。
また、本発明は、物体検出過程と並行して、物体検出の信頼度を示すパラメータであるコンフィデンスコア(Confidence Score)を生成する方法を提供することを目的とする。
また、本発明は、コンフィデンスコアを使用して強化学習アルゴリズムを遂行することによって、より正確な物体検出を遂行して、信頼度の高くない領域に対する物体検出を再度遂行する方法を提供することを目的とする。
前記のような本発明の目的を達成し、後述する本発明の特徴的な効果を実現するための、本発明の特徴的な構成は以下の通りである。
本発明の一態様によると、物体検出プロセスと並行して生成された、物体検出の信頼度(Credibility)を表すコンフィデンスコア(Confidence Score)を利用することによって、コンピューティングパワーを節約しながらもより優れた自律走行性能を達成するための方法において、(a)コンピューティング装置が、対象車両に設置された少なくとも一つのパノラマビューセンサ(Panorama View Sensor)を通じて前記対象車両の周辺に対する少なくとも一つの状況イメージ(Circumstance Image)を取得する段階;(b)前記コンピューティング装置が、CNN(Convolutional Neural Network)をもって、前記状況イメージにCNN演算を少なくとも一回適用させて、前記状況イメージに関する初期物体情報及び初期コンフィデンス情報を生成させる段階;及び(c)前記コンピューティング装置が、強化学習エージェントのサポートを受けて作動することによって、前記初期物体情報及び前記初期コンフィデンス情報を参照して、前記状況イメージに関する最終物体情報を生成する段階;を含むことを特徴とする方法が開示される。
一実施例において、前記(c)段階は、(c1)前記コンピューティング装置が、(i)前記強化学習エージェントをもって、前記初期コンフィデンス情報を参照して、前記状況イメージ内の一つ以上の領域のうち、再検出プロセスを適用する予定の一つ以上の第1特定領域それぞれを選択させ、(ii)前記CNNをもって、前記第1特定領域に前記CNN演算を適用して、前記状況イメージに関する第1調整物体情報及び第1調整コンフィデンス情報を生成させる前記再探索プロセスを遂行させる段階;(c2)前記コンピューティング装置が、繰り返して(i)前記強化学習エージェントをもって、以前に生成された第K−1調整コンフィデンス情報を参照して、前記状況イメージ内の前記領域のうち、前記再検出プロセスを適用する予定の一つ以上の第K特定領域それぞれを選択させ、(ii)前記CNNをもって、前記第K特定領域に前記CNN演算を適用して、前記状況イメージに関する第K調整物体情報及び第K調整コンフィデンス情報を生成させる前記再検出プロセスを遂行する段階;及び(c3)前記再検出プロセスがN回遂行されることによって第N調整物体情報及び第N調整コンフィデンス情報が生成されると、前記コンピューティング装置が、前記第1調整物体情報ないし前記第N調整物体情報のうち少なくとも一部及び前記初期物体情報を参照して、前記最終物体情報を生成する段階;を含み、前記Kは2以上N以下の整数(integer)であり、前記Nは、前記強化学習エージェントが、前記再検出プロセスが遂行されるべきであると判断した回数であることを特徴とする。
一実施例において、前記コンピューティング装置は、前記第M再検出確率が閾値以上である場合に、前記CNNをもって前記第M特定領域に前記CNN演算を適用させ、前記強化学習エージェントは、第M−1調整コンフィデンス情報を参照して第M再検出確率及び一つ以上の第M特定領域を生成し、Mは1以上N以下の整数であり、前記強化学習エージェントは、Mが1である場合、前記初期コンフィデンス情報を参照して第1再検出確率及び前記第1特定領域を生成することを特徴とする。
一実施例において、前記強化学習エージェントは、それ自体に前記第M−1調整コンフィデンス情報が入力されると、(i)それ自体のパラメータ及び前記第M−1調整コンフィデンス情報を利用して前記第M再検出確率及び前記第M特定領域を生成し、(ii)前記第M再検出確率が前記閾値以上である場合、前記CNNから第M調整コンフィデンス情報を取得し、(iii)前記第M調整コンフィデンス情報とこれに対応する第M調整物体情報とを生成するのに使用された第M演算費用、前記第M−1調整コンフィデンス情報、及び前記第M調整コンフィデンス情報を参照して第M原本リワードを計算し、(iv)前記第M原本リワードを参照して前記パラメータを学習することを特徴とする。
一実施例において、前記強化学習エージェントは、下記数式にしたがって生成されたグラディエントを利用して前記パラメータを学習し、

Oは前記第M再検出確率及び前記第M特定領域に関する情報を含む第M原本ベクトルであり、O’は前記第M原本ベクトルにノイズを適用して生成された第M調整ベクトルであり、R(O)及びR(O’)はそれぞれ前記第M原本リワード及び前記第M調整ベクトルに対応する第M調整リワードであり、εは前記グラディエントの発散を防止するための定数(constant)であることを特徴とする。
一実施例において、前記再検出プロセスが繰り返し遂行されつつ一つ以上の第L特定領域(Lは1以上N以下の整数である)が選択されると、前記コンピューティング装置が、前記強化学習エージェントをもって、前記第L特定領域に対応する第L倍数情報を生成させ、前記第L倍数情報を参照して前記第L特定領域にアップサンプリング(Upsampling)演算を適用して第L特定アップサンプリング済みイメージを生成し、前記CNNをもって、前記第L特定アップサンプリング済みイメージに前記CNN演算を適用して第L調整物体情報及び第L調整コンフィデンス情報を生成させることを特徴とする。
一実施例において、前記(c)段階で、前記コンピューティング装置が、複数個の状況イメージを部分イメージとして含む統合イメージを生成しつつ、それぞれの前記状況イメージに対する、それぞれの前記初期物体情報とそれぞれの前記初期コンフィデンス情報とを利用して、前記統合イメージに関する統合最終物体情報を生成し、前記統合最終物体情報は、(c4)前記コンピューティング装置が、(i)それぞれの前記初期コンフィデンス情報を参照して、前記統合イメージに関する第1統合コンフィデンス情報を生成し、(ii)前記強化学習エージェントをもって、前記第1統合コンフィデンス情報を参照して、前記統合イメージ内の一つ以上の領域のうち、前記再検出プロセスを適用する予定の一つ以上の第1特定領域それぞれを選択させ、(iii)前記CNNをもって、前記第1特定領域に前記CNN演算を適用して、前記統合イメージに関するそれぞれの前記第1調整物体情報及びそれぞれの第1調整コンフィデンス情報を生成させる前記再検出プロセスを遂行する段階;(c5)前記コンピューティング装置が、繰り返して(i)それぞれの第K−1調整コンフィデンス情報を参照して、前記統合イメージに関する第K調整統合コンフィデンス情報を生成し、(ii)前記強化学習エージェントをもって、前記第K調整統合コンフィデンス情報を参照して、前記統合イメージ内の前記領域のうち、前記再検出プロセスを適用する予定の一つ以上の第K特定領域それぞれを選択させ、(iii)前記CNNをもって、前記第K特定領域に前記CNN演算を適用して、前記統合イメージに対するそれぞれの第K調整物体情報及びそれぞれの第K調整コンフィデンス情報を生成させる前記再検出プロセスを遂行する段階;及び(c6)前記再検出プロセスがN回遂行されることによって、それぞれの第N調整物体情報及びそれぞれの第N調整コンフィデンス情報が生成されると、前記コンピューティング装置が、前記第1調整物体情報ないし第N調整物体情報のうち少なくとも一部及び前記初期物体情報を参照して前記統合最終物体情報を生成する段階;を通じて生成され、前記Kは2以上N以下の整数であり、前記Nは、前記強化学習エージェントが、前記再検出プロセスが遂行されるべきであると判断した回数であることを特徴とする。
一実施例において、(i)複数の前記パノラマビューセンサのうちカメラに対応する少なくとも一つの第1パノラマビューセンサを通じて少なくとも一つの第1状況イメージが取得されると、前記コンピューティング装置が、3チャンネルイメージに対して最適化された、インプットノード(Input Node)が3個以上である第1CNNをもって、前記第1状況イメージに対して第1CNN演算を少なくとも一回適用させ、(ii)デプスセンサ(Depth Sensor)に対応する少なくとも一つの第2パノラマビューセンサを通じて少なくとも一つの第2状況イメージが取得されると、前記コンピューティング装置が、デプスイメージ(Depth Image)に対して最適化された、インプットノードが1個以上である第2CNNをもって、前記第2状況イメージに対して第2CNN演算を少なくとも一回適用させることを特徴とする。
一実施例において、前記(a)段階以前に、(a1)トレーニングイメージが取得されると、学習装置が、前記CNNに含まれている少なくとも一つのコンボリューションレイヤをもって、前記トレーニングイメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのコンボリューション特徴マップを生成させる段階;(a2)前記学習装置が、前記コンボリューション特徴マップに対してアンカー(Anchor)演算を少なくとも一回適用することによって前記トレーニングイメージ上の予測ROI(Region Of Interest)を生成するプロセスを遂行しつつ、RPN(Region Proposal Network)に含まれている少なくとも一つのアンカーレイヤをもって、前記予測ROIが原本正解(Ground−Truth)ROIと同一であるそれぞれの少なくとも一つの確率を表すそれぞれの少なくとも一つのRPNコンフィデンススコアを前記コンボリューション特徴マップのピクセルごとに生成することによって、前記RPNコンフィデンススコアを含むRPNコンフィデンスマップを生成させる段階;(a3)前記CNNに含まれているROIプーリングレイヤを通じて、前記コンボリューション特徴マップ及び前記予測ROIを利用して生成された少なくとも一つのROIプーリング済み特徴マップが取得されると、前記学習装置は、前記ROIプーリング済み特徴マップを利用して予測物体検出結果を生成するプロセスを遂行しつつ、前記CNNに含まれているFCレイヤをもって、前記予測物体検出結果に含まれるそれぞれの少なくとも一つの予測CNN分類結果と、それぞれの少なくとも一つの予測CNNリグレッション結果とが、原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果と同一であるものと予測されるそれぞれの少なくとも一つの確率を表すそれぞれのCNNコンフィデンススコアを前記予測ROIごとに生成することによって、前記CNNコンフィデンススコアを含むCNNコンフィデンスマップを生成させる段階;及び(a4)前記学習装置が、ロスレイヤをもって、前記RPNコンフィデンスマップと、前記CNNコンフィデンスマップと、前記予測物体検出結果と、前記原本正解物体検出結果とを参照して少なくとも一つのRPNロス及び少なくとも一つのCNNロスを生成させ、前記RPNロス及び前記CNNロスを利用してバックプロパゲーションを遂行することによって前記CNN及び前記RPNに含まれているパラメータのうち少なくとも一部を学習させる段階;をさらに含むことを特徴とする。
一実施例において、前記(a4)段階で、前記学習装置が、前記ロスレイヤをもって、下記数式にしたがって前記RPNロスを生成させ、

regはアンカー演算を遂行して生成された前記コンボリューション特徴マップのサイズに対応する定数であり、Nclsは前記トレーニングイメージに対応する定数であり、cは前記RPNコンフィデンスコアのうち、前記コンボリューション特徴マップの第iピクセルに対応する第iRPNコンフィデンススコアを意味し、pは前記第iピクセルに対応する第i予測RPN分類結果を意味し、p は前記第iピクセルに対応する第i原本正解RPN分類結果を意味し、tは前記第iピクセルに対応する第i予測RPNリグレッション結果を意味し、t は前記第iピクセルに対応する第i原本正解RPNリグレッション結果を意味し、前記第i原本正解RPN分類結果及び前記第i原本正解RPNリグレッション結果は、前記原本正解物体検出結果に対応することを特徴とする。
一実施例において、前記(a4)段階で、前記学習装置が、前記ロスレイヤをもって、下記数式にしたがって前記CNNロスを生成させ、

reg及びNclsは前記予測ROIの個数であり、cは前記CNNコンフィデンススコアのうち前記予測ROIから選択された第i予測ROIに対応する第iCNNコンフィデンススコアを意味し、pは前記第i予測ROIに対応する第i予測CNN分類結果を意味し、p は前記第iピクセルに対応する第i原本正解CNN分類結果を意味し、tは前記第i予測ROIに対応する第i予測CNNリグレッション結果を意味し、t は前記第iピクセルに対応する第i原本正解CNNリグレッション結果を意味し、前記第i予測CNN分類結果及び前記第i予測CNNリグレッション結果は、前記予測物体検出結果に対応することを特徴とする。
一実施例において、前記(a3)段階以後に、前記学習装置が、コンフィデンスレイヤをもって、前記RPNコンフィデンスマップ及び前記CNNコンフィデンスマップを参照して、前記トレーニングイメージ内のピクセルごとの統合コンフィデンススコアそれぞれに関する情報を含む統合コンフィデンスマップを生成させることを特徴とする。
一実施例において、前記学習装置が、前記コンフィデンスレイヤをもって、(i)(i−1)前記CNNから、前記予測物体検出結果を生成するプロセスが遂行される途中に生成される、前記予測ROIに対するNMS(Non−Maximum Suppression)結果を取得するプロセス、(i−2)前記RPNコンフィデンスマップに対してリサイズ(Resize)演算を少なくとも一回適用してリサイズされたRPNコンフィデンスマップを生成するプロセス、及び(ii)前記NMS結果と、前記リサイズされたRPNコンフィデンスマップとを参照して、前記統合コンフィデンスマップを生成するプロセスを遂行させることを特徴とする。
一実施例において、前記学習装置が、前記コンフィデンスレイヤをもって、前記統合コンフィデンススコアのうち、前記トレーニングイメージ上の座標(x,y)に対応する第X_Y統合コンフィデンススコアを下記数式にしたがって生成させ、

c’xyは前記第X_Y統合コンフィデンススコアを意味し、cxyは前記リサイズされたRPNコンフィデンスマップ上の前記座標 (x,y)に対応する第X_YリサイズされたRPNコンフィデンススコアを意味し、criは前記NMS結果で決定された、前記座標(x,y)を含みrとして表現される第i予測ROIに対する第iCNNコンフィデンススコアを意味することを特徴とする。
一実施例において、前記(b)段階は、(b1)前記状況イメージが取得されると、前記コンピューティング装置が、前記CNNに含まれている少なくとも一つのコンボリューションレイヤをもって、前記状況イメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのコンボリューション特徴マップを生成させる段階;(b2)前記コンピューティング装置が、前記コンボリューション特徴マップに対してアンカー演算を少なくとも一回適用することによって、前記状況イメージ上の予測ROIを生成するためのプロセスを遂行しつつ、RPNに含まれている少なくとも一つのアンカーレイヤをもって、前記予測ROIが原本正解ROIと同一である少なくとも一つの確率それぞれを表す、少なくとも一つのRPNコンフィデンススコアそれぞれを前記コンボリューション特徴マップのピクセルごとに生成することによって、前記RPNコンフィデンススコアを含むRPNコンフィデンスマップを生成させる段階;(b3)前記CNNに含まれているROIプーリングレイヤを通じて、前記コンボリューション特徴マップ及び前記予測ROIを利用して生成された少なくとも一つのROIプーリング済み特徴マップが取得されると、前記コンピューティング装置が、前記ROIプーリング済み特徴マップを利用して予測物体検出結果を生成するプロセスを遂行しつつ、前記CNNに含まれるFCレイヤをもって、前記予測物体検出結果に含まれているそれぞれの少なくとも一つの予測CNN分類結果及びそれぞれの少なくとも一つの予測CNNリグレッション結果が原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果と同一である少なくとも一つの確率それぞれを表すCNNコンフィデンスコアそれぞれを前記予測ROIごとに生成することによって、前記CNNコンフィデンススコアを含むCNNコンフィデンスマップを生成させる段階;及び(b4)前記コンピューティング装置が、前記CNNと連動して作動するコンフィデンスレイヤをもって、前記RPNコンフィデンスマップ及び前記CNNコンフィデンスマップを参照して統合コンフィデンスマップを生成させる段階を含み、前記コンピューティング装置は、前記CNNをもって、前記予測物体検出結果を含む前記初期物体情報及び前記統合コンフィデンスマップを含む前記初期コンフィデンス情報を出力させることを特徴とする。
本発明の他の態様によると、物体検出プロセスと並行して生成された、物体検出の信頼度(Credibility)を表すコンフィデンスコア(Confidence Score)を利用することによって、コンピューティングパワーを節約しながらもより優れた自律走行性能を達成するためのコンピューティング装置において、インストラクションを格納する少なくとも一つのメモリ;及び(I)対象車両に設置された少なくとも一つのパノラマビューセンサ(Panorama View Sensor)を通じて前記対象車両の周辺に対する少なくとも一つの状況イメージ(Circumstance Image)を取得するプロセス、(II)CNN(Convolutional Neural Network)をもって、前記状況イメージにCNN演算を少なくとも一回適用させて、前記状況イメージに関する初期物体情報及び初期コンフィデンス情報を生成させるプロセス、及び(III)強化学習エージェントのサポートを受けて作動することによって、前記初期物体情報及び前記初期コンフィデンス情報を参照して、前記状況イメージに関する最終物体情報を生成するプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、を含むことを特徴とする装置が開示される。
一実施例において、前記(III)プロセスは、(III−1)(i)前記強化学習エージェントをもって、前記初期コンフィデンス情報を参照して、前記状況イメージ内の一つ以上の領域のうち、再検出プロセスを適用する予定の一つ以上の第1特定領域それぞれを選択させ、(ii)前記CNNをもって、前記第1特定領域に前記CNN演算を適用して、前記状況イメージに関する第1調整物体情報及び第1調整コンフィデンス情報を生成させる前記再探索プロセスを実行させるプロセス;(III−2)繰り返して(i)前記強化学習エージェントをもって、以前に生成された第K−1調整コンフィデンス情報を参照して、前記状況イメージ内の前記領域のうち、前記再検出プロセスを適用する予定の一つ以上の第K特定領域それぞれを選択させ、(ii)前記CNNをもって、前記第K特定領域に前記CNN演算を適用して、前記状況イメージに関する第K調整物体情報及び第K調整コンフィデンス情報を生成させる前記再検出プロセスを遂行するプロセス;及び(III−3)前記再検出プロセスがN回遂行されることによって第N調整物体情報及び第N調整コンフィデンス情報が生成されると、前記第1調整物体情報ないし前記第N調整物体情報のうち少なくとも一部及び前記初期物体情報を参照して、前記最終物体情報を生成するプロセス;を含み、前記Kは2以上N以下の整数であり、前記Nは前記強化学習エージェントが、前記再検出プロセスが遂行されるべきであると判断した回数であることを特徴とする。
一実施例において、前記プロセッサは、前記第M再検出確率が閾値以上である場合に、前記CNNをもって、前記第M特定領域に前記CNN演算を適用させ、前記強化学習エージェントは、第M−1調整コンフィデンス情報を参照して第M再検出確率及び一つ以上の第M特定領域を生成し、Mは1以上N以下の整数であり、前記強化学習エージェントは、Mが1である場合、前記初期コンフィデンス情報を参照して第1再検出確率及び前記第1特定領域を生成することを特徴とする。
一実施例において、前記強化学習エージェントは、それ自体に前記第M−1調整コンフィデンス情報が入力されると、(i)それ自体のパラメータ及び前記第M−1調整コンフィデンス情報を利用して前記第M再検出確率及び前記第M特定領域を生成し、(ii)前記第M再検出確率が前記閾値以上である場合、前記CNNから第M調整コンフィデンス情報を取得し、(iii)前記第M調整コンフィデンス情報とこれに対応する第M調整物体情報とを生成するのに使用された第M演算費用、前記第M−1調整コンフィデンス情報、及び前記第M調整コンフィデンス情報を参照して第M原本リワードを計算し、(iv)前記第M原本リワードを参照して前記パラメータを学習することを特徴とする。
一実施例において、前記強化学習エージェントは、下記数式にしたがって生成されたグラディエントを利用して前記パラメータを学習し、

Oは前記第M再検出確率及び前記第M特定領域に関する情報を含む第M原本ベクトルであり、O’は前記第M原本ベクトルにノイズを適用して生成された第M調整ベクトルであり、R(O)及びR(O’)はそれぞれ前記第M原本リワード及び前記第M調整ベクトルに対応する第M調整リワードであり、εは前記グラディエントの発散を防止するための定数であることを特徴とする。
一実施例において、前記再検出プロセスが繰り返し遂行されつつ、一つ以上の第L特定領域(Lは1以上N以下の整数である)が選択されると、前記プロセスが、前記強化学習エージェントをもって、前記第L特定領域に対応する第L倍数情報を生成させ、前記第L倍数情報を参照して前記第L特定領域にアップサンプリング(Upsampling)演算を適用して第L特定アップサンプリング済みイメージを生成し、前記CNNをもって、前記第L特定アップサンプリング済みイメージに前記CNN演算を適用して第L調整物体情報及び第L調整コンフィデンス情報を生成させることを特徴とする。
一実施例において、前記(III)プロセスで、前記プロセッサが、複数個の状況イメージを部分イメージとして含む統合イメージを生成しつつ、それぞれの前記状況イメージに関するそれぞれの前記初期物体情報とそれぞれの前記初期コンフィデンス情報とを利用して、前記統合イメージに関する統合最終物体情報を生成し、前記統合最終物体情報は、(III−4)(i)それぞれの前記初期コンフィデンス情報を参照して、前記統合イメージに関する第1統合コンフィデンス情報を生成し、(ii)前記強化学習エージェントをもって、前記第1統合コンフィデンス情報を参照して、前記統合イメージ内の一つ以上の領域のうち、前記再検出プロセスを適用する予定の一つ以上の第1特定領域それぞれを選択させ、(iii)前記CNNをもって、前記第1特定領域に前記CNN演算を適用して、前記統合イメージに関するそれぞれの前記第1調整物体情報及びそれぞれの第1調整コンフィデンス情報を生成させる前記再検出プロセスを遂行するプロセス;(III−5)繰り返して(i)それぞれの第K−1調整コンフィデンス情報を参照して、前記統合イメージに関する第K調整統合コンフィデンス情報を生成し、(ii)前記強化学習エージェントをもって、前記第K調整統合コンフィデンス情報を参照して、前記統合イメージ内の前記領域のうち、前記再検出プロセスを適用する予定の一つ以上の第K特定領域それぞれを選択させ、(iii)前記CNNをもって、前記第K特定領域に前記CNN演算を適用して、前記統合イメージに対するそれぞれの第K調整物体情報及びそれぞれの第K調整コンフィデンス情報を生成させる前記再検出プロセスを遂行するプロセス;及び(III−6)前記再検出プロセスがN回遂行されることによって、それぞれの第N調整物体情報及びそれぞれの第N調整コンフィデンス情報が生成されると、前記第1調整物体情報ないし第N調整物体情報のうち少なくとも一部及び前記初期物体情報を参照して前記統合最終物体情報を生成するプロセス;を通じて生成され、前記Kは2以上N以下の整数であり、前記Nは、前記強化学習エージェントが、前記再検出プロセスが遂行されるべきであると判断した回数であることを特徴とする。
一実施例において、(i)複数の前記パノラマビューセンサのうちカメラに対応する少なくとも一つの第1パノラマビューセンサを通じて少なくとも一つの第1状況イメージが取得されると、前記プロセスが、3チャンネルイメージに対して最適化された、インプットノード(Input Node)が3個以上である第1CNNをもって、前記第1状況イメージに対して第1CNN演算を少なくとも一回適用させ、(ii)デプスセンサ(Depth Sensor)に対応する少なくとも一つの第2パノラマビューセンサを通じて少なくとも一つの第2状況イメージが取得されると、前記プロセスが、デプスイメージ(Depth Image)に対して最適化された、インプットノードが1個以上である第2CNNをもって、前記第2状況イメージに対して第2CNN演算を少なくとも一回適用させることを特徴とする。
一実施例において、前記(I)プロセス以前に、(I−1)トレーニングイメージが取得されると、学習装置が、前記CNNに含まれている少なくとも一つのコンボリューションレイヤをもって、前記トレーニングイメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのコンボリューション特徴マップを生成させるプロセス;(I−2)前記学習装置が、前記コンボリューション特徴マップに対してアンカー(Anchor)演算を少なくとも一回適用することによって、前記トレーニングイメージ上の予測ROI(Region Of Interest)を生成するプロセスを遂行しつつ、RPN(Region Proposal Network)に含まれている少なくとも一つのアンカーレイヤをもって、前記予測ROIが原本正解(Ground−Truth)ROIと同一であるそれぞれの少なくとも一つの確率を表すそれぞれの少なくとも一つのRPNコンフィデンススコアを前記コンボリューション特徴マップのピクセルごとに生成することによって、前記RPNコンフィデンススコアを含むRPNコンフィデンスマップを生成させるプロセス;(I−3)前記CNNに含まれているROIプーリングレイヤを通じて、前記コンボリューション特徴マップ及び前記予測ROIを利用して生成された少なくとも一つのROIプーリング済み特徴マップが取得されると、前記学習装置は、前記ROIプーリング済み特徴マップを利用して予測物体検出結果を生成するプロセスを遂行しつつ、前記CNNに含まれているFCレイヤをもって、前記予測物体検出結果に含まれるそれぞれの少なくとも一つの予測CNN分類結果と、それぞれの少なくとも一つの予測CNNリグレッション結果とが、原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果と同一であるものと予測されるそれぞれの少なくとも一つの確率を表すそれぞれのCNNコンフィデンススコアを前記予測ROIごとに生成することによって、前記CNNコンフィデンススコアを含むCNNコンフィデンスマップを生成させるプロセス;及び(I−4)前記学習装置が、ロスレイヤをもって、前記RPNコンフィデンスマップと、前記CNNコンフィデンスマップと、前記予測物体検出結果と、前記原本正解物体検出結果とを参照して少なくとも一つのRPNロス及び少なくとも一つのCNNロスを生成させ、前記RPNロス及び前記CNNロスを利用してバックプロパゲーションを遂行することによって前記CNN及び前記RPNに含まれているパラメータのうち少なくとも一部を学習させるプロセス;が遂行されることによって、前記CNNが学習されることを特徴とする。
一実施例において、前記(I−4)プロセスで、前記学習装置が、前記ロスレイヤをもって、下記数式にしたがって前記RPNロスを生成させ、

regはアンカー演算を遂行して生成された前記コンボリューション特徴マップのサイズに対応する定数であり、Nclsは前記トレーニングイメージに対応する定数であり、cは前記RPNコンフィデンスコアのうち、前記コンボリューション特徴マップの第iピクセルに対応する第iRPNコンフィデンススコアを意味し、pは前記第iピクセルに対応する第i予測RPN分類結果を意味し、p は前記第iピクセルに対応する第i原本正解RPN分類結果を意味し、tは前記第iピクセルに対応する第i予測RPNリグレッション結果を意味し、t は前記第iピクセルに対応する第i原本正解RPNリグレッション結果を意味し、前記第i原本正解RPN分類結果及び前記第i原本正解RPNリグレッション結果は、前記原本正解物体検出結果に対応することを特徴とする。
一実施例において、前記(I−4)プロセスで、前記学習装置が、前記ロスレイヤをもって、下記数式にしたがって前記CNNロスを生成させ、

reg及びNclsは前記予測ROIの個数であり、cは前記CNNコンフィデンススコアのうち前記予測ROIから選択された第i予測ROIに対応する第iCNNコンフィデンススコアを意味し、pは前記第i予測ROIに対応する第i予測CNN分類結果を意味し、p は前記第iピクセルに対応する第i原本正解CNN分類結果を意味し、tは前記第i予測ROIに対応する第i予測CNNリグレッション結果を意味し、t は前記第iピクセルに対応する第i原本正解CNNリグレッション結果を意味し、前記第i予測CNN分類結果及び前記第i予測CNNリグレッション結果は、前記予測物体検出結果に対応することを特徴とする。
一実施例において、前記(I−3)プロセス以後に、前記学習装置が、コンフィデンスレイヤをもって、前記RPNコンフィデンスマップ及び前記CNNコンフィデンスマップを参照して、前記トレーニングイメージ内のピクセルごとの統合コンフィデンススコアそれぞれに関する情報を含む統合コンフィデンスマップを生成させることを特徴とする。
一実施例において、前記学習装置が、前記コンフィデンスレイヤをもって、(i)(i−1)前記CNNから、前記予測物体検出結果を生成するプロセスが遂行される途中に生成される、前記予測ROIに対するNMS(Non−Maximum Suppression) 結果を取得するプロセス、(i−2)前記RPNコンフィデンスマップに対してリサイズ(Resize)演算を少なくとも一回適用してリサイズされたRPNコンフィデンスマップを生成するプロセス、及び(ii)前記NMS結果及び前記リサイズされたRPNコンフィデンスマップを参照して前記統合コンフィデンスマップを生成するプロセスを遂行させることを特徴とする。
一実施例において、前記学習装置が、前記コンフィデンスレイヤをもって、前記統合コンフィデンススコアのうち、前記トレーニングイメージ上の座標(x,y)に対応する第X_Y統合コンフィデンススコアを下記数式にしたがって生成させ、

c’xyは前記第X_Y統合コンフィデンススコアを意味し、cxyは前記リサイズされたRPNコンフィデンスマップ上の前記座標(x,y)に対応する第X_YリサイズされたRPNコンフィデンススコアを意味し、criは前記NMS結果で決定された、前記座標(x,y)を含みrとして表現される第i予測ROIに対する第iCNNコンフィデンススコアを意味することを特徴とする。
一実施例において、前記(II)プロセスは、(II−1)前記状況イメージが取得されると、前記CNNに含まれている少なくとも一つのコンボリューションレイヤをもって、前記状況イメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのコンボリューション特徴マップを生成させるプロセス;(II−2)前記コンボリューション特徴マップに対してアンカー演算を少なくとも一回適用することによって、前記状況イメージ上の予測ROIを生成するためのプロセスを遂行しつつ、RPNに含まれている少なくとも一つのアンカーレイヤをもって、前記予測ROIが原本正解ROIと同一である少なくとも一つの確率それぞれを表す、少なくとも一つのRPNコンフィデンススコアそれぞれを前記コンボリューション特徴マップのピクセルごとに生成することによって、前記RPNコンフィデンススコアを含むRPNコンフィデンスマップを生成させるプロセス;(II−3)前記CNNに含まれているROIプーリングレイヤを通じて前記コンボリューション特徴マップ及び前記予測ROIを利用して生成された少なくとも一つのROIプーリング済み特徴マップが取得されると、前記ROIプーリング済み特徴マップを利用して予測物体検出結果を生成するプロセスを遂行しつつ、前記CNNに含まれるFCレイヤをもって、前記予測物体検出結果に含まれているそれぞれの少なくとも一つの予測CNN分類結果と、それぞれの少なくとも一つの予測CNNリグレッション結果とが、原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果と同一である少なくとも一つの確率それぞれを表すCNNコンフィデンスコアそれぞれを前記予測ROIごとに生成することによって、前記CNNコンフィデンススコアを含むCNNコンフィデンスマップを生成させるプロセス;及び(II−4)前記CNNと連動して作動するコンフィデンスレイヤをもって、前記RPNコンフィデンスマップ及び前記CNNコンフィデンスマップを参照して統合コンフィデンスマップを生成させるプロセスを含み、前記プロセッサは、前記CNNをもって、前記予測物体検出結果を含む前記初期物体情報と、前記統合コンフィデンスマップを含む前記初期コンフィデンス情報とを出力させることを特徴とする。
その他にも、本発明の方法を実行するためのコンピュータプログラムを記録するためのコンピュータ読取り可能な記録媒体がさらに提供される。
本発明は、強化学習アルゴリズム及びAVMを利用して自律走行の安全性を取得するための、アテンション−ドリブンリソース割り当てのための方法を提供することができる効果がある。
また、本発明は、物体検出過程と並行して、物体検出の信頼度を示すパラメータであるコンフィデンスコア(Confidence Score)を生成する方法を提供することができる効果がある。
また、本発明は、コンフィデンスコアを使用して強化学習アルゴリズムを遂行することによって、より正確な物体検出を遂行して、信頼度の高くない領域への物体検出を再度遂行する方法を提供することができる効果がある。
本発明の実施例の説明に利用されるために添付された以下の各図面は、本発明の実施例のうち単に一部であるに過ぎず、本発明の属する技術分野において通常の知識を有する者(以下「通常の技術者」)にとっては、発明的作業が行われずにこれらの図面に基づいて他の各図面が得られ得る。
図1は、本発明の一実施例にしたがって、物体検出プロセスと並行して生成された、物体検出の信頼度を示すコンフィデンススコア(Confidence Score)を利用して強化学習アルゴリズムを遂行することによって、コンピューティングパワーを節約しながらも、より優れた自律走行性能を達成するための方法を遂行するコンピューティング装置の構成を簡略に示した図面である。 図2は、本発明の一実施例にしたがって、物体検出プロセスと並行して生成された、物体検出の信頼度を示すコンフィデンススコアを利用して強化学習アルゴリズムを遂行することによって、コンピューティングパワーを節約しながらも、より優れた自律走行性能を達成するための方法を示したフローチャートである。 図3は、本発明の一実施例にしたがって、物体検出プロセスと並行して生成された、物体検出の信頼度を示すコンフィデンススコアを利用して強化学習アルゴリズムを遂行することによって、コンピューティングパワーを節約しながらも、より優れた自律走行性能を達成するための方法を遂行するのに使用される統合イメージ及びこれに対応する統合最終物体情報の例示を簡略に示した図面である。 図4は、本発明の一実施例にしたがって、物体検出プロセスと並行して生成された、物体検出の信頼度を示すコンフィデンススコアを利用して強化学習アルゴリズムを遂行することによって、コンピューティングパワーを節約しながらも、より優れた自律走行性能を達成するための方法を遂行するのに使用されるCNN(Convolutional Neural Network)の学習プロセスを簡略に示したフローチャートである。 図5は、本発明の一実施例にしたがって、強化学習及びV2X通信を使用するアテンションドリブンリソース割り当てアルゴリズムを利用して、安全な自律走行を提供する方法を遂行するのに使用される、CNNと、RPNと、ロスレイヤと、コンフィデンスレイヤとを含む学習装置の構成を示したフローチャートである。
後述する本発明に関する詳細な説明は、本発明の各目的、各技術的解法、及び各長所を明らかにするために本発明が実施され得る特定の実施例を例示として示す添付図面を参照する。これらの実施例は、当業者が本発明を実施することができるように十分詳細に説明される。
また、本発明の詳細な説明及び各請求項にわたって、「含む」という単語及びそれらの変形は、他の技術的各特徴、各付加物、構成要素又は段階を除外することを意図したものではない。通常の技術者にとって本発明の他の各目的、長所及び各特性が、一部は本説明書から、また一部は本発明の実施から明らかになるであろう。以下の例示及び図面は実例として提供され、本発明を限定することを意図したものではない。
さらに、本発明は、本明細書に示された実施例のすべての可能な組合せを網羅する。本発明の多様な実施例は互いに異なるが、相互に排他的である必要はないことが理解されるべきである。例えば、ここに記載されている特定の形状、構造及び特性は、一実施例に関連して本発明の精神及び範囲を逸脱せず、かつ他の実施例で具現され得る。また、それぞれの開示された実施例内の個別の構成要素の位置又は配置は、本発明の精神及び範囲を逸脱せず、かつ変更され得ることが理解されるべきである。したがって、後述の詳細な説明は、限定的な意味として受け取ろうとするものではなく、本発明の範囲は適切に説明されるのであれば、その請求項が主張することと均等な全ての範囲とともに添付された請求項によってのみ限定される。図面において類似の参照符号は、様々な側面にわたって同一であるか、又は類似の機能を指す。
本発明で言及している各種イメージは、舗装または非舗装道路関連のイメージを含み得、この場合、道路環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではなく、本発明で言及している各種イメージは、道路と関係のないイメージ(例えば、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内と関連したイメージ)でもあり得、この場合、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではない。
以下、本発明の属する技術分野において通常の知識を有する者が本発明を容易に実施し得るようにするために、本発明の好ましい実施例について、添付された図面を参照して詳細に説明することにする。
図1は、本発明の一実施例にしたがって、物体検出プロセスと並行して生成された、物体検出の信頼度を示すコンフィデンススコア(Confidence Score)を利用して強化学習アルゴリズムを遂行することによって、コンピューティングパワーを節約しながらも、より優れた自律走行性能を達成するための方法を遂行するコンピューティング装置の構成を簡略に示した図面である。
図1を参照すると、コンピューティング装置100は、追って詳細に説明する構成要素であるCNN(Convolutional Neural Network)130と、RPN(Region Proposal Network)140と、コンフィデンスレイヤ150と、強化学習エージェント160とを含むことができる。この場合、CNN130、RPN140、コンフィデンスレイヤ150、及び強化学習エージェント160の入出力及び通信の過程は、通信部110及びプロセッサ120により行われ得る。ただし、図1では、通信部110及びプロセッサ120の具体的な連結関係を省略した。この際、メモリ115は、後述する様々なインストラクション(Instruction)を格納した状態であり得、プロセッサ120はメモリ115に格納されたインストラクションを遂行するように設定され、プロセッサ120は、追って説明するプロセスを遂行することによって本発明を遂行することができる。このようにコンピューティング装置100が描写されたからといって、コンピューティング装置100が本発明を実施するためのプロセッサ、ミディアム、メモリまたは他のコンピューティング要素が統合された形態である統合プロセッサ(Integrated Processor)を含む場合を排除するわけではない。
以上のコンピューティング装置100は、対象車両と連動して作動し得、対象車両に設置された少なくとも一つのパノラマビューセンサを通じて撮影されたイメージを取得することができる。パノラマビューセンサは、カメラの形態で具現化されたり、レーダまたはライダ(Lidar)などのデプスセンサ(Depth Sensor)の形態で具現され得る。
以上、 本発明の一実施例にしたがって、物体検出プロセスと並行して生成された、物体検出の信頼度を表すコンフィデンススコアを利用して前記強化学習アルゴリズムを遂行することによって、コンピューティングパワーを節約しながらもより優れた自律走行性能を達成するための方法を遂行するコンピューティング装置100の構成を説明した。以下、方法自体について図2を参照して説明することにする。
図2は、本発明の一実施例にしたがって、物体検出プロセスと並行して生成された、物体検出の信頼度を示すコンフィデンススコアを利用して前記強化学習アルゴリズムを遂行することによって、コンピューティングパワーを節約しながらも、より優れた自律走行性能を達成するための方法を示したチャート図である。
図2を参照すると、コンピューティング装置100が、対象車両に搭載されたパノラマビューセンサを通じて、対象車両の周辺に対する少なくとも一つの状況イメージ(Circumstance Image)を取得することができる(S100)。以後、コンピューティング装置100が、CNN130をもって、状況イメージにCNN演算を少なくとも一回適用させて、状況イメージに関する初期物体情報及び初期コンフィデンス情報を生成させることができる(S200)。以後、コンピューティング装置100は、強化学習エージェント160と連動して作動することによって、初期物体情報及び初期コンフィデンス情報を参照して、状況イメージに関する最終物体情報を生成することができる(S300)。
概括的なフローは前記のとおりであり、以下、これについてさらに具体的に説明することにする。まず、状況イメージが単一である一実施例について説明する。
パノラマビューセンサを通じて状況イメージが取得されると、CNN130をもって、コンピューティング装置100が状況イメージに対してCNN演算を適用させることができる。ここで、もし状況イメージが、カメラの形態で設置された第1パノラマビューセンサを通じて取得されたものであれば、コンピューティング装置100は、3チャンネルイメージに対して最適化された、インプットノード(Input Node)が3個以上である第1CNNをもって、状況イメージに対して第1CNN演算を少なくとも一回適用させることによってCNN演算を適用させることができる。または、状況イメージが、デプスセンサ(Depth Sensor)の形態で設置された第2パノラマビューセンサを通じて取得されたものであれば、コンピューティング装置100は、デプスイメージに最適化された、インプットノードが1個以上である第2CNNをもって、状況イメージに対して第2CNN演算を少なくとも一回適用させることによって、CNN演算を適用させることができる。この場合、「第1CNN」と「第2CNN」の記号は、上記特定の場合のように、CNN130として機能し得るCNNを区分するために使用される。同様に、「第1パノラマビューセンサ」と「第2パノラマビューセンサ」の記号は、上記特定の場合のようにパノラマビューセンサとして機能し得るパノラマビューセンサを区分するために使用される。
このようなCNN演算を通じて初期物体情報及び初期コンフィデンス情報が取得されると、コンピューティング装置100は、下記のような再検出(Re−detection)プロセスを繰り返し遂行することによって、最終物体情報を生成することができる。この場合、コンピューティング装置100は、強化学習エージェント160によりサポートされ得る。以下、強化学習エージェント160の構成及びそのプロセスが説明される。
まず、強化学習エージェント160は、ニューラルネットワークの一種であって、複数個のレイヤを含み、それぞれのレイヤ内に複数個の仮想ニューロンを含む状態であり得る。この場合、各ニューロンは、それ自体に入力された値にそれ自体のパラメータを利用して演算、例えばコンボリューション演算を適用した後、それ自体の次のコンボリューションニューロンに入力された値を伝達する機能を遂行することができる。強化学習エージェント160は、初期コンフィデンス情報及び追って説明する第1調整コンフィデンス情報ないし第N調整コンフィデンス情報のうち少なくとも一つを入力として取得し、ニューロンを利用していくつかの演算を該当入力に適用して、当該入力に対する再検出プロセスの必要性を示す情報及び再検出プロセスを適用する予定の該当入力内領域に関する情報を出力することができる。
具体的に、強化学習エージェント160が第M−1調整コンフィデンス情報を取得した場合を仮定すると、この場合Mは、1以上N以下の整数(integer)であり、Mが1である場合には、初期コンフィデンス情報が強化学習エージェント160により取得され得る。この場合、強化学習エージェント160は、ニューロンを利用して、それ自体のパラメータを利用することで演算を適用して、再検出プロセスを繰り返して遂行しなければならない確率である第M再検出確率及び再検出プロセスが適用されるべき領域である第M特定領域を生成することができる。この場合、コンピューティング装置100は、第M再検出確率が閾値以上である場合にのみ、CNN130をもって第M特定領域に再検出プロセスを遂行させることができる。これによって、Nは、強化学習エージェント160が生成した再検出の確率が閾値以上である回数であり得る。
強化学習エージェント160は、強化学習アルゴリズムを遂行するため、入力されたコンフィデンス情報をプロセッシングして結果値を出力するごとにそれ自体のパラメータを学習することができる。すなわち、強化学習エージェント160は、第M再検出確率が閾値以上である場合、CNN130から第M調整コンフィデンス情報を取得した後、(i)第M−1調整コンフィデンス情報と、(ii)第M調整コンフィデンス情報と、(iii)CNN130が第M調整コンフィデンス情報及びこれに対応する第M調整物体情報を生成するのに使用した第M演算費用とを参照して第M原本リワードを計算することができる。この場合、強化学習エージェント160は、第M原本リワードを参照してそれ自体のパラメータを学習することができる。
この際、第M原本リワードは、再検出プロセスを遂行することによってコンフィデンスコアの増加した量から第M演算費用を引いた値に対応し得る。追ってさらに詳細に説明するが、強化学習エージェント160はリワードが大きくなる方向にパラメータを学習するようになるので、強化学習エージェント160は再検出プロセスを通じてコンフィデンススコアが増加するように学習され、コンフィデンススコアを増加するのに必要な演算リソースが過度に多くならないようにする方向に学習され得る。第M原本リワードは、下記数式によって計算され得る。

前記数式において、W及びHは状況イメージの横及び縦の長さをそれぞれ意味し、I(O)xyは第M調整コンフィデンス情報に含まれている、状況イメージ上の座標(x,y)に対する第Mコンフィデンススコアのうち一つを意味し、Ixyは第M−1調整コンフィデンス情報に含まれている、(x,y)座標に対する前記第M−1コンフィデンススコアのうち一つを意味し得る。また、Sは第M特定領域の合計を意味し、cは予め設定された定数(constant)を意味し得る。この際、再検出プロセスが適用される領域のサイズが演算リソースの使用量に比例するので、前項に位置するシグマ演算を遂行することによって第M演算費用を計算することができ、後項に位置するシグマ演算を遂行することによって第M演算費用を計算することができる。
第M原本リワードが計算されると、強化学習エージェント160は第M再検出確率及び第M特定領域を若干調整した後、これに対応する第M調整リワードを計算することができる。これは強化学習エージェント160が探索(exploration)を遂行するためのものであって、第M調整リワードが第M原本リワードより大きいのであれば、第M調整リワードに対応する方向にパラメータが学習される。
具体的に、第M特定領域のうち一つを決定する4チャンネル座標が(x1,y1,x2,y2)である場合、確率分布、例えば、正規分布に対応する各値を各要素に加えて、(x+N(0,1),y+N(0,1),x+N(0,1),y+N(0,1))として第M特定領域のうち一つを調整することができる。また、第M再検出確率がpである場合、バイノミアル演算を活用して、Binomial(p)として第M再検出確率を調整することができる。以後、コンピューティング装置100は、CNN130をもって、調整された結果を参照して再検出プロセスを遂行させた後、強化学習エージェント160をもって、CNN130の出力値を使用して第M調整リワードを計算させることができる。以後、強化学習エージェント160は、下記数式に対応する演算を遂行して生成されたグラディエントを利用してパラメータを学習することができる。

この場合、Oは第M再検出確率及び第M特定領域に関する情報を含む第M原本ベクトルであり、O’は第M原本ベクトルに一部のノイズを適用して生成された第M調整ベクトルを意味し得る。また、R(O)及びR(O’)はそれぞれ第M原本リワード及び第M調整ベクトルに対応する第M調整リワードであり、εはグラディエントの発散を防止するための定数であり得る。
強化学習エージェント160に基づいて、コンピューティング装置100が、強化学習エージェント160をもって、初期コンフィデンス情報を参照して、状況イメージの一つ以上の領域のうちそれに対応するコンフィデンススコアが第1閾値未満である、再検出プロセスを適用する予定の一つ以上の第1特定領域それぞれを選択させ、CNN130をもって、第1特定領域にCNN演算を適用して状況イメージに対する、第1調整物体情報及び第1調整コンフィデンス情報を生成させることができる。つまり、CNN130が物体検出の結果、すなわち第1特定領域に対して信頼度が高くない領域を強化学習160が検出し、物体検出は再度前記領域に適用される。前述したように、強化学習エージェント160は、演算リソースの使用量に関して物体検出を再び適用することが適合であるか否かを判断することができる。物体検出を遂行する間、コンピューティング装置100を支援してこのようなプロセスを遂行する初期コンフィデンス情報は、CNN130により生成される。CNN130がどのように初期コンフィデンス情報を生成するように学習されるのかについては、追って説明される。
以後、コンピューティング装置100は、再検出プロセスを繰り返して遂行することができる。つまり、コンピューティング装置100は、強化学習エージェント160をもって、第K−1調整コンフィデンス情報を参照して、状況イメージの領域のうちそれに対応するコンフィデンススコアが前記第1閾値未満である、再検出プロセスを適用する予定の第K特定領域それぞれを選択させ、CNN130をもって、第K特定領域にCNN演算を適用して、状況イメージに関する第K調整物体情報及び第K調整コンフィデンス情報を生成させる再検出プロセスを遂行させることができる。第K調整物体情報は、第K特定領域に含まれている一つ以上の物体に関する情報を含むことができ、前記情報は、以前に遂行された第K−P再検出プロセスで検出されなかったが、今回検出され得る。この場合、Pは1以上K−1以下の整数である。先に言及したように、再検出プロセスは、CNN130の信頼度が高くない領域に適用されるものであって、前記情報間の関係は当然であるとみなすことができる。
対応するコンフィデンスコアが少ない前記特定領域に含まれている物体をさらに効率的に検出するための再検出プロセスを遂行するために、選別的プロセス、すなわちアップサンプリング(Upsampling)がさらに遂行され得る。再検出プロセスが遂行されつつ、一つ以上の第L特定領域が選択されると、コンピューティング装置100が、強化学習エージェント160をもって、第L特定領域に対応する第L倍数情報を生成させ、第L倍数情報を参照して前記第L特定領域に少なくとも一つのアップサンプリング(Upsampling)演算を適用して第L特定アップサンプリング済みイメージを生成し、CNN130をもって、第L特定アップサンプリング済みイメージにCNN演算を適用して第L調整物体情報及び第L調整コンフィデンス情報を生成させることができる。第L倍数情報は、第L再検出プロセスのために予め設定された倍率として定義することができる。
強化学習エージェント160を再検出確率及び特定領域に関する情報と共に倍数情報を出力するように設計するためには、一部の最終出力ノードをその最終レイヤに加えることができる。この場合、第L倍数情報は、クラシフィケーションと類似する最終ノードから出力された確率を有する多数の候補倍率のうち一つが選択されることによって生成され得る。例えば、候補倍率は2、3、及び4であり得、候補倍率それぞれに対する各確率が最終出力ノードから出力されるに伴って、最も大きな確率が見出され得、これに対応する候補倍率は、アップサンプリング演算を遂行するのに利用され得る。この場合、新たな最終出力ノードが加えられるので、前記数式において条件付き確率(conditional probability)という項が若干修正されて倍数情報を反映することができる。

前記数式において、dm,tm,qmはそれぞれ再検出プロセスに適合する候補倍率それぞれに対するそれぞれの確率を表し、dm’,tm’,qm’はそれぞれこれらに対応する調整確率それぞれを表し得る。前記確率の調整過程は、再検出確率及び特定領域を調整した過程と類似し得る。これを通じて、強化学習エージェント160は第L倍数情報を生成することが可能になる。
また、最近傍アルゴリズム(Nearest Neighbor algorithm)のように、既に知られているアップサンプリング図式が前記アップサンプリング演算を遂行するのに使用され得る。
このような再検出プロセスがN回遂行されることによって第N調整物体情報及び第N調整コンフィデンス情報が生成されると、コンピューティング装置100は、初期物体情報及び第1調整物体情報ないし第N調整物体情報のうち少なくとも一部を参照して、最終物体情報を生成することができる。
ただし、このように定められた回数だけ、すなわち、N回次だけ再検出プロセスを遂行しなくても、物体検出結果が十分に導き出される場合もあり得る。この場合には、それまでに生成された物体情報を利用して、最終物体情報を生成することもできる。すなわち、再検出プロセスをM回目遂行する途中に選択された少なくとも一つの第M特定領域の少なくとも一つの広さの和が第1閾値未満である場合、コンピューティング装置100は、繰り返し遂行する再検出プロセスを中断し、初期物体情報及び第1調整物体情報ないし第M−1調整物体情報のうち少なくとも一部を参照して、最終物体情報を生成することができるであろう。
ここで、最終物体情報を生成するために、コンピューティング装置100は初期物体情報、及び第1調整物体情報ないし第N調整物体情報のうち少なくとも一部を参照して、広く知られている従来技術であるNMS(Non−Maximum Suppression)アルゴリズム及びボックスボーティング(Box Voting)アルゴリズムのうち少なくとも一つを遂行することができる。このようなアルゴリズムは、通常の技術者によく知られているので、前記説明で十分に理解することができるはずである。
上記のように最終物体情報が生成された後、コンピューティング装置100は、最終物体情報を対象車両に対する自律走行モジュールに伝達することによって、自律走行モジュールが最終物体情報を利用して前記対象車両の自律走行を遂行し得るように支援することができる。
以上、本発明の一実施例である、状況イメージが単一の場合について説明した。以下、他の実施例において、(i)パノラマである統合イメージを生成するのに使用される複数の状況イメージ、及び(ii)これに対応する統合最終物体情報について説明することにする。このような他の実施例は、前述した単一の状況イメージに対応する実施例と大同小異であるので、その相違点を中心として簡略に説明する。
複数個の状況イメージを、それに対する部分的なイメージとして含む統合イメージを生成しながら、コンピューティング装置100は、それぞれの状況イメージに対するそれぞれの初期物体情報とそれぞれの初期コンフィデンス情報とを利用して統合イメージに関する統合最終物体情報を生成することができる。
具体的には、(i)複数のパノラマビューセンサのうちカメラに対応する少なくとも一つの第1パノラマビューセンサを通じて、状況イメージのうち少なくとも一つの第1状況イメージが取得されると、コンピューティング装置100は、3チャンネルイメージに対して最適化された、インプットノードが3個以上である第1CNNをもって、前記第1状況イメージに対して第1CNN演算を少なくとも一回適用させ、(ii)前記パノラマビューセンサのうち、デプスセンサに対応する少なくとも一つの第2パノラマビューセンサを通じて、状況イメージのうち少なくとも一つの第2状況イメージが取得されると、コンピューティング装置100は、デプスイメージに対して最適化された、インプットノードが1個以上である第2CNNをもって、前記第2状況イメージに対して第2CNN演算を少なくとも一回適用させることができる。これに伴い、それぞれの状況イメージに対するそれぞれの初期コンフィデンス情報及びそれぞれの初期物体情報が取得され得る。
次に、コンピューティング装置100が、初期再検出プロセスとして、(i)それぞれの初期コンフィデンス情報を参照して、状況イメージに関する第1統合初期コンフィデンス情報を生成した後、(ii)強化学習エージェント160をもって、統合イメージ内の一つ以上の領域のうちそれに対応するコンフィデンススコアが第1閾値未満である、再検出プロセスを適用する予定の一つ以上の第1特定領域それぞれを選択させ、(iii)CNN130をもって、第1特定領域に対してCNN演算を適用させることによって、統合イメージに対するそれぞれの第1調整物体情報及びそれぞれの第1調整コンフィデンス情報を生成させることができる。
以後、コンピューティング装置100が、再検出プロセスを繰り返して遂行することができる。すなわち、コンピューティング装置100が、(i)それぞれの第K−1調整コンフィデンス情報を参照して、統合イメージに関する第K調整統合コンフィデンス情報を生成した後、(ii)強化学習エージェント160をもって、第K調整コンフィデンス情報を参照して、統合イメージ内の領域のうちそれに対応するコンフィデンススコアが第1閾値未満である、再検出プロセスを適用する予定の少なくとも一つの第K特定領域それぞれを選択し、(iii)CNN130をもって、第K特定領域に対してCNN演算を適用させることによって、統合イメージに関するそれぞれの第K調整物体情報及びそれぞれの第K調整コンフィデンス情報を生成させることができる。
最後に、再検出プロセスがN回、つまり強化学習エージェント160が閾値以上の再検出確率を生成した回数で遂行されることにより、それぞれの第N調整物体情報及びそれぞれの第N調整コンフィデンス情報が生成されると、コンピューティング装置100が、初期物体情報及び第1調整物体情報ないし第N調整物体情報のうち少なくとも一部を参照して、統合最終物体情報を生成することができる。上記のように、再検出プロセスのそれぞれのイテレーションにおいて、それぞれのコンフィデンス情報及びそれぞれの物体情報が統合されるという点を除けば、他の実施例は前述した一実施例とほぼ同様である。
これを通じて生成された統合イメージ及び統合物体情報の一実施例を確認するために、図3を参照することにする。
図3は、本発明の一実施例にしたがって、物体検出プロセスと並行して生成された、物体検出の信頼度を表すコンフィデンススコアを利用して強化学習アルゴリズムを遂行することによって、コンピューティングパワーを節約しながらもさらに優れた自律走行性能を達成するための方法を遂行するのに使用される統合イメージ、及びこれに対応する統合最終物体情報の例示を簡略に示した図面である。
図3を参照すると、統合イメージ300は、対象車両200の周辺を撮影したパノラマイメージであることが分かる。このようなパノラマイメージは、単一のセンサのみを利用することでは取得が困難であり、複数個のセンサを通じて撮影された複数のイメージを統合する方式で通常取得される。この場合、統合イメージ300に含まれている物体に関する情報、すなわち、第1車両物体310に関する情報と第2車両物体320に関する情報は、本発明の方法を通じて統合最終物体情報として取得され得る。
以上、本発明の両実施例について説明した。以下、前記両実施例を遂行するために使用されるCNN130を学習する方法について説明するために、図4を参照することにする。
図4は、本発明の一実施例にしたがって、物体検出プロセスと並行して生成された、物体検出の信頼度を表すコンフィデンススコアを利用して強化学習アルゴリズムを遂行することによって、コンピューティングパワーを節約しながらもさらに優れた自律走行性能を達成するための方法を遂行するのに使用されるCNN(Convolutional Neural Network)の学習プロセスを簡略に示したフローチャートである。
図4を参照すると、物体検出プロセスを遂行しつつ、物体検出の信頼度を示すパラメータであるそれぞれのコンフィデンススコアを生成するための学習方法について概括的に考察することができる。
参考までに、以下の説明において、混同を避けるために「学習用」という文言は前述の学習プロセスに関する用語に対して追加され、「テスト用」という文言はテストプロセスに関する用語に対して追加される。
まず、トレーニングイメージが取得されると、学習装置は、CNN130に含まれているコンボリューションレイヤをもって、トレーニングイメージに対してコンボリューション演算を少なくとも一回適用させて、少なくとも一つのコンボリューション特徴マップを生成させることができる(S10)。この場合、トレーニングイメージの幾何学的サイズがH×Wであり、トレーニングイメージのフォーマットがRGBイメージであるのでトレーニングイメージのチャンネルサイズが3個であれば、トレーニングイメージのサイズはH×W×3である。コンボリューション演算は、出力された特徴マップの幾何学的サイズを、入力されたイメージより小さくし、出力された特徴マップのチャンネル数を、入力されたイメージのチャンネル数より大きくするために、コンボリューション特徴マップのサイズがh×w×cであれば、コンボリューション特徴マップの幾何学的サイズを表すhとwはそれぞれHとWより小さく、コンボリューション特徴マップのチャンネル数を表すcは3より大きいであろう。
以後、学習装置は、RPN140内のアンカーレイヤをもって、コンボリューション特徴マップに含まれている値に対してアンカー演算を適用して、トレーニングイメージ内の物体を含むものと予想される領域である、予測ROI(Region−Of Interest)を出力させることができる(S20)。具体的には、RPN140は、データサイズがh×w×cであるコンボリューション特徴マップに対してアンカー演算を適用して、トレーニングイメージ上の予測ROIを生成するのに使用されるように、h×w×(5A+1)のデータサイズを有する、アンカー特徴マップを生成することができる。従来技術にしたがって、アンカー特徴マップのデータサイズはh×w×5Aのサイズで生成されなければならないが、本発明のアンカー特徴マップには、追って説明されるRPNコンフィデンススコアを含むチャンネルをさらに一つ含むことができる。より詳細な説明は、以下に示す。
学習装置は、RPN140のアンカーレイヤをもって、それぞれのアンカーセットに対応するそれぞれのスライディングウィンドウ(Sliding−Window)を使用する方式であるアンカー演算をコンボリューション特徴マップに対して適用して、データサイズがh×w×5Aであるアンカー特徴マップを生成させることができる。この際、アンカーとは物体に対応するコンボリューション特徴マップの値を選択するための一種のグリッド(Grid)であり、先に説明したAはアンカー特徴マップのデータサイズを示すために使用され、RPN140により使用されるアンカーの個数を示す。このプロセスを遂行することによって、コンボリューション特徴マップに含まれているそれぞれの値が物体に対応するか、決定されないことがあり、このプロセスの結果、すなわち予測ROIに関する情報は、アンカー特徴マップに格納され得る。アンカー演算は広く知られているので、これに関する詳細な説明は省略することにする。
アンカー特徴マップを生成するプロセスを遂行する間、学習装置は、RPN140をもって、予測ROIが原本正解(Ground−Truth)ROIと同一であるそれぞれの少なくとも一つの確率を表すそれぞれのRPNコンフィデンススコアをコンボリューションレイヤ特徴マップに含まれているピクセルごとに生成させることができる。つまり、RPNコンフィデンススコアは、RPN140により遂行されるプロセスの結果の信頼度、すなわち、予測ROIの信頼度を表すパラメータである。
説明の便宜上、予測ROIを決定するプロセスとRPNコンフィデンススコアを生成するプロセスとを分離して述べたが、二つのプロセスは同時に遂行され得る。すなわち、RPN140にコンボリューション特徴マップが入力されると、RPN140内のそれぞれのRPNニューロンは、それ自体の演算を遂行して、それ自体が演算した値を次のRPNニューロンに移すことによって、最後のレイヤでアンカー特徴マップを出力することができる。よって、二つのプロセスは互いに影響を及ぼし、従属的に遂行され得る。しかしながら、二つのプロセスは同時に遂行されなくてもよい。例えば、予測ROIを決定するプロセスが先に遂行され得る。
アンカー特徴マップが生成された以後、学習装置は、予測ROIに関する情報を含む、アンカー特徴マップ内の5A個のチャンネルの値をCNN130に伝達することができ、アンカー特徴マップ内の残りの1つのチャンネルの値を追って説明するコンフィデンスレイヤ150に伝達することができる。まず、CNN130に伝達される5A個のチャンネルの値がどのように処理されるかについて下記のように説明することにする。
前記5A個のチャンネルの値が伝達された後、学習装置は、CNN130内のROIプーリングレイヤをもって、予測ROIに関する情報を参照してコンボリューション特徴マップに対してROIプーリング演算を少なくとも一回適用させることによって、ROIプーリング済み特徴マップ(ROI−Pooled Feature Map)を生成させ(S30)、CNN130内のFCレイヤをもって、ROIプーリング済み特徴マップに対してFC演算を少なくとも一回適用させて、初期物体検出結果及びCNNコンフィデンススコアを生成させることができる。
ここで、初期物体検出結果は、それぞれの物体を含むそれぞれのバウンディングボックスのそれぞれの予測座標に対するそれぞれの初期予測CNNリグレッション結果と、それぞれの物体がそれぞれのクラスに含まれるそれぞれの確率を表す、それぞれの物体のそれぞれのクラススコアに対するそれぞれの初期予測CNN分類結果とを含むことができる。このような初期物体検出結果の生成プロセスは、従来技術のとおりである。
そして、CNNコンフィデンススコアは、追って説明する、予測物体検出結果が原本正解物体検出結果と同一である程度に関する情報を含むことができる。この際、予測物体検出結果は、NMS演算を初期物体検出結果に適用して生成されたものであり得る。詳細には、それぞれのCNNコンフィデンススコアは、予測物体検出結果に含まれているそれぞれの少なくとも一つの予測CNN分類結果及びそれぞれの少なくとも一つの予測CNNリグレッション結果が原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果と同一である少なくとも一つの確率それぞれを表すことができる。つまり、CNNコンフィデンススコアは、CNN130のFCレイヤにより生成された結果の信頼度を示す。
RPNコンフィデンススコアとCNNコンフィデンススコアとを同時に使用する理由は、RPN140により初期に決定された予測ROIがCNN130により処理されることによって予測物体検出結果が生成されるためである。2つのネットワークがいずれも予測物体検出結果を生成するプロセスに関わるため、2つのネットワークは異なる評価がされるべきである。
一例として、特定の予測ROIがRPN140により誤って決定された場合、CNN130のFCレイヤは、誤って決定された特定の予測ROIをフィルタリングすることができる。または、特定の予測ROIがRPN140により正確に予測された場合にも、CNN130のFCレイヤは、特定の予測ROIがどのような物体も含んでいないものと誤って決定することがあり得る。このような場合において、RPN140とCNN130とは誤って遂行されたり正しく遂行されたりし得るので、物体検出プロセスを評価する間、このような場合も考慮されなければならない。
RPN140と同様に、(i)初期物体検出結果とそれに対応する予測物体検出結果とを生成するプロセス、及び(ii)CNNコンフィデンスマップを生成するプロセスは、便宜上別々に説明されたが、この2つのプロセスもやはり相互に従属的であり、FCレイヤ内で同時に遂行されてもよいし、この2つのプロセスは独立して遂行されてもよい。
予測ROIに対するCNNコンフィデンススコアが生成された後、CNNコンフィデンススコアを含むCNNコンフィデンスマップが生成され得る。
以後、学習装置は、CNN130をもって、初期物体検出結果に対してNMSを適用して、重複する予測ROIに対応するバウンディングボックスを統合することによって、予測物体検出結果を生成させることができる。重複する予測ROIが統合されるに伴って、他の予測ROIに重複しない特定の予測ROIに対応する特定のCNNコンフィデンススコアが選択され得る。ここで、NMSの使用方式は広く知られているので、これ以上の説明は省略することにする。
一方、学習装置は、コンフィデンスレイヤ150をもって、RPNコンフィデンスマップに対応するアンカー特徴マップ内の一つのチャンネルの値を取得させることができ、RPN140コンフィデンスマップを利用してトレーニングイメージのようなH×Wの幾何学的サイズを有するリサイズされたRPNコンフィデンスマップを生成させることができる。リサイズされたRPNコンフィデンスマップを生成するために、最近傍サイズ(Nearest Neighbor Size)、バイリニアリサイズ(Bilinear Resize)、バイキュービックリサイズ(Bicubic Resize)、及びランチョスリサイズ(Lanczos Resize)などのようなリサイズ演算のうちのどれであっても、トレーニングイメージ内のそれぞれのピクセルがそれぞれのRPNコンフィデンススコアとペアリング(Pairing)をなすように、RPNコンフィデンスマップに対して適用され得る。
予測物体検出結果及びリサイズされたRPNコンフィデンスマップが取得された後、学習装置は、コンフィデンスレイヤ150をもって、これらを参照して統合コンフィデンスマップを生成させることができる。ここで、統合コンフィデンスマップに含まれている統合コンフィデンスコアは、下記数式によって算出され得る。

ここで、c’xyは第X_Y統合コンフィデンススコアを意味し得、cxyはリサイズされたRPNコンフィデンスマップ上で、座標(x,y)に対応する第X_YリサイズされたRPNコンフィデンススコアを意味し得る。また、criはNMS結果で決定された、座標を(x,y)を含み、rとして表現される、第i予測ROIに対する第iCNNコンフィデンススコアを意味し得る。学習装置は、コンフィデンスレイヤ150をもって、上記のように生成された統合コンフィデンススコアを利用して統合コンフィデンスマップを生成させることができる。
ただし、正確に統合コンフィデンスマップを生成するためには、CNN130及びRPN140を学習する必要がある。2つのネットワークをどのように学習するのかについて、以下に説明することにする。
すなわち、学習装置はロスレイヤをもって、RPNコンフィデンスマップ、CNNコンフィデンスマップ、予測物体検出結果及び原本正解物体検出結果を参照して少なくとも一つのRPNロス及び少なくとも一つのCNNロスを生成させることができ(S40)、RPNロス及びCNNロスを利用してバックプロパゲーションを遂行することによってCNN130及びRPN140に含まれているパラメータのうち少なくとも一部を学習させることができる。RPNロス及びCNNロスに関して、以下に詳細に説明することにする。
まず、下記の数式によってRPNロスを生成させることができる。

ここで、Nregはアンカー演算を遂行して生成されたコンボリューション特徴マップのサイズに対応する定数であり、Nclsは前記トレーニングイメージに対応する定数であり得る。また、cは前記RPNコンフィデンスコアのうちコンボリューション特徴マップの第iピクセルに対応する第iRPNコンフィデンススコアを意味し得、pは前記第iピクセルに対応する第i予測RPN分類結果を意味し、p は前記第iピクセルに対応する第i原本正解RPN分類結果を意味し得る。tは前記第iピクセルに対応する第i予測RPNリグレッション結果を意味し、t は前記第iピクセルに対応する第i原本正解RPNリグレッション結果を意味し得る。第i原本正解RPN分類結果及び第i原本正解RPNリグレッション結果は、原本正解物体検出結果に対応し得る。また、Lcls及びLregはスムース−L1ロス(Smooth−L1Loss)のようなロスを生成するための従来技術を、どのようなものであっても利用して実行され得る。
前記公式において、公式の最初の項は分類のロスを意味し得、二番目の項はリグレッションロスを意味し得る。リグレッションロス項、すなわち、二番目の項はよく知られている従来技術であるので、これに関する説明は省略することにする。分類ロス項、すなわち、最初の項について下記で説明することにする。
分類ロス項は、上記のように括弧内に3つのサブ項を含むことができる。最初のサブ項において、条件

は、RPN140により決定されたアンカー特徴マップの第iピクセルに対応する第i予測RPN分類結果が第i原本正解RPN分類結果と同一である場合を示す。つまり、これはRPN140がコンボリューション特徴マップの第iピクセルを正確に分析した場合である。便宜上、RPN140が第i予測RPN分類結果と第i原本正解RPN分類結果とが同一である確率を臨界確率、ここでは0.5超過であるものと判断した場合、RPN140が第iピクセルに対して「正確に」分析したケースを想定した。最初の項において、(1.1−c)は、RPN140が第iピクセルを正確に分析した場合にRPN140のパラメータがRPNロスより小さくなるように調節されて第iRPNコンフィデンススコアが大きくなるようにする。詳細には、上記で示されているように生成された最初のサブ項を含む分類ロス項は、RPN140のパラメータを調整することができるようにグラディエント(Gradient)を生成することによって、未来のRPNロスが小さくなるようにするために適用される。したがって、最初のサブ項を含む分類ロス項を利用すれば、RPN140がRPNコンフィデンス特徴マップの値を正確に分析する場合、RPNスコアをより大きく生成することができる。
分類ロス項の二番目の項において、条件

は、RPN140が第iピクセルを正確に分析しなかった場合を示す。二番目のサブ項において、(0.1+c)は、RPN140が第iピクセルに対して不正確に分析した場合に第iRPNコンフィデンススコアをより小さくする。学習プロセスのメカニズムは、最初のサブ項で述べたようにその機序が同じである。
三番目のサブ項において、clоgcは、RPNコンフィデンススコアの分布が階段関数(Step Function)に近づかないようにする。分類ロス項が最初のサブ項と二番目のサブ項のみを含むと、結局、RPNコンフィデンススコアはオーバーフィッティング(Overfitting)されてそれぞれ0または1に近い極端な値のみを含むことができる。ここで、clоgcは、cが0.5である場合に最小化される。よって、本発明によるRPNコンフィデンススコアは、0と1との間のより多様な値を含む分布を有するようになる。上記のように多様な値を含むRPNコンフィデンススコアを利用して様々な状況を扱うことができるため、このような項が必要である。
以上、本発明のRPNロスを生成する方法について考察してみたところ、以下、本発明のCNNロスを生成する方法について考察してみることにする。

reg及びNclsは前記予測ROIの個数を意味し、cは予測ROIのうち第i予測ROIに対応する、CNNコンフィデンススコアのうち第iCNNコンフィデンススコアを意味し得る、また、pは第i予測ROIに対応する、第i予測CNN分類の結果を意味し、p は前記第iピクセルに対応する第i原本正解CNN分類結果を意味し得る。そして、tは第i予測ROIに対応する、第i予測CNNリグレッション結果を意味し、t は前記第iピクセルに対応する第i原本正解CNNリグレッション結果を意味し得る。第i予測CNN分類結果と第i予測CNNリグレッション結果とは、予測物体検出結果に対応し得る。本数式において記号は、RPNロスを示した記号と同一であり得るが、上記のようにその意味は異なり得る。
上記の公式のようなCNNロスは、前述したRPNロスと大同小異の構造を有するが、シグマ関数の条件は例外である。この際、RPNロスは、p>0.5ではなくp=largest score among class scoresという条件である。これは、pが、第i予測ROI内の特定の物体が最も大きい確率を有する特定のクラスに対する第i予測CNN分類結果に対するものであることを示すものである。RPNロスと同様に、CNNロス内の分類ロス項の最初のサブ項は、CNN130が第i予測ROIを正確に分析した場合を示したものであり、二番目のサブ項は、CNN130が第i予測ROIを正確に分析できなかった場合を示す。CNNロスとRPNロスとは相互に類似するので、以後の説明は省略することにする。
このようにCNNロス及びRPNロスが生成された後、学習装置は、ロスレイヤをもって、CNNロス及びRPNロスをそれぞれバックプロパゲーションすることによって、CNN130及びRPN140に含まれているパラメータのうち少なくとも一部を学習させることができる。以後、CNN130及びRPN140は、入力されたイメージに含まれている物体を検出するプロセスを遂行しつつ、入力される前記イメージに対応するCNNコンフィデンススコア及びRPNコンフィデンススコアをさらに正確に生成することができる。
このような学習過程が完了した後、学習装置は、CNN130をコンピューティング装置100に伝達することができる。また、RPN140及びコンフィデンスレイヤ150は、CNN130に従属的であるので、共にコンピューティング装置100に伝達され得る。CNN130と、RPN140と、コンフィデンスレイヤ150とは、学習が完了したパラメータを利用して学習過程で遂行したものと類似する演算を遂行することができる。つまり、CNN130が状況イメージを取得すると、CNN130と、RPN140と、コンフィデンスレイヤ150とは、学習過程で統合コンフィデンスマップを生成したものと同一の方式で、初期コンフィデンス情報を初期物体情報とともに生成することができる。
このように信頼度に劣る部分に対して物体検出を再び適用して取得されたさらなる情報を利用して自律走行を支援することによって、さらに安全な自律走行が行われ得るはずである。
ここで、参考説明として、CNNと130、RPN140と、ロスレイヤ150と、コンフィデンスレイヤ160とがどのように互いに連動して動作することによって、物体検出を行う途中にコンフィデンススコアを生成することができるのかについて、図5を参照して説明される。
図5は、本発明の一実施例にしたがって、強化学習及びV2X通信を使用するアテンションドリブンリソース割り当てアルゴリズムを利用して、安全な自律走行を提供する方法を遂行するのに使用される、CNNと、RPNと、ロスレイヤと、コンフィデンスレイヤとを含む学習装置の構成を示した図面である。
図5を参照すると、学習イメージがCNN130に含まれているコンボリューションレイヤ131に入力され、コンボリューションレイヤ131からh×w×cサイズのコンボリューション特徴マップが生成される構成を確認することができる。以後、コンボリューション特徴マップは、RPN140により演算され、これによってRPN140は、各ROIの位置である(dx,dy,dw,dh)及びそれらのRPNコンフィデンススコアが含まれたh×w×(5A+1)サイズの特徴マップを出力することができる。このような各ROIは、CNN130に含まれているROIプーリングレイヤ(図示せず)に伝達され、したがって、コンボリューション特徴マップは伝達されたROIにしたがってプーリングされ得る。以後、CNN130に含まれているFCレイヤ132は、R×dサイズのROIプーリング済み特徴マップを演算して、物体の推定された位置(x1,y1,x2,y2)と、物体が各クラスに含まれる確率と、それぞれの物体に対応するピクセルのCNNコンフィデンススコアとが含まれているR×(5C+1)サイズの初期物体検出結果を生成することができる。最後に、CNN130は、NMS演算を初期物体検出結果に適用することによって、物体の推定された位置(x1,y1,x2,y2)と、各物体に対する推定されたクラスと、物体が各クラスに含まれる確率とに関する情報を含むR’×6サイズの予測物体検出結果を生成することができる。ここで、R’は、NMS演算によって足し合わされたROI、すなわち物体の位置を示すことができる。そして、予測物体検出結果とともに出力されたCNNコンフィデンスマップは、h×w×1サイズのRPNコンフィデンスマップから生成されたリサイズ済みRPNコンフィデンスマップと統合されることによって、H×W×1サイズの統合コンフィデンスマップを生成するようになる。前記の過程は、前述した学習方法と合致するものである。
このように、信頼度の劣る部分に対して物体検出を再度適用して、取得された追加の情報を利用して自律走行をサポートすることによって、さらに安全な自律走行が行われ得るであろう。
以上にて説明された本発明による各実施例は、多様なコンピュータの構成要素を通じて遂行することができるプログラム命令語の形態で具現されて、コンピュータ読取り可能な記録媒体に格納され得る。前記コンピュータ読取り可能な記録媒体は、プログラム命令語、データファイル、データ構造などを単独で又は組み合わせて含むことができる。前記コンピュータ読取り可能な記録媒体に格納されるプログラム命令語は、本発明のために特別に設計され、構成されたものであるか、コンピュータソフトウェア分野の当業者に公知にされて使用可能なものであり得る。コンピュータ読取り可能な記録媒体の例には、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスク(FlopticaLDisk)のような磁気−光メディア(Magneto−OpticaLMedia)、及びROM、RAM、フラッシュメモリなどのようなプログラム命令語を格納して遂行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラによって作られるもののような機械語コードだけでなく、インタープリターなどを使用してコンピュータによって実行され得る高級言語コードも含まれる。前記ハードウェア装置は、本発明による処理を実行するために一つ以上のソフトウェアモジュールとして作動するように構成され得、その反対も同様である。
以上にて本発明が具体的な構成要素などのような特定事項と限定された実施例及び図面によって説明されたが、これは本発明のより全般的な理解の一助とするために提供されたものであるに過ぎず、本発明が前記実施例に限られるものではなく、本発明が属する技術分野において通常の知識を有する者であれば、かかる記載から多様な修正及び変形が行われ得る。
従って、本発明の思想は、前記説明された実施例に局限されて定められてはならず、後述する特許請求の範囲だけでなく、本特許請求の範囲と均等または等価的に変形されたものすべては、本発明の思想の範囲に属するといえる。

Claims (30)

  1. 物体検出プロセスと並行して生成された、物体検出の信頼度(Credibility)を表すコンフィデンスコア(Confidence Score)を利用することによって、コンピューティングパワーを節約しながらもより優れた自律走行性能を達成するための方法において、
    (a)コンピューティング装置が、対象車両に設置された少なくとも一つのパノラマビューセンサ(Panorama View Sensor)を通じて前記対象車両の周辺に対する少なくとも一つの状況イメージ(Circumstance Image)を取得する段階;
    (b)前記コンピューティング装置が、CNN(Convolutional Neural Network)をもって、前記状況イメージにCNN演算を少なくとも一回適用させて、前記状況イメージに関する初期物体情報及び初期コンフィデンス情報を生成させる段階;及び
    (c)前記コンピューティング装置が、強化学習エージェントのサポートを受けて作動することによって、前記初期物体情報及び前記初期コンフィデンス情報を参照して、前記状況イメージに関する最終物体情報を生成する段階;
    を含むことを特徴とする方法。
  2. 前記(c)段階は、
    (c1)前記コンピューティング装置が、(i)前記強化学習エージェントをもって、前記初期コンフィデンス情報を参照して、前記状況イメージ内の一つ以上の領域のうち、再検出プロセスを適用する予定の一つ以上の第1特定領域それぞれを選択させ、(ii)前記CNNをもって、前記第1特定領域に前記CNN演算を適用して、前記状況イメージに関する第1調整物体情報及び第1調整コンフィデンス情報を生成させる前記再探索プロセスを遂行させる段階;
    (c2)前記コンピューティング装置が、繰り返して(i)前記強化学習エージェントをもって、以前に生成された第K−1調整コンフィデンス情報を参照して、前記状況イメージ内の前記領域のうち、前記再検出プロセスを適用する予定の一つ以上の第K特定領域それぞれを選択させ、(ii)前記CNNをもって、前記第K特定領域に前記CNN演算を適用して、前記状況イメージに関する第K調整物体情報及び第K調整コンフィデンス情報を生成させる前記再検出プロセスを遂行する段階;及び
    (c3)前記再検出プロセスがN回遂行されることによって第N調整物体情報及び第N調整コンフィデンス情報が生成されると、前記コンピューティング装置が、前記第1調整物体情報ないし前記第N調整物体情報のうち少なくとも一部及び前記初期物体情報を参照して、前記最終物体情報を生成する段階;
    を含み、
    前記Kは2以上N以下の整数(integer)であり、前記Nは、前記強化学習エージェントが、前記再検出プロセスが遂行されるべきであると判断した回数であることを特徴とする請求項1に記載の方法。
  3. 前記コンピューティング装置は、前記第M再検出確率が閾値以上である場合に、前記CNNをもって前記第M特定領域に前記CNN演算を適用させ、前記強化学習エージェントは、第M−1調整コンフィデンス情報を参照して第M再検出確率及び一つ以上の第M特定領域を生成し、Mは1以上N以下の整数であり、
    前記強化学習エージェントは、Mが1である場合、前記初期コンフィデンス情報を参照して第1再検出確率及び前記第1特定領域を生成することを特徴とする請求項2に記載の方法。
  4. 前記強化学習エージェントは、それ自体に前記第M−1調整コンフィデンス情報が入力されると、(i)それ自体のパラメータ及び前記第M−1調整コンフィデンス情報を利用して前記第M再検出確率及び前記第M特定領域を生成し、(ii)前記第M再検出確率が前記閾値以上である場合、前記CNNから第M調整コンフィデンス情報を取得し、(iii)前記第M調整コンフィデンス情報とこれに対応する第M調整物体情報とを生成するのに使用された第M演算費用、前記第M−1調整コンフィデンス情報、及び前記第M調整コンフィデンス情報を参照して第M原本リワードを計算し、(iv)前記第M原本リワードを参照して前記パラメータを学習することを特徴とする請求項3に記載の方法。
  5. 前記強化学習エージェントは、下記数式にしたがって生成されたグラディエントを利用して前記パラメータを学習し、

    Oは前記第M再検出確率及び前記第M特定領域に関する情報を含む第M原本ベクトルであり、O’は前記第M原本ベクトルにノイズを適用して生成された第M調整ベクトルであり、R(O)及びR(O’)はそれぞれ前記第M原本リワード及び前記第M調整ベクトルに対応する第M調整リワードであり、εは前記グラディエントの発散を防止するための定数(constant)であることを特徴とする請求項4に記載の方法。
  6. 前記再検出プロセスが繰り返し遂行されつつ一つ以上の第L特定領域(Lは1以上N以下の整数である)が選択されると、前記コンピューティング装置が、前記強化学習エージェントをもって、前記第L特定領域に対応する第L倍数情報を生成させ、前記第L倍数情報を参照して前記第L特定領域にアップサンプリング(Upsampling)演算を適用して第L特定アップサンプリング済みイメージを生成し、前記CNNをもって、前記第L特定アップサンプリング済みイメージに前記CNN演算を適用して第L調整物体情報及び第L調整コンフィデンス情報を生成させることを特徴とする請求項2に記載の方法。
  7. 前記(c)段階で、
    前記コンピューティング装置が、複数個の状況イメージを部分イメージとして含む統合イメージを生成しつつ、それぞれの前記状況イメージに対する、それぞれの前記初期物体情報とそれぞれの前記初期コンフィデンス情報とを利用して、前記統合イメージに関する統合最終物体情報を生成し、前記統合最終物体情報は、
    (c4)前記コンピューティング装置が、(i)それぞれの前記初期コンフィデンス情報を参照して、前記統合イメージに関する第1統合コンフィデンス情報を生成し、(ii)前記強化学習エージェントをもって、前記第1統合コンフィデンス情報を参照して、前記統合イメージ内の一つ以上の領域のうち、前記再検出プロセスを適用する予定の一つ以上の第1特定領域それぞれを選択させ、(iii)前記CNNをもって、前記第1特定領域に前記CNN演算を適用して、前記統合イメージに関するそれぞれの前記第1調整物体情報及びそれぞれの第1調整コンフィデンス情報を生成させる前記再検出プロセスを遂行する段階;
    (c5)前記コンピューティング装置が、繰り返して(i)それぞれの第K−1調整コンフィデンス情報を参照して、前記統合イメージに関する第K調整統合コンフィデンス情報を生成し、(ii)前記強化学習エージェントをもって、前記第K調整統合コンフィデンス情報を参照して、前記統合イメージ内の前記領域のうち、前記再検出プロセスを適用する予定の一つ以上の第K特定領域それぞれを選択させ、(iii)前記CNNをもって、前記第K特定領域に前記CNN演算を適用して、前記統合イメージに対するそれぞれの第K調整物体情報及びそれぞれの第K調整コンフィデンス情報を生成させる前記再検出プロセスを遂行する段階;及び
    (c6)前記再検出プロセスがN回遂行されることによって、それぞれの第N調整物体情報及びそれぞれの第N調整コンフィデンス情報が生成されると、前記コンピューティング装置が、前記第1調整物体情報ないし第N調整物体情報のうち少なくとも一部及び前記初期物体情報を参照して前記統合最終物体情報を生成する段階;
    を通じて生成され、
    前記Kは2以上N以下の整数であり、前記Nは、前記強化学習エージェントが、前記再検出プロセスが遂行されるべきであると判断した回数であることを特徴とする請求項1に記載の方法。
  8. (i)複数の前記パノラマビューセンサのうちカメラに対応する少なくとも一つの第1パノラマビューセンサを通じて少なくとも一つの第1状況イメージが取得されると、前記コンピューティング装置が、3チャンネルイメージに対して最適化された、インプットノード(Input Node)が3個以上である第1CNNをもって、前記第1状況イメージに対して第1CNN演算を少なくとも一回適用させ、(ii)デプスセンサ(Depth Sensor)に対応する少なくとも一つの第2パノラマビューセンサを通じて少なくとも一つの第2状況イメージが取得されると、前記コンピューティング装置が、デプスイメージ(Depth Image)に対して最適化された、インプットノードが1個以上である第2CNNをもって、前記第2状況イメージに対して第2CNN演算を少なくとも一回適用させることを特徴とする請求項7に記載の方法。
  9. 前記(a)段階以前に、
    (a1)トレーニングイメージが取得されると、学習装置が、前記CNNに含まれている少なくとも一つのコンボリューションレイヤをもって、前記トレーニングイメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのコンボリューション特徴マップを生成させる段階;
    (a2)前記学習装置が、前記コンボリューション特徴マップに対してアンカー(Anchor)演算を少なくとも一回適用することによって前記トレーニングイメージ上の予測ROI(Region Of Interest)を生成するプロセスを遂行しつつ、RPN(Region Proposal Network)に含まれている少なくとも一つのアンカーレイヤをもって、前記予測ROIが原本正解(Ground−Truth)ROIと同一であるそれぞれの少なくとも一つの確率を表すそれぞれの少なくとも一つのRPNコンフィデンススコアを前記コンボリューション特徴マップのピクセルごとに生成することによって、前記RPNコンフィデンススコアを含むRPNコンフィデンスマップを生成させる段階;
    (a3)前記CNNに含まれているROIプーリングレイヤを通じて、前記コンボリューション特徴マップ及び前記予測ROIを利用して生成された少なくとも一つのROIプーリング済み特徴マップが取得されると、前記学習装置は、前記ROIプーリング済み特徴マップを利用して予測物体検出結果を生成するプロセスを遂行しつつ、前記CNNに含まれているFCレイヤをもって、前記予測物体検出結果に含まれるそれぞれの少なくとも一つの予測CNN分類結果と、それぞれの少なくとも一つの予測CNNリグレッション結果とが、原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果と同一であるものと予測されるそれぞれの少なくとも一つの確率を表すそれぞれのCNNコンフィデンススコアを前記予測ROIごとに生成することによって、前記CNNコンフィデンススコアを含むCNNコンフィデンスマップを生成させる段階;及び
    (a4)前記学習装置が、ロスレイヤをもって、前記RPNコンフィデンスマップと、前記CNNコンフィデンスマップと、前記予測物体検出結果と、前記原本正解物体検出結果とを参照して少なくとも一つのRPNロス及び少なくとも一つのCNNロスを生成させ、前記RPNロス及び前記CNNロスを利用してバックプロパゲーションを遂行することによって前記CNN及び前記RPNに含まれているパラメータのうち少なくとも一部を学習させる段階;
    をさらに含むことを特徴とする請求項1に記載の方法。
  10. 前記(a4)段階で、
    前記学習装置が、前記ロスレイヤをもって、下記数式にしたがって前記RPNロスを生成させ、

    regはアンカー演算を遂行して生成された前記コンボリューション特徴マップのサイズに対応する定数であり、Nclsは前記トレーニングイメージに対応する定数であり、cは前記RPNコンフィデンスコアのうち、前記コンボリューション特徴マップの第iピクセルに対応する第iRPNコンフィデンススコアを意味し、pは前記第iピクセルに対応する第i予測RPN分類結果を意味し、p は前記第iピクセルに対応する第i原本正解RPN分類結果を意味し、tは前記第iピクセルに対応する第i予測RPNリグレッション結果を意味し、t は前記第iピクセルに対応する第i原本正解RPNリグレッション結果を意味し、
    前記第i原本正解RPN分類結果及び前記第i原本正解RPNリグレッション結果は、前記原本正解物体検出結果に対応することを特徴とする請求項9に記載の方法。
  11. 前記(a4)段階で、
    前記学習装置が、前記ロスレイヤをもって、下記数式にしたがって前記CNNロスを生成させ、

    reg及びNclsは前記予測ROIの個数であり、cは前記CNNコンフィデンススコアのうち前記予測ROIから選択された第i予測ROIに対応する第iCNNコンフィデンススコアを意味し、pは前記第i予測ROIに対応する第i予測CNN分類結果を意味し、p は前記第iピクセルに対応する第i原本正解CNN分類結果を意味し、tは前記第i予測ROIに対応する第i予測CNNリグレッション結果を意味し、t は前記第iピクセルに対応する第i原本正解CNNリグレッション結果を意味し、
    前記第i予測CNN分類結果及び前記第i予測CNNリグレッション結果は、前記予測物体検出結果に対応することを特徴とする請求項9に記載の方法。
  12. 前記(a3)段階以後に、
    前記学習装置が、コンフィデンスレイヤをもって、前記RPNコンフィデンスマップ及び前記CNNコンフィデンスマップを参照して、前記トレーニングイメージ内のピクセルごとの統合コンフィデンススコアそれぞれに関する情報を含む統合コンフィデンスマップを生成させることを特徴とする請求項9に記載の方法。
  13. 前記学習装置が、前記コンフィデンスレイヤをもって、(i)(i−1)前記CNNから、前記予測物体検出結果を生成するプロセスが遂行される途中に生成される、前記予測ROIに対するNMS(Non−Maximum Suppression)結果を取得するプロセス、(i−2)前記RPNコンフィデンスマップに対してリサイズ(Resize)演算を少なくとも一回適用してリサイズされたRPNコンフィデンスマップを生成するプロセス、及び(ii)前記NMS結果と、前記リサイズされたRPNコンフィデンスマップとを参照して、前記統合コンフィデンスマップを生成するプロセスを遂行させることを特徴とする請求項12に記載の方法。
  14. 前記学習装置が、前記コンフィデンスレイヤをもって、前記統合コンフィデンススコアのうち、前記トレーニングイメージ上の座標(x,y)に対応する第X_Y統合コンフィデンススコアを下記数式にしたがって生成させ、

    c’xyは前記第X_Y統合コンフィデンススコアを意味し、cxyは前記リサイズされたRPNコンフィデンスマップ上の前記座標(x,y)に対応する第X_YリサイズされたRPNコンフィデンススコアを意味し、criは前記NMS結果で決定された、前記座標(x,y)を含みrとして表現される第i予測ROIに対する第iCNNコンフィデンススコアを意味することを特徴とする請求項13に記載の方法。
  15. 前記(b)段階は、
    (b1)前記状況イメージが取得されると、前記コンピューティング装置が、前記CNNに含まれている少なくとも一つのコンボリューションレイヤをもって、前記状況イメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのコンボリューション特徴マップを生成させる段階;
    (b2)前記コンピューティング装置が、前記コンボリューション特徴マップに対してアンカー演算を少なくとも一回適用することによって、前記状況イメージ上の予測ROIを生成するためのプロセスを遂行しつつ、RPNに含まれている少なくとも一つのアンカーレイヤをもって、前記予測ROIが原本正解ROIと同一である少なくとも一つの確率それぞれを表す、少なくとも一つのRPNコンフィデンススコアそれぞれを前記コンボリューション特徴マップのピクセルごとに生成することによって、前記RPNコンフィデンススコアを含むRPNコンフィデンスマップを生成させる段階;
    (b3)前記CNNに含まれているROIプーリングレイヤを通じて、前記コンボリューション特徴マップ及び前記予測ROIを利用して生成された少なくとも一つのROIプーリング済み特徴マップが取得されると、前記コンピューティング装置が、前記ROIプーリング済み特徴マップを利用して予測物体検出結果を生成するプロセスを遂行しつつ、前記CNNに含まれるFCレイヤをもって、前記予測物体検出結果に含まれているそれぞれの少なくとも一つの予測CNN分類結果及びそれぞれの少なくとも一つの予測CNNリグレッション結果が原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果と同一である少なくとも一つの確率それぞれを表すCNNコンフィデンスコアそれぞれを前記予測ROIごとに生成することによって、前記CNNコンフィデンススコアを含むCNNコンフィデンスマップを生成させる段階;及び
    (b4)前記コンピューティング装置が、前記CNNと連動して作動するコンフィデンスレイヤをもって、前記RPNコンフィデンスマップ及び前記CNNコンフィデンスマップを参照して統合コンフィデンスマップを生成させる段階を含み、
    前記コンピューティング装置は、前記CNNをもって、前記予測物体検出結果を含む前記初期物体情報及び前記統合コンフィデンスマップを含む前記初期コンフィデンス情報を出力させることを特徴とする請求項1に記載の方法。
  16. 物体検出プロセスと並行して生成された、物体検出の信頼度(Credibility)を表すコンフィデンスコア(Confidence Score)を利用することによって、コンピューティングパワーを節約しながらもより優れた自律走行性能を達成するためのコンピューティング装置において、
    インストラクションを格納する少なくとも一つのメモリ;及び
    (I)対象車両に設置された少なくとも一つのパノラマビューセンサ(Panorama View Sensor)を通じて前記対象車両の周辺に対する少なくとも一つの状況イメージ(Circumstance Image)を取得するプロセス、(II)CNN(Convolutional Neural Network)をもって、前記状況イメージにCNN演算を少なくとも一回適用させて、前記状況イメージに関する初期物体情報及び初期コンフィデンス情報を生成させるプロセス、及び(III)強化学習エージェントのサポートを受けて作動することによって、前記初期物体情報及び前記初期コンフィデンス情報を参照して、前記状況イメージに関する最終物体情報を生成するプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、
    を含むことを特徴とする装置。
  17. 前記(III)プロセスは、
    (III−1)(i)前記強化学習エージェントをもって、前記初期コンフィデンス情報を参照して、前記状況イメージ内の一つ以上の領域のうち、再検出プロセスを適用する予定の一つ以上の第1特定領域それぞれを選択させ、(ii)前記CNNをもって、前記第1特定領域に前記CNN演算を適用して、前記状況イメージに関する第1調整物体情報及び第1調整コンフィデンス情報を生成させる前記再探索プロセスを実行させるプロセス;(III−2)繰り返して(i)前記強化学習エージェントをもって、以前に生成された第K−1調整コンフィデンス情報を参照して、前記状況イメージ内の前記領域のうち、前記再検出プロセスを適用する予定の一つ以上の第K特定領域それぞれを選択させ、(ii)前記CNNをもって、前記第K特定領域に前記CNN演算を適用して、前記状況イメージに関する第K調整物体情報及び第K調整コンフィデンス情報を生成させる前記再検出プロセスを遂行するプロセス;及び(III−3)前記再検出プロセスがN回遂行されることによって第N調整物体情報及び第N調整コンフィデンス情報が生成されると、前記第1調整物体情報ないし前記第N調整物体情報のうち少なくとも一部及び前記初期物体情報を参照して、前記最終物体情報を生成するプロセス;を含み、前記Kは2以上N以下の整数であり、前記Nは前記強化学習エージェントが、前記再検出プロセスが遂行されるべきであると判断した回数であることを特徴とする請求項16に記載の装置。
  18. 前記プロセッサは、前記第M再検出確率が閾値以上である場合に、前記CNNをもって、前記第M特定領域に前記CNN演算を適用させ、前記強化学習エージェントは、第M−1調整コンフィデンス情報を参照して第M再検出確率及び一つ以上の第M特定領域を生成し、Mは1以上N以下の整数であり、
    前記強化学習エージェントは、Mが1である場合、前記初期コンフィデンス情報を参照して第1再検出確率及び前記第1特定領域を生成することを特徴とする請求項17に記載の装置。
  19. 前記強化学習エージェントは、それ自体に前記第M−1調整コンフィデンス情報が入力されると、(i)それ自体のパラメータ及び前記第M−1調整コンフィデンス情報を利用して前記第M再検出確率及び前記第M特定領域を生成し、(ii)前記第M再検出確率が前記閾値以上である場合、前記CNNから第M調整コンフィデンス情報を取得し、(iii)前記第M調整コンフィデンス情報とこれに対応する第M調整物体情報とを生成するのに使用された第M演算費用、前記第M−1調整コンフィデンス情報、及び前記第M調整コンフィデンス情報を参照して第M原本リワードを計算し、(iv)前記第M原本リワードを参照して前記パラメータを学習することを特徴とする請求項18に記載の装置。
  20. 前記強化学習エージェントは、下記数式にしたがって生成されたグラディエントを利用して前記パラメータを学習し、

    Oは前記第M再検出確率及び前記第M特定領域に関する情報を含む第M原本ベクトルであり、O’は前記第M原本ベクトルにノイズを適用して生成された第M調整ベクトルであり、R(O)及びR(O’)はそれぞれ前記第M原本リワード及び前記第M調整ベクトルに対応する第M調整リワードであり、εは前記グラディエントの発散を防止するための定数であることを特徴とする請求項19に記載の装置。
  21. 前記再検出プロセスが繰り返し遂行されつつ、一つ以上の第L特定領域(Lは1以上N以下の整数である)が選択されると、前記プロセスが、前記強化学習エージェントをもって、前記第L特定領域に対応する第L倍数情報を生成させ、前記第L倍数情報を参照して前記第L特定領域にアップサンプリング(Upsampling)演算を適用して第L特定アップサンプリング済みイメージを生成し、前記CNNをもって、前記第L特定アップサンプリング済みイメージに前記CNN演算を適用して第L調整物体情報及び第L調整コンフィデンス情報を生成させることを特徴とする請求項17に記載の装置。
  22. 前記(III)プロセスで、
    前記プロセッサが、複数個の状況イメージを部分イメージとして含む統合イメージを生成しつつ、それぞれの前記状況イメージに関するそれぞれの前記初期物体情報とそれぞれの前記初期コンフィデンス情報とを利用して、前記統合イメージに関する統合最終物体情報を生成し、前記統合最終物体情報は、
    (III−4)(i)それぞれの前記初期コンフィデンス情報を参照して、前記統合イメージに関する第1統合コンフィデンス情報を生成し、(ii)前記強化学習エージェントをもって、前記第1統合コンフィデンス情報を参照して、前記統合イメージ内の一つ以上の領域のうち、前記再検出プロセスを適用する予定の一つ以上の第1特定領域それぞれを選択させ、(iii)前記CNNをもって、前記第1特定領域に前記CNN演算を適用して、前記統合イメージに関するそれぞれの前記第1調整物体情報及びそれぞれの第1調整コンフィデンス情報を生成させる前記再検出プロセスを遂行するプロセス;(III−5)繰り返して(i)それぞれの第K−1調整コンフィデンス情報を参照して、前記統合イメージに関する第K調整統合コンフィデンス情報を生成し、(ii)前記強化学習エージェントをもって、前記第K調整統合コンフィデンス情報を参照して、前記統合イメージ内の前記領域のうち、前記再検出プロセスを適用する予定の一つ以上の第K特定領域それぞれを選択させ、(iii)前記CNNをもって、前記第K特定領域に前記CNN演算を適用して、前記統合イメージに対するそれぞれの第K調整物体情報及びそれぞれの第K調整コンフィデンス情報を生成させる前記再検出プロセスを遂行するプロセス;及び(III−6)前記再検出プロセスがN回遂行されることによって、それぞれの第N調整物体情報及びそれぞれの第N調整コンフィデンス情報が生成されると、前記第1調整物体情報ないし第N調整物体情報のうち少なくとも一部及び前記初期物体情報を参照して前記統合最終物体情報を生成するプロセス;を通じて生成され、前記Kは2以上N以下の整数であり、前記Nは、前記強化学習エージェントが、前記再検出プロセスが遂行されるべきであると判断した回数であることを特徴とする請求項16に記載の装置。
  23. (i)複数の前記パノラマビューセンサのうちカメラに対応する少なくとも一つの第1パノラマビューセンサを通じて少なくとも一つの第1状況イメージが取得されると、前記プロセスが、3チャンネルイメージに対して最適化された、インプットノード(Input Node)が3個以上である第1CNNをもって、前記第1状況イメージに対して第1CNN演算を少なくとも一回適用させ、(ii)デプスセンサ(Depth Sensor)に対応する少なくとも一つの第2パノラマビューセンサを通じて少なくとも一つの第2状況イメージが取得されると、前記プロセスが、デプスイメージ(Depth Image)に対して最適化された、インプットノードが1個以上である第2CNNをもって、前記第2状況イメージに対して第2CNN演算を少なくとも一回適用させることを特徴とする請求項22に記載の装置。
  24. 前記(I)プロセス以前に、
    (I−1)トレーニングイメージが取得されると、学習装置が、前記CNNに含まれている少なくとも一つのコンボリューションレイヤをもって、前記トレーニングイメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのコンボリューション特徴マップを生成させるプロセス;(I−2)前記学習装置が、前記コンボリューション特徴マップに対してアンカー(Anchor)演算を少なくとも一回適用することによって、前記トレーニングイメージ上の予測ROI(Region Of Interest)を生成するプロセスを遂行しつつ、RPN(Region Proposal Network)に含まれている少なくとも一つのアンカーレイヤをもって、前記予測ROIが原本正解(Ground−Truth)ROIと同一であるそれぞれの少なくとも一つの確率を表すそれぞれの少なくとも一つのRPNコンフィデンススコアを前記コンボリューション特徴マップのピクセルごとに生成することによって、前記RPNコンフィデンススコアを含むRPNコンフィデンスマップを生成させるプロセス;(I−3)前記CNNに含まれているROIプーリングレイヤを通じて、前記コンボリューション特徴マップ及び前記予測ROIを利用して生成された少なくとも一つのROIプーリング済み特徴マップが取得されると、前記学習装置は、前記ROIプーリング済み特徴マップを利用して予測物体検出結果を生成するプロセスを遂行しつつ、前記CNNに含まれているFCレイヤをもって、前記予測物体検出結果に含まれるそれぞれの少なくとも一つの予測CNN分類結果と、それぞれの少なくとも一つの予測CNNリグレッション結果とが、原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果と同一であるものと予測されるそれぞれの少なくとも一つの確率を表すそれぞれのCNNコンフィデンススコアを前記予測ROIごとに生成することによって、前記CNNコンフィデンススコアを含むCNNコンフィデンスマップを生成させるプロセス;及び(I−4)前記学習装置が、ロスレイヤをもって、前記RPNコンフィデンスマップと、前記CNNコンフィデンスマップと、前記予測物体検出結果と、前記原本正解物体検出結果とを参照して少なくとも一つのRPNロス及び少なくとも一つのCNNロスを生成させ、前記RPNロス及び前記CNNロスを利用してバックプロパゲーションを遂行することによって前記CNN及び前記RPNに含まれているパラメータのうち少なくとも一部を学習させるプロセス;が遂行されることによって、前記CNNが学習されることを特徴とする請求項16に記載の装置。
  25. 前記(I−4)プロセスで、
    前記学習装置が、前記ロスレイヤをもって、下記数式にしたがって前記RPNロスを生成させ、

    regはアンカー演算を遂行して生成された前記コンボリューション特徴マップのサイズに対応する定数であり、Nclsは前記トレーニングイメージに対応する定数であり、cは前記RPNコンフィデンスコアのうち、前記コンボリューション特徴マップの第iピクセルに対応する第iRPNコンフィデンススコアを意味し、pは前記第iピクセルに対応する第i予測RPN分類結果を意味し、p は前記第iピクセルに対応する第i原本正解RPN分類結果を意味し、tは前記第iピクセルに対応する第i予測RPNリグレッション結果を意味し、t は前記第iピクセルに対応する第i原本正解RPNリグレッション結果を意味し、
    前記第i原本正解RPN分類結果及び前記第i原本正解RPNリグレッション結果は、前記原本正解物体検出結果に対応することを特徴とする請求項24に記載の装置。
  26. 前記(I−4)プロセスで、
    前記学習装置が、前記ロスレイヤをもって、下記数式にしたがって前記CNNロスを生成させ、

    reg及びNclsは前記予測ROIの個数であり、cは前記CNNコンフィデンススコアのうち前記予測ROIから選択された第i予測ROIに対応する第iCNNコンフィデンススコアを意味し、pは前記第i予測ROIに対応する第i予測CNN分類結果を意味し、p は前記第iピクセルに対応する第i原本正解CNN分類結果を意味し、tは前記第i予測ROIに対応する第i予測CNNリグレッション結果を意味し、t は前記第iピクセルに対応する第i原本正解CNNリグレッション結果を意味し、
    前記第i予測CNN分類結果及び前記第i予測CNNリグレッション結果は、前記予測物体検出結果に対応することを特徴とする請求項24に記載の装置。
  27. 前記(I−3)プロセス以後に、
    前記学習装置が、コンフィデンスレイヤをもって、前記RPNコンフィデンスマップ及び前記CNNコンフィデンスマップを参照して、前記トレーニングイメージ内のピクセルごとの統合コンフィデンススコアそれぞれに関する情報を含む統合コンフィデンスマップを生成させることを特徴とする請求項24に記載の装置。
  28. 前記学習装置が、前記コンフィデンスレイヤをもって、(i)(i−1)前記CNNから、前記予測物体検出結果を生成するプロセスが遂行される途中に生成される、前記予測ROIに対するNMS(Non−Maximum Suppression)結果を取得するプロセス、(i−2)前記RPNコンフィデンスマップに対してリサイズ(Resize)演算を少なくとも一回適用してリサイズされたRPNコンフィデンスマップを生成するプロセス、及び(ii)前記NMS結果及び前記リサイズされたRPNコンフィデンスマップを参照して前記統合コンフィデンスマップを生成するプロセスを遂行させることを特徴とする請求項27に記載の装置。
  29. 前記学習装置が、前記コンフィデンスレイヤをもって、前記統合コンフィデンススコアのうち、前記トレーニングイメージ上の座標(x,y)に対応する第X_Y統合コンフィデンススコアを下記数式にしたがって生成させ、

    c’xyは前記第X_Y統合コンフィデンススコアを意味し、cxyは前記リサイズされたRPNコンフィデンスマップ上の前記座標(x,y)に対応する第X_YリサイズされたRPNコンフィデンススコアを意味し、criは前記NMS結果で決定された、前記座標(x,y)を含みrとして表現される第i予測ROIに対する第iCNNコンフィデンススコアを意味することを特徴とする請求項28に記載の装置。
  30. 前記(II)プロセスは、
    (II−1)前記状況イメージが取得されると、前記CNNに含まれている少なくとも一つのコンボリューションレイヤをもって、前記状況イメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのコンボリューション特徴マップを生成させるプロセス;(II−2)前記コンボリューション特徴マップに対してアンカー演算を少なくとも一回適用することによって、前記状況イメージ上の予測ROIを生成するためのプロセスを遂行しつつ、RPNに含まれている少なくとも一つのアンカーレイヤをもって、前記予測ROIが原本正解ROIと同一である少なくとも一つの確率それぞれを表す、少なくとも一つのRPNコンフィデンススコアそれぞれを前記コンボリューション特徴マップのピクセルごとに生成することによって、前記RPNコンフィデンススコアを含むRPNコンフィデンスマップを生成させるプロセス;(II−3)前記CNNに含まれているROIプーリングレイヤを通じて前記コンボリューション特徴マップ及び前記予測ROIを利用して生成された少なくとも一つのROIプーリング済み特徴マップが取得されると、前記ROIプーリング済み特徴マップを利用して予測物体検出結果を生成するプロセスを遂行しつつ、前記CNNに含まれるFCレイヤをもって、前記予測物体検出結果に含まれているそれぞれの少なくとも一つの予測CNN分類結果と、それぞれの少なくとも一つの予測CNNリグレッション結果とが、原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果と同一である少なくとも一つの確率それぞれを表すCNNコンフィデンスコアそれぞれを前記予測ROIごとに生成することによって、前記CNNコンフィデンススコアを含むCNNコンフィデンスマップを生成させるプロセス;及び(II−4)前記CNNと連動して作動するコンフィデンスレイヤをもって、前記RPNコンフィデンスマップ及び前記CNNコンフィデンスマップを参照して統合コンフィデンスマップを生成させるプロセスを含み、前記プロセッサは、前記CNNをもって、前記予測物体検出結果を含む前記初期物体情報と、前記統合コンフィデンスマップを含む前記初期コンフィデンス情報とを出力させることを特徴とする請求項16に記載の装置。
JP2020008883A 2019-01-31 2020-01-23 Avm及び強化学習を利用して自律走行の安全性を達成するためのアテンション−ドリブンアルゴリズムを利用したリソース割り当てのための方法及び装置{method and device for attention−driven resource allocation by using avmand reinforcement learning to thereby achieve safety of autonomous driving} Active JP6895694B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962799321P 2019-01-31 2019-01-31
US62/799321 2019-01-31
US16/739767 2020-01-10
US16/739,767 US10726279B1 (en) 2019-01-31 2020-01-10 Method and device for attention-driven resource allocation by using AVM and reinforcement learning to thereby achieve safety of autonomous driving

Publications (2)

Publication Number Publication Date
JP2020126633A true JP2020126633A (ja) 2020-08-20
JP6895694B2 JP6895694B2 (ja) 2021-06-30

Family

ID=69185406

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020008883A Active JP6895694B2 (ja) 2019-01-31 2020-01-23 Avm及び強化学習を利用して自律走行の安全性を達成するためのアテンション−ドリブンアルゴリズムを利用したリソース割り当てのための方法及び装置{method and device for attention−driven resource allocation by using avmand reinforcement learning to thereby achieve safety of autonomous driving}

Country Status (5)

Country Link
US (1) US10726279B1 (ja)
EP (1) EP3690719A1 (ja)
JP (1) JP6895694B2 (ja)
KR (1) KR102396272B1 (ja)
CN (1) CN111507167B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022148383A (ja) * 2021-03-24 2022-10-06 パナソニックIpマネジメント株式会社 学習方法、学習装置、及び、プログラム

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018176000A1 (en) 2017-03-23 2018-09-27 DeepScale, Inc. Data synthesis for autonomous control systems
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
WO2020077117A1 (en) 2018-10-11 2020-04-16 Tesla, Inc. Systems and methods for training machine models with augmented data
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US11150664B2 (en) 2019-02-01 2021-10-19 Tesla, Inc. Predicting three-dimensional features for autonomous driving
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
US12056917B2 (en) 2019-10-02 2024-08-06 Intelligent Dynamics, Llc Distributed management and control in autonomous conveyances
US12008816B2 (en) * 2020-12-03 2024-06-11 Hl Klemove Corp. Method and system for real time object detection
CN113096175B (zh) * 2021-03-24 2023-10-24 苏州中科广视文化科技有限公司 一种基于卷积神经网络的深度图置信度估计方法
GB2608803B (en) * 2021-07-09 2023-11-08 Milestone Systems As A video processing apparatus, method and computer program
KR20230077564A (ko) * 2021-11-25 2023-06-01 한국전자기술연구원 깊이 이미지 기반 객체 탐지 시스템 및 이의 환경 적응형 딥러닝 모델 생성 및 적용 방법
CN115546768B (zh) * 2022-12-01 2023-04-07 四川蜀道新能源科技发展有限公司 基于多尺度机制和注意力机制的路面标线识别方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170206431A1 (en) * 2016-01-20 2017-07-20 Microsoft Technology Licensing, Llc Object detection and classification in images
US20180068198A1 (en) * 2016-09-06 2018-03-08 Carnegie Mellon University Methods and Software for Detecting Objects in an Image Using Contextual Multiscale Fast Region-Based Convolutional Neural Network
US20180129974A1 (en) * 2016-11-04 2018-05-10 United Technologies Corporation Control systems using deep reinforcement learning
US20180211403A1 (en) * 2017-01-20 2018-07-26 Ford Global Technologies, Llc Recurrent Deep Convolutional Neural Network For Object Detection
US20180267558A1 (en) * 2017-03-14 2018-09-20 Starsky Robotics, Inc. Vehicle sensor system and method of use
CN109145898A (zh) * 2018-07-26 2019-01-04 清华大学深圳研究生院 一种基于卷积神经网络和迭代机制的物体检测方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5961571A (en) * 1994-12-27 1999-10-05 Siemens Corporated Research, Inc Method and apparatus for automatically tracking the location of vehicles
KR101449295B1 (ko) * 2013-06-04 2014-10-13 현대자동차주식회사 주차구획 추적 장치 및 방법
US10037469B2 (en) * 2013-12-10 2018-07-31 Google Llc Image location through large object detection
US9767381B2 (en) * 2015-09-22 2017-09-19 Xerox Corporation Similarity-based detection of prominent objects using deep CNN pooling layers as features
US9965719B2 (en) * 2015-11-04 2018-05-08 Nec Corporation Subcategory-aware convolutional neural networks for object detection
JP2018005739A (ja) * 2016-07-06 2018-01-11 株式会社デンソー ニューラルネットワークの強化学習方法及び強化学習装置
US10657364B2 (en) * 2016-09-23 2020-05-19 Samsung Electronics Co., Ltd System and method for deep network fusion for fast and robust object detection
US10380741B2 (en) * 2016-12-07 2019-08-13 Samsung Electronics Co., Ltd System and method for a deep learning machine for object detection
CN106599939A (zh) * 2016-12-30 2017-04-26 深圳市唯特视科技有限公司 一种基于区域卷积神经网络的实时目标检测方法
US20180268292A1 (en) * 2017-03-17 2018-09-20 Nec Laboratories America, Inc. Learning efficient object detection models with knowledge distillation
CN108052881A (zh) * 2017-11-30 2018-05-18 华中科技大学 一种实时检测施工现场图像中多类实体对象的方法及设备
DE112019000049T5 (de) * 2018-02-18 2020-01-23 Nvidia Corporation Für autonomes fahren geeignete objekterfassung und erfassungssicherheit
CN108596329B (zh) * 2018-05-11 2020-08-07 北方民族大学 基于端到端深度集成学习网络的三维模型分类方法
US11164016B2 (en) * 2018-05-17 2021-11-02 Uatc, Llc Object detection and property determination for autonomous vehicles

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170206431A1 (en) * 2016-01-20 2017-07-20 Microsoft Technology Licensing, Llc Object detection and classification in images
US20180068198A1 (en) * 2016-09-06 2018-03-08 Carnegie Mellon University Methods and Software for Detecting Objects in an Image Using Contextual Multiscale Fast Region-Based Convolutional Neural Network
US20180129974A1 (en) * 2016-11-04 2018-05-10 United Technologies Corporation Control systems using deep reinforcement learning
US20180211403A1 (en) * 2017-01-20 2018-07-26 Ford Global Technologies, Llc Recurrent Deep Convolutional Neural Network For Object Detection
US20180267558A1 (en) * 2017-03-14 2018-09-20 Starsky Robotics, Inc. Vehicle sensor system and method of use
CN109145898A (zh) * 2018-07-26 2019-01-04 清华大学深圳研究生院 一种基于卷积神经网络和迭代机制的物体检测方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022148383A (ja) * 2021-03-24 2022-10-06 パナソニックIpマネジメント株式会社 学習方法、学習装置、及び、プログラム
JP7361342B2 (ja) 2021-03-24 2023-10-16 パナソニックIpマネジメント株式会社 学習方法、学習装置、及び、プログラム

Also Published As

Publication number Publication date
EP3690719A1 (en) 2020-08-05
KR102396272B1 (ko) 2022-05-10
CN111507167A (zh) 2020-08-07
JP6895694B2 (ja) 2021-06-30
US10726279B1 (en) 2020-07-28
US20200250442A1 (en) 2020-08-06
KR20200095376A (ko) 2020-08-10
CN111507167B (zh) 2023-09-29

Similar Documents

Publication Publication Date Title
JP6895694B2 (ja) Avm及び強化学習を利用して自律走行の安全性を達成するためのアテンション−ドリブンアルゴリズムを利用したリソース割り当てのための方法及び装置{method and device for attention−driven resource allocation by using avmand reinforcement learning to thereby achieve safety of autonomous driving}
KR102396274B1 (ko) 강화 학습 및 v2x 통신을 사용하는 어텐션-드리븐 리소스 할당을 통해 자율 주행의 안전성을 제공하기 위한 방법 및 장치
JP6908946B2 (ja) 距離予測が可能なレーダを通じて取得される情報とカメラを通じて取得される情報とを統合するセンサ融合を遂行することによって、自律走行を支援するニューラルネットワークを向上させる学習方法及び学習装置、そしてこれを使用したテスト方法及びテスト装置
CN111461106B (zh) 基于可重配置网络的对象检测方法及装置
JP6890855B2 (ja) Avmを利用して自律走行の安全性を達成するためのアテンションドリブンアルゴリズムを利用したリソース割り当てのための方法及び装置{method and device for attention−driven resource allocation by using avm to thereby achieve safety of autonomous driving}
KR102321004B1 (ko) 온 디바이스 독립형 예측에 기반하여 자율 주행 차량의 모드를 전환함으로써 자율 주행의 안전성을 도모하는 학습 방법 및 학습 장치, 그리고 이를 이용한 테스팅 방법 및 테스팅 장치
JP6856853B2 (ja) 極限状況においてフォールトトレランス及びフラクチュエーションロバスト性を向上させるために、ジッタリングが起きたイメージを安定化させるプロセスで生成されたワーピングされたイメージに発生した歪曲を、ganを利用して減らすための学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置
JP6846069B2 (ja) 遠距離検出または軍事目的のために、イメージコンカチネーションを利用したcnn基盤のハードウェア最適化が可能な物体検出器を学習する方法及び学習装置、それを利用したテスト方法及びテスト装置{learning method and learning device for object detector with hardware optimization based on cnn for detection at distance or military purpose using image concatenation, and testing method and testing device using the same}
CN111488786B (zh) 基于cnn的监视用客体检测器的方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200123

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200706

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200710

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20201022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210601

R150 Certificate of patent or registration of utility model

Ref document number: 6895694

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250