JP2020126632A - Avmを利用して自律走行の安全性を達成するためのアテンションドリブンアルゴリズムを利用したリソース割り当てのための方法及び装置{method and device for attention−driven resource allocation by using avm to thereby achieve safety of autonomous driving} - Google Patents

Avmを利用して自律走行の安全性を達成するためのアテンションドリブンアルゴリズムを利用したリソース割り当てのための方法及び装置{method and device for attention−driven resource allocation by using avm to thereby achieve safety of autonomous driving} Download PDF

Info

Publication number
JP2020126632A
JP2020126632A JP2020008882A JP2020008882A JP2020126632A JP 2020126632 A JP2020126632 A JP 2020126632A JP 2020008882 A JP2020008882 A JP 2020008882A JP 2020008882 A JP2020008882 A JP 2020008882A JP 2020126632 A JP2020126632 A JP 2020126632A
Authority
JP
Japan
Prior art keywords
cnn
confidence
predicted
information
rpn
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020008882A
Other languages
English (en)
Other versions
JP6890855B2 (ja
Inventor
金桂賢
Kye-Hyeon Kim
金鎔重
Yongjoong Kim
金鶴京
Hak-Kyoung Kim
南雲鉉
Woonhyun Nam
夫碩▲くん▼
Sukhoon Boo
成明哲
Myungchul Sung
申東洙
Dongsoo Shin
呂東勳
Donghun Yeo
柳宇宙
Wooju Ryu
李明春
Myeong-Chun Lee
李炯樹
Hyungsoo Lee
張泰雄
Taewoong Jang
鄭景中
Kyungjoong Jeong
諸泓模
Hongmo Je
趙浩辰
Hojin Cho
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stradvision Inc
Original Assignee
Stradvision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stradvision Inc filed Critical Stradvision Inc
Publication of JP2020126632A publication Critical patent/JP2020126632A/ja
Application granted granted Critical
Publication of JP6890855B2 publication Critical patent/JP6890855B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Image Processing (AREA)

Abstract

【課題】物体検出プロセスと並列して生成された、物体検出の信頼度を示すコンフィデンススコアを利用することによって、コンピューティングパワーを節約しながらもより優れた自律走行性能を達成するための方法を提供する。【解決手段】方法は、コンピューティング装置が、対象車両に設置された少なくとも一つのパノラマビューセンサを通じて対象車両の周辺に対する少なくとも一つの状況イメージを取得する段階と、コンピューティング装置が、CNNをもって、状況イメージに対してCNN演算を少なくとも一回適用させて、状況イメージに関する初期物体情報及び初期コンフィデンス情報を生成させる段階と、コンピューティング装置が、初期物体情報及び初期コンフィデンス情報を参照して、状況イメージに対する最終物体情報を生成する段階と、を含む。【選択図】図2

Description

本発明は、自律走行車両とともに使用する方法及び装置に関し、より詳細には、自律走行の安全性を取得するためのアテンションドリブンアルゴリズムを利用したリソース割り当てのための方法及び装置に関する。
最近、自律走行技術が研究されて、自律走行車両が運転者の介入なしにかなりの正確度で走行することができるほどに発展した。しかし、このような自律走行技術は商用化されていない。自律走行技術が大衆的に使用され得ないのには様々な理由があるが、そのうちの一つは、自律走行のための演算は、コンピューティングパワーをあまりにも多く消耗するという点である。
自律走行のための演算を遂行する際に消耗するコンピューティングパワーを減らすために多大な努力がなされているが、この場合に生じ得る問題点は、消耗するコンピューティングパワーを減らせば自律走行の性能が劣るということである。自律走行の性能が劣ると、エラーが多く生じ、運転者及び周囲の人々の生命を脅かすようになる。したがって、コンピューティングパワーを減らしながらも自律走行の性能をある程度保持し得るようにすることが必要であり、このような方法はあまり研究されていないのが事実である。
本発明は、上述した問題点を解決することを目的とする。
本発明は、AVMを利用して自律走行の安全性を達成するためのアテンションドリブンアルゴリズムを利用したリソース割り当てのための方法を提供することを他の目的とする。
また、本発明は物体検出プロセスと並列して、物体検出の信頼度を示すパラメータであるコンフィデンススコア(Confidence Score)を生成する方法を提供することをまた他の目的とする。
また、本発明は、コンフィデンススコアが閾値未満である領域に対する物体検出を繰り返すことによって、さらに正確な物体検出を遂行し得る方法を提供することをまた他の目的とする。
前記のような本発明の目的を達成し、後述する本発明の特徴的な効果を実現するための本発明の特徴的な構成は以下の通りである。
本発明の一態様によると、物体検出プロセスと並列して生成された、物体検出の信頼度(Credibility)を示すコンフィデンススコア(Confidence Score)を利用することによって、コンピューティングパワーを節約しながらもより優れた自律走行性能を達成するための方法において、(a)コンピューティング装置が、対象車両に設置された少なくとも一つのパノラマビューセンサ(Panorama View Sensor)を通じて前記対象車両の周辺に対する少なくとも一つの状況イメージ(Circumstance Image)を取得する段階;(b)前記コンピューティング装置が、CNN(Convolutional Neural Network)をもって、前記状況イメージに対してCNN演算を少なくとも一回適用させ、前記状況イメージに関する初期物体情報及び初期コンフィデンス情報を生成させる段階;及び(c)前記コンピューティング装置が、前記初期物体情報及び前記初期コンフィデンス情報を参照して、前記状況イメージに対する最終物体情報を生成する段階;を含むことを特徴とする。
一実施例において、前記(c)段階は、(c1)前記コンピューティング装置が、(i)前記初期コンフィデンス情報を参照して、前記状況イメージに含まれている少なくとも一つの領域のうちそれに対応する前記コンフィデンススコアが閾値未満である少なくとも一つの第1特定領域それぞれを先に選択し、(ii)前記CNNをもって、前記第1特定領域に対してCNN演算を適用させて前記状況イメージに対する第1調整物体情報(Adjusted Object Information)及び第1調整コンフィデンス情報を生成させる、再検出(Re−detection)プロセスを遂行する段階;(c2)前記コンピューティング装置が、(i)事前に生成された第K−1調整コンフィデンス情報を参照して、前記状況イメージ内の前記領域のうちそれに対応する前記コンフィデンススコアが前記閾値未満である少なくとも一つの第K特定領域それぞれを選択し、(ii)前記CNNをもって、前記第K特定領域に対してCNN演算を適用させて前記状況イメージに対する第K調整物体情報及び第K調整コンフィデンス情報を生成させる、前記再検出プロセスを繰り返し遂行する段階:及び(c3)前記再検出プロセスがN回遂行されることによって、第N調整物体情報及び第N調整コンフィデンス情報が生成されると、前記コンピューティング装置が、前記初期物体情報と、前記第1調整物体情報ないし前記第N調整物体情報のうち少なくとも一部とを参照して、前記最終物体情報を生成する段階;を含み、前記Kは2以上N以下の整数(integer)であり、Nは予め設定された整数であることを特徴とする。
一実施例において、Mは1以上N−1以下の整数であり、前記再検出プロセスをM回目遂行しつつ、選択された少なくとも一つの第M特定領域の少なくとも一つの広さの和が閾値未満である場合、前記コンピューティング装置が前記再検出プロセスを繰り返して遂行することを中断し、前記初期物体情報と、前記第1調整物体情報ないし第M−1調整物体情報のうち少なくとも一部とを参照して、前記最終物体情報を生成することを特徴とする。
一実施例において、Lは1以上N以下の整数であり、前記再検出プロセスをL回目遂行しつつ、少なくとも一つの第L特定領域が選択されると、前記コンピューティング装置が第L倍数情報を参照して前記第L特定領域に対してアップサンプリング演算(Upsampling Operation)を適用して第L特定アップサンプリングイメージ(Specific Upsampled Image)を生成した後、前記CNNをもって、前記第L特定アップサンプリングイメージに対してCNN演算を適用させて第L調整物体情報及び第L調整コンフィデンス情報を生成させることを特徴とする。
一実施例において、前記コンピューティング装置が、前記初期物体情報と、前記第1調整物体情報ないし前記第N調整物体情報のうち少なくとも一部とを参照して、NMS(Non−Maximum Suppression)アルゴリズム及びボックスボーティング(Box Voting)アルゴリズムのうち少なくとも一つを遂行することによって前記最終物体情報を生成することを特徴とする。
一実施例において、前記(c)段階において、前記コンピューティング装置が、複数個の前記状況イメージをそれに対する部分イメージ(Partial Image)として含む統合イメージ(Integrated Image)を生成しつつ、それぞれの前記状況イメージに関するそれぞれの前記初期物体情報とそれぞれの前記初期コンフィデンス情報とを利用して前記統合イメージに関する統合最終物体情報を生成することを特徴とし、前記Kは2以上N以下の整数であり、Nは予め設定された整数である場合、前記統合最終物体情報は、(c4)前記コンピューティング装置が、(i)それぞれの前記初期コンフィデンス情報を参照して、前記統合イメージに対する第1統合コンフィデンス情報を生成した後、(ii)前記第1統合コンフィデンス情報を参照して前記統合イメージ内の少なくとも一つの領域のうちそれに対応するコンフィデンススコアが閾値未満である少なくとも一つのそれぞれの第1特定領域を選択し、(iii)最後に前記CNNをもって、前記第1特定領域に対してCNN演算を適用させて前記統合イメージに関するそれぞれの第1調整物体情報及びそれぞれの第1調整コンフィデンス情報を生成させる、再検出プロセスを遂行する段階;(c5)前記コンピューティング装置が、(i)それぞれの第K−1調整コンフィデンス情報を参照して、前記統合イメージに対する第K調整統合コンフィデンス情報を生成した後、(ii)前記第K調整統合コンフィデンス情報を参照して前記統合イメージ内の前記領域のうちそれに対応するコンフィデンススコアが前記閾値未満である少なくとも一つの第K特定領域それぞれを選択し、(iii)最後に前記CNNをもって、前記第K特定領域に対してCNN演算を適用させて前記統合イメージに関するそれぞれの第K調整物体情報及びそれぞれの第K調整コンフィデンス情報を生成させる、前記再検出プロセスを繰り返し遂行する段階;及び(c6)前記再検出プロセスがN回遂行されることによって、それぞれの第N調整物体情報及びそれぞれの第N調整コンフィデンス情報が生成されると、前記コンピューティング装置が、前記初期物体情報と、前記第1調整物体情報ないし第N調整物体情報のうち少なくとも一部とを参照して、前記統合最終物体情報を生成する段階;を遂行して生成されることを特徴とする。
一実施例において、(i)複数の前記パノラマビューセンサのうちカメラに対応する少なくとも一つの第1パノラマビューセンサを通じて少なくとも一つの第1状況イメージが取得されると、前記コンピューティング装置が、3チャンネルイメージに対して最適化された、インプットノード(Input Node)が3個以上である第1CNNをもって、前記第1状況イメージに対して第1CNN演算を少なくとも一回適用させ、(ii)デプスセンサ(Depth Sensor)に対応する少なくとも一つの第2パノラマビューセンサを通じて少なくとも一つの第2状況イメージが取得されると、前記コンピューティング装置が、デプスイメージ(Depth Image)に対して最適化された、インプットノードが1個以上である第2CNNをもって、前記第2状況イメージに対して第2CNN演算を少なくとも一回適用させることを特徴とする。
一実施例において、(d)前記コンピューティング装置が、前記最終物体情報を自律走行モジュールに伝達することによって、前記自律走行モジュールが前記最終物体情報を利用して前記対象車両の自律走行を遂行し得るように支援する段階;をさらに含むことを特徴とする。
一実施例において、前記(a)段階以前に、(a1)トレーニングイメージが取得されると、学習装置が、前記CNNに含まれている少なくとも一つのコンボリューションレイヤをもって、前記トレーニングイメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのコンボリューション特徴マップ(Convolutional Feature Map)を生成させる段階;(a2)前記学習装置が、前記コンボリューション特徴マップに対してアンカー演算(Anchor Operation)を少なくとも一回適用することによって前記トレーニングイメージ上の予測ROI(Estimated Region Of Interest)を生成するプロセスを遂行しつつ、RPN(Region Proposal Network)に含まれている少なくとも一つのアンカーレイヤ(Anchor Layer)をもって、前記予測ROIが原本正解(Ground−Truth)ROIと同一であるそれぞれの少なくとも一つの確率を表すそれぞれの少なくとも一つのRPNコンフィデンススコアを前記コンボリューション特徴マップのピクセルごとに生成することによって、前記RPNコンフィデンススコアを含むRPNコンフィデンスマップを生成させる段階;(a3)前記CNNに含まれているROIプーリングレイヤ(ROI Pooling Layer)を通じて、前記コンボリューション特徴マップ及び前記予測ROIを利用して生成された少なくとも一つのROIプーリング済み特徴マップ(ROI−Pooled Feature Map)が取得されると、前記学習装置は、前記ROIプーリング済み特徴マップを利用して予測物体検出結果(Estimated Object Detection Result)を生成するプロセスを遂行しつつ、前記CNNに含まれているFCレイヤをもって、前記予測物体検出結果に含まれるそれぞれの少なくとも一つの予測CNN分類結果(Estimated CNN Classification Result)及びそれぞれの少なくとも一つの予測CNNリグレッション結果(Estimated CNN Regression Result)が、原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果(GT CNN Classification Result)及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果(GT CNN Regression Result)と同一であるものと予測されるそれぞれの少なくとも一つの確率を表すそれぞれのCNNコンフィデンススコアを前記予測ROIごとに生成することによって、前記CNNコンフィデンススコアを含むCNNコンフィデンスマップを生成させる段階;及び(a4)前記学習装置が、ロスレイヤをもって、前記RPNコンフィデンスマップと、前記CNNコンフィデンスマップと、前記予測物体検出結果と、前記原本正解物体検出結果とを参照して少なくとも一つのRPNロス及び少なくとも一つのCNNロスを生成させ、前記RPNロス及び前記CNNロスを利用してバックプロパゲーションを遂行することによって前記CNN及び前記RPNに含まれているパラメータのうち少なくとも一部を学習させる段階;をさらに含むことを特徴とする。
一実施例において、前記(a4)段階で、前記学習装置が、前記ロスレイヤをもって、下記数式にしたがって前記RPNロスを生成させ、

regはアンカー演算を遂行して生成された前記コンボリューション特徴マップのサイズに対応する定数(constant)であり、Nclsは前記トレーニングイメージに対応する定数であり、cは前記RPNコンフィデンスコアのうち、前記コンボリューション特徴マップの第iピクセルに対応する第iRPNコンフィデンススコアを意味し、pは前記第iピクセルに対応する第i予測RPN分類結果を意味し、p は前記第iピクセルに対応する第i原本正解RPN分類結果を意味し、tは前記第iピクセルに対応する第i予測RPNリグレッション結果を意味し、t は前記第iピクセルに対応する第i原本正解RPNリグレッション結果を意味し、前記第i原本正解RPN分類結果及び前記第i原本正解RPNリグレッション結果は、前記原本正解物体検出結果に対応することを特徴とする。
一実施例において、前記(a4)段階で、前記学習装置が、前記ロスレイヤをもって、下記数式にしたがって前記CNNロスを生成させ、

reg及びNclsは前記予測ROIの個数であり、cは前記CNNコンフィデンススコアのうち前記予測ROIから選択された第i予測ROIに対応する第iCNNコンフィデンススコアを意味し、pは前記第i予測ROIに対応する第i予測CNN分類結果を意味し、p は前記第iピクセルに対応する第i原本正解CNN分類結果を意味し、tは前記第i予測ROIに対応する第i予測CNNリグレッション結果を意味し、t は前記第iピクセルに対応する第i原本正解CNNリグレッション結果を意味し、前記第i予測CNN分類結果及び前記第i予測CNNリグレッション結果は、前記予測物体検出結果に対応することを特徴とする。
一実施例において、前記(a3)段階以後に、前記学習装置が、コンフィデンスレイヤをもって、前記RPNコンフィデンスマップ及び前記CNNコンフィデンスマップを参照して、前記トレーニングイメージ内のピクセルごとの統合コンフィデンススコアそれぞれに関する情報を含む統合コンフィデンスマップを生成させることを特徴とする。
一実施例において、前記学習装置が、前記コンフィデンスレイヤをもって、(i)(i−1)前記CNNから、前記予測物体検出結果を生成するプロセスが遂行される途中に生成される、前記予測ROIに対するNMS結果を取得するプロセス、(i−2)前記RPNコンフィデンスマップに対してリサイズ演算(Resizing Operation)を少なくとも一回適用してリサイズされたRPNコンフィデンスマップを生成するプロセス、及び(ii)前記NMS結果と、前記リサイズされたRPNコンフィデンスマップとを参照して、前記統合コンフィデンスマップを生成するプロセスを遂行させることを特徴とする。
一実施例において、前記学習装置が、前記コンフィデンスレイヤをもって、前記統合コンフィデンススコアのうち、前記トレーニングイメージ上の座標(x,y)に対応する第X_Y統合コンフィデンススコアを下記数式にしたがって生成させ、

c’xyは前記第X_Y統合コンフィデンススコアを意味し、cxyは前記リサイズされたRPNコンフィデンスマップ上の前記座標(x,y)に対応する第X_YリサイズされたRPNコンフィデンススコアを意味し、criは前記NMS結果で決定された、前記座標(x,y)を含みrとして表現される第i予測ROIに対する第iCNNコンフィデンススコアを意味することを特徴とする。
一実施例において、前記(b)段階は、(b1)前記状況イメージが取得されると、前記コンピューティング装置が、前記CNNに含まれている少なくとも一つのコンボリューションレイヤをもって、前記状況イメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのコンボリューション特徴マップを生成させる段階;(b2)前記コンピューティング装置が、前記コンボリューション特徴マップに対してアンカー演算を少なくとも一回適用することによって、前記状況イメージ上の予測ROIを生成するためのプロセスを遂行しつつ、RPNに含まれている少なくとも一つのアンカーレイヤをもって、前記予測ROIが原本正解ROIと同一である少なくとも一つの確率それぞれを表す、少なくとも一つのRPNコンフィデンススコアそれぞれを前記コンボリューション特徴マップのピクセルごとに生成することによって、前記RPNコンフィデンススコアを含むRPNコンフィデンスマップを生成させる段階;(b3)前記CNNに含まれているROIプーリングレイヤを通じて、前記コンボリューション特徴マップ及び前記予測ROIを利用して生成された少なくとも一つのROIプーリング済み特徴マップが取得されると、前記コンピューティング装置が、前記ROIプーリング済み特徴マップを利用して予測物体検出結果を生成するプロセスを遂行しつつ、前記CNNに含まれるFCレイヤをもって、前記予測物体検出結果に含まれているそれぞれの少なくとも一つの予測CNN分類結果及びそれぞれの少なくとも一つの予測CNNリグレッション結果が原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果と同一である少なくとも一つの確率それぞれを表すCNNコンフィデンスコアそれぞれを前記予測ROIごとに生成することによって、前記CNNコンフィデンススコアを含むCNNコンフィデンスマップを生成させる段階;及び(b4)前記コンピューティング装置が、前記CNNと連動して作動するコンフィデンスレイヤをもって、前記RPNコンフィデンスマップ及び前記CNNコンフィデンスマップを参照して統合コンフィデンスマップを生成させる段階を含み、前記コンピューティング装置は、前記CNNをもって、前記予測物体検出結果を含む前記初期物体情報及び前記統合コンフィデンスマップを含む前記初期コンフィデンス情報を出力させることを特徴とする。
本発明の他の態様によると、物体検出プロセスと並列して生成された、物体検出の信頼度(Credibility)を示すコンフィデンススコア(Confidence Score)を利用することによって、コンピューティングパワーを節約しながらもより優れた自律走行性能を達成するためのコンピューティング装置において、インストラクションを格納する少なくとも一つのメモリと、(I)対象車両に設置された少なくとも一つのパノラマビューセンサ(Panorama View Sensor)を通じて前記対象車両の周辺に対する少なくとも一つの状況イメージ(Circumstance Image)を取得するプロセス;(II)CNN(Convolutional Neural Network)をもって、前記状況イメージに対してCNN演算を少なくとも一回適用させて、前記状況イメージに関する初期物体情報及び初期コンフィデンス情報を生成させるプロセス;及び(III)前記初期物体情報及び前記初期コンフィデンス情報を参照して、前記状況イメージに対する最終物体情報を生成するプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、を含むことを特徴とする。
一実施例において、前記(III)プロセスは、(III−1)(i)前記初期コンフィデンス情報を参照して、前記状況イメージに含まれている少なくとも一つの領域のうちそれに対応する前記コンフィデンススコアが閾値未満である少なくとも一つの第1特定領域それぞれを先に選択し、(ii)前記CNNをもって、前記第1特定領域に対してCNN演算を適用させて前記状況イメージに対する第1調整物体情報(Adjusted Object Information)及び第1調整コンフィデンス情報を生成させる、再検出(Re−detection)プロセスを遂行するプロセス;(III−2)(i)事前に生成された第K−1調整コンフィデンス情報を参照して、前記状況イメージ内の前記領域のうちそれに対応する前記コンフィデンススコアが前記閾値未満である少なくとも一つの第K特定領域それぞれを選択し、(ii)前記CNNをもって、前記第K特定領域に対してCNN演算を適用させて前記状況イメージに対する第K調整物体情報及び第K調整コンフィデンス情報を生成させる、前記再検出プロセスを繰り返し遂行するプロセス;(III−3)前記再検出プロセスがN回遂行されることによって、第N調整物体情報及び第N調整コンフィデンス情報が生成されると、前記初期物体情報と、前記第1調整物体情報ないし前記第N調整物体情報のうち少なくとも一部とを参照して、前記最終物体情報を生成するプロセス;を含み、前記Kは2以上N以下の整数であり、Nは予め設定された整数であることを特徴とする。
一実施例において、Mは1以上N−1以下の整数であり、前記再検出プロセスをM回目遂行しつつ選択された少なくとも一つの第M特定領域の少なくとも一つの広さの和が閾値未満である場合、前記プロセッサが前記再検出プロセスを繰り返し遂行することを中断し、前記初期物体情報と、前記第1調整物体情報ないし第M−1調整物体情報のうち少なくとも一部とを参照して、前記最終物体情報を生成することを特徴とする。
一実施例において、Lは1以上N以下の整数であり、前記再検出プロセスをL回目遂行しつつ、少なくとも一つの第L特定領域が選択されると、前記プロセッサが第L倍数情報を参照して前記第L特定領域に対してアップサンプリング演算(Upsampling Operation)を適用して第L特定アップサンプリングイメージ(Specific Upsampled Image)を生成した後、前記CNNをもって、前記第L特定アップサンプリングイメージに対してCNN演算を適用させて第L調整物体情報及び第L調整コンフィデンス情報を生成させることを特徴とする。
一実施例において、前記プロセッサが、前記初期物体情報と、前記第1調整物体情報ないし前記第N調整物体情報のうち少なくとも一部とを参照して、NMS(Non−Maximum Suppression)アルゴリズム及びボックスボーティング(Box Voting)アルゴリズムのうち少なくとも一つを遂行することによって前記最終物体情報を生成することを特徴とする。
一実施例において、前記(III)プロセスで、複数個の前記状況イメージをそれに対する部分イメージ(Partial Image)として含む統合イメージ(Integrated Image)を生成しつつ、前記プロセッサがそれぞれの前記状況イメージに関するそれぞれの前記初期物体情報とそれぞれの前記初期コンフィデンス情報とを利用して前記統合イメージに関する統合最終物体情報を生成することを特徴とし、前記Kは2以上N以下の整数であり、Nは予め設定された整数である場合、前記統合最終物体情報は、(III−4)(i)それぞれの前記初期コンフィデンス情報を参照して、前記統合イメージに対する第1統合コンフィデンス情報を生成した後、(ii)前記第1統合コンフィデンス情報を参照して前記統合イメージ内の少なくとも一つの領域のうちそれに対応するコンフィデンススコアが閾値未満である少なくとも一つのそれぞれの第1特定領域を選択し、(iii)最後に前記CNNをもって、前記第1特定領域に対してCNN演算を適用させて前記統合イメージに関するそれぞれの第1調整物体情報及びそれぞれの第1調整コンフィデンス情報を生成させる、再検出プロセスを遂行するプロセス;(III−5)(i)それぞれの第K−1調整コンフィデンス情報を参照して、前記統合イメージに対する第K調整統合コンフィデンス情報を生成した後、(ii)前記第K調整統合コンフィデンス情報を参照して前記統合イメージ内の前記領域のうちそれに対応するコンフィデンススコアが前記閾値未満である少なくとも一つの第K特定領域それぞれを選択し、(iii)最後に前記CNNをもって、前記第K特定領域に対してCNN演算を適用させて前記統合イメージに関するそれぞれの第K調整物体情報及びそれぞれの第K調整コンフィデンス情報を生成させる、前記再検出プロセスを繰り返し遂行するプロセス;(III−6)前記再検出プロセスがN回遂行されることによって、それぞれの第N調整物体情報及びそれぞれの第N調整コンフィデンス情報が生成されると、前記初期物体情報と、前記第1調整物体情報ないし第N調整物体情報のうち少なくとも一部とを参照して前記統合最終物体情報を生成するプロセス;を遂行して生成されることを特徴とする。
一実施例において、(i)複数の前記パノラマビューセンサのうちカメラに対応する少なくとも一つの第1パノラマビューセンサを通じて少なくとも一つの第1状況イメージが取得されると、前記プロセスが、3チャンネルイメージに対して最適化された、インプットノード(Input Node)が3個以上である第1CNNをもって、前記第1状況イメージに対して第1CNN演算を少なくとも一回適用させ、(ii)デプスセンサ(Depth Sensor)に対応する少なくとも一つの第2パノラマビューセンサを通じて少なくとも一つの第2状況イメージが取得されると、前記プロセスが、デプスイメージ(Depth Image)に対して最適化された、インプットノードが1個以上である第2CNNをもって、前記第2状況イメージに対して第2CNN演算を少なくとも一回適用させることを特徴とする。
一実施例において、(IV)前記プロセッサが、前記最終物体情報を自律走行モジュールに伝達することによって、前記自律走行モジュールが前記最終物体情報を利用して前記対象車両の自律走行を遂行し得るように支援するプロセス;をさらに含むことを特徴とする。
一実施例において、前記(I)プロセス以前に、(I−1)トレーニングイメージが取得されると、学習装置が、前記CNNに含まれている少なくとも一つのコンボリューションレイヤをもって、前記トレーニングイメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのコンボリューション特徴マップ(Convolutional Feature Map)を生成させるプロセス;(I−2)前記学習装置が、前記コンボリューション特徴マップに対してアンカー演算(Anchor Operation)を少なくとも一回適用することによって、前記トレーニングイメージ上の予測ROI(Estimated Region Of Interest)を生成するプロセスを遂行しつつ、RPN(Region Proposal Network)に含まれている少なくとも一つのアンカーレイヤ(Anchor Layer)をもって、前記予測ROIが原本正解(Ground−Truth)ROIと同一であるそれぞれの少なくとも一つの確率を表すそれぞれの少なくとも一つのRPNコンフィデンススコアを前記コンボリューション特徴マップのピクセルごとに生成することによって、前記RPNコンフィデンススコアを含むRPNコンフィデンスマップを生成させるプロセス;(I−3)前記CNNに含まれているROIプーリングレイヤ(ROI Pooling Layer)を通じて、前記コンボリューション特徴マップ及び前記予測ROIを利用して生成された少なくとも一つのROIプーリング済み特徴マップ(ROI−Pooled Feature Map)が取得されると、前記学習装置は、前記ROIプーリング済み特徴マップを利用して予測物体検出結果(Estimated Object Detection Result)を生成するプロセスを遂行しつつ、前記CNNに含まれているFCレイヤをもって、前記予測物体検出結果に含まれるそれぞれの少なくとも一つの予測CNN分類結果(Estimated CNN Classification Result)及びそれぞれの少なくとも一つの予測CNNリグレッション結果(Estimated CNN Regression Result)が、原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果(GT CNN Classification Result)及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果(GT CNN Regression Result)と同一であるものと予測されるそれぞれの少なくとも一つの確率を表すそれぞれのCNNコンフィデンススコアを前記予測ROIごとに生成することによって、前記CNNコンフィデンススコアを含むCNNコンフィデンスマップを生成させるプロセス;及び(I−4)前記学習装置が、ロスレイヤをもって、前記RPNコンフィデンスマップと、前記CNNコンフィデンスマップと、前記予測物体検出結果と、前記原本正解物体検出結果とを参照して少なくとも一つのRPNロス及び少なくとも一つのCNNロスを生成させ、前記RPNロス及び前記CNNロスを利用してバックプロパゲーションを遂行することによって前記CNN及び前記RPNに含まれているパラメータのうち少なくとも一部を学習させるプロセス;をさらに含むことを特徴とする。
一実施例において、前記(I−4)プロセスで、前記学習装置が、前記ロスレイヤをもって、下記数式にしたがって前記RPNロスを生成させ、

regはアンカー演算を遂行して生成された前記コンボリューション特徴マップのサイズに対応する定数であり、Nclsは前記トレーニングイメージに対応する定数であり、cは前記RPNコンフィデンスコアのうち、前記コンボリューション特徴マップの第iピクセルに対応する第iRPNコンフィデンススコアを意味し、pは前記第iピクセルに対応する第i予測RPN分類結果を意味し、p は前記第iピクセルに対応する第i原本正解RPN分類結果を意味し、tは前記第iピクセルに対応する第i予測RPNリグレッション結果を意味し、t は前記第iピクセルに対応する第i原本正解RPNリグレッション結果を意味し、前記第i原本正解RPN分類結果及び前記第i原本正解RPNリグレッション結果は、前記原本正解物体検出結果に対応することを特徴とする。
一実施例において、前記(I−4)プロセスで、前記学習装置が、前記ロスレイヤをもって、下記数式にしたがって前記CNNロスを生成させ、

reg及びNclsは前記予測ROIの個数であり、cは前記CNNコンフィデンススコアのうち前記予測ROIから選択された第i予測ROIに対応する第iCNNコンフィデンススコアを意味し、pは前記第i予測ROIに対応する第i予測CNN分類結果を意味し、p は前記第iピクセルに対応する第i原本正解CNN分類結果を意味し、tは前記第i予測ROIに対応する第i予測CNNリグレッション結果を意味し、t は前記第iピクセルに対応する第i原本正解CNNリグレッション結果を意味し、前記第i予測CNN分類結果及び前記第i予測CNNリグレッション結果は、前記予測物体検出結果に対応することを特徴とする。
一実施例において、前記(I−3)プロセス以後に、前記学習装置が、コンフィデンスレイヤをもって、前記RPNコンフィデンスマップ及び前記CNNコンフィデンスマップを参照して、前記トレーニングイメージ内のピクセルごとの統合コンフィデンススコアそれぞれに関する情報を含む統合コンフィデンスマップを生成させることを特徴とする。
一実施例において、前記学習装置が、前記コンフィデンスレイヤをもって、(i)(i−1)前記CNNから、前記予測物体検出結果を生成するプロセスが遂行される途中に生成される、前記予測ROIに対するNMS結果を取得するプロセス、(i−2)前記RPNコンフィデンスマップに対してリサイズ演算(Resizing Operation)を少なくとも一回適用してリサイズされたRPNコンフィデンスマップを生成するプロセス、及び(ii)前記NMS結果及び前記リサイズされたRPNコンフィデンスマップを参照して前記統合コンフィデンスマップを生成するプロセスを遂行させることを特徴とする。
一実施例において、前記学習装置が、前記コンフィデンスレイヤをもって、前記統合コンフィデンススコアのうち、前記トレーニングイメージ上の座標(x,y)に対応する第X_Y統合コンフィデンススコアを下記数式にしたがって生成させ、

c’xyは前記第X_Y統合コンフィデンススコアを意味し、cxyは前記リサイズされたRPNコンフィデンスマップ上の前記座標 (x,y)に対応する第X_YリサイズされたRPNコンフィデンススコアを意味し、criは前記NMS結果で決定された、前記座標(x,y)を含みrとして表現される第i予測ROIに対する第iCNNコンフィデンススコアを意味することを特徴とする。
一実施例において、前記(II)プロセスは、(II−1)前記状況イメージが取得されると、前記CNNに含まれている少なくとも一つのコンボリューションレイヤをもって、前記状況イメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのコンボリューション特徴マップを生成させるプロセス;(II−2)前記コンボリューション特徴マップに対してアンカー演算を少なくとも一回適用することによって、前記状況イメージ上の予測ROIを生成するためのプロセスを遂行しつつ、RPNに含まれている少なくとも一つのアンカーレイヤをもって、前記予測ROIが原本正解ROIと同一である少なくとも一つの確率それぞれを表す、少なくとも一つのRPNコンフィデンススコアそれぞれを前記コンボリューション特徴マップのピクセルごとに生成することによって、前記RPNコンフィデンススコアを含むRPNコンフィデンスマップを生成させるプロセス;(II−3)前記CNNに含まれているROIプーリングレイヤを通じて前記コンボリューション特徴マップ及び前記予測ROIを利用して生成された少なくとも一つのROIプーリング済み特徴マップが取得されると、前記ROIプーリング済み特徴マップを利用して予測物体検出結果を生成するプロセスを遂行しつつ、前記CNNに含まれるFCレイヤをもって、前記予測物体検出結果に含まれているそれぞれの少なくとも一つの予測CNN分類結果及びそれぞれの少なくとも一つの予測CNNリグレッション結果が、原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果と同一である少なくとも一つの確率それぞれを表すCNNコンフィデンスコアそれぞれを前記予測ROIごとに生成することによって、前記CNNコンフィデンススコアを含むCNNコンフィデンスマップを生成させるプロセス;及び(II−4)前記CNNと連動して作動するコンフィデンスレイヤをもって、前記RPNコンフィデンスマップ及び前記CNNコンフィデンスマップを参照して統合コンフィデンスマップを生成させるプロセスを含み、前記コンピューティング装置は、前記CNNをもって、前記予測物体検出結果を含む前記初期物体情報と、前記統合コンフィデンスマップを含む前記初期コンフィデンス情報とを出力させることを特徴とする。
その他にも、本発明の方法を実行するためのコンピュータプログラムを記録するためのコンピュータ読取り可能な記録媒体がさらに提供される。
本発明は、AVMを利用して自律走行の安全性を達成するためのアテンションドリブンアルゴリズムを利用したリソース割り当てのための方法を提供する効果を有する。
また、本発明は、物体検出プロセスと並列して、物体検出の信頼度を示すパラメータであるコンフィデンススコア(Confidence Score)を生成する方法を提供する他の効果を有する。
また、本発明は、コンフィデンススコアが閾値未満である領域に対する物体検出を繰り返すことによって、より正確な物体検出を遂行し得る方法を提供する、また他の効果を有する。
本発明の実施例の説明に利用されるために添付された以下の各図面は、本発明の実施例のうち単に一部であるに過ぎず、本発明の属する技術分野において通常の知識を有する者(以下「通常の技術者」)にとっては、発明的作業が行われずにこれらの図面に基づいて他の各図面が得られ得る。
図1は、本発明の一実施例にしたがって、物体検出プロセスと並列して生成された、物体検出の信頼度を示すコンフィデンススコア(Confidence Score)を利用することによって、コンピューティングパワーを節約しながらも、より優れた自律走行性能を達成するための方法を遂行するコンピューティング装置の構成を簡略に示した図面である。 図2は、本発明の一実施例にしたがって、物体検出プロセスと並列して生成された、物体検出の信頼度を示すコンフィデンススコアを利用することによって、コンピューティングパワーを節約しながらも、より優れた自律走行性能を達成するための方法を示したチャート図である。 図3は、本発明の一実施例にしたがって、物体検出プロセスと並列して生成された、物体検出の信頼度を示すコンフィデンススコアを利用することによって、コンピューティングパワーを節約しながらも、より優れた自律走行性能を達成するための方法を遂行するのに使用される統合イメージ及びこれに対応する統合最終物体情報の例示を簡略に示した図面である。 図4は、本発明の一実施例にしたがって、物体検出プロセスと並列して生成された、物体検出の信頼度を示すコンフィデンススコアを利用することによって、コンピューティングパワーを節約しながらも、より優れた自律走行性能を達成するための方法を遂行するのに使用されるCNN(Convolutional Neural Network)の学習プロセスを簡略に示したチャート図である。 図5は、本発明の一実施例にしたがって、強化学習及びV2X通信を使用するアテンションドリブンリソース割り当てアルゴリズムを利用して、安全な自律走行を提供する方法を遂行するのに使用される、CNNと、RPNと、ロスレイヤと、コンフィデンスレイヤとを含む学習装置の構成を示したフローチャートである。
後述する本発明に関する詳細な説明は、本発明が実施され得る特定の実施例を例示として示す添付図面を参照する。これらの実施例は、当業者が本発明を実施することができるように十分詳細に説明される。本発明の多様な実施例は互いに異なるが、相互に排他的である必要はないことが理解されるべきである。例えば、ここに記載されている特定の形状、構造及び特性は、一実施例に関連して本発明の精神及び範囲を逸脱せず、かつ他の実施例で具現され得る。また、それぞれの開示された実施例内の個別の構成要素の位置又は配置は、本発明の精神及び範囲を逸脱せず、かつ変更され得ることが理解されるべきである。したがって、後述の詳細な説明は、限定的な意味として受け取ろうとするものではなく、本発明の範囲は適切に説明されるのであれば、その請求項が主張することと均等な全ての範囲とともに添付された請求項によってのみ限定される。図面において類似の参照符号は、様々な側面にわたって同一であるか、又は類似の機能を指す。
また、本発明の詳細な説明及び各請求項にわたって、「含む」という単語及びそれらの変形は、他の技術的各特徴、各付加物、構成要素又は段階を除外することを意図したものではない。通常の技術者にとって本発明の他の各目的、長所及び各特性が、一部は本説明書から、また一部は本発明の実施から明らかになるであろう。以下の例示及び図面は実例として提供され、本発明を限定することを意図したものではない。
本発明で言及している各種イメージは、舗装または非舗装道路関連のイメージを含み得、この場合、道路環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではなく、本発明で言及している各種イメージは、道路と関係のないイメージ(例えば、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内と関連したイメージ)でもあり得、この場合、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではない。
以下、本発明の属する技術分野において通常の知識を有する者が本発明を容易に実施し得るようにするために、本発明の好ましい実施例について、添付された図面を参照して詳細に説明することにする。
図1は、本発明の一実施例にしたがって、物体検出プロセスと並列して生成された、物体検出の信頼度を示すコンフィデンススコア(Confidence Score)を利用することによって、コンピューティングパワーを節約しながらも、より優れた自律走行性能を達成するための方法を遂行するコンピューティング装置の構成を簡略に示した図面である。
図1を参照すると、コンピューティング装置100は、追って詳細に説明する構成要素であるCNN(Convolutional Neural Network)130と、RPN(Region Proposal Network)140と、コンフィデンスレイヤ150とを含むことができる。この場合、CNN130、RPN140及びコンフィデンスレイヤ150の入出力及び通信の過程は、通信部110及びプロセッサ120によって行われ得る。ただし、図1では、通信部110及びプロセッサ120の具体的な連結関係を省略した。この際、メモリ115は、後述する様々なインストラクション(Instruction)を格納した状態であり得、プロセッサ120はメモリ115に格納されたインストラクションを遂行するように設定され、プロセッサ120は、追って説明するプロセスを遂行することによって本発明を遂行することができる。このようにコンピューティング装置100が描写されたからといって、コンピューティング装置100が本発明を実施するためのプロセッサ、ミディアム、メモリまたは他のコンピューティング要素が統合された形態である統合プロセッサ(Integrated Processor)を含む場合を排除するわけではない。
以上のコンピューティング装置100は、対象車両と連動して作動し得、対象車両に設置された少なくとも一つのパノラマビューセンサを通じて撮影されたイメージを取得することができる。パノラマビューセンサは、カメラの形態で具現化されたり、レーダまたはライダ(Lidar)などのデプスセンサ(Depth Sensor)の形態で具現され得る。
本発明の一実施例にしたがって、物体検出プロセスと並列して生成された、物体検出の信頼度を示すコンフィデンススコアを利用することによって、コンピューティングパワーを節約しながらもより優れた自律走行性能を達成するための方法を遂行するコンピューティング装置の構成を説明した。以下、方法自体について図2を参照して説明することにする。
図2は、本発明の一実施例にしたがって、物体検出プロセスと並列して生成された、物体検出の信頼度を示すコンフィデンススコアを利用することによって、コンピューティングパワーを節約しながらも、より優れた自律走行性能を達成するための方法を示したチャート図である。
図2を参照すると、コンピューティング装置100が、対象車両に搭載されたパノラマビューセンサを通じて、対象車両の周辺に対する少なくとも一つの状況イメージ(Circumstance Image)を取得することができる(S100)。以後、コンピューティング装置100が、CNN130をもって、状況イメージにCNN演算を少なくとも一回適用させ、状況イメージに関する初期物体情報及び初期コンフィデンス情報を生成させることができる(S200)。以後、コンピューティング装置100は、初期物体情報及び初期コンフィデンス情報を参照して、状況イメージに関する最終物体情報を生成することができる(S300)。
概括的なチャートは前記のとおりであり、以下、これについてさらに具体的に説明することにする。まず、状況イメージが単一である一実施例について説明することにする。
パノラマビューセンサを通じて状況イメージが取得されると、CNN130をもって、コンピューティング装置100が状況イメージに対してCNN演算を適用させることができる。ここで、もし状況イメージが、カメラの形態で設置された第1パノラマビューセンサを通じて取得されたものであれば、コンピューティング装置100は、3チャンネルイメージに対して最適化された、インプットノード(Input Node)が3個以上である第1CNNをもって、状況イメージに対して第1CNN演算を少なくとも一回適用させることによってCNN演算を適用させることができる。または、状況イメージが、デプスセンサ(Depth Sensor)の形態で設置された第2パノラマビューセンサを通じて取得されたものであれば、コンピューティング装置100は、デプスイメージに最適化された、インプットノードが1個以上である第2CNNをもって、状況イメージに対して第2CNN演算を少なくとも一回適用させることによって、CNN演算を適用させることができる。この場合、「第1CNN」と「第2CNN」の記号は、上記特定の場合のように、CNN130として機能し得るCNNを区分するために使用される。同様に、「第1パノラマビューセンサ」と「第2パノラマビューセンサ」の記号は、上記特定の場合のようにパノラマビューセンサとして機能し得るパノラマビューセンサを区分するために使用される。
このようなCNN演算を通じて初期物体情報及び初期コンフィデンス情報が取得されると、コンピューティング装置100は、下記のような再検出(Re−detection)プロセスを繰り返し遂行することによって、最終物体情報を生成することができる。
つまり、コンピューティング装置100が、初期の再検出プロセスとして、初期コンフィデンス情報を参照して、状況イメージに含まれている少なくとも一つの領域のうちそれに対応するコンフィデンススコアが第1閾値未満であるそれぞれの少なくとも一つの第1特定領域を選択し、CNN130をもって第1特定領域に対してCNN演算を適用させて、状況イメージに対する第1調整物体情報及び第1調整コンフィデンス情報を生成させることができる。つまり、CNN130が物体検出結果に対して正確度が劣る領域、すなわち、第1特定領域を選択して、当該領域に対して再び物体検出を適用するのである。前記のようなプロセスが遂行され得るように、コンピューティング装置100を支援する初期コンフィデンス情報は、物体検出を遂行する間、CNN130により生成される。CNN130がどのように上記のごとく遂行するように学習され得るのかについては、追って説明する。
ここで、第1特定領域の選択方式について、もう少し具体的に説明することにする。追って説明するが、物体検出に利用される特徴マップのサイズと状況イメージのサイズとの間の比率に対応する個数の格子で状況イメージを区分して導き出される、状況イメージ内のそれぞれの領域に対してコンフィデンススコアが算出された状態であり得る。例えば、状況イメージのサイズが48×48であり、特徴マップのサイズが16×16である場合ならば、内部の四角形のサイズが3×3である格子に区分された256個のそれぞれの領域に対してそれぞれのコンフィデンススコアが算出されるのである。ここで単純な一例として、第1特定領域は、前記格子領域のうちから選択されることもあるが、他の実施例もあり得る。すなわち、コンフィデンススコアが第2閾値未満である領域を含む少なくとも一つの広域(Extensive)領域を見出した後、広域領域に対して予め設定された割合でマージン(Margin)を含む少なくとも一つのバウンディングボックス(Bounding Box)を第1特定領域として設定することができる。追って説明する少なくとも一つの第K特定領域もやはりこれと同じように選択され得る。
以後、コンピューティング装置100は、再検出プロセスを繰り返し遂行することができる。すなわち、コンピューティング装置100は、先に生成された第K−1調整コンフィデンス情報を参照して、状況イメージに含まれている領域のうちそれに対応するコンフィデンススコアが第1閾値未満である第K特定領域それぞれを選択した後、CNN130をもって、第K特定領域に対してCNN演算を適用させて、状況イメージに対する第K調整物体情報及び第K調整コンフィデンス情報を生成させることができる。第K調整物体情報は、第K特定領域内の少なくとも一つの物体に関する情報を含むことができ、これは、これより前に遂行された第K−P再検出プロセスで検出されなかった情報であり、今回は検出され得る。この場合、Pは1以上K−1以下の整数(integer)である。前述した通り、再検出プロセスはCNN130によって物体検出が十分に行われなかったものと思われる領域に対して適用され得るので、それぞれの情報間のこのような関係は当然であると見ることができる。
さらなる構成として、コンフィデンスコアの低い特定領域内の物体をさらに効率的に検出するための再検出プロセスを遂行するために、選択的プロセス、すなわち、アップサンプリング作業がさらに遂行された状態であり得る。つまり、再検出プロセスがL回目遂行されるに伴って、少なくとも一つの第L特定領域が選択されると、コンピューティング装置100が、第L倍数情報を参照して第L特定領域に対してアップサンプリング演算(Upsampling Operation)を少なくとも一回適用して第L特定アップサンプリングイメージを生成した後、前記CNN130をもって、第L特定アップサンプリングイメージに対してCNN演算を適用させて第L調整物体情報及び第L調整コンフィデンス情報を生成させることができる。第L倍数情報は、L番目の再検出プロセスに対して予め設定された倍数の割合であり得る。ここで、再検出プロセスのそれぞれのイテレーション(Iteration)に対するそれぞれの倍数の割合は同じでもよく、後に遂行される特定のイテレーションに対してさらに大きく設定されてもよい。また、最近傍アルゴリズム(Nearest Neighbor Algorithm)のように既に知られているすべてのアップサンプリングの図式は、アップサンプリング演算を遂行するのに使用され得る。
このような再検出プロセスがN回遂行されることによって第N調整物体情報及び第N調整コンフィデンス情報が生成されると、コンピューティング装置100は、初期物体情報及び第1調整物体情報ないし第N調整物体情報のうち少なくとも一部を参照して、最終物体情報を生成することができる。
ただし、このように定められた回数だけ、すなわち、N回次だけ再検出プロセスを遂行しなくても、物体検出結果が十分に導き出される場合もあり得る。この場合には、それまでに生成された物体情報を利用して最終物体情報を生成することもできる。すなわち、再検出プロセスをM回目遂行する途中に選択された少なくとも一つの第M特定領域の少なくとも一つの広さの和が第1閾値未満である場合、コンピューティング装置100は、繰り返し遂行する再検出プロセスを中断し、初期物体情報と、第1調整物体情報ないし第M−1調整物体情報とのうち少なくとも一部とを参照して、最終物体情報を生成することができるであろう。
ここで、最終物体情報を生成するために、コンピューティング装置100は初期物体情報と、第1調整物体情報ないし第N調整物体情報とのうち少なくとも一部とを参照して、広く知られている従来技術であるNMS(Non−Maximum Suppression)アルゴリズム及びボックスボーティング(Box Voting)アルゴリズムのうち少なくとも一つを遂行することができる。このようなアルゴリズムは、通常の技術者によく知られているので、前記説明で十分に理解し得るはずである。
上記のように最終物体情報が作成された後、コンピューティング装置100は、最終物体情報を対象車両に対する自律走行モジュールに伝達することによって、自律走行モジュールが最終物体情報を利用して前記対象車両の自律走行を遂行し得るように支援することができる。
以上、本発明の一実施例である、状況イメージが単一である場合について説明した。以下、他の実施例において、(i)パノラマである統合イメージを生成するのに使用される複数の状況イメージ及び(ii)これに対応する統合最終物体情報について説明することにする。このような他の実施例は、前述した単一個の状況イメージに対応する実施例と大同小異であるので、その相違点を中心として簡潔に説明することにする。
複数個の状況イメージをそれに対する部分イメージとして含む統合イメージを生成しつつ、コンピューティング装置100は、それぞれの状況イメージに関するそれぞれの初期物体情報とそれぞれの初期コンフィデンス情報とを利用して統合イメージに関する統合最終物体情報を生成することができる。
具体的には、(i)複数のパノラマビューセンサのうちカメラに対応する少なくとも一つの第1パノラマビューセンサを通じて、状況イメージのうち少なくとも一つの第1状況イメージが取得されると、コンピューティング装置100は、3チャンネルイメージに対して最適化された、インプットノードが3個以上である第1CNNをもって、前記第1状況イメージに対して第1CNN演算を少なくとも一回適用させ、(ii)前記パノラマビューセンサのうちデプスセンサに対応する少なくとも一つの第2パノラマビューセンサを通じて、状況イメージのうち少なくとも一つの第2状況イメージが取得されると、コンピューティング装置100は、デプスイメージに対して最適化された、インプットノードが1個以上である第2CNNをもって、前記第2状況イメージに対して第2CNN演算を少なくとも一回適用させることができる。これにより、それぞれの状況イメージに関するそれぞれの初期コンフィデンス情報及びそれぞれの初期物体情報が取得され得る。
次に、コンピューティング装置100が、初期の再検出プロセスとして、(i)それぞれの初期コンフィデンス情報を参照して、状況イメージに対する第1統合初期コンフィデンス情報を生成した後、(ii)統合イメージ内の少なくとも一つの領域のうちそれに対応するコンフィデンススコアが第1閾値未満であるそれぞれの少なくとも一つの第1特定領域を選択し、(iii)CNN130をもって第1特定領域に対してCNN演算を適用させることによって、統合イメージに関するそれぞれの第1調整物体情報及びそれぞれの第1調整コンフィデンス情報を生成させることができる。
以後、コンピューティング装置100が、再検出プロセスを繰り返し遂行することができる。つまり、コンピューティング装置100が、(i)それぞれの第K−1調整コンフィデンス情報を参照して、統合イメージに対する第K調整統合コンフィデンス情報を生成した後、(ii)第K調整コンフィデンス情報を参照して、統合イメージ内の領域のうちそれに対応するコンフィデンススコアが第1閾値未満である少なくとも一つの第K特定領域それぞれを選択し、(iii)CNN130をもって、第K特定領域に対してCNN演算を適用させることによって、統合イメージに関するそれぞれの第K調整物体情報及びそれぞれの第K調整コンフィデンス情報を生成させることができる。
最後に、再検出プロセスがN回遂行されることによって、それぞれの第N調整物体情報及びそれぞれの第N調整コンフィデンス情報が生成されると、コンピューティング装置100が、初期物体情報と、第1調整物体情報ないし第N調整物体情報とのうち少なくとも一部とを参照して統合最終物体情報を生成することができる。上記のように、再検出プロセスのそれぞれのイテレーションにおいて、それぞれのコンフィデンス情報及びそれぞれの物体情報が統合されるという点を除けば、他の実施例は前述した一実施例とほぼ同一である。
これを通じて生成された統合イメージ及び統合物体情報の一実施例を確認するために、図3を参照することにする。
図3は、本発明の一実施例にしたがって、物体検出プロセスと並列して生成された、物体検出の信頼度を示すコンフィデンススコアを利用することによって、コンピューティングパワーを節約しながらも、より優れた自律走行性能を達成するための方法を遂行するのに使用される統合イメージ及びこれに対応する統合最終物体情報の例示を簡略に示した図面である。
図3を参照すると、統合イメージ300は対象車両200の周辺を撮影したパノラマイメージであることが分かる。このようなパノラマイメージは単一のセンサのみを利用することでは取得が困難であり、複数個のセンサを通じて撮影された複数のイメージを統合する方式で通常取得される。この場合、統合イメージ300に含まれている物体に関する情報、すなわち、第1車両物体310に関する情報と第2車両物体320に関する情報は、本発明の方法を通じて統合最終物体情報として取得され得る。
以上、本発明の両実施例について説明した。以下、前記両実施例を遂行するために使用されるCNN130を学習する方法について説明するために、図4を参照することにする。
図4は、本発明の一実施例にしたがって、物体検出プロセスと並列して生成された、物体検出の信頼度を示すコンフィデンススコアを利用することによって、コンピューティングパワーを節約しながらも、より優れた自律走行性能を達成するための方法を遂行するのに使用されるCNN(Convolutional Neural Network)の学習プロセスを簡略に示したチャート図である。
図4を参照すると、物体検出プロセスを遂行しつつ、物体検出の信頼度を示すパラメータであるそれぞれのコンフィデンススコアを生成するための学習方法について概括的に考察することができる。
参考までに、以下の説明において、混同を避けるために「学習用」という文言は前述の学習プロセスに関する用語に対して追加され、「テスト用」という文言はテストプロセスに関する用語に対して追加される。
まず、トレーニングイメージが取得されると、学習装置は、CNN130に含まれているコンボリューションレイヤをもって、トレーニングイメージに対してコンボリューション演算を少なくとも一回適用させて、少なくとも一つのコンボリューション特徴マップを生成させることができる(S10)。この場合、トレーニングイメージの幾何学的サイズがH×Wであり、トレーニングイメージのフォーマットがRGBイメージであるのでトレーニングイメージのチャンネルサイズが3個であれば、トレーニングイメージのサイズはH×W×3である。コンボリューション演算は、出力された特徴マップの幾何学的サイズを、入力されたイメージより小さくし、出力された特徴マップのチャンネル数を、入力されたイメージのチャンネル数より大きくするために、コンボリューション特徴マップのサイズがh×w×cであれば、コンボリューション特徴マップの幾何学的サイズを示すhとwはそれぞれHとWより小さく、コンボリューション特徴マップのチャンネル数を示すcは3より大きいであろう。
以後、学習装置は、RPN140内のアンカーレイヤをもって、コンボリューション特徴マップに含まれている値に対してアンカー演算を適用して、トレーニングイメージ内の物体を含むものと予想される領域である、予測ROI(Region−Of Interest)を出力させることができる(S20)。具体的には、RPN140は、データサイズがh×w×cであるコンボリューション特徴マップに対してアンカー演算を適用して、トレーニングイメージ上の予測ROIを生成するのに使用されるように、h×w×(5A+1)のデータサイズを有する、アンカー特徴マップを生成することができる。従来技術にしたがって、アンカー特徴マップのデータサイズはh×w×5Aのサイズで生成されなければならないが、本発明のアンカー特徴マップには、追って説明されるRPNコンフィデンススコアを含むチャンネルをさらに一つ含むことができる。より詳細な説明は、以下に示す。
学習装置は、RPN140のアンカーレイヤをもって、それぞれのアンカーセットに対応するそれぞれのスライディングウィンドウ(Sliding−Window)を使用する方式であるアンカー演算をコンボリューション特徴マップに対して適用してデータサイズがh×w×5Aであるアンカー特徴マップを生成させることができる。この際、アンカーとは物体に対応するコンボリューション特徴マップの値を選択するための一種のグリッド(Grid)であり、先に説明したAはアンカー特徴マップのデータサイズを示すために使用され、RPN140により使用されるアンカーの個数を示す。このプロセスを遂行することによって、コンボリューション特徴マップに含まれているそれぞれの値が物体に対応するか、決定されないことがあり、このプロセスの結果、すなわち予測ROIに関する情報は、アンカー特徴マップに格納され得る。アンカー演算は広く知られているので、詳細な説明は省略することにする。
アンカー特徴マップを生成するプロセスを遂行する間、学習装置は、RPN140をもって、予測ROIが原本正解(Ground−Truth)ROIと同一であるそれぞれの少なくとも一つの確率を表すそれぞれのRPNコンフィデンススコアをコンボリューションレイヤ特徴マップに含まれているピクセルごとに生成させることができる。つまり、RPNコンフィデンススコアは、RPN140により遂行されるプロセスの結果の信頼度、すなわち、予測ROIの信頼度を表すパラメータである。
説明の便宜上、予測ROIを決定するプロセスとRPNコンフィデンススコアを生成するプロセスとを分離して述べたが、二つのプロセスは同時に遂行され得る。すなわち、RPN140にコンボリューション特徴マップが入力されると、RPN140内のそれぞれのRPNニューロンは、それ自体の演算を遂行して、それ自体が演算した値を次のRPNニューロンに移すことによって、最後のレイヤでアンカー特徴マップを出力することができる。よって、二つのプロセスは互いに影響を及ぼし、従属的に遂行され得る。しかしながら、二つのプロセスは同時に遂行されなくてもよい。例えば、予測ROIを決定するプロセスが先に遂行され得る。
アンカー特徴マップが生成された以後、学習装置は、予測ROIに関する情報を含む、アンカー特徴マップ内の5A個のチャンネルの値をCNN130に伝達することができ、アンカー特徴マップ内の残りの1つのチャンネルの値を追って説明するコンフィデンスレイヤ150に伝達することができる。まず、CNN130に伝達される5A個のチャンネルの値がどのように処理されるかについて下記のように説明することにする。
前記5A個のチャンネルの値が伝達された後、学習装置は、CNN130内のROIプーリングレイヤをもって、予測ROIに関する情報を参照してコンボリューション特徴マップに対してROIプーリング演算を少なくとも一回適用させることによって、ROIプーリング済み特徴マップ(ROI−Pooled Feature Map)を生成させ(S30)、CNN130内のFCレイヤをもって、ROIプーリング済み特徴マップに対してFC演算を少なくとも一回適用させて、初期物体検出結果及びCNNコンフィデンススコアを生成させることができる。
ここで、初期物体検出結果は、それぞれの物体を含むそれぞれのバウンディングボックスのそれぞれの予測座標に対するそれぞれの初期予測CNNリグレッション結果と、それぞれの物体がそれぞれのクラスに含まれるそれぞれの確率を表す、それぞれの物体のそれぞれのクラススコアに対するそれぞれの初期予測CNN分類結果とを含むことができる。このような初期物体検出結果の生成プロセスは、従来技術のとおりである。
そして、CNNコンフィデンススコアは、追って説明する、予測物体検出結果が原本正解物体検出結果と同一である程度に関する情報を含むことができる。この際、予測物体検出結果は、NMS演算を初期物体検出結果に適用して生成されたものであり得る。詳細には、それぞれのCNNコンフィデンススコアは、予測物体検出結果に含まれているそれぞれの少なくとも一つの予測CNN分類結果及びそれぞれの少なくとも一つの予測CNNリグレッション結果が原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果と同一である少なくとも一つの確率それぞれを表すことができる。つまり、CNNコンフィデンススコアは、CNN130のFCレイヤにより生成された結果の信頼度を示す。
RPNコンフィデンススコアとCNNコンフィデンススコアとを同時に使用する理由は、RPN140により初期に決定された予測ROIがCNN130により処理されることによって予測物体検出結果が生成されるためである。2つのネットワークがいずれも予測物体検出結果を生成するプロセスに関わるため、2つのネットワークは異なる評価がされるべきである。
一例として、特定の予測ROIがRPN140により誤って決定された場合、CNN130のFCレイヤは、誤って決定された特定の予測ROIをフィルタリングすることができる。または、特定の予測ROIがRPN140により正確に予測された場合にも、CNN130のFCレイヤは、特定の予測ROIがどのような物体も含んでいないものと誤って決定することがあり得る。このような場合において、RPN140とCNN130とは誤って遂行されたり正しく遂行されたりし得るので、物体検出プロセスを評価する間、このような場合も考慮されなければならない。
RPN140と同様に、(i)初期物体検出結果とそれに対応する予測物体検出結果とを生成するプロセス、及び(ii)CNNコンフィデンスマップを生成するプロセスは、便宜上別々に説明されたが、この2つのプロセスもやはり相互に従属的であり、FCレイヤ内で同時に遂行されてもよいし、この2つのプロセスは独立して遂行されてもよい。
予測ROIに対するCNNコンフィデンススコアが生成された後、CNNコンフィデンススコアを含むCNNコンフィデンスマップが生成され得る。
以後、学習装置は、CNN130をもって、初期物体検出結果に対してNMSを適用して、重複する予測ROIに対応するバウンディングボックスを統合することによって、予測物体検出結果を生成させることができる。重複する予測ROIが統合されるに伴って、他の予測ROIに重複しない特定の予測ROIに対応する特定のCNNコンフィデンススコアが選択され得る。ここで、NMSの使用方式は広く知られているので、これ以上の説明は省略することにする。
一方、学習装置は、コンフィデンスレイヤ150をもって、RPNコンフィデンスマップに対応するアンカー特徴マップ内の一つのチャンネルの値を取得させることができ、RPN140コンフィデンスマップを利用してトレーニングイメージのようなH×Wの幾何学的サイズを有するリサイズされたRPNコンフィデンスマップを生成させることができる。リサイズされたRPNコンフィデンスマップを生成するために、最近傍サイズ(Nearest Neighbor Size)、バイリニアリサイズ(Bilinear Resize)、バイキュービックリサイズ(Bicubic Resize)、及びランチョスリサイズ(Lanczos Resize)などのようなリサイズ演算のうちのどれであっても、トレーニングイメージ内のそれぞれのピクセルがそれぞれのRPNコンフィデンススコアとペアリング(Pairing)をなすように、RPNコンフィデンスマップに対して適用され得る。
予測物体検出結果及びリサイズされたRPNコンフィデンスマップが取得された後、学習装置は、コンフィデンスレイヤ150をもって、これらを参照して統合コンフィデンスマップを生成させることができる。ここで、統合コンフィデンスマップに含まれている統合コンフィデンスコアは、下記数式によって算出され得る。

ここで、c’xyは第X_Y統合コンフィデンススコアを意味し得、cxyはリサイズされたRPNコンフィデンスマップ上で、座標(x,y)に対応する第X_YリサイズされたRPNコンフィデンススコアを意味し得る。また、criはNMS結果で決定された、座標(x,y)を含み、rとして表現される、第i予測ROIに対する第iCNNコンフィデンススコアを意味し得る。学習装置は、コンフィデンスレイヤ150をもって、上記のように生成された統合コンフィデンススコアを利用して統合コンフィデンスマップを生成させることができる。
ただし、正確に統合コンフィデンスマップを生成するためには、CNN130及びRPN140を学習する必要がある。2つのネットワークをどのように学習するのかについて、以下に説明することにする。
すなわち、学習装置はロスレイヤをもって、RPNコンフィデンスマップ、CNNコンフィデンスマップ、予測物体検出結果及び原本正解物体検出結果を参照して少なくとも一つのRPNロス及び少なくとも一つのCNNロスを生成させることができ(S40)、RPNロス及びCNNロスを利用してバックプロパゲーションを遂行することによってCNN130及びRPN140に含まれているパラメータのうち少なくとも一部を学習させることができる。RPNロス及びCNNロスに関して、以下に詳細に説明することにする。
まず、下記の数式によってRPNロスを生成させることができる。

ここで、Nregはアンカー演算を遂行して生成されたコンボリューション特徴マップのサイズに対応する定数(constant)であり、Nclsは前記トレーニングイメージに対応する定数であり得る。また、cは前記RPNコンフィデンスコアのうちコンボリューション特徴マップの第iピクセルに対応する第iRPNコンフィデンススコアを意味し得、pは前記第iピクセルに対応する第i予測RPN分類結果を意味し、p は前記第iピクセルに対応する第i原本正解RPN分類結果を意味し得る。tは前記第iピクセルに対応する第i予測RPNリグレッション結果を意味し、t は前記第iピクセルに対応する第i原本正解RPNリグレッション結果を意味し得る。第i原本正解RPN分類結果及び第i原本正解RPNリグレッション結果は、原本正解物体検出結果に対応し得る。また、Lcls及びLregはスムース−L1ロス(Smooth−L1Loss)のようなロスを生成するための従来技術を、どのようなものであっても利用して実行され得る。
前記公式において、公式の最初の項は分類のロスを意味し得、二番目の項はリグレッションロスを意味し得る。リグレッションロス項、すなわち、二番目の項はよく知られている従来技術であるので、これに関する説明は省略することにする。分類ロス項、すなわち、最初の項について下記で説明することにする。
分類ロス項は、上記のように括弧内に3つのサブ項を含むことができる。最初のサブ項において、条件

は、RPN140により決定されたアンカー特徴マップの第iピクセルに対応する第i予測RPN分類結果が第i原本正解RPN分類結果と同一である場合を示す。つまり、これはRPN140がコンボリューション特徴マップの第iピクセルを正確に分析した場合である。便宜上、RPN140が第i予測RPN分類結果と第i原本正解RPN分類結果とが同一である確率を臨界確率、ここでは0.5超過であるものと判断した場合、RPN140が第iピクセルに対して「正確に」分析したケースを想定した。最初の項において、(1.1−c)は、RPN140が第iピクセルを正確に分析した場合にRPN140のパラメータがRPNロスより小さくなるように調節されて第iRPNコンフィデンススコアが大きくなるようにする。詳細には、上記で示されているように生成された最初のサブ項を含む分類ロス項は、RPN140のパラメータを調整することができるようにグラディエント(Gradient)を生成することによって、未来のRPNロスが小さくなるようにするために適用される。したがって、最初のサブ項を含む分類ロス項を利用すれば、RPN140がRPNコンフィデンス特徴マップの値を正確に分析する場合、RPNスコアをより大きく生成することができる。
分類ロス項の二番目の項において、条件

は、RPN140が第iピクセルを正確に分析しなかった場合を示す。二番目のサブ項において、(0.1+c)は、RPN140が第iピクセルに対して不正確に分析した場合に第iRPNコンフィデンススコアをより小さくする。学習プロセスのメカニズムは、最初のサブ項で述べたようにその機序が同じである。
三番目のサブ項において、clоgcは、RPNコンフィデンススコアの分布が階段関数(Step Function)に近づかないようにする。分類ロス項が最初のサブ項と二番目のサブ項のみを含むと、結局、RPNコンフィデンススコアはオーバーフィッティング(Overfitting)されてそれぞれ0または1に近い極端な値のみを含むことができる。ここで、clоgcは、cが0.5である場合に最小化される。よって、本発明によるRPNコンフィデンススコアは、0と1との間のより多様な値を含む分布を有するようになる。上記のように多様な値を含むRPNコンフィデンススコアを利用して様々な状況を扱うことができるため、このような項が必要である。
以上、本発明のRPNロスを生成する方法について考察してみたところ、以下、本発明のCNNロスを生成する方法について考察してみることにする。

reg及びNclsは前記予測ROIの個数を意味し、cは予測ROIのうち第i予測ROIに対応する、CNNコンフィデンススコアのうち第iCNNコンフィデンススコアを意味し得る、また、pは第i予測ROIに対応する、第i予測CNN分類の結果を意味し、p は前記第iピクセルに対応する第i原本正解CNN分類結果を意味し得る。そして、tは第i予測ROIに対応する、第i予測CNNリグレッション結果を意味し、t は前記第iピクセルに対応する第i原本正解CNNリグレッション結果を意味し得る。第i予測CNN分類結果と第i予測CNNリグレッション結果とは、予測物体検出結果に対応し得る。本数式において記号は、RPNロスを示した記号と同一であり得るが、上記のようにその意味は異なり得る。
上記の公式のようなCNNロスは、前述したRPNロスと大同小異の構造を有するが、シグマ関数の条件は例外である。この際、RPNロスは、p>0.5ではなくp=largest score among class scoresという条件である。これは、pが、第i予測ROI内の特定の物体が最も大きい確率を有する特定のクラスに対する第i予測CNN分類結果に対するものであることを示すものである。RPNロスと同様に、CNNロス内の分類ロス項の最初のサブ項は、CNN130が第i予測ROIを正確に分析した場合を示したものであり、二番目のサブ項は、CNN130が第i予測ROIを正確に分析できなかった場合を示す。CNNロスとRPNロスとは相互に類似するので、以後の説明は省略することにする。
このようにCNNロス及びRPNロスが生成された後、学習装置は、ロスレイヤをもって、CNNロス及びRPNロスをそれぞれバックプロパゲーションすることによって、CNN130及びRPN140に含まれているパラメータのうち少なくとも一部を学習させることができる。以後、CNN130及びRPN140は、入力されたイメージに含まれている物体を検出するプロセスを遂行しつつ、入力される前記イメージに対応するCNNコンフィデンススコア及びRPNコンフィデンススコアをさらに正確に生成することができる。
このような学習過程が完了した後、学習装置は、CNN130をコンピューティング装置100に伝達することができる。また、RPN140及びコンフィデンスレイヤ150は、CNN130に従属的であるので、共にコンピューティング装置100に伝達され得る。CNN130と、RPN140と、コンフィデンスレイヤ150とは、学習が完了したパラメータを利用して学習過程で遂行したものと類似する演算を遂行することができる。つまり、CNN130が状況イメージを取得すると、CNN130と、RPN140と、コンフィデンスレイヤ150とは、学習過程で統合コンフィデンスマップを生成したものと同一の方式で、初期コンフィデンス情報を初期物体情報とともに生成することができる。
ここで、参考説明として、CNNと130、RPN140と、ロスレイヤ150と、コンフィデンスレイヤ160とがどのように互いに連動して動作することによって、物体検出を行う途中にコンフィデンススコアを生成することができるのかについて、図5を参照して説明される。
図5は、本発明の一実施例にしたがって、強化学習及びV2X通信を使用するアテンションドリブンリソース割り当てアルゴリズムを利用して、安全な自律走行を提供する方法を遂行するのに使用される、CNNと、RPNと、ロスレイヤと、コンフィデンスレイヤとを含む学習装置の構成を示した図面である。
図5を参照すると、学習イメージがCNN130に含まれているコンボリューションレイヤ131に入力され、コンボリューションレイヤ131からh×w×cサイズのコンボリューション特徴マップが生成される構成を確認することができる。以後、コンボリューション特徴マップは、RPN140により演算され、これによってRPN140は、各ROIの位置である(dx,dy,dw,dh)及びそれらのRPNコンフィデンススコアが含まれたh×w×(5A+1)サイズの特徴マップを出力することができる。このような各ROIは、CNN130に含まれているROIプーリングレイヤ(図示せず)に伝達され、したがって、コンボリューション特徴マップは伝達されたROIにしたがってプーリングされ得る。以後、CNN130に含まれているFCレイヤ132は、R×dサイズのROIプーリング済み特徴マップを演算して、物体の推定された位置(x1,y1,x2,y2)と、物体が各クラスに含まれる確率と、それぞれの物体に対応するピクセルのCNNコンフィデンススコアとが含まれているR×(5C+1)サイズの初期物体検出結果を生成することができる。最後に、CNN130は、NMS演算を初期物体検出結果に適用することによって、物体の推定された位置(x1,y1,x2,y2)と、各物体に対する推定されたクラスと、物体が各クラスに含まれる確率とに関する情報を含むR’×6サイズの予測物体検出結果を生成することができる。ここで、R’は、NMS演算によって足し合わされたROI、すなわち物体の位置を示すことができる。そして、予測物体検出結果とともに出力されたCNNコンフィデンスマップは、h×w×1サイズのRPNコンフィデンスマップから生成されたリサイズ済みRPNコンフィデンスマップと統合されることによって、H×W×1サイズの統合コンフィデンスマップを生成するようになる。前記の過程は、前述した学習方法と合致するものである。
このように信頼度に劣る部分に対して物体検出を再び適用して取得されたさらなる情報を利用して自律走行を支援することによって、さらに安全な自律走行が行われ得るはずである。
以上にて説明された本発明による各実施例は、多様なコンピュータの構成要素を通じて遂行することができるプログラム命令語の形態で具現されて、コンピュータ読取り可能な記録媒体に格納され得る。前記コンピュータ読取り可能な記録媒体は、プログラム命令語、データファイル、データ構造などを単独で又は組み合わせて含むことができる。前記コンピュータ読取り可能な記録媒体に格納されるプログラム命令語は、本発明のために特別に設計され、構成されたものであるか、コンピュータソフトウェア分野の当業者に公知にされて使用可能なものであり得る。コンピュータ読取り可能な記録媒体の例には、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスク(FlopticaLDisk)のような磁気−光メディア(Magneto−OpticaLMedia)、及びROM、RAM、フラッシュメモリなどのようなプログラム命令語を格納して遂行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラによって作られるもののような機械語コードだけでなく、インタープリターなどを使用してコンピュータによって実行され得る高級言語コードも含まれる。前記ハードウェア装置は、本発明による処理を実行するために一つ以上のソフトウェアモジュールとして作動するように構成され得、その反対も同様である。
以上にて本発明が具体的な構成要素などのような特定事項と限定された実施例及び図面によって説明されたが、これは本発明のより全般的な理解の一助とするために提供されたものであるに過ぎず、本発明が前記実施例に限られるものではなく、本発明が属する技術分野において通常の知識を有する者であれば、かかる記載から多様な修正及び変形が行われ得る。
従って、本発明の思想は、前記説明された実施例に局限されて定められてはならず、後述する特許請求の範囲だけでなく、本特許請求の範囲と均等または等価的に変形されたものすべては、本発明の思想の範囲に属するといえる。

Claims (30)

  1. 物体検出プロセスと並列して生成された、物体検出の信頼度(Credibility)を示すコンフィデンススコア(Confidence Score)を利用することによって、コンピューティングパワーを節約しながらもより優れた自律走行性能を達成するための方法において、
    (a)コンピューティング装置が、対象車両に設置された少なくとも一つのパノラマビューセンサ(Panorama View Sensor)を通じて前記対象車両の周辺に対する少なくとも一つの状況イメージ(Circumstance Image)を取得する段階;
    (b)前記コンピューティング装置が、CNN(Convolutional Neural Network)をもって、前記状況イメージに対してCNN演算を少なくとも一回適用させて、前記状況イメージに関する初期物体情報及び初期コンフィデンス情報を生成させる段階;及び
    (c)前記コンピューティング装置が、前記初期物体情報及び前記初期コンフィデンス情報を参照して、前記状況イメージに対する最終物体情報を生成する段階;
    を含むことを特徴とする方法。
  2. 前記(c)段階は、
    (c1)前記コンピューティング装置が、(i)前記初期コンフィデンス情報を参照して、前記状況イメージに含まれている少なくとも一つの領域のうちそれに対応する前記コンフィデンススコアが閾値未満である少なくとも一つの第1特定領域それぞれを先に選択し、(ii)前記CNNをもって、前記第1特定領域に対してCNN演算を適用させて前記状況イメージに対する第1調整物体情報(Adjusted Object Information)及び第1調整コンフィデンス情報を生成させる、再検出(Re−detection)プロセスを遂行する段階;
    (c2)前記コンピューティング装置が、(i)事前に生成された第K−1調整コンフィデンス情報を参照して、前記状況イメージ内の前記領域のうちそれに対応する前記コンフィデンススコアが前記閾値未満である少なくとも一つの第K特定領域それぞれを選択し、(ii)前記CNNをもって、前記第K特定領域に対してCNN演算を適用させて前記状況イメージに対する第K調整物体情報及び第K調整コンフィデンス情報を生成させる、前記再検出プロセスを繰り返し遂行する段階:及び
    (c3)前記再検出プロセスがN回遂行されることによって、第N調整物体情報及び第N調整コンフィデンス情報が生成されると、前記コンピューティング装置が、前記初期物体情報と、前記第1調整物体情報ないし前記第N調整物体情報のうち少なくとも一部とを参照して、前記最終物体情報を生成する段階;
    を含み、
    前記Kは2以上N以下の整数(integer)であり、Nは予め設定された整数であることを特徴とする請求項1に記載の方法。
  3. Mは1以上N−1以下の整数であり、前記再検出プロセスをM回目遂行しつつ、選択された少なくとも一つの第M特定領域の少なくとも一つの広さの和が閾値未満である場合、前記コンピューティング装置が前記再検出プロセスを繰り返して遂行することを中断し、前記初期物体情報と、前記第1調整物体情報ないし第M−1調整物体情報のうち少なくとも一部とを参照して、前記最終物体情報を生成することを特徴とする請求項2に記載の方法。
  4. Lは1以上N以下の整数であり、前記再検出プロセスをL回目遂行しつつ、少なくとも一つの第L特定領域が選択されると、前記コンピューティング装置が第L倍数情報を参照して前記第L特定領域に対してアップサンプリング演算(Upsampling Operation)を適用して第L特定アップサンプリングイメージ(Specific Upsampled Image)を生成した後、前記CNNをもって、前記第L特定アップサンプリングイメージに対してCNN演算を適用させて第L調整物体情報及び第L調整コンフィデンス情報を生成させることを特徴とする請求項2に記載の方法。
  5. 前記コンピューティング装置が、前記初期物体情報と、前記第1調整物体情報ないし前記第N調整物体情報のうち少なくとも一部とを参照して、NMS(Non−Maximum Suppression)アルゴリズム及びボックスボーティング(Box Voting)アルゴリズムのうち少なくとも一つを遂行することによって前記最終物体情報を生成することを特徴とする請求項2に記載の方法。
  6. 前記(c)段階において、
    前記コンピューティング装置が、複数個の前記状況イメージをそれに対する部分イメージ(Partial Image)として含む統合イメージ(Integrated Image)を生成しつつ、それぞれの前記状況イメージに関するそれぞれの前記初期物体情報とそれぞれの前記初期コンフィデンス情報とを利用して前記統合イメージに関する統合最終物体情報を生成することを特徴とし、前記Kは2以上N以下の整数であり、Nは予め設定された整数である場合、前記統合最終物体情報は、
    (c4)前記コンピューティング装置が、(i)それぞれの前記初期コンフィデンス情報を参照して、前記統合イメージに対する第1統合コンフィデンス情報を生成した後、(ii)前記第1統合コンフィデンス情報を参照して前記統合イメージ内の少なくとも一つの領域のうちそれに対応するコンフィデンススコアが閾値未満である少なくとも一つのそれぞれの第1特定領域を選択し、(iii)最後に前記CNNをもって、前記第1特定領域に対してCNN演算を適用させて前記統合イメージに関するそれぞれの第1調整物体情報及びそれぞれの第1調整コンフィデンス情報を生成させる、再検出プロセスを遂行する段階;
    (c5)前記コンピューティング装置が、(i)それぞれの第K−1調整コンフィデンス情報を参照して、前記統合イメージに対する第K調整統合コンフィデンス情報を生成した後、(ii)前記第K調整統合コンフィデンス情報を参照して前記統合イメージ内の前記領域のうちそれに対応するコンフィデンススコアが前記閾値未満である少なくとも一つの第K特定領域それぞれを選択し、(iii)最後に前記CNNをもって、前記第K特定領域に対してCNN演算を適用させて前記統合イメージに関するそれぞれの第K調整物体情報及びそれぞれの第K調整コンフィデンス情報を生成させる、前記再検出プロセスを繰り返し遂行する段階;及び
    (c6)前記再検出プロセスがN回遂行されることによって、それぞれの第N調整物体情報及びそれぞれの第N調整コンフィデンス情報が生成されると、前記コンピューティング装置が、前記初期物体情報と、前記第1調整物体情報ないし第N調整物体情報のうち少なくとも一部とを参照して、前記統合最終物体情報を生成する段階;
    を遂行して生成されることを特徴とする請求項1に記載の方法。
  7. (i)複数の前記パノラマビューセンサのうちカメラに対応する少なくとも一つの第1パノラマビューセンサを通じて少なくとも一つの第1状況イメージが取得されると、前記コンピューティング装置が、3チャンネルイメージに対して最適化された、インプットノード(Input Node)が3個以上である第1CNNをもって、前記第1状況イメージに対して第1CNN演算を少なくとも一回適用させ、(ii)デプスセンサ(Depth Sensor)に対応する少なくとも一つの第2パノラマビューセンサを通じて少なくとも一つの第2状況イメージが取得されると、前記コンピューティング装置が、デプスイメージ(Depth Image)に対して最適化された、インプットノードが1個以上である第2CNNをもって、前記第2状況イメージに対して第2CNN演算を少なくとも一回適用させることを特徴とする請求項6に記載の方法。
  8. (d)前記コンピューティング装置が、前記最終物体情報を自律走行モジュールに伝達することによって、前記自律走行モジュールが前記最終物体情報を利用して前記対象車両の自律走行を遂行し得るように支援する段階;
    をさらに含むことを特徴とする請求項1に記載の方法。
  9. 前記(a)段階以前に、
    (a1)トレーニングイメージが取得されると、学習装置が、前記CNNに含まれている少なくとも一つのコンボリューションレイヤをもって、前記トレーニングイメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのコンボリューション特徴マップ(Convolutional Feature Map)を生成させる段階;
    (a2)前記学習装置が、前記コンボリューション特徴マップに対してアンカー演算(Anchor Operation)を少なくとも一回適用することによって前記トレーニングイメージ上の予測ROI(Estimated Region Of Interest)を生成するプロセスを遂行しつつ、RPN(Region Proposal Network)に含まれている少なくとも一つのアンカーレイヤ(Anchor Layer)をもって、前記予測ROIが原本正解(Ground−Truth)ROIと同一であるそれぞれの少なくとも一つの確率を表すそれぞれの少なくとも一つのRPNコンフィデンススコアを前記コンボリューション特徴マップのピクセルごとに生成することによって、前記RPNコンフィデンススコアを含むRPNコンフィデンスマップを生成させる段階;
    (a3)前記CNNに含まれているROIプーリングレイヤ(ROI Pooling Layer)を通じて、前記コンボリューション特徴マップ及び前記予測ROIを利用して生成された少なくとも一つのROIプーリング済み特徴マップ(ROI−Pooled Feature Map)が取得されると、前記学習装置は、前記ROIプーリング済み特徴マップを利用して予測物体検出結果(Estimated Object Detection Result)を生成するプロセスを遂行しつつ、前記CNNに含まれているFCレイヤをもって、前記予測物体検出結果に含まれるそれぞれの少なくとも一つの予測CNN分類結果(Estimated CNN Classification Result)及びそれぞれの少なくとも一つの予測CNNリグレッション結果(Estimated CNN Regression Result)が、原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果(GT CNN Classification Result)及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果(GT CNN Regression Result)と同一であるものと予測されるそれぞれの少なくとも一つの確率を表すそれぞれのCNNコンフィデンススコアを前記予測ROIごとに生成することによって、前記CNNコンフィデンススコアを含むCNNコンフィデンスマップを生成させる段階;及び
    (a4)前記学習装置が、ロスレイヤをもって、前記RPNコンフィデンスマップと、前記CNNコンフィデンスマップと、前記予測物体検出結果と、前記原本正解物体検出結果とを参照して少なくとも一つのRPNロス及び少なくとも一つのCNNロスを生成させ、前記RPNロス及び前記CNNロスを利用してバックプロパゲーションを遂行することによって前記CNN及び前記RPNに含まれているパラメータのうち少なくとも一部を学習させる段階;
    をさらに含むことを特徴とする請求項1に記載の方法。
  10. 前記(a4)段階で、
    前記学習装置が、前記ロスレイヤをもって、下記数式にしたがって前記RPNロスを生成させ、

    regはアンカー演算を遂行して生成された前記コンボリューション特徴マップのサイズに対応する定数(constant)であり、Nclsは前記トレーニングイメージに対応する定数であり、cは前記RPNコンフィデンスコアのうち、前記コンボリューション特徴マップの第iピクセルに対応する第iRPNコンフィデンススコアを意味し、pは前記第iピクセルに対応する第i予測RPN分類結果を意味し、p は前記第iピクセルに対応する第i原本正解RPN分類結果を意味し、tは前記第iピクセルに対応する第i予測RPNリグレッション結果を意味し、t は前記第iピクセルに対応する第i原本正解RPNリグレッション結果を意味し、
    前記第i原本正解RPN分類結果及び前記第i原本正解RPNリグレッション結果は、前記原本正解物体検出結果に対応することを特徴とする請求項9に記載の方法。
  11. 前記(a4)段階で、
    前記学習装置が、前記ロスレイヤをもって、下記数式にしたがって前記CNNロスを生成させ、

    reg及びNclsは前記予測ROIの個数であり、cは前記CNNコンフィデンススコアのうち前記予測ROIから選択された第i予測ROIに対応する第iCNNコンフィデンススコアを意味し、pは前記第i予測ROIに対応する第i予測CNN分類結果を意味し、p は前記第iピクセルに対応する第i原本正解CNN分類結果を意味し、tは前記第i予測ROIに対応する第i予測CNNリグレッション結果を意味し、t は前記第iピクセルに対応する第i原本正解CNNリグレッション結果を意味し、
    前記第i予測CNN分類結果及び前記第i予測CNNリグレッション結果は、前記予測物体検出結果に対応することを特徴とする請求項9に記載の方法。
  12. 前記(a3)段階以後に、
    前記学習装置が、コンフィデンスレイヤをもって、前記RPNコンフィデンスマップ及び前記CNNコンフィデンスマップを参照して、前記トレーニングイメージ内のピクセルごとの統合コンフィデンススコアそれぞれに関する情報を含む統合コンフィデンスマップを生成させることを特徴とする請求項9に記載の方法。
  13. 前記学習装置が、前記コンフィデンスレイヤをもって、(i)(i−1)前記CNNから、前記予測物体検出結果を生成するプロセスが遂行される途中に生成される、前記予測ROIに対するNMS結果を取得するプロセス、(i−2)前記RPNコンフィデンスマップに対してリサイズ演算(Resizing Operation)を少なくとも一回適用してリサイズされたRPNコンフィデンスマップを生成するプロセス、及び(ii)前記NMS結果と、前記リサイズされたRPNコンフィデンスマップとを参照して、前記統合コンフィデンスマップを生成するプロセスを遂行させることを特徴とする請求項12に記載の方法。
  14. 前記学習装置が、前記コンフィデンスレイヤをもって、前記統合コンフィデンススコアのうち、前記トレーニングイメージ上の座標(x,y)に対応する第X_Y統合コンフィデンススコアを下記数式にしたがって生成させ、

    c’xyは前記第X_Y統合コンフィデンススコアを意味し、cxyは前記リサイズされたRPNコンフィデンスマップ上の前記座標(x,y)に対応する第X_YリサイズされたRPNコンフィデンススコアを意味し、criは前記NMS結果で決定された、前記座標(x,y)を含みrとして表現される第i予測ROIに対する第iCNNコンフィデンススコアを意味することを特徴とする請求項13に記載の方法。
  15. 前記(b)段階は、
    (b1)前記状況イメージが取得されると、前記コンピューティング装置が、前記CNNに含まれている少なくとも一つのコンボリューションレイヤをもって、前記状況イメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのコンボリューション特徴マップを生成させる段階;
    (b2)前記コンピューティング装置が、前記コンボリューション特徴マップに対してアンカー演算を少なくとも一回適用することによって、前記状況イメージ上の予測ROIを生成するためのプロセスを遂行しつつ、RPNに含まれている少なくとも一つのアンカーレイヤをもって、前記予測ROIが原本正解ROIと同一である少なくとも一つの確率それぞれを表す、少なくとも一つのRPNコンフィデンススコアそれぞれを前記コンボリューション特徴マップのピクセルごとに生成することによって、前記RPNコンフィデンススコアを含むRPNコンフィデンスマップを生成させる段階;
    (b3)前記CNNに含まれているROIプーリングレイヤを通じて、前記コンボリューション特徴マップ及び前記予測ROIを利用して生成された少なくとも一つのROIプーリング済み特徴マップが取得されると、前記コンピューティング装置が、前記ROIプーリング済み特徴マップを利用して予測物体検出結果を生成するプロセスを遂行しつつ、前記CNNに含まれるFCレイヤをもって、前記予測物体検出結果に含まれているそれぞれの少なくとも一つの予測CNN分類結果及びそれぞれの少なくとも一つの予測CNNリグレッション結果が原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果と同一である少なくとも一つの確率それぞれを表すCNNコンフィデンスコアそれぞれを前記予測ROIごとに生成することによって、前記CNNコンフィデンススコアを含むCNNコンフィデンスマップを生成させる段階;及び
    (b4)前記コンピューティング装置が、前記CNNと連動して作動するコンフィデンスレイヤをもって、前記RPNコンフィデンスマップ及び前記CNNコンフィデンスマップを参照して統合コンフィデンスマップを生成させる段階を含み、
    前記コンピューティング装置は、前記CNNをもって、前記予測物体検出結果を含む前記初期物体情報及び前記統合コンフィデンスマップを含む前記初期コンフィデンス情報を出力させることを特徴とする請求項1に記載の方法。
  16. 物体検出プロセスと並列して生成された、物体検出の信頼度(Credibility)を示すコンフィデンススコア(Confidence Score)を利用することによって、コンピューティングパワーを節約しながらもより優れた自律走行性能を達成するためのコンピューティング装置において、
    インストラクションを格納する少なくとも一つのメモリと、
    (I)対象車両に設置された少なくとも一つのパノラマビューセンサ(Panorama View Sensor)を通じて前記対象車両の周辺に対する少なくとも一つの状況イメージ(Circumstance Image)を取得するプロセス;(II)CNN(Convolutional Neural Network)をもって、前記状況イメージに対してCNN演算を少なくとも一回適用させて、前記状況イメージに関する初期物体情報及び初期コンフィデンス情報を生成させるプロセス;及び(III)前記初期物体情報及び前記初期コンフィデンス情報を参照して、前記状況イメージに対する最終物体情報を生成するプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、
    を含むことを特徴とする装置。
  17. 前記(III)プロセスは、
    (III−1)(i)前記初期コンフィデンス情報を参照して、前記状況イメージに含まれている少なくとも一つの領域のうちそれに対応する前記コンフィデンススコアが閾値未満である少なくとも一つの第1特定領域それぞれを先に選択し、(ii)前記CNNをもって、前記第1特定領域に対してCNN演算を適用させて前記状況イメージに対する第1調整物体情報(Adjusted Object Information)及び第1調整コンフィデンス情報を生成させる、再検出(Re−detection)プロセスを遂行するプロセス;
    (III−2)(i)事前に生成された第K−1調整コンフィデンス情報を参照して、前記状況イメージ内の前記領域のうちそれに対応する前記コンフィデンススコアが前記閾値未満である少なくとも一つの第K特定領域それぞれを選択し、(ii)前記CNNをもって、前記第K特定領域に対してCNN演算を適用させて前記状況イメージに対する第K調整物体情報及び第K調整コンフィデンス情報を生成させる、前記再検出プロセスを繰り返し遂行するプロセス;
    (III−3)前記再検出プロセスがN回遂行されることによって、第N調整物体情報及び第N調整コンフィデンス情報が生成されると、前記初期物体情報と、前記第1調整物体情報ないし前記第N調整物体情報のうち少なくとも一部とを参照して、前記最終物体情報を生成するプロセス;
    を含み、
    前記Kは2以上N以下の整数であり、Nは予め設定された整数であることを特徴とする請求項16に記載の装置。
  18. Mは1以上N−1以下の整数であり、前記再検出プロセスをM回目遂行しつつ選択された少なくとも一つの第M特定領域の少なくとも一つの広さの和が閾値未満である場合、前記プロセッサが前記再検出プロセスを繰り返し遂行することを中断し、前記初期物体情報と、前記第1調整物体情報ないし第M−1調整物体情報のうち少なくとも一部とを参照して、前記最終物体情報を生成することを特徴とする請求項17に記載の装置。
  19. Lは1以上N以下の整数であり、前記再検出プロセスをL回目遂行しつつ、少なくとも一つの第L特定領域が選択されると、前記プロセッサが第L倍数情報を参照して前記第L特定領域に対してアップサンプリング演算(Upsampling Operation)を適用して第L特定アップサンプリングイメージ(Specific Upsampled Image)を生成した後、前記CNNをもって、前記第L特定アップサンプリングイメージに対してCNN演算を適用させて第L調整物体情報及び第L調整コンフィデンス情報を生成させることを特徴とする請求項17に記載の装置。
  20. 前記プロセッサが、前記初期物体情報と、前記第1調整物体情報ないし前記第N調整物体情報のうち少なくとも一部とを参照して、NMS(Non−Maximum Suppression)アルゴリズム及びボックスボーティング(Box Voting)アルゴリズムのうち少なくとも一つを遂行することによって前記最終物体情報を生成することを特徴とする請求項17に記載の装置。
  21. 前記(III)プロセスで、
    複数個の前記状況イメージをそれに対する部分イメージ(Partial Image)として含む統合イメージ(Integrated Image)を生成しつつ、前記プロセッサがそれぞれの前記状況イメージに関するそれぞれの前記初期物体情報とそれぞれの前記初期コンフィデンス情報とを利用して前記統合イメージに関する統合最終物体情報を生成することを特徴とし、前記Kは2以上N以下の整数であり、Nは予め設定された整数である場合、前記統合最終物体情報は、
    (III−4)(i)それぞれの前記初期コンフィデンス情報を参照して、前記統合イメージに対する第1統合コンフィデンス情報を生成した後、(ii)前記第1統合コンフィデンス情報を参照して前記統合イメージ内の少なくとも一つの領域のうちそれに対応するコンフィデンススコアが閾値未満である少なくとも一つのそれぞれの第1特定領域を選択し、(iii)最後に前記CNNをもって、前記第1特定領域に対してCNN演算を適用させて前記統合イメージに関するそれぞれの第1調整物体情報及びそれぞれの第1調整コンフィデンス情報を生成させる、再検出プロセスを遂行するプロセス;
    (III−5)(i)それぞれの第K−1調整コンフィデンス情報を参照して、前記統合イメージに対する第K調整統合コンフィデンス情報を生成した後、(ii)前記第K調整統合コンフィデンス情報を参照して前記統合イメージ内の前記領域のうちそれに対応するコンフィデンススコアが前記閾値未満である少なくとも一つの第K特定領域それぞれを選択し、(iii)最後に前記CNNをもって、前記第K特定領域に対してCNN演算を適用させて前記統合イメージに関するそれぞれの第K調整物体情報及びそれぞれの第K調整コンフィデンス情報を生成させる、前記再検出プロセスを繰り返し遂行するプロセス;
    (III−6)前記再検出プロセスがN回遂行されることによって、それぞれの第N調整物体情報及びそれぞれの第N調整コンフィデンス情報が生成されると、前記初期物体情報と、前記第1調整物体情報ないし第N調整物体情報のうち少なくとも一部とを参照して前記統合最終物体情報を生成するプロセス;
    を遂行して生成されることを特徴とする請求項16に記載の装置。
  22. (i)複数の前記パノラマビューセンサのうちカメラに対応する少なくとも一つの第1パノラマビューセンサを通じて少なくとも一つの第1状況イメージが取得されると、前記プロセスが、3チャンネルイメージに対して最適化された、インプットノード(Input Node)が3個以上である第1CNNをもって、前記第1状況イメージに対して第1CNN演算を少なくとも一回適用させ、(ii)デプスセンサ(Depth Sensor)に対応する少なくとも一つの第2パノラマビューセンサを通じて少なくとも一つの第2状況イメージが取得されると、前記プロセスが、デプスイメージ(Depth Image)に対して最適化された、インプットノードが1個以上である第2CNNをもって、前記第2状況イメージに対して第2CNN演算を少なくとも一回適用させることを特徴とする請求項21に記載の装置。
  23. (IV)前記プロセッサが、前記最終物体情報を自律走行モジュールに伝達することによって、前記自律走行モジュールが前記最終物体情報を利用して前記対象車両の自律走行を遂行し得るように支援するプロセス;
    をさらに含むことを特徴とする請求項16に記載の装置。
  24. 前記(I)プロセス以前に、
    (I−1)トレーニングイメージが取得されると、学習装置が、前記CNNに含まれている少なくとも一つのコンボリューションレイヤをもって、前記トレーニングイメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのコンボリューション特徴マップ(Convolutional Feature Map)を生成させるプロセス;
    (I−2)前記学習装置が、前記コンボリューション特徴マップに対してアンカー演算(Anchor Operation)を少なくとも一回適用することによって、前記トレーニングイメージ上の予測ROI(Estimated Region Of Interest)を生成するプロセスを遂行しつつ、RPN(Region Proposal Network)に含まれている少なくとも一つのアンカーレイヤ(Anchor Layer)をもって、前記予測ROIが原本正解(Ground−Truth)ROIと同一であるそれぞれの少なくとも一つの確率を表すそれぞれの少なくとも一つのRPNコンフィデンススコアを前記コンボリューション特徴マップのピクセルごとに生成することによって、前記RPNコンフィデンススコアを含むRPNコンフィデンスマップを生成させるプロセス;
    (I−3)前記CNNに含まれているROIプーリングレイヤ(ROI Pooling Layer)を通じて、前記コンボリューション特徴マップ及び前記予測ROIを利用して生成された少なくとも一つのROIプーリング済み特徴マップ(ROI−Pooled Feature Map)が取得されると、前記学習装置は、前記ROIプーリング済み特徴マップを利用して予測物体検出結果(Estimated Object Detection Result)を生成するプロセスを遂行しつつ、前記CNNに含まれているFCレイヤをもって、前記予測物体検出結果に含まれるそれぞれの少なくとも一つの予測CNN分類結果(Estimated CNN Classification Result)及びそれぞれの少なくとも一つの予測CNNリグレッション結果(Estimated CNN Regression Result)が、原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果(GT CNN Classification Result)及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果(GT CNN Regression Result)と同一であるものと予測されるそれぞれの少なくとも一つの確率を表すそれぞれのCNNコンフィデンススコアを前記予測ROIごとに生成することによって、前記CNNコンフィデンススコアを含むCNNコンフィデンスマップを生成させるプロセス;及び
    (I−4)前記学習装置が、ロスレイヤをもって、前記RPNコンフィデンスマップと、前記CNNコンフィデンスマップと、前記予測物体検出結果と、前記原本正解物体検出結果とを参照して少なくとも一つのRPNロス及び少なくとも一つのCNNロスを生成させ、前記RPNロス及び前記CNNロスを利用してバックプロパゲーションを遂行することによって前記CNN及び前記RPNに含まれているパラメータのうち少なくとも一部を学習させるプロセス;
    をさらに含むことを特徴とする請求項16に記載の装置。
  25. 前記(I−4)プロセスで、
    前記学習装置が、前記ロスレイヤをもって、下記数式にしたがって前記RPNロスを生成させ、

    regはアンカー演算を遂行して生成された前記コンボリューション特徴マップのサイズに対応する定数であり、Nclsは前記トレーニングイメージに対応する定数であり、cは前記RPNコンフィデンスコアのうち、前記コンボリューション特徴マップの第iピクセルに対応する第iRPNコンフィデンススコアを意味し、pは前記第iピクセルに対応する第i予測RPN分類結果を意味し、p は前記第iピクセルに対応する第i原本正解RPN分類結果を意味し、tは前記第iピクセルに対応する第i予測RPNリグレッション結果を意味し、t は前記第iピクセルに対応する第i原本正解RPNリグレッション結果を意味し、
    前記第i原本正解RPN分類結果及び前記第i原本正解RPNリグレッション結果は、前記原本正解物体検出結果に対応することを特徴とする請求項24に記載の装置。
  26. 前記(I−4)プロセスで、
    前記学習装置が、前記ロスレイヤをもって、下記数式にしたがって前記CNNロスを生成させ、

    reg及びNclsは前記予測ROIの個数であり、cは前記CNNコンフィデンススコアのうち前記予測ROIから選択された第i予測ROIに対応する第iCNNコンフィデンススコアを意味し、pは前記第i予測ROIに対応する第i予測CNN分類結果を意味し、p は前記第iピクセルに対応する第i原本正解CNN分類結果を意味し、tは前記第i予測ROIに対応する第i予測CNNリグレッション結果を意味し、t は前記第iピクセルに対応する第i原本正解CNNリグレッション結果を意味し、
    前記第i予測CNN分類結果及び前記第i予測CNNリグレッション結果は、前記予測物体検出結果に対応することを特徴とする請求項24に記載の装置。
  27. 前記(I−3)プロセス以後に、
    前記学習装置が、コンフィデンスレイヤをもって、前記RPNコンフィデンスマップ及び前記CNNコンフィデンスマップを参照して、前記トレーニングイメージ内のピクセルごとの統合コンフィデンススコアそれぞれに関する情報を含む統合コンフィデンスマップを生成させることを特徴とする請求項24に記載の装置。
  28. 前記学習装置が、前記コンフィデンスレイヤをもって、(i)(i−1)前記CNNから、前記予測物体検出結果を生成するプロセスが遂行される途中に生成される、前記予測ROIに対するNMS結果を取得するプロセス、(i−2)前記RPNコンフィデンスマップに対してリサイズ演算(Resizing Operation)を少なくとも一回適用してリサイズされたRPNコンフィデンスマップを生成するプロセス、及び(ii)前記NMS結果及び前記リサイズされたRPNコンフィデンスマップを参照して前記統合コンフィデンスマップを生成するプロセスを遂行させることを特徴とする請求項27に記載の装置。
  29. 前記学習装置が、前記コンフィデンスレイヤをもって、前記統合コンフィデンススコアのうち、前記トレーニングイメージ上の座標(x,y)に対応する第X_Y統合コンフィデンススコアを下記数式にしたがって生成させ、

    c’xyは前記第X_Y統合コンフィデンススコアを意味し、cxyは前記リサイズされたRPNコンフィデンスマップ上の前記座標(x,y)に対応する第X_YリサイズされたRPNコンフィデンススコアを意味し、criは前記NMS結果で決定された、前記座標(x,y)を含みrとして表現される第i予測ROIに対する第iCNNコンフィデンススコアを意味することを特徴とする請求項28に記載の装置。
  30. 前記(II)プロセスは、
    (II−1)前記状況イメージが取得されると、前記CNNに含まれている少なくとも一つのコンボリューションレイヤをもって、前記状況イメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのコンボリューション特徴マップを生成させるプロセス;
    (II−2)前記コンボリューション特徴マップに対してアンカー演算を少なくとも一回適用することによって、前記状況イメージ上の予測ROIを生成するためのプロセスを遂行しつつ、RPNに含まれている少なくとも一つのアンカーレイヤをもって、前記予測ROIが原本正解ROIと同一である少なくとも一つの確率それぞれを表す、少なくとも一つのRPNコンフィデンススコアそれぞれを前記コンボリューション特徴マップのピクセルごとに生成することによって、前記RPNコンフィデンススコアを含むRPNコンフィデンスマップを生成させるプロセス;
    (II−3)前記CNNに含まれているROIプーリングレイヤを通じて前記コンボリューション特徴マップ及び前記予測ROIを利用して生成された少なくとも一つのROIプーリング済み特徴マップが取得されると、前記ROIプーリング済み特徴マップを利用して予測物体検出結果を生成するプロセスを遂行しつつ、前記CNNに含まれるFCレイヤをもって、前記予測物体検出結果に含まれているそれぞれの少なくとも一つの予測CNN分類結果及びそれぞれの少なくとも一つの予測CNNリグレッション結果が、原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果と同一である少なくとも一つの確率それぞれを表すCNNコンフィデンスコアそれぞれを前記予測ROIごとに生成することによって、前記CNNコンフィデンススコアを含むCNNコンフィデンスマップを生成させるプロセス;及び
    (II−4)前記CNNと連動して作動するコンフィデンスレイヤをもって、前記RPNコンフィデンスマップ及び前記CNNコンフィデンスマップを参照して統合コンフィデンスマップを生成させるプロセスを含み、
    前記プロセッサは、前記CNNをもって、前記予測物体検出結果を含む前記初期物体情報と、前記統合コンフィデンスマップを含む前記初期コンフィデンス情報とを出力させることを特徴とする請求項16に記載の装置。
JP2020008882A 2019-01-31 2020-01-23 Avmを利用して自律走行の安全性を達成するためのアテンションドリブンアルゴリズムを利用したリソース割り当てのための方法及び装置{method and device for attention−driven resource allocation by using avm to thereby achieve safety of autonomous driving} Active JP6890855B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962799307P 2019-01-31 2019-01-31
US62/799307 2019-01-31
US16/732,053 US10776647B2 (en) 2019-01-31 2019-12-31 Method and device for attention-driven resource allocation by using AVM to thereby achieve safety of autonomous driving
US16/732053 2019-12-31

Publications (2)

Publication Number Publication Date
JP2020126632A true JP2020126632A (ja) 2020-08-20
JP6890855B2 JP6890855B2 (ja) 2021-06-18

Family

ID=69185399

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020008882A Active JP6890855B2 (ja) 2019-01-31 2020-01-23 Avmを利用して自律走行の安全性を達成するためのアテンションドリブンアルゴリズムを利用したリソース割り当てのための方法及び装置{method and device for attention−driven resource allocation by using avm to thereby achieve safety of autonomous driving}

Country Status (5)

Country Link
US (1) US10776647B2 (ja)
EP (1) EP3690735B1 (ja)
JP (1) JP6890855B2 (ja)
KR (1) KR102396271B1 (ja)
CN (1) CN111507169B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110569696A (zh) * 2018-08-31 2019-12-13 阿里巴巴集团控股有限公司 用于车辆部件识别的神经网络系统、方法和装置
US11544508B2 (en) * 2020-11-23 2023-01-03 Nielsen Consumer Llc Methods, systems, articles of manufacture, and apparatus to recalibrate confidences for image classification
US11954898B1 (en) * 2022-11-10 2024-04-09 Superb Ai Co., Ltd. Learning method and learning device for performing transfer learning on an object detector that has been trained to detect first object classes such that the object detector is able to detect second object classes, and testing method and testing device using the same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170206431A1 (en) * 2016-01-20 2017-07-20 Microsoft Technology Licensing, Llc Object detection and classification in images
US20180068198A1 (en) * 2016-09-06 2018-03-08 Carnegie Mellon University Methods and Software for Detecting Objects in an Image Using Contextual Multiscale Fast Region-Based Convolutional Neural Network
US20180211403A1 (en) * 2017-01-20 2018-07-26 Ford Global Technologies, Llc Recurrent Deep Convolutional Neural Network For Object Detection
US20180267558A1 (en) * 2017-03-14 2018-09-20 Starsky Robotics, Inc. Vehicle sensor system and method of use
CN109145898A (zh) * 2018-07-26 2019-01-04 清华大学深圳研究生院 一种基于卷积神经网络和迭代机制的物体检测方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9965719B2 (en) * 2015-11-04 2018-05-08 Nec Corporation Subcategory-aware convolutional neural networks for object detection
US10657364B2 (en) * 2016-09-23 2020-05-19 Samsung Electronics Co., Ltd System and method for deep network fusion for fast and robust object detection
US11062207B2 (en) * 2016-11-04 2021-07-13 Raytheon Technologies Corporation Control systems using deep reinforcement learning
US10380741B2 (en) * 2016-12-07 2019-08-13 Samsung Electronics Co., Ltd System and method for a deep learning machine for object detection
US20180268292A1 (en) * 2017-03-17 2018-09-20 Nec Laboratories America, Inc. Learning efficient object detection models with knowledge distillation
US10467493B2 (en) * 2017-07-14 2019-11-05 Google Llc Object detection using neural network systems
CN111133447B (zh) * 2018-02-18 2024-03-19 辉达公司 适于自主驾驶的对象检测和检测置信度的方法和系统
CN108520197A (zh) * 2018-02-28 2018-09-11 中国航空工业集团公司洛阳电光设备研究所 一种遥感图像目标检测方法及装置
US11164016B2 (en) * 2018-05-17 2021-11-02 Uatc, Llc Object detection and property determination for autonomous vehicles

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170206431A1 (en) * 2016-01-20 2017-07-20 Microsoft Technology Licensing, Llc Object detection and classification in images
US20180068198A1 (en) * 2016-09-06 2018-03-08 Carnegie Mellon University Methods and Software for Detecting Objects in an Image Using Contextual Multiscale Fast Region-Based Convolutional Neural Network
US20180211403A1 (en) * 2017-01-20 2018-07-26 Ford Global Technologies, Llc Recurrent Deep Convolutional Neural Network For Object Detection
US20180267558A1 (en) * 2017-03-14 2018-09-20 Starsky Robotics, Inc. Vehicle sensor system and method of use
CN109145898A (zh) * 2018-07-26 2019-01-04 清华大学深圳研究生院 一种基于卷积神经网络和迭代机制的物体检测方法

Also Published As

Publication number Publication date
US20200250450A1 (en) 2020-08-06
US10776647B2 (en) 2020-09-15
EP3690735A1 (en) 2020-08-05
JP6890855B2 (ja) 2021-06-18
KR20200095368A (ko) 2020-08-10
KR102396271B1 (ko) 2022-05-10
EP3690735B1 (en) 2023-10-11
CN111507169B (zh) 2023-07-28
EP3690735C0 (en) 2023-10-11
CN111507169A (zh) 2020-08-07

Similar Documents

Publication Publication Date Title
JP6895694B2 (ja) Avm及び強化学習を利用して自律走行の安全性を達成するためのアテンション−ドリブンアルゴリズムを利用したリソース割り当てのための方法及び装置{method and device for attention−driven resource allocation by using avmand reinforcement learning to thereby achieve safety of autonomous driving}
KR102396274B1 (ko) 강화 학습 및 v2x 통신을 사용하는 어텐션-드리븐 리소스 할당을 통해 자율 주행의 안전성을 제공하기 위한 방법 및 장치
US10269125B1 (en) Method for tracking object by using convolutional neural network including tracking network and computing device using the same
JP6890855B2 (ja) Avmを利用して自律走行の安全性を達成するためのアテンションドリブンアルゴリズムを利用したリソース割り当てのための方法及び装置{method and device for attention−driven resource allocation by using avm to thereby achieve safety of autonomous driving}
US10373027B1 (en) Method for acquiring sample images for inspecting label among auto-labeled images to be used for learning of neural network and sample image acquiring device using the same
JP6857370B2 (ja) ターゲット物体予測ネットワーク及びターゲット物体統合ネットワークを利用して、重要業績評価指標のようなユーザー要求事項に係る最適化のための再構成可能なネットワーク基盤の物体検出器を学習する方法及び学習装置、並びにこれを利用したテスティング方法及びテスティング装置
KR102321004B1 (ko) 온 디바이스 독립형 예측에 기반하여 자율 주행 차량의 모드를 전환함으로써 자율 주행의 안전성을 도모하는 학습 방법 및 학습 장치, 그리고 이를 이용한 테스팅 방법 및 테스팅 장치
JP6856853B2 (ja) 極限状況においてフォールトトレランス及びフラクチュエーションロバスト性を向上させるために、ジッタリングが起きたイメージを安定化させるプロセスで生成されたワーピングされたイメージに発生した歪曲を、ganを利用して減らすための学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置
CN111488786B (zh) 基于cnn的监视用客体检测器的方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200123

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200706

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200710

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20201022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210519

R150 Certificate of patent or registration of utility model

Ref document number: 6890855

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250