JP2020126640A - 自律走行の安全性を提供するための方法及び装置 - Google Patents

自律走行の安全性を提供するための方法及び装置 Download PDF

Info

Publication number
JP2020126640A
JP2020126640A JP2020010140A JP2020010140A JP2020126640A JP 2020126640 A JP2020126640 A JP 2020126640A JP 2020010140 A JP2020010140 A JP 2020010140A JP 2020010140 A JP2020010140 A JP 2020010140A JP 2020126640 A JP2020126640 A JP 2020126640A
Authority
JP
Japan
Prior art keywords
cnn
information
confidence
predicted
rpn
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020010140A
Other languages
English (en)
Other versions
JP6941386B2 (ja
Inventor
− ヒョン キム、ケイ
Kye-Hyeon Kim
− ヒョン キム、ケイ
キム、ヨンジュン
Young Jun Kim
− キョン キム、ハク
Hak-Kyoung Kim
− キョン キム、ハク
ナム、ウヒョン
Woonhyu Nam
ブー、ソッフン
Sukhoon Boo
ソン、ミュンチュル
Myungchul Sung
シン、ドンス
Dongsoo Shin
ヨー、ドンフン
Donghun Yeo
リュー、ウジュ
Wooju Ryu
− チュン イ、ミョン
Myeong-Chun Lee
− チュン イ、ミョン
イ、ヒョンス
Hyungsoo Lee
チャン、テウン
Taewoong Jang
ジョン、キュンチョン
Kyungjoong Jeong
チェ、ホンモ
Hongmo Je
チョウ、ホジン
Hojin Cho
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stradvision Inc
Original Assignee
Stradvision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stradvision Inc filed Critical Stradvision Inc
Publication of JP2020126640A publication Critical patent/JP2020126640A/ja
Application granted granted Critical
Publication of JP6941386B2 publication Critical patent/JP6941386B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/44Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Databases & Information Systems (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】物体検出プロセスと並行して生成された、物体検出の信頼度を表すコンフィデンスコアを利用することによって、コンピューティングパワーを節約しながらもより優れた自律走行性能を達成する方法を提供する。【解決手段】方法は、対象車両に設けられた少なくとも一つのイメージセンサを通じて前記対象車両の周辺に対する少なくとも一つの状況イメージを取得する段階S100と、CNN(Convolutional Neural Network)をもって、状況イメージにCNN演算を少なくとも一回適用させて、状況イメージに関する初期物体情報及び初期コンフィデンス情報を生成させる段階S200及び周辺物体のうち少なくとも一部とのV2X通信及び強化学習エージェントの支援を通じて、初期物体情報及び初期コンフィデンス情報を参照して、状況イメージに関する最終物体情報を生成する段階S300と、を含む。【選択図】図2

Description

強化学習及びV2X通信を使用するアテンションドリブンリソース割り当てを通じて自律走行の安全性を提供するための方法及び装置{METHOD AND DEVICE FOR ATTENTION−DRIVEN RESOURCE ALLOCATION BY USING REINFORCEMENT LEARNING AND V2X COMMUNICATION TO THEREBY ACHIEVE SAFETY OF AUTONOMOUS DRIVING}を提供する。
本発明は自律走行車両に使用される方法及び装置に関し、より詳細には、強化学習及びV2X(vehicle−to−everything)通信を使用するアテンションドリブン(attention−driven)リソース割り当てを通じて安全な自律走行を提供するための方法及びこれを利用した装置に関する。
最近、自律走行技術が研究されて、自律走行車両が運転者の介入なしにかなりの正確度で走行することができるほどに発展した。しかし、このような自律走行技術は商用化されていない。自律走行技術が大衆的に使用され得ないのには様々な理由があるが、そのうちの一つは、自律走行のための演算は、コンピューティングパワーをあまりにも多く消耗するという点である。
自律走行のための演算を遂行する際に消耗するコンピューティングパワーを減らすために多大な努力がなされているが、この場合に生じ得る問題点は、消耗するコンピューティングパワーを減らせば自律走行の性能が劣るということである。自律走行の性能が劣ると、エラーが多く生じ、運転者及び周囲の人々の生命を脅かすようになる。したがって、コンピューティングパワーを減らしながらも自律走行の性能をある程度保持し得るようにすることが必要であり、このような方法はあまり研究されていないのが事実である。
本発明は、上述の問題点を解決することを目的とする。
本発明は、強化学習及びV2X(vehicle−to−everything)通信を使用するアテンションドリブン(attention−driven)リソース割り当てを通じて安全な自律走行を提供するための方法を提供することを他の目的とする。
また、本発明は、物体検出過程と並行して、物体検出の信頼度を表すパラメータであるコンフィデンスコア(Confidence Score)を生成する方法を提供することをまた他の目的とする。
また、本発明は、他の物体からの閾値より低いコンフィデンスコアを有する領域に対する追加の補完情報を取得して、物体検出をより正確に遂行する方法を提供することをまた他の目的とする。
前記のような本発明の目的を達成し、後述する本発明の特徴的な効果を実現するための本発明の特徴的な構成は以下のとおりである。
本発明の一態様によると、物体検出プロセスと並行して生成された、物体検出の信頼度(Credibility)を示すコンフィデンスコア(Confidence Score)を利用することによって、コンピューティングパワーを節約しながらもより優れた自律走行性能を達成するための方法において、(a)コンピューティング装置が、対象車両に設けられた少なくとも一つのイメージセンサを通じて前記対象車両の周辺に対する少なくとも一つの状況イメージ(Circumstance Image)を取得する段階;(b)前記コンピューティング装置が、CNN(Convolutional Neural Network)をもって、前記状況イメージに対するCNN演算を少なくとも一回適用させて、前記状況イメージに関する初期物体情報及び初期コンフィデンス情報を生成させる段階;及び(c)前記コンピューティング装置が、前記対象車両から距離が閾値以下である周辺物体のうち少なくとも一部とのV2X通信及び強化学習エージェントの支援を通じて、前記初期物体情報及び前記初期コンフィデンス情報を参照して、前記状況イメージに関する最終物体情報を生成する段階;を含むことを特徴とする方法が提供される。
一実施例において、前記(c)段階で、前記コンピューティング装置が、前記強化学習エージェントをもって、(i)前記初期コンフィデンス情報、前記周辺物体の基本メタ情報、及び前記イメージセンサのセンサ情報を参照して、補完演算が適用される前記状況イメージ上の一つ以上の特定の対象領域に対応する一つ以上の特定の周辺物体を、前記周辺物体の中から選択させ、(ii)前記特定の周辺物体との前記V2X通信を介して補完情報を取得させ、(iii)前記補完情報を利用して前記初期物体情報を調整することによって、前記最終物体情報を生成させる。
一実施例において、前記初期コンフィデンス情報、前記基本メタ情報、及び前記センサ情報が前記強化学習エージェントに入力されると、前記強化学習エージェントは、(i)それ自体のパラメータを利用して前記一つ以上の特定の周辺物体を選択し、(ii)前記補完情報を参照して少なくとも一つのリワード(reward)を生成し、(iii)前記リワードを参照して前記パラメータの少なくとも一部を学習する。
一実施例において、前記コンピューティング装置が、前記強化学習エージェントをもって、(i)前記基本メタ情報に含まれている、前記周辺車両の相対的位置情報及び予定経路情報と、(ii)前記センサ情報に含まれている、FOV(Field−Of−View)情報、内部パラメータ情報、外部パラメータ情報、及び歪曲情報と、(iii)前記初期コンフィデンス情報と、のうち少なくとも一部を利用して、前記一つ以上の特定の周辺物体を選択するか否かを決定する。
一実施例において、前記コンピューティング装置は、前記特定の周辺物体により生成された参照物体情報及び参照コンフィデンス情報のうち少なくとも一部を含む補完情報、及び前記特定の周辺物体の特定のメタデータを参照して、前記初期物体情報を調整することによって前記最終物体情報を生成し、前記特定の周辺物体は、それ自体の周辺物体に対する物体検出を遂行して前記参照物体情報及び前記参照コンフィデンス情報を生成する。
一実施例において、(d)前記コンピューティング装置が、前記最終物体情報を自律走行モジュールに伝達することによって、前記自律走行モジュールをもって、前記最終物体情報を利用して前記対象車両の自律走行を遂行するように支援する段階;をさらに含む。
一実施例において、前記(a)段階以前に、(a1)トレーニングイメージが取得されると、学習装置が、前記CNNに含まれている少なくとも一つのコンボリューションレイヤをもって、前記トレーニングイメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのコンボリューション特徴マップを生成させる段階;(a2)前記学習装置が、前記コンボリューション特徴マップに対してアンカー(Anchor)演算を少なくとも一回適用することによって前記トレーニングイメージ上の予測ROI(Region Of Interest)を生成するプロセスを遂行しつつ、RPN(Region Proposal Network)に含まれている少なくとも一つのアンカーレイヤをもって、前記予測ROIが原本正解(Ground−Truth)ROIと同一であるそれぞれの少なくとも一つの確率を表すそれぞれの少なくとも一つのRPNコンフィデンススコアを前記コンボリューション特徴マップのピクセルごとに生成することによって、前記RPNコンフィデンススコアを含むRPNコンフィデンスマップを生成させる段階;(a3)前記CNNに含まれているROIプーリングレイヤを通じて、前記コンボリューション特徴マップ及び前記予測ROIを利用して生成された少なくとも一つのROIプーリング済み特徴マップが取得されると、前記学習装置は、前記ROIプーリング済み特徴マップを利用して予測物体検出結果を生成するプロセスを遂行しつつ、前記CNNに含まれているFCレイヤをもって、前記予測物体検出結果に含まれるそれぞれの少なくとも一つの予測CNN分類結果及びそれぞれの少なくとも一つの予測CNNリグレッション結果が、原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果と同一であるものと予測されるそれぞれの少なくとも一つの確率を表すそれぞれのCNNコンフィデンススコアを前記予測ROIごとに生成することによって、前記CNNコンフィデンススコアを含むCNNコンフィデンスマップを生成させる段階;及び(a4)前記学習装置が、ロスレイヤをもって、前記RPNコンフィデンスマップと、前記CNNコンフィデンスマップと、前記予測物体検出結果と、前記原本正解物体検出結果とを参照して少なくとも一つのRPNロス及び少なくとも一つのCNNロスを生成させ、前記RPNロス及び前記CNNロスを利用してバックプロパゲーションを遂行することによって前記CNN及び前記RPNに含まれているパラメータのうち少なくとも一部を学習させる段階;をさらに含む。
一実施例において、前記(a4)段階で、前記学習装置が、前記ロスレイヤをもって、下記数式にしたがって前記RPNロスを生成させ、
一実施例において、前記(a4)段階で、前記学習装置が、前記ロスレイヤをもって、下記数式にしたがって前記CNNロスを生成させ、
一実施例において、前記(a3)段階以後に、前記学習装置が、コンフィデンスレイヤをもって、前記RPNコンフィデンスマップ及び前記CNNコンフィデンスマップを参照して、前記トレーニングイメージ内のピクセルごとの統合コンフィデンススコアそれぞれに関する情報を含む統合コンフィデンスマップを生成させる。
一実施例において、前記学習装置が、前記コンフィデンスレイヤをもって、(i)(i−1)前記CNNから、前記予測物体検出結果を生成するプロセスが遂行される途中に生成される、前記予測ROIに対するNMS(Non−Maximum Suppression)結果を取得するプロセス、(i−2)前記RPNコンフィデンスマップに対してリサイズ(Resize)演算を少なくとも一回適用してリサイズされたRPNコンフィデンスマップを生成するプロセス、及び(ii)前記NMS結果と、前記リサイズされたRPNコンフィデンスマップとを参照して、前記統合コンフィデンスマップを生成するプロセスを遂行させる。
一実施例において、前記(b)段階は、(b1)前記状況イメージが取得されると、前記コンピューティング装置が、前記CNNに含まれている少なくとも一つのコンボリューションレイヤをもって、前記状況イメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのコンボリューション特徴マップを生成させる段階;(b2)前記コンピューティング装置が、前記コンボリューション特徴マップに対してアンカー演算を少なくとも一回適用することによって、前記状況イメージ上の予測ROIを生成するためのプロセスを遂行しつつ、RPNに含まれている少なくとも一つのアンカーレイヤをもって、前記予測ROIが原本正解ROIと同一である少なくとも一つの確率それぞれを表す、少なくとも一つのRPNコンフィデンススコアそれぞれを前記コンボリューション特徴マップのピクセルごとに生成することによって、前記RPNコンフィデンススコアを含むRPNコンフィデンスマップを生成させる段階;(b3)前記CNNに含まれているROIプーリングレイヤを通じて、前記コンボリューション特徴マップ及び前記予測ROIを利用して生成された少なくとも一つのROIプーリング済み特徴マップが取得されると、前記コンピューティング装置が、前記ROIプーリング済み特徴マップを利用して予測物体検出結果を生成するプロセスを遂行しつつ、前記CNNに含まれるFCレイヤをもって、前記予測物体検出結果に含まれているそれぞれの少なくとも一つの予測CNN分類結果及びそれぞれの少なくとも一つの予測CNNリグレッション結果が原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果と同一である少なくとも一つの確率それぞれを表すCNNコンフィデンスコアそれぞれを前記予測ROIごとに生成することによって、前記CNNコンフィデンススコアを含むCNNコンフィデンスマップを生成させる段階;及び(b4)前記コンピューティング装置が、前記CNNと連動して作動するコンフィデンスレイヤをもって、前記RPNコンフィデンスマップ及び前記CNNコンフィデンスマップを参照して統合コンフィデンスマップを生成させる段階;を含み、前記コンピューティング装置は、前記CNNをもって、前記予測物体検出結果を含む前記初期物体情報及び前記統合コンフィデンスマップを含む前記初期コンフィデンス情報を出力させる。
本発明の他の態様によると、物体検出プロセスと並行して生成された、物体検出の信頼度(Credibility)を示すコンフィデンスコア(Confidence Score)を利用することによって、コンピューティングパワーを節約しながらもより優れた自律走行性能を達成するためのコンピューティング装置において、インストラクションを格納する少なくとも1つのメモリと、(I)対象車両に設けられた少なくとも一つのイメージセンサを通じて前記対象車両の周辺に対する少なくとも一つの状況イメージ(Circumstance Image)を取得するプロセス、(II)CNN(Convolutional Neural Network)をもって、前記状況イメージにCNN演算を少なくとも一回適用させて、前記状況イメージに関する初期物体情報及び初期コンフィデンス情報を生成させるプロセス、及び(III)前記対象車両から距離が閾値以下である周辺物体のうち少なくとも一部とのV2X通信及び強化学習エージェントの支援を通じて、前記初期物体情報及び前記初期コンフィデンス情報を参照して、前記状況イメージに関する最終物体情報を生成するプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、を含むことを特徴とする装置が提供される。
一実施例において、前記(III)プロセスで、前記プロセッサが、前記強化学習エージェントをもって、(i)前記初期コンフィデンス情報、前記周辺物体の基本メタ情報、及び前記イメージセンサのセンサ情報を参照して、補完演算が適用される前記状況イメージ上の一つ以上の特定の対象領域に対応する一つ以上の特定の周辺物体を、前記周辺物体の中から選択させ、(ii)前記特定の周辺物体との前記V2X通信を介して補完情報を取得させ、(iii)前記補完情報を利用して前記初期物体情報を調整することによって、前記最終物体情報を生成させる。
一実施例において、前記初期コンフィデンス情報、前記基本メタ情報、及び前記センサ情報が前記強化学習エージェントに入力されると、前記強化学習エージェントは、(i)それ自体のパラメータを利用して前記一つ以上の特定の周辺物体を選択し、(ii)前記補完情報を参照して少なくとも一つのリワード(reward)を生成し、(ii)前記リワードを参照して前記パラメータの少なくとも一部を学習する。
一実施例において、前記プロセッサが、前記強化学習エージェントをもって、(i)前記基本メタ情報に含まれている、前記周辺車両の相対的位置情報及び予定経路情報と、(ii)前記センサ情報に含まれている、FOV(Field−Of−View)情報、内部パラメータ情報、外部パラメータ情報、及び歪曲情報と、(iii)前記初期コンフィデンス情報とのうち少なくとも一部を利用して、前記一つ以上の特定の周辺物体を選択するか否かを決定する。
一実施例において、前記プロセッサは、前記特定の周辺物体により生成された参照物体情報及び参照コンフィデンス情報のうち少なくとも一部を含む補完情報、及び前記特定の周辺物体の特定のメタデータを参照して、前記初期物体情報を調整することによって前記最終物体情報を生成し、前記特定の周辺物体は、それ自体の周辺物体に対する物体検出を遂行して前記参照物体情報及び前記参照コンフィデンス情報を生成する。
一実施例において、前記プロセッサが、(IV)前記最終物体情報を自律走行モジュールに伝達することによって、前記自律走行モジュールをもって、前記最終物体情報を利用して前記対象車両の自律走行を遂行するように支援するプロセスをさらに遂行する。
一実施例において、前記(I)プロセス以前に、(I−1)トレーニングイメージが取得されると、学習装置が、前記CNNに含まれている少なくとも一つのコンボリューションレイヤをもって、前記トレーニングイメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのコンボリューション特徴マップを生成させるプロセス;(I−2)前記学習装置が、前記コンボリューション特徴マップに対してアンカー(Anchor)演算を少なくとも一回適用することによって、前記トレーニングイメージ上の予測ROI(Region Of Interest)を生成するプロセスを遂行しつつ、RPN(Region Proposal Network)に含まれている少なくとも一つのアンカーレイヤをもって、前記予測ROIが原本正解(Ground−Truth)ROIと同一であるそれぞれの少なくとも一つの確率を表すそれぞれの少なくとも一つのRPNコンフィデンススコアを前記コンボリューション特徴マップのピクセルごとに生成することによって、前記RPNコンフィデンススコアを含むRPNコンフィデンスマップを生成させるプロセス;(I−3)前記CNNに含まれているROIプーリングレイヤを通じて、前記コンボリューション特徴マップ及び前記予測ROIを利用して生成された少なくとも一つのROIプーリング済み特徴マップが取得されると、前記学習装置は、前記ROIプーリング済み特徴マップを利用して予測物体検出結果を生成するプロセスを遂行しつつ、前記CNNに含まれているFCレイヤをもって、前記予測物体検出結果に含まれるそれぞれの少なくとも一つの予測CNN分類結果及びそれぞれの少なくとも一つの予測CNNリグレッション結果が、原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果と同一であるものと予測されるそれぞれの少なくとも一つの確率を表すそれぞれのCNNコンフィデンススコアを前記予測ROIごとに生成することによって、前記CNNコンフィデンススコアを含むCNNコンフィデンスマップを生成させるプロセス;及び(I−4)前記学習装置が、ロスレイヤをもって、前記RPNコンフィデンスマップと、前記CNNコンフィデンスマップと、前記予測物体検出結果と、前記原本正解物体検出結果とを参照して少なくとも一つのRPNロス及び少なくとも一つのCNNロスを生成させ、前記RPNロス及び前記CNNロスを利用してバックプロパゲーションを遂行することによって前記CNN及び前記RPNに含まれているパラメータのうち少なくとも一部を学習させるプロセス;が遂行されることによって、前記CNNが学習される。
一実施例において、前記(I−4)プロセスで、前記学習装置が、前記ロスレイヤをもって、下記数式にしたがって前記RPNロスを生成させ、
一実施例において、前記(I−4)プロセスで、前記学習装置が、前記ロスレイヤをもって、下記数式にしたがって前記CNNロスを生成させ、
一実施例において、前記(I−3)プロセス以後に、前記学習装置が、コンフィデンスレイヤをもって、前記RPNコンフィデンスマップ及び前記CNNコンフィデンスマップを参照して、前記トレーニングイメージ内のピクセルごとの統合コンフィデンススコアそれぞれに関する情報を含む統合コンフィデンスマップを生成させる。
一実施例において、前記学習装置が、前記コンフィデンスレイヤをもって、(i−1)前記CNNから、前記予測物体検出結果を生成するプロセスが遂行される途中に生成される、前記予測ROIに対するNMS(Non−Maximum Suppression)結果を取得するプロセス、(i−2)前記RPNコンフィデンスマップに対してリサイズ(Resize)演算を少なくとも一回適用してリサイズされたRPNコンフィデンスマップを生成するプロセス、及び(ii)前記NMS結果及び前記リサイズされたRPNコンフィデンスマップを参照して前記統合コンフィデンスマップを生成するプロセスを遂行させる。
一実施例において、前記(II)プロセスは、(II−1)前記状況イメージが取得されると、前記CNNに含まれている少なくとも一つのコンボリューションレイヤをもって、前記状況イメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのコンボリューション特徴マップを生成させるプロセス;(II−2)前記コンボリューション特徴マップに対してアンカー演算を少なくとも一回適用することによって、前記状況イメージ上の予測ROIを生成するためのプロセスを遂行しつつ、RPNに含まれている少なくとも一つのアンカーレイヤをもって、前記予測ROIが原本正解ROIと同一である少なくとも一つの確率それぞれを表す、少なくとも一つのRPNコンフィデンススコアそれぞれを前記コンボリューション特徴マップのピクセルごとに生成することによって、前記RPNコンフィデンススコアを含むRPNコンフィデンスマップを生成させるプロセス;(II−3)前記CNNに含まれているROIプーリングレイヤを通じて前記コンボリューション特徴マップ及び前記予測ROIを利用して生成された少なくとも一つのROIプーリング済み特徴マップが取得されると、前記ROIプーリング済み特徴マップを利用して予測物体検出結果を生成するプロセスを遂行しつつ、前記CNNに含まれるFCレイヤをもって、前記予測物体検出結果に含まれているそれぞれの少なくとも一つの予測CNN分類結果及びそれぞれの少なくとも一つの予測CNNリグレッション結果が、原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果と同一である少なくとも一つの確率それぞれを表すCNNコンフィデンスコアそれぞれを前記予測ROIごとに生成することによって、前記CNNコンフィデンススコアを含むCNNコンフィデンスマップを生成させるプロセス;及び(II−4)前記CNNと連動して作動するコンフィデンスレイヤをもって、前記RPNコンフィデンスマップ及び前記CNNコンフィデンスマップを参照して統合コンフィデンスマップを生成させるプロセスを含み、前記プロセッサは、前記CNNをもって、前記予測物体検出結果を含む前記初期物体情報と、前記統合コンフィデンスマップを含む前記初期コンフィデンス情報とを出力させる。
その他にも、本発明の方法を実行するためのコンピュータプログラムを格納するためのコンピュータ読取り可能な記録媒体がさらに提供される。
本発明は、上述した問題点を解決することを目的とする。
また、本発明によると、強化学習及びV2X(vehicle−to−everything)通信を使用するアテンションドリブン(attention−driven)リソース割り当てを通じて自律走行の安全性を提供するための方法を提供し得る効果がある。
また、本発明によると、物体検出過程と並行して、物体検出の信頼度を表すパラメータであるコンフィデンスコア(Confidence Score)を生成する方法を提供し得る効果がある。
また、本発明によると、他の物体からの閾値より低いコンフィデンスコアを有する領域に関する追加の補完情報を取得して、物体検出をより正確に遂行する方法を提供し得る効果がある。
本発明の前記及び他の目的並びに特徴は、以下の添付図面とともに提供された好ましい実施例の説明において明らかにされる。
本発明の実施例の説明に利用されるために添付された以下である各図面は、本発明の実施例のうちの一部に過ぎず、本発明が属する技術分野でおいて、通常の知識を有する者(以下「通常の技術者」)は、発明的作業が行われることなくこの図面に基づいて他の図面が得られ得る。
図1は、本発明の一実施例にしたがって、強化学習及びV2X(vehicle−to−everything)通信を使用するアテンションドリブン(attention−driven)リソース割り当てを通じて安全な自律走行を提供するための方法を遂行するコンピューティング装置の構成を簡略に示した図面である。
図2は、本発明の一実施例にしたがって、強化学習及びV2X通信を使用するアテンションドリブンリソース割り当てを通じて安全な自律走行を提供するための方法を簡略に示したフローチャートである。
図3は、本発明の一実施例にしたがって、強化学習及びV2X通信を使用するアテンションドリブンリソース割り当てを通じて安全な自律走行を提供するための方法を遂行するのに利用される、特定の周辺物体からの補完情報を取得する一例を簡略に示した図面である。
図4は、本発明の一実施例にしたがって、強化学習及びV2X通信を使用するアテンションドリブンリソース割り当てを通じて安全な自律走行を提供するための方法を遂行するのに利用されるCNN(Convolutional Neural Network)の学習プロセスを簡略に示したフローチャートである。
図5は、本発明の一実施例にしたがって、強化学習及びV2X通信を使用するアテンションドリブンリソース割り当てを通じて安全な自律走行を提供する方法を遂行するのに使用される、CNN、RPN(Region Proposal Network)、ロスレイヤ、及びコンフィデンス(confidence)レイヤを含む学習装置の構成を簡略に示した図面である。
後述する本発明に関する詳細な説明は、本発明の各目的、各技術的解法、及び各長所を明らかにするために本発明が実施され得る特定の実施例を例示として示す添付図面を参照する。これらの実施例は、通常の技術者が本発明を実施することができるように十分詳細に説明される。
また、本発明の詳細な説明及び各請求項にわたって、「含む」という単語及びそれらの変形は、他の技術的各特徴、各付加物、構成要素又は段階を除外することを意図したものではない。通常の技術者にとって本発明の他の各目的、長所及び各特性が、一部は本説明書から、また一部は本発明の実施から明らかになるであろう。以下の例示及び図面は実例として提供され、本発明を限定することを意図したものではない。
さらに、本発明は、本明細書に示された実施例のすべての可能な組合せを網羅する。本発明の多様な実施例は互いに異なるが、相互に排他的である必要はないことが理解されるべきである。例えば、ここに記載されている特定の形状、構造及び特性は、一実施例に関連して本発明の精神及び範囲を逸脱せず、かつ他の実施例で具現され得る。また、それぞれの開示された実施例内の個別の構成要素の位置又は配置は、本発明の精神及び範囲を逸脱せず、かつ変更され得ることが理解されるべきである。したがって、後述の詳細な説明は、限定的な意味として受け取ろうとするものではなく、本発明の範囲は適切に説明されるのであれば、その請求項が主張することと均等な全ての範囲とともに添付された請求項によってのみ限定される。図面において類似の参照符号は、様々な側面にわたって同一であるか、類似する機能を指す。
本発明で言及している各種イメージは、舗装または非舗装道路関連のイメージを含み得、この場合、道路環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではなく、本発明で言及している各種イメージは、道路と関係のないイメージ(例えば、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内と関連したイメージ)でもあり得、この場合、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではない。
以下、本発明の属する技術分野において通常の知識を有する者が本発明を容易に実施し得るようにするために、本発明の好ましい実施例について、添付された図面を参照して詳細に説明することにする。
図1は、本発明の一実施例にしたがって、強化学習及びV2X(vehicle−to−everything)通信を使用するアテンションドリブン(attention−driven)リソース割り当てを通じて安全な自律走行を提供するための方法を遂行するコンピューティング装置の構成を示した図面である。
図1を参照すると、コンピューティング装置100は、追って詳細に説明する構成要素であるCNN(Convolutional Neural Network)130、RPN(Region Proposal Network)140、コンフィデンスレイヤ150、及び強化学習エージェント160を含むことができる。この場合、CNN130、RPN140、コンフィデンスレイヤ150、及び強化学習エージェント160の入出力及び通信過程は、それぞれ通信部110及びプロセッサ120により行われ得る。ただし、図1では、通信部110及びプロセッサ120の具体的な連結関係を省略した。この場合、メモリ115は後述する様々なインストラクション(Instruction)を格納した状態であり得、プロセッサ120はメモリ115に格納されたインストラクションを実行するように設定され、プロセッサ120は、追って説明するインストラクションを実行することによって本発明のプロセスを遂行することができる。このようにコンピューティング装置100が描写されたからといって、コンピューティング装置100が本発明を実施するためのプロセッサ、ミディアム、メモリまたはその他のコンピューティング要素が統合された形態である統合プロセッサ(Integrated Processor)を含む場合を排除するわけではない。
前記コンピューティング装置100は、対象車両と連動して作動することができ、対象車両に設けられた少なくとも一つのイメージセンサを通じて撮影されたイメージを取得することができる。このようなイメージセンサは、カメラの形態で具現されるか、レーダーまたはライダー(Lidar)などのデプスセンサ(Depth Sensor)の形態で具現され得る。
以上、本発明の一実施例にしたがって、強化学習及びV2X通信を使用する前記アテンションドリブンリソース割り当てを通じて安全な自律走行を提供するための方法を遂行するのに使用される前記コンピューティング装置100の構成について説明した。以下、前記方法自体について、図2を参照して説明することにする。
図2は、本発明の一実施例にしたがって、強化学習及びV2X通信を使用する前記アテンションドリブンリソース割り当てを通じて安全な自律走行を提供するための方法を簡略に示したフローチャートである。
図2を参照すると、コンピューティング装置100が、対象車両に搭載されたイメージセンサを通じて対象車両の周辺に対する少なくとも一つの状況イメージ(Circumstance Image)を取得することができる(S100)。以後、コンピューティング装置100が、CNN130をもって、状況イメージにCNN演算を少なくとも一回適用して、状況イメージに関する初期物体情報及び初期コンフィデンス情報を生成させることができる(S200)。以後、コンピューティング装置100は、前記対象車両から距離が閾値以下である周辺物体のうち少なくとも一部とのV2X通信及び前記強化学習エージェント160の支援を通じて、前記初期物体情報及び前記初期コンフィデンス情報を参照して、前記状況イメージに関する最終物体情報を生成することができる(S300)。
概括的なフローは前記のとおりであり、以下、これについてさらに具体的に説明することにする。まず、状況イメージが単一である一実施例について説明する。
イメージセンサを通じて状況イメージが取得されると、コンピューティング装置100が、CNN130をもって、状況イメージに対してCNN演算を適用させることができる。ここで、もし状況イメージが、カメラの形態で設けられた第1イメージセンサを通じて取得されたものであれば、コンピューティング装置100は、3チャンネルイメージに対して最適化された、インプットノード(Input Node)が3個以上である第1CNNをもって、状況イメージに対して第1CNN演算を少なくとも一回適用させることによってCNN演算を適用させることができる。または、状況イメージが、デプスセンサ(Depth Sensor)の形態で設けられた第2イメージセンサを通じて取得されたものであれば、コンピューティング装置100は、デプスイメージに最適化された、インプットノードが1個以上である第2CNNをもって、状況イメージに対して第2CNN演算を少なくとも一回適用させることによってCNN演算を適用させることができる。この場合、「第1CNN」と「第2CNN」の記号は、上記の特定の場合のようにCNN130として機能し得るCNNを区分するために使用される。同様に「第1イメージセンサ」と「第2イメージセンサ」の記号は、上記の特定の場合のようにイメージセンサとして機能し得るイメージセンサを区別するために使用される。
このようなCNN演算を通じて、初期物体情報及び初期コンフィデンス情報が取得されると、コンピューティング装置100は、下記のような補完演算を遂行することによって最終物体情報を生成することができる。
すなわち、前記コンピューティング装置100が、前記強化学習エージェント160をもって、前記初期コンフィデンス情報、前記周辺物体の基本メタ情報、及び前記イメージセンサのセンサ情報を参照して、補完演算が適用される前記状況イメージ上の一つ以上の特定の対象領域に対応する一つ以上の特定の周辺物体を、前記周辺物体の中から選択させることができる。この場合、前記強化学習エージェント160は、どのような特定の周辺物体も選択しないことがある。この場合は、前記強化学習エージェント160が、前記補完演算を遂行してコンフィデンススコアを向上させる特定の対象領域がないものと判断する場合に対応し得る。前記強化学習エージェント160は、このような機能を遂行するために下記のように学習され得る。
すなわち、前記初期コンフィデンス情報、前記基本メタ情報、及び前記センサ情報が入力されると、前記強化学習エージェント160は、それ自体のパラメータを利用して前記一つ以上の特定の周辺物体を選択することができる。その後、前記強化学習エージェント160は、これによって取得された前記補完情報を参照して少なくとも一つのリワード(reward)を生成することができる。この際、前記リワードは、前記補完情報を利用して物体情報が取得される前記特定の対象領域のうちの少なくとも一部領域の広さに比例するはずである。一例として、前記広さが予め設定された閾値以下である場合、前記リワードを0として計算することができる。前記強化学習エージェント160は、前記特定の周辺物体を選択する各イテレーション(iteration)ごとに前記それ自体のパラメータを学習させ、時間が経過するほど、より正確に当該イテレーションにおける前記特定の周辺物体を選択し得るようになるはずである。このような強化学習エージェント160は、強化学習理論の分野において一般的に使用されるニューラルネットワークと類似した構造を有し得る。すなわち、多層のレイヤそれぞれに複数個の仮想ニューロンを含む形態であり得る。
以下、前記強化学習エージェント160に入力される、前記基本メタ情報及び前記センサ情報についても説明することにする。前記基本メタ情報は、前記周辺車両の相対的位置情報及び予定経路情報のうち少なくとも一部を含むことができる。前記相対的位置情報は、相対的に簡単なニューラルネットワークをもって、前記状況イメージを処理させて、前記周辺物体の大まかな位置を検出することによって取得されるか、前記周辺物体とのV2X通信を遂行して取得され得る。前記予定経路情報もまた、前記簡単なニューラルネットワークを利用して取得されるか、前記周辺物体との前記V2X通信を遂行して取得され得る。一方、前記センサ情報は、前記イメージセンサが前記カメラである場合、FOV(Field−Of−View)情報、内部パラメータ情報、外部パラメータ情報、及び歪曲情報のうち少なくとも一部を含むことができ、これらは予め入力されたものであり得る。
ここで、前記特定の周辺物体が選択されて前記コンピューティング装置100と通信する過程について考察するために、図3を参照する。
図3は、本発明の一実施例にしたがって、強化学習及びV2X通信を使用するアテンションドリブンリソース割り当てを通じて安全な自律走行を提供するための方法を遂行するのに利用される、特定の周辺物体からの補完情報を取得する一例を簡略に示した図面である。
図3を参照すると、前記対象車両200、コンフィデンススコアが相対的に低い第1特定の対象領域210に含まれた例示の車両211、及び第2特定の対象領域220を撮影するCCTV221を確認することができる。前記強化学習エージェント160は、十分に学習された状態で、前記V2X通信を通じて前記第1特定の対象領域210及び前記第2特定の対象領域220に関する追加の情報を取得するために、前記例示の車両211を第1特定の周辺物体として、前記CCTV221を第2特定の周辺物体として選択することができる。一例として、前記例示の車両211から取得された、以下に説明される特定のメタデータが利用され得、前記CCTV221から取得された、参照物体情報及び参照コンフィデンス情報もまた利用され得る。
すなわち、前記補完情報は、特定の周辺物体により生成された、前記特定のメタデータ、前記参照物体情報、及び前記参照コンフィデンス情報を含むことができる。この際、前記特定のメタデータは、前記特定の周辺物体の位置及び速度に関する情報を含むことができる。そして、前記参照物体情報及び前記参照コンフィデンス情報は、イメージあるいはレーダー及びライダーを基盤として周辺の物体検出を遂行する前記特定の周辺物体により生成され得る。前述したように、前記特定の周辺物体は、前記特定の対象領域に対応することができる。具体的に、前記特定の周辺物体の一部が前記特定の対象領域に含まれたものであるか、前記特定の周辺物体の一部が検出した情報、すなわち、前記参照物体情報が前記特定の対象領域内の物体に関する情報を含むものであり得る。したがって、前記コンピューティング装置100は、前記補完情報を利用して前記状況イメージのうち信頼度の低い(unconfident)領域、すなわち、前記特定の対象領域を補完することによって、前記最終物体情報を生成することができる。
前記最終物体情報が作成された後、前記コンピューティング装置100が、前記最終物体情報を自律走行モジュールに伝達することによって、前記自律走行モジュールをもって、前記最終物体情報を利用して前記対象車両の自律走行を遂行するように支援することができる。
以上、本発明の全般的な実施例について説明した。以下、前記実施例を遂行するために使用されるCNN130を学習する方法について説明することにし、このために図4を参照する。
図4は、本発明の一実施例にしたがって、強化学習及びV2X通信を使用するアテンションドリブンリソース割り当てを通じて安全な自律走行を提供するための方法を遂行するのに利用されるCNNの学習プロセスを簡略に示したフローチャートである。
図4を参照すると、物体検出プロセスを遂行しつつ、物体検出の信頼度を表すパラメータであるそれぞれのコンフィデンススコアを生成するための学習方法について概括的に考察することができる。
参考までに、以下である説明において、混同を避けるために「学習用」という文言は前述の学習プロセスに関する用語に対して追加され、「テスト用」という文言はテストプロセスに関する用語に対して追加される。
アンカー特徴マップを生成するプロセスを遂行する間、学習装置は、RPN140をもって、予測ROIが原本正解(Ground−Truth)ROIと同一であるそれぞれの少なくとも一つの確率を表すそれぞれのRPNコンフィデンススコアをコンボリューションレイヤ特徴マップに含まれているピクセルごとに生成させることができる。つまり、RPNコンフィデンススコアは、RPN140により遂行されるプロセスの結果の信頼度、すなわち、予測ROIの信頼度を表すパラメータである。
説明の便宜上、予測ROIを決定するプロセスとRPNコンフィデンススコアを生成するプロセスとを分離して述べたが、二つのプロセスは同時に遂行され得る。すなわち、RPN140にコンボリューション特徴マップが入力されると、RPN140内のそれぞれのRPNニューロンは、それ自体の演算を遂行して、それ自体が演算した値を次のRPNニューロンに移すことによって、最後のレイヤでアンカー特徴マップを出力することができる。よって、二つのプロセスは互いに影響を及ぼし、従属的に遂行され得る。しかしながら、二つのプロセスは同時に遂行されなくてもよい。例えば、予測ROIを決定するプロセスが先に遂行され得る。
アンカー特徴マップが生成された以後、学習装置は、予測ROIに関する情報を含む、アンカー特徴マップ内の5A個のチャンネルの値をCNN130に伝達することができ、アンカー特徴マップ内の残りの1つのチャンネルの値を追って説明するコンフィデンスレイヤ150に伝達することができる。まず、CNN130に伝達される5A個のチャンネルの値がどのように処理されるかについて下記のように説明することにする。
前記5A個のチャンネルの値が伝達された後、学習装置は、CNN130内のROIプーリングレイヤをもって、予測ROIに関する情報を参照してコンボリューション特徴マップに対してROIプーリング演算を少なくとも一回適用させることによって、ROIプーリング済み特徴マップ(ROI−Pooled Feature Map)を生成させ(S30)、CNN130内のFCレイヤをもって、ROIプーリング済み特徴マップに対してFC演算を少なくとも一回適用させて、初期物体検出結果及びCNNコンフィデンススコアを生成させることができる。
ここで、初期物体検出結果は、それぞれの物体を含むそれぞれのバウンディングボックスのそれぞれの予測座標に対するそれぞれの初期予測CNNリグレッション結果と、それぞれの物体がそれぞれのクラスに含まれるそれぞれの確率を表す、それぞれの物体のそれぞれのクラススコアに対するそれぞれの初期予測CNN分類結果とを含むことができる。このような初期物体検出結果の生成プロセスは、従来技術のとおりである。
そして、CNNコンフィデンススコアは、追って説明する、予測物体検出結果が原本正解物体検出結果と同一である程度に関する情報を含むことができる。この際、予測物体検出結果は、NMS演算を初期物体検出結果に適用して生成されたものであり得る。詳細には、それぞれのCNNコンフィデンススコアは、予測物体検出結果に含まれているそれぞれの少なくとも一つの予測CNN分類結果及びそれぞれの少なくとも一つの予測CNNリグレッション結果が原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果と同一である少なくとも一つの確率それぞれを表すことができる。つまり、CNNコンフィデンススコアは、CNN130のFCレイヤにより生成された結果の信頼度を表す。
RPNコンフィデンススコアとCNNコンフィデンススコアとを同時に使用する理由は、RPN140により初期に決定された予測ROIがCNN130により処理されることによって予測物体検出結果が生成されるためである。2つのネットワークがいずれも予測物体検出結果を生成するプロセスに関わるため、2つのネットワークは異なる評価がされるべきである。
一例として、特定の予測ROIがRPN140により誤って決定された場合、CNN130のFCレイヤは、誤って決定された特定の予測ROIをフィルタリングすることができる。または、特定の予測ROIがRPN140により正確に予測された場合にも、CNN130のFCレイヤは、特定の予測ROIがどのような物体も含んでいないものと誤って決定することがあり得る。このような場合において、RPN140とCNN130とは誤って遂行されるか正しく遂行され得るので、物体検出プロセスを評価する間、このような場合も考慮されなければならない。
RPN140と同様に、(i)初期物体検出結果とそれに対応する予測物体検出結果とを生成するプロセス、及び(ii)CNNコンフィデンスマップを生成するプロセスは、便宜上別々に説明されたが、この2つのプロセスもやはり相互に従属的であり、FCレイヤ内で同時に遂行されてもよいし、この2つのプロセスは独立して遂行されてもよい。
予測ROIに対するCNNコンフィデンススコアが生成された後、CNNコンフィデンススコアを含むCNNコンフィデンスマップが生成され得る。
以後、学習装置は、CNN130をもって、初期物体検出結果に対してNMSを適用して、重複する予測ROIに対応するバウンディングボックスを統合することによって、予測物体検出結果を生成させることができる。重複する予測ROIが統合されるに伴って、他の予測ROIに重複しない特定の予測ROIに対応する特定のCNNコンフィデンススコアが選択され得る。ここで、NMSの使用方式は広く知られているので、これ以上の説明は省略することにする。

一方、学習装置は、コンフィデンスレイヤ150をもって、RPNコンフィデンスマップに対応するアンカー特徴マップ内の一つのチャンネルの値を取得させることができ、RPN140コンフィデンスマップを利用してトレーニングイメージのような
の幾何学的サイズを有するリサイズされたRPNコンフィデンスマップを生成させることができる。リサイズされたRPNコンフィデンスマップを生成するために、最近傍サイズ(Nearest Neighbor Size)、バイリニアリサイズ(Bilinear Resize)、バイキュービックリサイズ(Bicubic Resize)、及びランチョスリサイズ(Lanczos Resize)などのようなリサイズ演算のうちのどれであっても、トレーニングイメージ内のそれぞれのピクセルがそれぞれのRPNコンフィデンススコアとペアリング(Pairing)をなすように、RPNコンフィデンスマップに対して適用され得る。
予測物体検出結果及びリサイズされたRPNコンフィデンスマップが取得された後、学習装置は、コンフィデンスレイヤ150をもって、これらを参照して統合コンフィデンスマップを生成させることができる。ここで、統合コンフィデンスマップに含まれている統合コンフィデンスコアは、下記数式によって算出され得る。
ただし、正確に統合コンフィデンスマップを生成するためには、CNN130及びRPN140を学習する必要がある。2つのネットワークをどのように学習するのかについて、以下に説明することにする。
すなわち、学習装置はロスレイヤをもって、RPNコンフィデンスマップ、CNNコンフィデンスマップ、予測物体検出結果、及び原本正解物体検出結果を参照して少なくとも一つのRPNロス及び少なくとも一つのCNNロスを生成させることができ(S40)、RPNロス及びCNNロスを利用してバックプロパゲーションを遂行することによってCNN130及びRPN140に含まれているパラメータのうち少なくとも一部を学習させることができる。RPNロス及びCNNロスに関して、以下に詳細に説明することにする。
まず、下記の数式によってRPNロスを生成させることができる。
前記公式において、公式の最初の項は分類のロスを意味し得、二番目の項はリグレッションロスを意味し得る。リグレッションロス項、すなわち、二番目の項はよく知られている従来技術であるので、これに関する説明は省略することにする。分類ロス項、すなわち、最初の項について下記で説明することにする。
以上、本発明のRPNロスを生成する方法について考察してみたところ、以下、本発明のCNNロスを生成する方法について考察してみることにする。
このようにCNNロス及びRPNロスが生成された後、学習装置は、ロスレイヤをもって、CNNロス及びRPNロスをそれぞれバックプロパゲーションすることによって、CNN130及びRPN140に含まれているパラメータのうち少なくとも一部を学習させることができる。以後、CNN130及びRPN140は、入力されたイメージに含まれている物体を検出するプロセスを遂行しつつ、入力される前記イメージに対応するCNNコンフィデンススコア及びRPNコンフィデンススコアをさらに正確に生成することができる。
このような学習過程が完了した後、学習装置は、CNN130をコンピューティング装置100に伝達することができる。また、RPN140及びコンフィデンスレイヤ150は、CNN130に従属的であるので、共にコンピューティング装置100に伝達され得る。CNN130と、RPN140と、コンフィデンスレイヤ150とは、学習が完了したパラメータを利用して学習過程で遂行したものと類似する演算を遂行することができる。つまり、CNN130が状況イメージを取得すると、CNN130と、RPN140と、コンフィデンスレイヤ150とは、学習過程で統合コンフィデンスマップを生成したものと同一の方式で、初期コンフィデンス情報を初期物体情報とともに生成することができる。
ここで、参考説明として、CNNと130、RPN140と、ロスレイヤ150と、コンフィデンスレイヤ160とがどのように互いに連動して動作することによって、物体検出を行う途中にコンフィデンススコアを生成することができるのかについて、図5を参照して説明される。
図5は、本発明の一実施例にしたがって、強化学習及びV2X通信を使用するアテンションドリブンリソース割り当てアルゴリズムを利用して、安全な自律走行を提供する方法を遂行するのに使用される、CNNと、RPNと、ロスレイヤと、コンフィデンスレイヤとを含む学習装置の構成を示した図面である。
このように信頼度に劣る部分に対して物体検出を再び適用して取得されたさらなる情報を利用して自律走行を支援することによって、さらに安全な自律走行が行われ得るはずである。
また、以上にて説明された本発明による各実施例は、多様なコンピュータの構成要素を通じて遂行することができるプログラム命令語の形態で具現されて、コンピュータ読取り可能な記録媒体に格納され得る。前記コンピュータ読取り可能な記録媒体は、プログラム命令語、データファイル、データ構造などを単独で又は組み合わせて含むことができる。前記コンピュータ読取り可能な記録媒体に格納されるプログラム命令語は、本発明のために特別に設計され、構成されたものであるか、コンピュータソフトウェア分野の当業者に公知にされて使用可能なものであり得る。コンピュータ読取り可能な記録媒体の例には、ハードディスク、フロッピーディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスク(Floptical Disk)のような磁気−光メディア(Magneto−Optical Media)、及びROM、RAM、フラッシュメモリなどのようなプログラム命令語を格納して遂行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラによって作られるもののような機械語コードだけでなく、インタープリターなどを使用してコンピュータによって実行され得る高級言語コードも含まれる。前記ハードウェア装置は、本発明による処理を実行するために一つ以上のソフトウェアモジュールとして作動するように構成され得、その反対も同様である。
以上にて本発明が具体的な構成要素などのような特定事項と限定された実施例及び図面によって説明されたが、これは本発明のより全般的な理解の一助とするために提供されたものであるに過ぎず、本発明が前記実施例に限られるものではなく、本発明が属する技術分野において通常の知識を有する者であれば、かかる記載から多様な修正及び変形が行われ得る。
したがって、本発明の思想は、前記説明された実施例に局限されて定められてはならず、後述する特許請求の範囲だけでなく、本特許請求の範囲と均等または等価的に変形されたものすべては、本発明の思想の範囲に属するといえる。

Claims (26)

  1. 物体検出プロセスと並行して生成された、物体検出の信頼度(Credibility)を示すコンフィデンスコア(Confidence Score)を利用することによって、コンピューティングパワーを節約しながらもより優れた自律走行性能を達成するための方法において、
    (a)コンピューティング装置が、対象車両に設けられた少なくとも一つのイメージセンサを通じて前記対象車両の周辺に対する少なくとも一つの状況イメージ(Circumstance Image)を取得する段階;
    (b)前記コンピューティング装置が、CNN(Convolutional Neural Network)をもって、前記状況イメージに対するCNN演算を少なくとも一回適用させて、前記状況イメージに関する初期物体情報及び初期コンフィデンス情報を生成させる段階;及び
    (c)前記コンピューティング装置が、前記対象車両から距離が閾値以下である周辺物体のうち少なくとも一部とのV2X通信及び強化学習エージェントの支援を通じて、前記初期物体情報及び前記初期コンフィデンス情報を参照して、前記状況イメージに関する最終物体情報を生成する段階;
    を含むことを特徴とする方法。
  2. 前記(c)段階で、
    前記コンピューティング装置が、前記強化学習エージェントをもって、(i)前記初期コンフィデンス情報、前記周辺物体の基本メタ情報、及び前記イメージセンサのセンサ情報を参照して、補完演算が適用される前記状況イメージ上の一つ以上の特定の対象領域に対応する一つ以上の特定の周辺物体を、前記周辺物体の中から選択させ、(ii)前記特定の周辺物体との前記V2X通信を介して補完情報を取得させ、(iii)前記補完情報を利用して前記初期物体情報を調整することによって、前記最終物体情報を生成させることを特徴とする請求項1に記載の方法。
  3. 前記初期コンフィデンス情報、前記基本メタ情報、及び前記センサ情報が前記強化学習エージェントに入力されると、前記強化学習エージェントは、(i)それ自体のパラメータを利用して前記一つ以上の特定の周辺物体を選択し、(ii)前記補完情報を参照して少なくとも一つのリワード(reward)を生成し、(iii)前記リワードを参照して前記パラメータの少なくとも一部を学習することを特徴とする請求項2に記載の方法。
  4. 前記コンピューティング装置が、前記強化学習エージェントをもって、(i)前記基本メタ情報に含まれている、前記周辺車両の相対的位置情報及び予定経路情報と、(ii)前記センサ情報に含まれている、FOV(Field−Of−View)情報、内部パラメータ情報、外部パラメータ情報、及び歪曲情報と、(iii)前記初期コンフィデンス情報と、のうち少なくとも一部を利用して、前記一つ以上の特定の周辺物体を選択するか否かを決定することを特徴とする請求項2に記載の方法。
  5. 前記コンピューティング装置は、前記特定の周辺物体により生成された参照物体情報及び参照コンフィデンス情報のうち少なくとも一部を含む補完情報、及び前記特定の周辺物体の特定のメタデータを参照して、前記初期物体情報を調整することによって前記最終物体情報を生成し、前記特定の周辺物体は、それ自体の周辺物体に対する物体検出を遂行して前記参照物体情報及び前記参照コンフィデンス情報を生成することを特徴とする請求項2に記載の方法。
  6. (d)前記コンピューティング装置が、前記最終物体情報を自律走行モジュールに伝達することによって、前記自律走行モジュールをもって、前記最終物体情報を利用して前記対象車両の自律走行を遂行するように支援する段階;
    をさらに含むことを特徴とする請求項1に記載の方法。
  7. 前記(a)段階以前に、
    (a1)トレーニングイメージが取得されると、学習装置が、前記CNNに含まれている少なくとも一つのコンボリューションレイヤをもって、前記トレーニングイメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのコンボリューション特徴マップを生成させる段階;
    (a2)前記学習装置が、前記コンボリューション特徴マップに対してアンカー(Anchor)演算を少なくとも一回適用することによって前記トレーニングイメージ上の予測ROI(Region Of Interest)を生成するプロセスを遂行しつつ、RPN(Region Proposal Network)に含まれている少なくとも一つのアンカーレイヤをもって、前記予測ROIが原本正解(Ground−Truth)ROIと同一であるそれぞれの少なくとも一つの確率を表すそれぞれの少なくとも一つのRPNコンフィデンススコアを前記コンボリューション特徴マップのピクセルごとに生成することによって、前記RPNコンフィデンススコアを含むRPNコンフィデンスマップを生成させる段階;
    (a3)前記CNNに含まれているROIプーリングレイヤを通じて、前記コンボリューション特徴マップ及び前記予測ROIを利用して生成された少なくとも一つのROIプーリング済み特徴マップが取得されると、前記学習装置は、前記ROIプーリング済み特徴マップを利用して予測物体検出結果を生成するプロセスを遂行しつつ、前記CNNに含まれているFCレイヤをもって、前記予測物体検出結果に含まれるそれぞれの少なくとも一つの予測CNN分類結果及びそれぞれの少なくとも一つの予測CNNリグレッション結果が、原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果と同一であるものと予測されるそれぞれの少なくとも一つの確率を表すそれぞれのCNNコンフィデンススコアを前記予測ROIごとに生成することによって、前記CNNコンフィデンススコアを含むCNNコンフィデンスマップを生成させる段階;及び
    (a4)前記学習装置が、ロスレイヤをもって、前記RPNコンフィデンスマップと、前記CNNコンフィデンスマップと、前記予測物体検出結果と、前記原本正解物体検出結果とを参照して少なくとも一つのRPNロス及び少なくとも一つのCNNロスを生成させ、前記RPNロス及び前記CNNロスを利用してバックプロパゲーションを遂行することによって前記CNN及び前記RPNに含まれているパラメータのうち少なくとも一部を学習させる段階;
    をさらに含むことを特徴とする請求項1に記載の方法。
  8. 前記(a3)段階以後に、
    前記学習装置が、コンフィデンスレイヤをもって、前記RPNコンフィデンスマップ及び前記CNNコンフィデンスマップを参照して、前記トレーニングイメージ内のピクセルごとの統合コンフィデンススコアそれぞれに関する情報を含む統合コンフィデンスマップを生成させることを特徴とする請求項7に記載の方法。
  9. 前記学習装置が、前記コンフィデンスレイヤをもって、(i)(i−1)前記CNNから、前記予測物体検出結果を生成するプロセスが遂行される途中に生成される、前記予測ROIに対するNMS(Non−Maximum Suppression)結果を取得するプロセス、(i−2)前記RPNコンフィデンスマップに対してリサイズ(Resize)演算を少なくとも一回適用してリサイズされたRPNコンフィデンスマップを生成するプロセス、及び(ii)前記NMS結果と、前記リサイズされたRPNコンフィデンスマップとを参照して、前記統合コンフィデンスマップを生成するプロセスを遂行させることを特徴とする請求項10に記載の方法。
  10. 前記(b)段階は、
    (b1)前記状況イメージが取得されると、前記コンピューティング装置が、前記CNNに含まれている少なくとも一つのコンボリューションレイヤをもって、前記状況イメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのコンボリューション特徴マップを生成させる段階;
    (b2)前記コンピューティング装置が、前記コンボリューション特徴マップに対してアンカー演算を少なくとも一回適用することによって、前記状況イメージ上の予測ROIを生成するためのプロセスを遂行しつつ、RPNに含まれている少なくとも一つのアンカーレイヤをもって、前記予測ROIが原本正解ROIと同一である少なくとも一つの確率それぞれを表す、少なくとも一つのRPNコンフィデンススコアそれぞれを前記コンボリューション特徴マップのピクセルごとに生成することによって、前記RPNコンフィデンススコアを含むRPNコンフィデンスマップを生成させる段階;
    (b3)前記CNNに含まれているROIプーリングレイヤを通じて、前記コンボリューション特徴マップ及び前記予測ROIを利用して生成された少なくとも一つのROIプーリング済み特徴マップが取得されると、前記コンピューティング装置が、前記ROIプーリング済み特徴マップを利用して予測物体検出結果を生成するプロセスを遂行しつつ、前記CNNに含まれるFCレイヤをもって、前記予測物体検出結果に含まれているそれぞれの少なくとも一つの予測CNN分類結果及びそれぞれの少なくとも一つの予測CNNリグレッション結果が原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果と同一である少なくとも一つの確率それぞれを表すCNNコンフィデンスコアそれぞれを前記予測ROIごとに生成することによって、前記CNNコンフィデンススコアを含むCNNコンフィデンスマップを生成させる段階;及び
    (b4)前記コンピューティング装置が、前記CNNと連動して作動するコンフィデンスレイヤをもって、前記RPNコンフィデンスマップ及び前記CNNコンフィデンスマップを参照して統合コンフィデンスマップを生成させる段階;
    を含み、
    前記コンピューティング装置は、前記CNNをもって、前記予測物体検出結果を含む前記初期物体情報及び前記統合コンフィデンスマップを含む前記初期コンフィデンス情報を出力させることを特徴とする請求項1に記載の方法。
  11. 物体検出プロセスと並行して生成された、物体検出の信頼度(Credibility)を示すコンフィデンスコア(Confidence Score)を利用することによって、コンピューティングパワーを節約しながらもより優れた自律走行性能を達成するためのコンピューティング装置において、
    インストラクションを格納する少なくとも1つのメモリと、
    (I)対象車両に設けられた少なくとも一つのイメージセンサを通じて前記対象車両の周辺に対する少なくとも一つの状況イメージ(Circumstance Image)を取得するプロセス、(II)CNN(Convolutional Neural Network)をもって、前記状況イメージにCNN演算を少なくとも一回適用させて、前記状況イメージに関する初期物体情報及び初期コンフィデンス情報を生成させるプロセス、及び(III)前記対象車両から距離が閾値以下である周辺物体のうち少なくとも一部とのV2X通信及び強化学習エージェントの支援を通じて、前記初期物体情報及び前記初期コンフィデンス情報を参照して、前記状況イメージに関する最終物体情報を生成するプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、
    を含むことを特徴とする装置。
  12. 前記(III)プロセスで、
    前記プロセッサが、前記強化学習エージェントをもって、(i)前記初期コンフィデンス情報、前記周辺物体の基本メタ情報、及び前記イメージセンサのセンサ情報を参照して、補完演算が適用される前記状況イメージ上の一つ以上の特定の対象領域に対応する一つ以上の特定の周辺物体を、前記周辺物体の中から選択させ、(ii)前記特定の周辺物体との前記V2X通信を介して補完情報を取得させ、(iii)前記補完情報を利用して前記初期物体情報を調整することによって、前記最終物体情報を生成させることを特徴とする請求項14に記載の装置。
  13. 前記初期コンフィデンス情報、前記基本メタ情報、及び前記センサ情報が前記強化学習エージェントに入力されると、前記強化学習エージェントは、(i)それ自体のパラメータを利用して前記一つ以上の特定の周辺物体を選択し、(ii)前記補完情報を参照して少なくとも一つのリワード(reward)を生成し、(ii)前記リワードを参照して前記パラメータの少なくとも一部を学習することを特徴とする請求項15に記載の装置。
  14. 前記プロセッサが、前記強化学習エージェントをもって、(i)前記基本メタ情報に含まれている、前記周辺車両の相対的位置情報及び予定経路情報と、(ii)前記センサ情報に含まれている、FOV(Field−Of−View)情報、内部パラメータ情報、外部パラメータ情報、及び歪曲情報と、(iii)前記初期コンフィデンス情報と、のうち少なくとも一部を利用して、前記一つ以上の特定の周辺物体を選択するか否かを決定することを特徴とする請求項15に記載の装置。
  15. 前記プロセッサは、前記特定の周辺物体により生成された参照物体情報及び参照コンフィデンス情報のうち少なくとも一部を含む補完情報、及び前記特定の周辺物体の特定のメタデータを参照して、前記初期物体情報を調整することによって前記最終物体情報を生成し、前記特定の周辺物体は、それ自体の周辺物体に対する物体検出を遂行して前記参照物体情報及び前記参照コンフィデンス情報を生成することを特徴とする請求項15に記載の装置。
  16. 前記プロセッサが、(IV)前記最終物体情報を自律走行モジュールに伝達することによって、前記自律走行モジュールをもって、前記最終物体情報を利用して前記対象車両の自律走行を遂行するように支援するプロセスをさらに遂行することを特徴とする請求項14に記載の装置。
  17. 前記(I)プロセス以前に、
    (I−1)トレーニングイメージが取得されると、学習装置が、前記CNNに含まれている少なくとも一つのコンボリューションレイヤをもって、前記トレーニングイメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのコンボリューション特徴マップを生成させるプロセス;(I−2)前記学習装置が、前記コンボリューション特徴マップに対してアンカー(Anchor)演算を少なくとも一回適用することによって、前記トレーニングイメージ上の予測ROI(Region Of Interest)を生成するプロセスを遂行しつつ、RPN(Region Proposal Network)に含まれている少なくとも一つのアンカーレイヤをもって、前記予測ROIが原本正解(Ground−Truth)ROIと同一であるそれぞれの少なくとも一つの確率を表すそれぞれの少なくとも一つのRPNコンフィデンススコアを前記コンボリューション特徴マップのピクセルごとに生成することによって、前記RPNコンフィデンススコアを含むRPNコンフィデンスマップを生成させるプロセス;(I−3)前記CNNに含まれているROIプーリングレイヤを通じて、前記コンボリューション特徴マップ及び前記予測ROIを利用して生成された少なくとも一つのROIプーリング済み特徴マップが取得されると、前記学習装置は、前記ROIプーリング済み特徴マップを利用して予測物体検出結果を生成するプロセスを遂行しつつ、前記CNNに含まれているFCレイヤをもって、前記予測物体検出結果に含まれるそれぞれの少なくとも一つの予測CNN分類結果及びそれぞれの少なくとも一つの予測CNNリグレッション結果が、原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果と同一であるものと予測されるそれぞれの少なくとも一つの確率を表すそれぞれのCNNコンフィデンススコアを前記予測ROIごとに生成することによって、前記CNNコンフィデンススコアを含むCNNコンフィデンスマップを生成させるプロセス;及び(I−4)前記学習装置が、ロスレイヤをもって、前記RPNコンフィデンスマップと、前記CNNコンフィデンスマップと、前記予測物体検出結果と、前記原本正解物体検出結果とを参照して少なくとも一つのRPNロス及び少なくとも一つのCNNロスを生成させ、前記RPNロス及び前記CNNロスを利用してバックプロパゲーションを遂行することによって前記CNN及び前記RPNに含まれているパラメータのうち少なくとも一部を学習させるプロセス;が遂行されることによって、前記CNNが学習されることを特徴とする請求項14に記載の装置。
  18. 前記(I−3)プロセス以後に、
    前記学習装置が、コンフィデンスレイヤをもって、前記RPNコンフィデンスマップ及び前記CNNコンフィデンスマップを参照して、前記トレーニングイメージ内のピクセルごとの統合コンフィデンススコアそれぞれに関する情報を含む統合コンフィデンスマップを生成させることを特徴とする請求項20に記載の装置。
  19. 前記学習装置が、前記コンフィデンスレイヤをもって、(i−1)前記CNNから、前記予測物体検出結果を生成するプロセスが遂行される途中に生成される、前記予測ROIに対するNMS(Non−Maximum Suppression)結果を取得するプロセス、(i−2)前記RPNコンフィデンスマップに対してリサイズ(Resize)演算を少なくとも一回適用してリサイズされたRPNコンフィデンスマップを生成するプロセス、及び(ii)前記NMS結果及び前記リサイズされたRPNコンフィデンスマップを参照して前記統合コンフィデンスマップを生成するプロセスを遂行させることを特徴とする請求項23に記載の装置。
  20. 前記(II)プロセスは、
    (II−1)前記状況イメージが取得されると、前記CNNに含まれている少なくとも一つのコンボリューションレイヤをもって、前記状況イメージに対してコンボリューション演算を少なくとも一回適用して少なくとも一つのコンボリューション特徴マップを生成させるプロセス;(II−2)前記コンボリューション特徴マップに対してアンカー演算を少なくとも一回適用することによって、前記状況イメージ上の予測ROIを生成するためのプロセスを遂行しつつ、RPNに含まれている少なくとも一つのアンカーレイヤをもって、前記予測ROIが原本正解ROIと同一である少なくとも一つの確率それぞれを表す、少なくとも一つのRPNコンフィデンススコアそれぞれを前記コンボリューション特徴マップのピクセルごとに生成することによって、前記RPNコンフィデンススコアを含むRPNコンフィデンスマップを生成させるプロセス;(II−3)前記CNNに含まれているROIプーリングレイヤを通じて前記コンボリューション特徴マップ及び前記予測ROIを利用して生成された少なくとも一つのROIプーリング済み特徴マップが取得されると、前記ROIプーリング済み特徴マップを利用して予測物体検出結果を生成するプロセスを遂行しつつ、前記CNNに含まれるFCレイヤをもって、前記予測物体検出結果に含まれているそれぞれの少なくとも一つの予測CNN分類結果及びそれぞれの少なくとも一つの予測CNNリグレッション結果が、原本正解物体検出結果に含まれているそれぞれの少なくとも一つの原本正解CNN分類結果及びそれぞれの少なくとも一つの原本正解CNNリグレッション結果と同一である少なくとも一つの確率それぞれを表すCNNコンフィデンスコアそれぞれを前記予測ROIごとに生成することによって、前記CNNコンフィデンススコアを含むCNNコンフィデンスマップを生成させるプロセス;及び(II−4)前記CNNと連動して作動するコンフィデンスレイヤをもって、前記RPNコンフィデンスマップ及び前記CNNコンフィデンスマップを参照して統合コンフィデンスマップを生成させるプロセスを含み、前記プロセッサは、前記CNNをもって、前記予測物体検出結果を含む前記初期物体情報と、前記統合コンフィデンスマップを含む前記初期コンフィデンス情報とを出力させることを特徴とする請求項14に記載の装置。
JP2020010140A 2019-01-31 2020-01-24 自律走行の安全性を提供するための方法及び装置 Active JP6941386B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962799332P 2019-01-31 2019-01-31
US62/799,332 2019-01-31
US16/738,749 2020-01-09
US16/738,749 US11010668B2 (en) 2019-01-31 2020-01-09 Method and device for attention-driven resource allocation by using reinforcement learning and V2X communication to thereby achieve safety of autonomous driving

Publications (2)

Publication Number Publication Date
JP2020126640A true JP2020126640A (ja) 2020-08-20
JP6941386B2 JP6941386B2 (ja) 2021-09-29

Family

ID=69191989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020010140A Active JP6941386B2 (ja) 2019-01-31 2020-01-24 自律走行の安全性を提供するための方法及び装置

Country Status (5)

Country Link
US (1) US11010668B2 (ja)
EP (1) EP3690731A3 (ja)
JP (1) JP6941386B2 (ja)
KR (1) KR102396274B1 (ja)
CN (1) CN111507159B (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3805986A1 (en) * 2019-10-07 2021-04-14 Robert Bosch GmbH Method for measuring the boundary performance of a semantic segmentation network
WO2022039319A1 (ko) * 2020-08-21 2022-02-24 (주)와토시스 개인정보 비식별화 처리 방법, 검증 방법 및 시스템
KR20230066018A (ko) * 2020-10-06 2023-05-12 엘지전자 주식회사 자율 주행 시스템에서 v2x 통신 장치의 강화 학습 수행 방법
JP2023550776A (ja) * 2020-11-30 2023-12-05 エヌイーシー ラボラトリーズ アメリカ インク 自己最適化ビデオ分析パイプライン
CN112616131B (zh) * 2020-12-11 2022-05-13 北京邮电大学 一种基于视频内容优先级的车联网资源分配方法
KR102574540B1 (ko) * 2022-11-22 2023-09-07 (주)와토시스 영상 내 개인정보 영역 검출 방법 및 시스템
CN116030438B (zh) * 2023-03-30 2023-06-23 斯润天朗(北京)科技有限公司 基于时间同步的协作式感知方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018028906A (ja) * 2016-08-16 2018-02-22 トヨタ自動車株式会社 ディープ(双方向)再帰型ニューラルネットワークを用いたセンサデータの時間融合に基づく効率的な運転者行動予測システム
JP2018027776A (ja) * 2016-08-16 2018-02-22 トヨタ自動車株式会社 運転者行動予測モデルの個人適合
JP2018190217A (ja) * 2017-05-09 2018-11-29 オムロン株式会社 運転者監視装置、及び運転者監視方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2574958B1 (en) * 2011-09-28 2017-02-22 Honda Research Institute Europe GmbH Road-terrain detection method and system for driver assistance systems
US9365213B2 (en) * 2014-04-30 2016-06-14 Here Global B.V. Mode transition for an autonomous vehicle
US9965719B2 (en) * 2015-11-04 2018-05-08 Nec Corporation Subcategory-aware convolutional neural networks for object detection
US10479373B2 (en) * 2016-01-06 2019-11-19 GM Global Technology Operations LLC Determining driver intention at traffic intersections for automotive crash avoidance
US9858496B2 (en) * 2016-01-20 2018-01-02 Microsoft Technology Licensing, Llc Object detection and classification in images
US10209718B2 (en) * 2017-03-14 2019-02-19 Starsky Robotics, Inc. Vehicle sensor system and method of use
CN107730904A (zh) * 2017-06-13 2018-02-23 银江股份有限公司 基于深度卷积神经网络的多任务车辆逆向行驶视觉检测系统
US9946960B1 (en) * 2017-10-13 2018-04-17 StradVision, Inc. Method for acquiring bounding box corresponding to an object in an image by using convolutional neural network including tracking network and computing device using the same
CN108830188B (zh) * 2018-05-30 2022-03-04 西安理工大学 基于深度学习的车辆检测方法
CN109241982B (zh) 2018-09-06 2021-01-29 广西师范大学 基于深浅层卷积神经网络的目标检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018028906A (ja) * 2016-08-16 2018-02-22 トヨタ自動車株式会社 ディープ(双方向)再帰型ニューラルネットワークを用いたセンサデータの時間融合に基づく効率的な運転者行動予測システム
JP2018027776A (ja) * 2016-08-16 2018-02-22 トヨタ自動車株式会社 運転者行動予測モデルの個人適合
JP2018190217A (ja) * 2017-05-09 2018-11-29 オムロン株式会社 運転者監視装置、及び運転者監視方法

Also Published As

Publication number Publication date
CN111507159B (zh) 2023-12-01
EP3690731A2 (en) 2020-08-05
KR102396274B1 (ko) 2022-05-11
US11010668B2 (en) 2021-05-18
KR20200096132A (ko) 2020-08-11
CN111507159A (zh) 2020-08-07
EP3690731A3 (en) 2020-10-28
JP6941386B2 (ja) 2021-09-29
US20200250526A1 (en) 2020-08-06

Similar Documents

Publication Publication Date Title
JP2020126640A (ja) 自律走行の安全性を提供するための方法及び装置
JP6895694B2 (ja) Avm及び強化学習を利用して自律走行の安全性を達成するためのアテンション−ドリブンアルゴリズムを利用したリソース割り当てのための方法及び装置{method and device for attention−driven resource allocation by using avmand reinforcement learning to thereby achieve safety of autonomous driving}
JP6923960B2 (ja) 自動駐車システムを提供するために決定地点間の関係及び決定地点に対するリグレッション結果を利用して駐車スペースを検出する学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置
CN111507157B (zh) 基于强化学习而在自动驾驶时优化资源分配的方法及装置
JP6857371B2 (ja) 安全な自律走行を支援する学習方法、そしてこれを利用した学習装置、テスト方法、及びテスト装置
EP3660745B1 (en) Real time decision making for autonomous driving vehicles
US10997729B2 (en) Real time object behavior prediction
EP3822852B1 (en) Method, apparatus, computer storage medium and program for training a trajectory planning model
KR20190026116A (ko) 객체 인식 방법 및 장치
US20200239029A1 (en) Learning method and learning device for determining whether to switch mode of vehicle from manual driving mode to autonomous driving mode by performing trajectory-based behavior analysis on recent driving route
KR102321004B1 (ko) 온 디바이스 독립형 예측에 기반하여 자율 주행 차량의 모드를 전환함으로써 자율 주행의 안전성을 도모하는 학습 방법 및 학습 장치, 그리고 이를 이용한 테스팅 방법 및 테스팅 장치
JP6890855B2 (ja) Avmを利用して自律走行の安全性を達成するためのアテンションドリブンアルゴリズムを利用したリソース割り当てのための方法及び装置{method and device for attention−driven resource allocation by using avm to thereby achieve safety of autonomous driving}
US11814072B2 (en) Method and system for conditional operation of an autonomous agent
JP6903352B2 (ja) 非最大値抑制を学習する併合ネットワークを利用した異種センサ融合のための学習方法及び学習装置{learning method and learning device for heterogeneous sensor fusion by using merging network which learns non−maximum suppression}
US11713044B2 (en) Vehicle for estimation a state of the other vehicle using reference point of the other vehicle, and method of controlling the vehicle
US20210398014A1 (en) Reinforcement learning based control of imitative policies for autonomous driving
CN111497939A (zh) 用于自主行驶车辆的方法和装置
US11810371B1 (en) Model-based localization on high-definition maps
US20210366096A1 (en) Hazard detection ensemble architecture system and method
Huang et al. iCOIL: Scenario Aware Autonomous Parking Via Integrated Constrained Optimization and Imitation Learning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210830

R150 Certificate of patent or registration of utility model

Ref document number: 6941386

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150