JP6857371B2 - 安全な自律走行を支援する学習方法、そしてこれを利用した学習装置、テスト方法、及びテスト装置 - Google Patents

安全な自律走行を支援する学習方法、そしてこれを利用した学習装置、テスト方法、及びテスト装置 Download PDF

Info

Publication number
JP6857371B2
JP6857371B2 JP2020010125A JP2020010125A JP6857371B2 JP 6857371 B2 JP6857371 B2 JP 6857371B2 JP 2020010125 A JP2020010125 A JP 2020010125A JP 2020010125 A JP2020010125 A JP 2020010125A JP 6857371 B2 JP6857371 B2 JP 6857371B2
Authority
JP
Japan
Prior art keywords
test
neural network
feature map
learning
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020010125A
Other languages
English (en)
Other versions
JP2020126639A (ja
Inventor
− ヒョン キム、ケイ
− ヒョン キム、ケイ
キム、ヨンジュン
− キョン キム、ハク
− キョン キム、ハク
ナム、ウヒョン
ブー、ソッフン
ソン、ミュンチュル
シン、ドンス
ヨー、ドンフン
リュー、ウジュ
− チュン イ、ミョン
− チュン イ、ミョン
イ、ヒョンス
チャン、テウン
ジョン、キュンチョン
チェ、ホンモ
チョウ、ホジン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stradvision Inc
Original Assignee
Stradvision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stradvision Inc filed Critical Stradvision Inc
Publication of JP2020126639A publication Critical patent/JP2020126639A/ja
Application granted granted Critical
Publication of JP6857371B2 publication Critical patent/JP6857371B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • B60W30/165Automatically following the path of a preceding lead vehicle, e.g. "electronic tow-bar"
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4046Behavior, e.g. aggressive or erratic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/35Data fusion
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Automation & Control Theory (AREA)
  • General Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Databases & Information Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Electromagnetism (AREA)
  • Train Traffic Observation, Control, And Security (AREA)

Description

様々なソースから取得される情報のフュージョンを通じて周辺物体のモーションを予測することによって、事故の危険を回避して安全な自律走行を支援する学習方法、そしてこれを利用した学習装置、テスト方法、及びテスト装置{LEARNING METHOD FOR SUPPORTING SAFER AUTONOMOUS DRIVING WITHOUT DANGER OF ACCIDENT BY ESTIMATING MOTIONS OF SURROUNDING OBJECTS THROUGH FUSION OF INFORMATION FROM MULTIPLE SOURCES, LEARNING DEVICE, TESTING METHOD AND TESTING DEVICE USING THE SAME}
本発明は、自律走行車両に使用されるための方法及び装置に関し、より詳細には、様々なソース(source)から取得される情報のフュージョン(fusion)を通じて周辺物体のモーションを予測することによって、事故の危険を回避して安全な自律走行を遂行するように支援する学習方法、そしてこれを利用した学習装置、テスト方法、及びテスト装置に関する。
近年、自動車安全支援システムと自律走行システムとが急速に発展して、知能型自動車サービスの技術である協力走行技術が提案されている。
従来の協力走行技術は、自動車間の協力レベルによって大きく3つの技術に分類されるが、一つは個別の自動車中心の自律走行技術であり、もう一つは護送(convoy)技術であり、また他の一つは、群集走行(platooning)技術である。
護送(Convoy)技術は、車両の移動パターン及びフォーメーションを保持して遂行される技術であって、リーディング車両なしに各運転者がそれらの車両を運転することを特徴とする。これと同様に、群集走行(Platooning)技術は、車両の移動パターン及びフォーメーションを保持して遂行される。しかし、群集走行技術は、少なくとも一つのリーディング車両及び少なくとも一つの後続車両を含む。ここで、前記後続車両は運転者の介入なしに前記リーディング車両の運行に従って制御されることを特徴とする。
すなわち、群集走行の間に、後続車両のステアリングホイール、アクセル、ブレーキなどを制御することのできる少なくとも一つのリーディング車両のアシストによって、各自律走行車両がそれらの間の距離を保持しながら安全に走行することができる。
群集走行には様々な長所がある。例えば、空気抵抗を低くして燃費を向上させて、排気ガスの排出量を減らすことができる。また、多数の車両が交通法規を遵守することで道路の運営効率性も高めることができる。
一方、自律走行車両は、他の自律走行車両及び/又は非自律走行車両と共に道路を走行することができる。すなわち、道路条件、運転者条件などの様々な変数によって、自律走行車両がそれ自体のモードを半自律走行モード、自律走行モード、一般走行モードに切り換えることができる。
したがって、従来の群集走行技術においては、自律走行車両が走行している道路に事故が発生した場合、適切に対応できなければ2次事故につながり得る問題点がある。
本発明は、上述した問題点を全て解決することをその目的とする。
本発明は、自律走行車両をもって、車両群集走行(platooning)のうち少なくとも一つの事故発生の際に適切に対応し得るようにすることを他の目的とする。
また、本発明は、前記自律走行車両をもって、事故の危険性が高い一つ以上の周辺物体を回避し得るようにすることをまた他の目的とする。
前記のような本発明の目的を達成し、後述する本発明の特徴的な効果を実現するための本発明の特徴的な構成は以下のとおりである。
本発明の一態様によると、イメージ及び通信を介して取得される各情報のフュージョンを使用して、一つ以上の周辺物体の一つ以上のモーション(motion)を予測することによって、事故の危険を回避して安全な自律走行を遂行するように支援する学習方法において、(a)学習装置が、対象車両に搭載された少なくとも一つのカメラを通じて少なくとも一つの状況イメージが取得されると、第1ニューラルネットワークをもって、前記状況イメージに少なくとも一つの第1ニューラルネットワーク演算を適用して、前記状況イメージに対応する少なくとも一つのイメージ基盤の特徴マップを生成させるプロセス、及び前記対象車両に搭載された少なくとも一つの通信モジュールを通じて状況通信情報が取得されると、第2ニューラルネットワークをもって、前記状況通信情報に少なくとも一つの第2ニューラルネットワーク演算を適用して、前記状況通信情報に対応する通信基盤の特徴マップを生成させるプロセスを遂行する段階;(b)前記学習装置が、第3ニューラルネットワークをもって、前記イメージ基盤の特徴マップ及び前記通信基盤の特徴マップに少なくとも一つの第3ニューラルネットワーク演算を適用して、統合特徴マップを生成させる段階;(c)前記学習装置が、第4ニューラルネットワークをもって、前記統合特徴マップに少なくとも一つの第4ニューラルネットワーク演算を適用して、特定の時間範囲の間における前記周辺物体のモーション予測結果である予測周辺モーション情報を生成させる段階;及び(d)前記学習装置が、第1ロスレイヤをもって、前記予測周辺モーション情報及びこれに対応する原本正解(Ground Truth)周辺モーション情報を参照して少なくとも一つのモーションロスを生成させ、前記モーションロスを使用してバックプロパゲーション(backpropagation)を遂行することによって、前記第1ないし前記第4ニューラルネットワークのパラメータのうち少なくとも一部を学習させる段階;を含むことを特徴とする方法が提供される。
一実施例において、前記(a)段階で、前記学習装置が、(i)前記第2ニューラルネットワークに含まれている少なくとも一つの第2FC(Fully−Connected)レイヤをもって、前記対象車両から閾値以下の距離に位置する周辺物体それぞれに対する通信基盤のメタデータをそれぞれの通信基盤のメタデータベクトルとして含む前記状況通信情報に少なくとも一つの第2FC演算を適用して、それぞれの前記通信基盤のメタデータベクトルに対応する通信基盤のメタ特徴ベクトルを生成させ、(ii)前記第2ニューラルネットワークに含まれている少なくとも一つの第2プーリングレイヤをもって、前記通信基盤のメタ特徴ベクトルに少なくとも一つの第2プーリング演算を適用して前記通信基盤の特徴マップを生成させる。
一実施例において、前記(c)段階で、前記学習装置が、前記第4ニューラルネットワークをもって、(i)前記カメラ及び前記通信モジュールを通じて取得されたグローバル情報に対応する前記統合特徴マップ、及び(ii)それぞれの前記周辺物体に関するローカル情報に対応する前記通信基盤の特徴マップが生成される過程で使用された一つ以上の通信基盤のメタ特徴ベクトルを含むメタ特徴マップに、前記第4ニューラルネットワーク演算を適用して前記予測周辺モーション情報を生成させる。
一実施例において、前記(c)段階で、前記学習装置が、前記カメラを通じて取得された前記周辺物体に対するイメージ基盤のメタデータに対応する一つ以上のイメージ基盤のメタ特徴ベクトル及び前記通信基盤のメタ特徴ベクトルを参照して、前記メタ特徴マップを生成する。
一実施例において、前記(b)段階で、前記学習装置は、前記通信基盤の特徴マップ及び前記イメージ基盤の特徴マップをチャンネルごとにコンカチネート(channel−wise concatenating)して臨時の特徴マップを生成し、RNN(Recurrent Neural Network)として具現された前記第3ニューラルネットワークをもって、前記第3ニューラルネットワークに以前に入力された情報に対応する状態ベクトルを使用して前記臨時の特徴マップに前記第3ニューラルネットワーク演算を適用することによって、前記統合特徴マップを生成させる。
一実施例において、前記第3ニューラルネットワークは、前記RNNの一種であるLSTM(Long−Short Term Memory)ネットワークとして具現される。
一実施例において、前記学習装置は、前記第1ロスレイヤをもって、(i)前記状況イメージ及び前記状況通信情報が所定の第T時点に対応する場合、前記第T時点以後の時点である第T+1時点における前記周辺物体の位置情報及び速度情報を参照して取得された前記原本正解周辺モーション情報、及び(ii)前記予測周辺モーション情報を参照して、前記モーションロスを生成させる。
一実施例において、(e)前記学習装置が、前記第1ないし前記第4ニューラルネットワークの学習が完了した状態で、第5ニューラルネットワークをもって、学習が完了した前記第4ニューラルネットワークから出力された予測周辺モーション情報に少なくとも一つの第5ニューラルネットワーク演算を適用して、前記特定の時間範囲の間に前記対象車両との関連度が閾値以上である事故が起きる確率に関する情報を含む予測危険情報を生成させる段階;及び(f)前記学習装置が、第2ロスレイヤをもって、前記予測危険情報及びこれに対応する原本正解危険情報を参照して少なくとも一つの危険ロスを生成させ、前記危険ロスを使用してバックプロパゲーションを遂行することによって、前記第5ニューラルネットワークのパラメータのうち少なくとも一部を学習させる段階;をさらに含む。
一実施例において、前記(a)段階で、前記学習装置が、前記第1ニューラルネットワークに含まれている第1コンボリューションレイヤをもって、前記状況イメージに少なくとも一つの第1コンボリューション演算を適用して少なくとも一つの第1特徴マップを生成させ、前記第1ニューラルネットワークに含まれている第1プーリングレイヤをもって、前記第1特徴マップに少なくとも一つの第1プーリング演算を適用して少なくとも一つの第1プーリング済み特徴マップを生成させ、前記第1ニューラルネットワークに含まれている第1FCレイヤをもって、前記第1プーリング済み特徴マップに少なくとも一つの第1FC演算を適用して前記イメージ基盤の特徴マップを生成させる。
本発明の他の態様によると、イメージ及び通信を介して取得される各情報のフュージョンを使用して一つ以上のテスト用周辺物体の一つ以上のモーションを予測することによって、事故の危険を回避して安全な自律走行を遂行するように支援するテスト方法において、(a)(1)学習装置が、学習用対象車両に搭載された少なくとも一つの学習用カメラを通じて少なくとも一つの学習用状況イメージが取得されると、第1ニューラルネットワークをもって、前記学習用状況イメージに少なくとも一つの第1ニューラルネットワーク演算を適用して、前記学習用状況イメージに対応する少なくとも一つの学習用イメージ基盤の特徴マップを生成させるプロセス、及び前記学習用対象車両に搭載された少なくとも一つの学習用通信モジュールを通じて学習用状況通信情報が取得されると、第2ニューラルネットワークをもって、前記学習用状況通信情報に少なくとも一つの第2ニューラルネットワーク演算を適用して、前記学習用状況通信情報に対応する学習用通信基盤の特徴マップを生成させるプロセスを遂行し、(2)前記学習装置が、第3ニューラルネットワークをもって、前記学習用イメージ基盤の特徴マップ及び前記学習用通信基盤の特徴マップに少なくとも一つの第3ニューラルネットワーク演算を適用して、学習用統合特徴マップを生成させ、(3)前記学習装置が、第4ニューラルネットワークをもって、前記学習用統合特徴マップに少なくとも一つの第4ニューラルネットワーク演算を適用して、特定の時間範囲の間における学習用周辺物体のモーション予測結果である学習用予測周辺モーション情報を生成させ、(4)前記学習装置が、第1ロスレイヤをもって、前記学習用予測周辺モーション情報及びこれに対応する原本正解周辺モーション情報を参照して少なくとも一つのモーションロスを生成させ、前記モーションロスを使用してバックプロパゲーションを遂行することによって前記第1ないし前記第4ニューラルネットワークのパラメータのうち少なくとも一部を学習させた状態で、テスト装置が、テスト用対象車両に搭載された少なくとも一つのテスト用カメラを通じて少なくとも一つのテスト用状況イメージが取得されると、前記第1ニューラルネットワークをもって、前記テスト用状況イメージに前記第1ニューラルネットワーク演算を適用して、前記テスト用状況イメージに対応する少なくとも一つのテスト用イメージ基盤の特徴マップを生成させるプロセス、及び前記テスト用対象車両に搭載された少なくとも一つのテスト用通信モジュールを通じてテスト用状況通信情報が取得されると、前記第2ニューラルネットワークをもって、前記テスト用状況通信情報に前記第2ニューラルネットワーク演算を適用して、前記テスト用状況通信情報に対応する少なくとも一つのテスト用通信基盤の特徴マップを生成させるプロセスを遂行する段階;(b)前記テスト装置が、前記第3ニューラルネットワークをもって、前記テスト用イメージ基盤の特徴マップ及び前記テスト用通信基盤の特徴マップに前記第3ニューラルネットワーク演算を適用して、テスト用統合特徴マップを生成させる段階;及び(c)前記テスト装置が、前記第4ニューラルネットワークをもって、前記テスト用統合特徴マップに前記第4ニューラルネットワーク演算を適用して、前記特定の時間範囲の間における前記テスト用周辺物体のモーション予測結果であるテスト用予測周辺モーション情報を生成させる段階;を含むことを特徴とする方法が提供される。
一実施例において、(d)前記テスト装置が、前記第1ないし前記第4ニューラルネットワークを使用して学習が完了した第5ニューラルネットワークをもって、前記テスト用予測周辺モーション情報に少なくとも一つの第5ニューラルネットワーク演算を適用して、前記特定の時間範囲の間に前記テスト用対象車両との関連度が閾値以上である事故が起きる確率に関する情報を含むテスト用予測危険情報を生成させる段階;をさらに含む。
一実施例において、(e)前記テスト装置が、前記テスト用対象車両が群集走行(platooning)を通じて前記自律走行を遂行している場合、前記テスト用予測危険情報を参照して群集走行パラメータを調整する段階;をさらに含む。
一実施例において、前記テスト装置が、前記テスト用対象車両との前記関連度が前記臨界値以上である特定の事故が実際に発生して検出された場合、前記特定の事故に関する情報を前記テスト用周辺物体と共有し、前記テスト用対象車両をもって、前記特定の事故により発生する危険な状況を回避するための走行戦略を参照して前記自律走行を遂行するように支援する。
一実施例において、前記(c)段階で、前記テスト装置が、前記第4ニューラルネットワークをもって、(i)前記テスト用カメラ及び前記テスト用通信モジュールを通じて取得されたテスト用グローバル情報に対応する前記テスト用統合特徴マップ、及び(ii)それぞれの前記テスト用周辺物体に関するテスト用ローカル情報に対応する、前記テスト用通信基盤の特徴マップが生成される過程で使用された一つ以上のテスト用通信基盤のメタ特徴ベクトルを含むテスト用メタ特徴マップに、前記第4ニューラルネットワーク演算を適用して前記テスト用予測周辺モーション情報を生成させる。
一実施例において、前記(c)段階で、前記テスト装置が、前記テスト用カメラを通じて取得された前記テスト用周辺物体に対するテスト用イメージ基盤のメタデータに対応する一つ以上のテスト用イメージ基盤のメタ特徴ベクトル及び前記テスト用通信基盤のメタ特徴ベクトルを参照して、前記テスト用メタ特徴マップを生成する。
本発明のまた他の態様によると、イメージ及び通信を介して取得される各情報のフュージョンを使用して、一つ以上の周辺物体の一つ以上のモーション(motion)を予測することによって、事故の危険を回避して安全な自律走行を遂行するように支援する学習装置において、一つ以上のインストラクションを格納する少なくとも一つのメモリと、(I)対象車両に搭載された少なくとも一つのカメラを通じて少なくとも一つの状況イメージが取得されると、第1ニューラルネットワークをもって、前記状況イメージに少なくとも一つの第1ニューラルネットワーク演算を適用して、前記状況イメージに対応する少なくとも一つのイメージ基盤の特徴マップを生成させ、前記対象車両に搭載された少なくとも一つの通信モジュールを通じて状況通信情報が取得されると、第2ニューラルネットワークをもって、前記状況通信情報に少なくとも一つの第2ニューラルネットワーク演算を適用して、前記状況通信情報に対応する通信基盤の特徴マップを生成させるプロセス、(II)第3ニューラルネットワークをもって、前記イメージ基盤の特徴マップ及び前記通信基盤の特徴マップに少なくとも一つの第3ニューラルネットワーク演算を適用して、統合特徴マップを生成させるプロセス、(III)第4ニューラルネットワークをもって、前記統合特徴マップに少なくとも一つの第4ニューラルネットワーク演算を適用して、特定の時間範囲の間における前記周辺物体のモーション予測結果である予測周辺モーション情報を生成させるプロセス、及び(IV)第1ロスレイヤをもって、前記予測周辺モーション情報及びこれに対応する原本正解(Ground Truth)周辺モーション情報を参照して少なくとも一つのモーションロスを生成させ、前記モーションロスを使用してバックプロパゲーション(backpropagation)を遂行することによって、前記第1乃至前記第4ニューラルネットワークのパラメータのうち少なくとも一部を学習させるプロセスを遂行するための前記各インストラクションを実行するように構成された少なくとも一つのプロセッサと、を含むことを特徴とする装置が提供される。
一実施例において、前記(I)プロセスで、前記プロセッサが、(i)前記第2ニューラルネットワークに含まれている少なくとも一つの第2FC(Fully−Connected)レイヤをもって、前記対象車両から閾値以下の距離に位置する周辺物体それぞれに対する通信基盤のメタデータをそれぞれの通信基盤のメタデータベクトルとして含む前記状況通信情報に少なくとも一つの第2FC演算を適用して、それぞれの前記通信基盤のメタデータベクトルに対応する通信基盤のメタ特徴ベクトルを生成させ、(ii)前記第2ニューラルネットワークに含まれている少なくとも一つの第2プーリングレイヤをもって、前記通信基盤のメタ特徴ベクトルに少なくとも一つの第2プーリング演算を適用して前記通信基盤の特徴マップを生成させる。
一実施例において、前記(III)プロセスで、前記プロセッサが、前記第4ニューラルネットワークをもって、(i)前記カメラ及び前記通信モジュールを通じて取得されたグローバル情報に対応する前記統合特徴マップ、及び(ii)それぞれの前記周辺物体に関するローカル情報に対応する、前記通信基盤の特徴マップが生成される過程で使用された一つ以上の通信基盤のメタ特徴ベクトルを含むメタ特徴マップに、前記第4ニューラルネットワーク演算を適用して前記予測周辺モーション情報を生成させる。
一実施例において、前記(III)プロセスで、前記プロセッサが、前記カメラを通じて取得された前記周辺物体に対するイメージ基盤のメタデータに対応する一つ以上のイメージ基盤のメタ特徴ベクトル及び前記通信基盤のメタ特徴ベクトルを参照して、前記メタ特徴マップを生成する。
一実施例において、前記(II)プロセスで、前記プロセッサは、前記通信基盤の特徴マップ及び前記イメージ基盤の特徴マップをチャンネルごとにコンカチネート(channel−wise concatenating)して臨時の特徴マップを生成し、RNN(Recurrent Neural Network)として具現された前記第3ニューラルネットワークをもって、前記第3ニューラルネットワークに以前に入力された情報に対応する状態ベクトルを使用して前記臨時の特徴マップに前記第3ニューラルネットワーク演算を適用することによって、前記統合特徴マップを生成させる。
一実施例において、前記第3ニューラルネットワークは、前記RNNの一種であるLSTM(Long−Short Term Memory)ネットワークとして具現される。
一実施例において、前記プロセッサは、前記第1ロスレイヤをもって、(i)前記状況イメージ及び前記状況通信情報が所定の第T時点に対応する場合、前記第T時点以後の時点である第T+1時点における前記周辺物体の位置情報及び速度情報を参照して取得された前記原本正解周辺モーション情報、及び(ii)前記予測周辺モーション情報を参照して、前記モーションロスを生成させる。
一実施例において、前記プロセッサは、(V)前記第1ないし前記第4ニューラルネットワークの学習が完了した状態で、第5ニューラルネットワークをもって、学習が完了した前記第4ニューラルネットワークから出力された予測周辺モーション情報に少なくとも一つの第5ニューラルネットワーク演算を適用して、前記特定の時間範囲の間に前記対象車両との関連度が閾値以上である事故が起きる確率に関する情報を含む予測危険情報を生成させるプロセス、及び(VI)第2ロスレイヤをもって、前記予測危険情報及びこれに対応する原本正解危険情報を参照して少なくとも一つの危険ロスを生成させ、前記危険ロスを使用してバックプロパゲーションを遂行することによって前記第5ニューラルネットワークのパラメータのうち少なくとも一部を学習させるプロセスをさらに遂行する。
一実施例において、前記(I)プロセスで、前記プロセッサが、前記第1ニューラルネットワークに含まれている第1コンボリューションレイヤをもって、前記状況イメージに少なくとも一つの第1コンボリューション演算を適用して少なくとも一つの第1特徴マップを生成させ、前記第1ニューラルネットワークに含まれている第1プーリングレイヤをもって、前記第1特徴マップに少なくとも一つの第1プーリング演算を適用して少なくとも一つの第1プーリング済み特徴マップを生成させ、前記第1ニューラルネットワークに含まれている第1FCレイヤをもって、前記第1プーリング済み特徴マップに少なくとも一つの第1FC演算を適用して前記イメージ基盤の特徴マップを生成させる。
本発明のまた他の態様によると、イメージ及び通信を介して取得される各情報のフュージョンを使用して、一つ以上のテスト用周辺物体の一つ以上のモーションを予測することによって、事故の危険を回避して安全な自律走行を遂行するように支援するテスト装置において、一つ以上のインストラクションを格納する少なくとも一つのメモリと、(I)(1)学習装置が、学習用対象車両に搭載された少なくとも一つの学習用カメラを通じて少なくとも一つの学習用状況イメージが取得されると、第1ニューラルネットワークをもって、前記学習用状況イメージに少なくとも一つの第1ニューラルネットワーク演算を適用して、前記学習用状況イメージに対応する少なくとも一つの学習用イメージ基盤の特徴マップを生成させるプロセス、及び前記学習用対象車両に搭載された少なくとも一つの学習用通信モジュールを通じて学習用状況通信情報が取得されると、第2ニューラルネットワークをもって、前記学習用状況通信情報に少なくとも一つの第2ニューラルネットワーク演算を適用して、前記学習用状況通信情報に対応する学習用通信基盤の特徴マップを生成させるプロセスを遂行し、(2)前記学習装置が、第3ニューラルネットワークをもって、前記学習用イメージ基盤の特徴マップ及び前記学習用通信基盤の特徴マップに少なくとも一つの第3ニューラルネットワーク演算を適用して、学習用統合特徴マップを生成させ、(3)前記学習装置が、第4ニューラルネットワークをもって、前記学習用統合特徴マップに少なくとも一つの第4ニューラルネットワーク演算を適用して、特定の時間範囲の間における学習用周辺物体のモーション予測結果である学習用予測周辺モーション情報を生成させ、(4)前記学習装置が、第1ロスレイヤをもって、前記学習用予測周辺モーション情報及びこれに対応する原本正解周辺モーション情報を参照して少なくとも一つのモーションロスを生成させ、前記モーションロスを使用してバックプロパゲーションを遂行することによって、前記第1ないし前記第4ニューラルネットワークのパラメータのうち少なくとも一部を学習させた状態で、テスト用対象車両に搭載された少なくとも一つのテスト用カメラを通じて少なくとも一つのテスト用状況イメージが取得されると、前記第1ニューラルネットワークをもって、前記テスト用状況イメージに前記第1ニューラルネットワーク演算を適用して、前記テスト用状況イメージに対応する少なくとも一つのテスト用イメージ基盤の特徴マップを生成させ、前記テスト用対象車両に搭載された少なくとも一つのテスト用通信モジュールを通じてテスト用状況通信情報が取得されると、前記第2ニューラルネットワークをもって、前記テスト用状況通信情報に前記第2ニューラルネットワーク演算を適用して、前記テスト用状況通信情報に対応する少なくとも一つのテスト用通信基盤の特徴マップを生成させるプロセス、(II)前記第3ニューラルネットワークをもって、前記テスト用イメージ基盤の特徴マップ及び前記テスト用通信基盤の特徴マップに前記第3ニューラルネットワーク演算を適用して、テスト用統合特徴マップを生成させるプロセス、及び(III)前記第4ニューラルネットワークをもって、前記テスト用統合特徴マップに前記第4ニューラルネットワーク演算を適用して、前記特定の時間範囲の間における前記テスト用周辺物体のモーション予測結果であるテスト用予測周辺モーション情報を生成させるプロセスを遂行するための前記各インストラクションを実行するように構成された少なくとも一つのプロセッサと、を含むことを特徴とする装置が提供される。
一実施例において、前記プロセッサが、(IV)前記第1ないし前記第4ニューラルネットワークを使用して学習が完了した第5ニューラルネットワークをもって、前記テスト用予測周辺モーション情報に少なくとも一つの第5ニューラルネットワーク演算を適用して、前記特定の時間範囲の間に前記テスト用対象車両との関連度が閾値以上である事故が起きる確率に関する情報を含むテスト用予測危険情報を生成させるプロセスをさらに遂行する。
一実施例において、前記プロセッサが、(V)前記テスト用対象車両が群集走行(platooning)を通じて前記自律走行を遂行している場合、前記テスト用予測危険情報を参照して群集走行パラメータを調整するプロセスをさらに遂行する。
一実施例において、前記プロセッサが、前記テスト用対象車両との前記関連度が前記閾値以上である特定の事故が実際に発生して検出された場合、前記特定の事故に関する情報を前記テスト用周辺物体と共有し、前記テスト用対象車両をもって、前記特定の事故により発生する危険な状況を回避するための走行戦略を参照して前記自律走行を遂行するように支援する。
一実施例において、前記(III)プロセスで、前記プロセッサが、前記第4ニューラルネットワークをもって、(i)前記テスト用カメラ及び前記テスト用通信モジュールを通じて取得されたテスト用グローバル情報に対応する前記テスト用統合特徴マップ、及び(ii)それぞれの前記テスト用周辺物体に関するテスト用ローカル情報に対応する、前記テスト用通信基盤の特徴マップが生成される過程で使用された一つ以上のテスト用通信基盤のメタ特徴ベクトルを含むテスト用メタ特徴マップに、前記第4ニューラルネットワーク演算を適用して前記テスト用予測周辺モーション情報を生成させる。
一実施例において、前記(III)プロセスで、前記プロセッサが、前記テスト用カメラを通じて取得された前記テスト用周辺物体に対するテスト用イメージ基盤のメタデータに対応する一つ以上のテスト用イメージ基盤のメタ特徴ベクトル及び前記テスト用通信基盤のメタ特徴ベクトルを参照して、前記テスト用メタ特徴マップを生成する。
その他にも、本発明の方法を実行するためのコンピュータプログラムを格納するためのコンピュータ読取り可能な記録媒体がさらに提供される。
本発明によると、自律走行車両をもって、車両群集走行(platooning)のうち少なくとも一つの事故が発生した際に適切に対応し得るようにする効果がある。
また、本発明によると、前記自律走行車両をもって、事故の危険が高い一つ以上の周辺物体を回避し得るようにする効果がある。
本発明の前記及び他の目的並びに特徴は、以下の添付図面とともに提供された好ましい実施例の説明において明らかにされる。
本発明の実施例の説明に利用されるために添付された以下の各図面は、本発明の実施例のうち単に一部であるに過ぎず、本発明の属する技術分野において通常の知識を有する者(以下「通常の技術者」)にとっては、発明的作業が行われずにこれらの図面に基づいて他の各図面が得られ得る。
図1は、本発明の一実施例にしたがって、様々なソース(source)から取得される情報のフュージョン(fushion)を通じて周辺物体のモーションを予測することによって、事故の危険を回避して安全な自律走行を遂行するように支援する学習方法を遂行する学習装置の構成を簡略に示した図面である。 図2aは、本発明の一実施例にしたがって、前記様々なソースから取得される情報のフュージョンを通じて前記周辺物体の前記モーションを予測することによって、前記事故の危険を回避して前記安全な自律走行を遂行するように支援する前記学習方法を簡略に示したフローチャートである。 図2bは、本発明の一実施例にしたがって、前記様々なソースから取得される情報のフュージョンを通じて前記周辺物体の前記モーションを予測することによって、前記事故の危険を回避して前記安全な自律走行を遂行するように支援する前記学習方法を簡略に示したフローチャートである。 図3は、本発明の一実施例にしたがって、前記様々なソースから取得される情報のフュージョンを通じて前記周辺物体の前記モーションを予測することによって、前記事故の危険を回避して前記安全な自律走行を遂行するように支援する前記学習方法を遂行するために使用される統合特徴マップがどのような方式で生成されるのかについての一例示を簡略に示した図面である。 図4は、本発明の一実施例にしたがって、前記様々なソースから取得される情報のフュージョンを通じて前記周辺物体の前記モーションを予測することによって、前記事故の危険を回避して前記安全な自律走行を遂行するように支援する前記学習方法を遂行するために使用される第1ないし第5ニューラルネットワークがどのような方式で学習されるのかについての一例示を簡略に示した図面である。 図5は、本発明の一実施例による前記様々なソースから取得される情報のフュージョンを通じて前記周辺物体の前記モーションを予測することによって、前記事故の危険を回避して前記安全な自律走行を遂行するように支援するテスト方法を簡略に示したフローチャートである。
後述する本発明に関する詳細な説明は、本発明の各目的、各技術的解法、及び各長所を明らかにするために本発明が実施され得る特定の実施例を例示として示す添付図面を参照する。これらの実施例は、当業者が本発明を実施することができるように十分詳細に説明される。
また、本発明の詳細な説明及び各請求項にわたって、「含む」という単語及びそれらの変形は、他の技術的各特徴、各付加物、構成要素又は段階を除外することを意図したものではない。通常の技術者にとって本発明の他の各目的、長所及び各特性が、一部は本説明書から、また一部は本発明の実施から明らかになるであろう。以下の例示及び図面は実例として提供され、本発明を限定することを意図したものではない。
さらに、本発明は、本明細書に示された実施例のすべての可能な組合せを網羅する。本発明の多様な実施例は互いに異なるが、相互に排他的である必要はないことが理解されるべきである。例えば、ここに記載されている特定の形状、構造及び特性は、一実施例に関連して本発明の精神及び範囲を逸脱せず、かつ他の実施例で具現され得る。また、それぞれの開示された実施例内の個別の構成要素の位置又は配置は、本発明の精神及び範囲を逸脱せず、かつ変更され得ることが理解されるべきである。したがって、後述の詳細な説明は、限定的な意味として受け取ろうとするものではなく、本発明の範囲は適切に説明されるのであれば、その請求項が主張することと均等な全ての範囲とともに添付された請求項によってのみ限定される。図面において類似の参照符号は、様々な側面にわたって同一であるか、類似する機能を指す。
本発明で言及している各種イメージは、舗装または非舗装道路関連のイメージを含み得、この場合、道路環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではなく、本発明で言及している各種イメージは、道路と関係のないイメージ(例えば、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内と関連したイメージ)でもあり得、この場合、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではない。
以下、本発明の属する技術分野において通常の知識を有する者が本発明を容易に実施し得るようにするために、本発明の好ましい実施例について、添付された図面を参照して詳細に説明することにする。
図1は、本発明の一実施例にしたがって、様々なソース(source)から取得される情報のフュージョンを通じて周辺物体のモーション(motion)を予測することによって、事故の危険を回避して安全な自律走行を遂行するように支援する学習方法を遂行する学習装置の構成を示した図面である。
図1を参照すると、前記学習装置100は、追って詳細に説明する構成要素である第1ないし第5ニューラルネットワーク130ないし170及び第1ないし第2ロスレイヤ130ないし170を含むことができる。前記第1ないし前記第5ニューラルネットワーク130ないし170及び前記第1ないし前記第2ロスレイヤ130ないし170の入出力及び演算の過程は、それぞれ少なくとも一つの通信部110及び少なくとも一つのプロセッサ120により行われ得る。ただし、図1では、前記通信部110及び前記プロセッサ120の具体的な連結関係を省略した。この場合、メモリ115が後述する様々なインストラクションを格納した状態であり得、前記プロセッサ120は、前記メモリ115に格納された前記各インストラクションを実行することができ、追って説明する前記各インストラクションを実行することによって、本発明のプロセスを遂行することができる。このように前記学習装置100が描写されたからといって、前記学習装置100が本発明を実施するためのプロセッサ、メモリ、媒体(medium)またはその他のコンピューティング要素が統合された形態である統合プロセッサを含む場合を排除するわけではない。
ここで、前記第1ロスレイヤ180と前記第2ロスレイヤ190とは、同一の個体であり得るが、以下の説明では便宜上、二つを区分する。
以上、本発明の一実施例による前記学習装置100の前記構成について説明したところ、以下、前記学習方法についてさらに具体的に説明する。前記学習方法のフローを説明するために、図2a及び図2bを参照する。
図2a及び図2bは、本発明の一実施例にしたがって、前記様々なソースから取得される情報のフュージョンを通じて前記周辺物体の前記モーションを予測することによって、前記事故の危険を回避して前記安全な自律走行を遂行するように支援する前記学習方法を簡略に示したフローチャートである。
図2aを参照すると、前記学習装置100は、前記第1ニューラルネットワーク130をもって、少なくとも一つの状況イメージに少なくとも一つの第1ニューラルネットワーク演算を適用して、前記状況イメージに対応する少なくとも一つのイメージ基盤の特徴マップを生成させるプロセスを遂行することができる(S01−1)。また、前記学習装置100は、前記第2ニューラルネットワーク140をもって、状況通信情報に少なくとも一つの第2ニューラルネットワーク演算を適用して、前記状況通信情報に対応する少なくとも一つの通信基盤の特徴マップを生成させるプロセスを遂行することができる(S01−2)。
以後、前記学習装置100は、前記第3ニューラルネットワーク150をもって、前記イメージ基盤の特徴マップ及び前記通信基盤の特徴マップに少なくとも一つの第3ニューラルネットワーク演算を適用して、統合特徴マップを生成させることができる(S02)。そして、前記学習装置100は、前記第4ニューラルネットワーク160をもって、前記統合特徴マップに少なくとも一つの第4ニューラルネットワーク演算を適用して、予測周辺モーション情報を生成させることができる(S03)。ここで、前記予測周辺モーション情報は、特定の時間範囲の間における前記周辺物体のモーションを予測した結果であり得る。次に、前記学習装置100は、前記第1ロスレイヤ180をもって、前記予測周辺モーション情報及びこれに対応する原本正解(Ground Truth)周辺モーション情報を参照して少なくとも一つのモーションロスを生成させ、前記モーションロスを使用してバックプロパゲーション(backpropagation)を遂行することによって、前記第1ないし前記第4ニューラルネットワーク130ないし160のパラメータのうち少なくとも一部を学習させることができる(S04)。図2aの下端部分及び図2bの上端部分の「A」は、特定のプロセスではなく図2aのプロセスと図2bのプロセスとが連続するものであることを示す単純な表記である。
図2aの前記S01ないし前記S04段階を繰り返して前記第1ないし前記第4ニューラルネットワーク130ないし160のパラメータのうち少なくとも一部が学習された後、図2bを参照すると、追加のプロセスとして、前記学習装置100は、前記第5ニューラルネットワーク170をもって、学習が完了した前記第4ニューラルネットワーク160から出力された前記予測周辺モーション情報に少なくとも一つの第5ニューラルネットワーク演算を適用して、予測危険情報を生成させることができる(S05)。以後、前記学習装置100は、前記第2ロスレイヤ190をもって、前記予測危険情報及びこれに対応する原本正解危険情報を参照して少なくとも一つの危険ロスを生成させ、前記危険ロスを使用してバックプロパゲーションを遂行することによって、前記第5ニューラルネットワーク170のパラメータのうち少なくとも一部を学習させることができる(S06)。
以上、本発明の前記学習方法のフローについて簡略に説明したところ、これについて以下にてさらに具体的に説明することにする。
まず、前記学習装置100は、前記対象車両に搭載された少なくとも一つのカメラを通じて前記少なくとも一つの状況イメージを取得し、前記対象車両に搭載された少なくとも一つの通信モジュールを通じて前記状況通信情報を取得することができる。ここで、前記状況イメージは、前記カメラを利用して前記対象車両の周辺を撮影した結果であり得、前記状況通信情報は、前記周辺物体のメタデータを含む、前記周辺物体から伝達された情報であり得る。ここで、前記周辺物体は、V2X(vehicle−to−everything)通信を介して前記対象車両と連結され、前記対象車両から第1閾値以下の距離に位置する物体である。
このように前記状況イメージ及び前記状況通信情報が取得されると、前記学習装置100は、前記第1ニューラルネットワーク130及び第2ニューラルネットワーク140をもって、それぞれ前記状況イメージ及び前記状況通信情報を加工して、前記イメージ基盤の特徴マップ及び前記通信基盤の特徴マップを生成させることができる。
前記第1ニューラルネットワーク130について説明すると、これは少なくとも一つの第1コンボリューションレイヤ、少なくとも一つの第1プーリングレイヤ、及び少なくとも一つの第1FC(Fully−Connected)レイヤを含むことができる。すなわち、前記学習装置100は、前記第1コンボリューションレイヤをもって、前記状況イメージに少なくとも一つの第1コンボリューション演算を適用して少なくとも一つの第1特徴マップを生成させ、前記第1プーリングレイヤをもって、前記第1特徴マップに少なくとも一つの第1プーリング演算を適用して少なくとも一つの第1プーリング済み特徴マップを生成させ、前記第1FCレイヤをもって、前記第1プーリング済み特徴マップに少なくとも一つの第1FC演算を適用して前記イメージ基盤の特徴マップを生成させることができる。このような前記第1ニューラルネットワーク130の構成が必須ではなく、それ自体に入力されたイメージから特徴マップを抽出することができるのであれば、どのような構成でも前記第1ニューラルネットワーク130に使用され得るはずである。
これとは異なり、前記第2ニューラルネットワーク140は、少なくとも一つの第2FCレイヤ及び少なくとも一つの第2プーリングレイヤを含むことができる。すなわち、前記学習装置100は、第2FCレイヤをもって、前記対象車両から前記第1閾値以下の距離に位置した前記周辺物体それぞれに対する通信基盤のメタデータをそれぞれの通信基盤のメタデータベクトルとして含む状況通信情報に少なくとも一つの第2FC演算を適用して、それぞれの前記通信基盤のメタデータベクトルに対応する通信基盤のメタ特徴ベクトルを生成させることができる。その後、前記学習装置100は、前記第2プーリングレイヤをもって、前記通信基盤のメタ特徴ベクトルに少なくとも一つの第2プーリング演算を適用して前記通信基盤の特徴マップを生成させることができる。
ここで、前記対象車両の周辺全般の光景に関する一般的な情報を「グローバル情報」とし、前記周辺全般の光景に含まれている前記周辺物体それぞれに関する細分化された情報を「ローカル情報」とするならば、前記イメージ基盤特徴マップ及び前記通信基盤の特徴マップは、前記グローバル情報を含むものと見なすことができる。これは、前記イメージ基盤特徴マップが、前記周辺全般の光景を含む前記状況イメージを加工することによって生成されており、前記通信基盤の特徴マップが、それぞれの前記周辺物体に対する前記通信基盤のメタデータベクトルをプーリングすることによって生成されたためである。これと比較して、前述の通信基盤のメタデータベクトルは、前記ローカル情報を含むものとして見なすことができるであろう。以後説明するが、このような2種類の情報、すなわち前記グローバル情報と前記ローカル情報とは共に使用されることによって、前記対象車両をもって、その周辺の各モーションを予測するように支援することができる。しかし、前記グローバル情報のみを使用する実施例も可能である。以下では、(i)前記V2X通信を介して取得された前記グローバル情報のうちの一部を含む前記通信基盤の特徴マップと、(ii)前記カメラを通じて取得された前記グローバル情報のうちの他の一部を含む前記イメージ基盤の特徴マップを統合して、より豊富なグローバル情報が反映される前記統合特徴マップを生成する方法について説明することにする。
すなわち、前記学習装置100は、前記第3ニューラルネットワーク150をもって、前記イメージ基盤の特徴マップ及び前記通信基盤の特徴マップに前記第3ニューラルネットワーク演算を適用して、前記統合特徴マップを生成させることができる。ここで、前記第3ニューラルネットワーク150は、RNN(Recurrent Neural Network)の形態として具現されたものであり得る。ひいては、前記第3ニューラルネットワークは、前記RNNの一種であるLSTM(Long−Short Term Memory)ネットワークの形態として具現され得るであろう。前記統合特徴マップがどのような方式で生成され得るのかについてさらに詳細に説明するために図3を参照することにする。
図3は、本発明の一実施例にしたがって、前記様々なソースから取得される情報のフュージョンを通じて前記周辺物体の前記モーションを予測することによって、前記事故の危険を回避して前記安全な自律走行を遂行するように支援する前記学習方法を遂行するために使用される前記統合特徴マップがどのような方式で生成されるのかについての一例示を簡略に示した図面である。
図3を参照すると、前記学習装置100は、1×Mサイズの前記イメージ基盤の特徴マップ及び1×Mサイズの前記通信基盤の特徴マップをチャンネルごとにコンカチネート(channel−wise concatenating)して臨時の特徴マップを生成し、前記LSTMネットワークとして具現された前記第3ニューラルネットワーク150をもって、前記第3ニューラルネットワーク150に以前に入力された情報に対応する状態ベクトルを使用して前記臨時の特徴マップに前記第3ニューラルネットワーク演算を適用することによって、前記統合特徴マップを生成させることができる。図3において、実線で表示された一部分は、現在の時点、すなわち第T時点に生成された、イメージ基盤の特徴マップ、通信基盤の特徴マップ、臨時の特徴マップ、及び統合特徴マップを意味し、点線で表示された残りの部分は、以前の時点、すなわち第T−2及び第T−1時点に生成された、イメージ基盤の特徴マップ、通信基盤の特徴マップ、臨時の特徴マップ、及び統合特徴マップを意味する。前記第3ニューラルネットワーク150は、それぞれの時点ごとに入力された臨時の特徴マップを加工して前記統合特徴マップを生成しながら、前記状態ベクトルをアップデートすることができる。このように過去の前記第T−2及び前記第T−1時点でアップデートされた前記状態ベクトルが、現在の前記第T時点における臨時の特徴マップを加工する過程で使用されるところ、過去の情報が前記統合特徴マップを生成するプロセスに反映されると見なすことができる。前記状態ベクトルを使用するこのような用法は、通常の技術者に周知のものであるため、さらに詳しい説明は省略することにする。
図3には、前記第2ニューラルネットワーク140から出力された、N×Mサイズの出力マトリクスが示されている。前記イメージ基盤の特徴マップを生成する過程の間に、前記出力マトリクスは、後述されるN×Mサイズの入力マトリクスに含まれている前記状況通信情報に対応するN個のイメージ基盤のメタ特徴ベクトルを含む。このようなイメージ基盤のメタ特徴ベクトルについては追って説明する。
前記統合特徴マップが生成されると、前記学習装置100は、前記第4ニューラルネットワーク160をもって、前記カメラ及び前記通信モジュールを通じて取得されたグローバル情報に対応する前記統合特徴マップに前記第4ニューラルネットワーク演算を適用して、前記予測周辺モーション情報を生成させることができる。前記第4ニューラルネットワークは、コンボリューションレイヤ、プーリングレイヤ、及びFCレイヤのうち少なくとも一部を含むことができ、前記第4ニューラルネットワーク演算は、これらのレイヤのうち少なくとも一部を使用した演算であり得る。
以下では、前記グローバル情報のみを使用する上述の実施例と異なり、前記グローバル情報及び前記ローカル情報を共に使用する他の実施例について説明することにする。
すなわち、前記学習装置100は、前記第4ニューラルネットワーク160をもって、(i)前記カメラ及び前記通信モジュールを通じて取得された前記グローバル情報に対応する前記統合特徴マップ、及び(ii)それぞれの前記周辺物体に関する前記ローカル情報に対応する、前記通信基盤の特徴マップが生成される過程で使用された一つ以上の通信基盤のメタ特徴ベクトルを列(column)ベクトルとして含むメタ特徴マップに、前記第4ニューラルネットワーク演算を適用して前記予測周辺モーション情報を生成させることができる。具体的に、(i)前記通信基盤のメタ特徴ベクトルを収集し、(ii)前記収集された通信基盤のメタ特徴ベクトルを使用して一つのマトリクスを生成することによって、前記メタ特徴マップが生成された状態であり得る。このような実施例の場合、前記V2X通信を介して取得された前記ローカル情報の一部分のみが前記メタ特徴マップに反映されると見なすことができる。
上述の実施例と異なり、前記ローカル情報の前記一部分とともに、前記カメラから取得された前記ローカル情報の他の一部分も前記メタ特徴マップに反映される他の実施例が存在し得る。すなわち、前記学習装置100は、前記状況イメージに物体検出演算を適用することによって、前記周辺物体に対するイメージ基盤のメタデータを生成し、これを加工して生成された前記一つ以上のイメージ基盤のメタ特徴ベクトルを追加として使用することによってメタ特徴マップを生成することができる。一例示として、前記イメージ基盤のメタ特徴ベクトルは、それぞれの前記イメージ基盤のメタデータを構成要素として含むことができる。または、前記状況イメージではなく、それぞれの前記周辺物体を含むそれぞれの個別イメージが加工されて前記イメージ基盤のメタ特徴ベクトルを生成することができ、前記イメージ基盤のメタ特徴ベクトルが前記メタ特徴マップを生成するために使用され得ることもある。
前記実施例のうち少なくとも一つを使用して前記予測周辺モーション情報が生成されると、前記学習装置100は、これを利用して前記第1ないし前記第5ニューラルネットワーク130ないし170を学習することができる。ここで、前記第1ないし前記第5ニューラルネットワーク130ないし170の学習過程に関する実施例が多数存在するので、これらを個別に順に説明することにする。
まず、前述したように、前記第1ないし前記第3ニューラルネットワーク130ないし150は、前記グローバル情報を反映した前記統合特徴マップを生成するための構成であり、前記第4ニューラルネットワーク160は、前記統合特徴マップを利用して前記予測周辺モーション情報を生成するための構成である。このような各ニューラルネットワークと比較して、前記第5ニューラルネットワーク170は、前記予測周辺モーション情報を参照して前記予測危険情報を生成するための構成であり得る。これに基づいて、一実施例によると、前記学習装置100は、前記第1ロスレイヤ180を利用して前記第1ないし前記第4ニューラルネットワーク130ないし160のパラメータのうち少なくとも一部を学習することができる。このような過程を繰り返すことによって、前記第1ないし前記第4ニューラルネットワーク130ないし160のパラメータの学習が完了し、前記第1ないし第4ニューラルネットワーク130ないし160が前記第5ニューラルネットワーク170を学習するのに使用され得る。このような実施例について説明するために、図4を参照することにする。
図4は、本発明の一実施例にしたがって、前記様々なソースから取得される情報のフュージョンを通じて前記周辺物体の前記モーションを予測することによって、前記事故の危険を回避して前記安全な自律走行を遂行するように支援する前記学習方法を遂行するために使用される前記第1ないし前記第5ニューラルネットワークがどのように学習されのるかに関する例示を簡略に示した図面である。
図4を参照すると、前記予測周辺モーション情報が取得されると、前記学習装置100は、前記第1ロスレイヤ180をもって、前記予測周辺モーション情報及びこれに対応する原本正解周辺モーション情報を参照して前記モーションロスを生成させ、前記モーションロスを使用してバックプロパゲーションを遂行することによって、前記第1ないし前記第4ニューラルネットワーク130ないし160のパラメータのうち少なくとも一部を学習させることができる。ここで、前記原本正解周辺モーション情報は、前記状況イメージ及び前記状況通信情報が所定の第T時点に対応する場合に、前記第T時点以後の時点である第T+1時点における前記周辺物体の位置情報及び速度情報を参照して生成されたものであり得る。
前記第1ないし前記第4ニューラルネットワーク130ないし160のパラメータのうち前記少なくとも一部の学習が完了した状態で、前記学習装置100は、前記第5ニューラルネットワーク170をもって、前記第4ニューラルネットワーク160から出力された前記予測周辺モーション情報に前記第5ニューラルネットワーク演算を適用して、前記特定の時間範囲の間に前記対象車両との関連度が第2閾値以上である事故が起きる確率に関する情報を含む予測危険情報を生成させることができる。例えば、前記関連度は、前記事故の起きた位置とその際の前記対象車両の位置との間の距離を利用して計算され得るが、これに限定されるわけではない。
そして、前記学習装置100は、前記第2ロスレイヤ190をもって、前記予測危険情報及びこれに対応する原本正解危険情報を参照して前記危険ロスを生成させ、前記危険ロスを参照してバックプロパゲーションを遂行することによって、前記第5ニューラルネットワーク170のパラメータのうち少なくとも一部を学習させることができる。ここで、前記原本正解危険情報は、前記状況イメージ及び前記状況通信情報が所定の第T時点に対応する場合、前記第T時点以後の時点である前記第T+1時点における前記対象車両またはその周辺に事故が発生したか否かに関する情報を参照して生成されたものであり得る。
前述の実施例とは異なる実施例として、前記第1ないし前記第5ニューラルネットワーク130ないし170が一回に学習される実施例が存在するので、これについて説明する。すなわち、前記学習装置100は、学習されていない前記第4ニューラルネットワークにより生成された前記予測周辺モーション情報が取得されると、前記第5ニューラルネットワーク170をもって、前記予測周辺モーション情報に前記第5ニューラルネットワーク演算を適用して、前記予測危険情報を生成させることができる。つまり、本実施例で使用される前記予測周辺モーション情報は、前記第1ないし前記第4ニューラルネットワーク130ないし160の学習が完了した後に生成されたものではなく、これらが学習される途中に生成されたものであり得る。以後、前記学習装置100は、一つのロスレイヤをもって、前記予測危険情報及びこれに対応する原本正解危険情報を参照してロスを生成させ、前記ロスを使用してバックプロパゲーションを遂行することによって、前記第5ニューラルネットワーク170のパラメータのうち少なくとも一部を学習させることができる。
前記第1ないし前記第5ニューラルネットワーク130ないし170が学習されると、本発明のテスト方法を遂行するために使用され得る。これについて、以下、図5を参照して説明することにする。
図5は、本発明の一実施例による前記様々なソースから取得される情報のフュージョンを通じて前記周辺物体の前記モーションを予測することによって、前記事故の危険を回避して前記安全な自律走行を遂行するように支援する前記テスト方法を示した図面である。
図5を参照すると、まず、(1)前記学習装置100が、学習用対象車両に搭載された少なくとも一つの学習用カメラを通じて少なくとも一つの学習用状況イメージが取得されると、前記第1ニューラルネットワーク130をもって、前記学習用状況イメージに前記第1ニューラルネットワーク演算を適用して、前記学習用状況イメージに対応する少なくとも一つの学習用イメージ基盤の特徴マップを生成させるプロセス、及び前記学習用対象車両に搭載された少なくとも一つの学習用通信モジュールを通じて学習用状況通信情報が取得されると、前記第2ニューラルネットワーク140をもって、前記学習用状況通信情報に前記第2ニューラルネットワーク演算を適用して、前記学習用状況通信情報に対応する学習用通信基盤の特徴マップを生成させるプロセスを遂行し、(2)前記学習装置100が、前記第3ニューラルネットワーク150をもって、前記学習用イメージ基盤の特徴マップ及び前記学習用通信基盤の特徴マップに前記第3ニューラルネットワーク演算を適用して、学習用統合特徴マップを生成させ、(3)前記学習装置が、前記第4ニューラルネットワーク160をもって、前記学習用統合特徴マップに前記第4ニューラルネットワーク演算を適用して、特定の時間範囲の間における学習用周辺物体のモーション予測結果である学習用予測周辺モーション情報を生成させ、(4)前記学習装置が、前記第1ロスレイヤ180をもって、前記学習用予測周辺モーション情報及びこれに対応する原本正解周辺モーション情報を参照して少なくとも一つのモーションロスを生成させ、前記モーションロスを使用してバックプロパゲーションを遂行することによって、前記第1ないし前記第4ニューラルネットワーク130ないし160のパラメータのうち少なくとも一部を学習させた状態で、テスト装置が、テスト用対象車両に搭載された少なくとも一つのテスト用カメラを通じて少なくとも一つのテスト用状況イメージが取得されると、前記第1ニューラルネットワーク130をもって、前記テスト用状況イメージに前記第1ニューラルネットワーク演算を適用して、前記テスト用状況イメージに対応する少なくとも一つのテスト用イメージ基盤の特徴マップを生成させるプロセス、及び前記テスト用対象車両に搭載された少なくとも一つのテスト用通信モジュールを通じてテスト用状況通信情報が取得されると、前記第2ニューラルネットワーク140をもって、前記テスト用状況通信情報に前記第2ニューラルネットワーク演算を適用して、前記テスト用状況通信情報に対応する少なくとも一つのテスト用通信基盤の特徴マップを生成させるプロセスを遂行することができる。
また、前記テスト装置が、前記第3ニューラルネットワーク150をもって、前記テスト用イメージ基盤の特徴マップ及び前記テスト用通信基盤の特徴マップに前記第3ニューラルネットワーク演算を適用して、テスト用統合特徴マップを生成させることができる。
その後、前記テスト装置が、前記第4ニューラルネットワーク160をもって、前記テスト用統合特徴マップに前記第4ニューラルネットワーク演算を適用して、前記特定の時間範囲の間における一つ以上のテスト用周辺物体のモーション予測結果であるテスト用予測周辺モーション情報を生成させることができる。
以後、前記テスト装置は、前記第1ないし前記第4ニューラルネットワーク130ないし160を使用して学習が完了した前記第5ニューラルネットワーク170をもって、前記テスト用予測周辺モーション情報に前記第5ニューラルネットワーク演算を適用して、前記特定の時間範囲の間に前記テスト用対象車両との関連度が前記第2閾値以上である事故が起きる確率に関する情報を含むテスト用予測危険情報を生成させることができる。
前記テスト用予測危険情報が生成されると、前記テスト装置は、前記テスト用対象車両が群集走行(platooning)を通じて前記自律走行を遂行している場合、前記テスト用予測危険情報を参照して群集走行パラメータを調整することができる。例えば、前記テスト用予測危険情報が、前記テスト用対象車両の周辺に事故が起きる確率が第3閾値より高いことを示す場合、前記事故に備えるために、群集の全体的な速度を落とすように前記群集走行パラメータが調整され得るはずである。または、前記テスト用予測危険情報が、前記テスト用対象車両の周辺に前記事故が起きる確率が前記第3閾値より低いことを示す場合、効率性のために、群集の全体的な速度を高めるか群集のフォーメーションを速度を中心として変更するように前記群集走行パラメータが調整され得る。
以上のプロセスとは別途に、前記テスト装置は、周辺の事故を検出し、これに関する情報を前記テスト用周辺物体と共有することができる。具体的に、前記テスト装置は、前記テスト用対象車両との関連度が前記第2閾値以上である特定の事故が実際に発生して検出された場合、前記特定の事故に関する情報を前記テスト用周辺物体と共有し、前記テスト用対象車両をもって、前記特定の事故により発生する危険な状況を回避するための走行戦略を参照して、前記自律走行を遂行するように支援することができる。一例として、前記テスト用対象車両が前記群集走行を遂行していた場合、前記テスト装置は、前記群集走行をしばらくの間停止して前記群集を解体し、前記テスト用対象車両をもって、前記特定の事故を回避するように支援することができ、前方に事故が起きた場合は前記テスト用対象車両の速度を落とし、後方に事故が起きた場合は前記テスト用対象車両の速度を高めることによって前記特定の事故を回避することができる。
以上にて説明された本発明による各実施例は、多様なコンピュータの構成要素を通じて遂行することができるプログラム命令語の形態で具現されて、コンピュータ読取り可能な記録媒体に格納され得る。前記コンピュータ読取り可能な記録媒体は、プログラム命令語、データファイル、データ構造などを単独で又は組み合わせて含むことができる。前記コンピュータ読取り可能な記録媒体に格納されるプログラム命令語は、本発明のために特別に設計され、構成されたものであるか、コンピュータソフトウェア分野の当業者に公知にされて使用可能なものであり得る。コンピュータ読取り可能な記録媒体の例には、ハードディスク、フロッピーディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスク(Floptical Disk)のような磁気−光メディア(Magneto−Optical Media)、及びROM、RAM、フラッシュメモリなどのようなプログラム命令語を格納して遂行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラによって作られるもののような機械語コードだけでなく、インタープリターなどを使用してコンピュータによって実行され得る高級言語コードも含まれる。前記ハードウェア装置は、本発明による処理を実行するために一つ以上のソフトウェアモジュールとして作動するように構成され得、その反対も同様である。
以上にて本発明が具体的な構成要素などのような特定事項と限定された実施例及び図面によって説明されたが、これは本発明のより全般的な理解の一助とするために提供されたものであるに過ぎず、本発明が前記実施例に限られるものではなく、本発明が属する技術分野において通常の知識を有する者であれば、かかる記載から多様な修正及び変形が行われ得る。
したがって、本発明の思想は、前記説明された実施例に局限されて定められてはならず、後述する特許請求の範囲だけでなく、本特許請求の範囲と均等または等価的に変形されたものすべては、本発明の思想の範囲に属するといえる。

Claims (30)

  1. イメージ及び通信を介して取得される各情報のフュージョンを使用して、一つ以上の周辺物体の一つ以上のモーション(motion)を予測することによって、事故の危険を回避して安全な自律走行を遂行するように支援する学習方法において、
    (a)学習装置が、対象車両に搭載された少なくとも一つのカメラを通じて少なくとも一つの状況イメージが取得されると、第1ニューラルネットワークをもって、前記状況イメージに少なくとも一つの第1ニューラルネットワーク演算を適用して、前記状況イメージに対応する少なくとも一つのイメージ基盤の特徴マップを生成させるプロセス、及び前記対象車両に搭載された少なくとも一つの通信モジュールを通じて状況通信情報が取得されると、第2ニューラルネットワークをもって、前記状況通信情報に少なくとも一つの第2ニューラルネットワーク演算を適用して、前記状況通信情報に対応する通信基盤の特徴マップを生成させるプロセスを遂行する段階;
    (b)前記学習装置が、第3ニューラルネットワークをもって、前記イメージ基盤の特徴マップ及び前記通信基盤の特徴マップに少なくとも一つの第3ニューラルネットワーク演算を適用して、統合特徴マップを生成させる段階;
    (c)前記学習装置が、第4ニューラルネットワークをもって、前記統合特徴マップに少なくとも一つの第4ニューラルネットワーク演算を適用して、特定の時間範囲の間における前記周辺物体のモーション予測結果である予測周辺モーション情報を生成させる段階;及び
    (d)前記学習装置が、第1ロスレイヤをもって、前記予測周辺モーション情報及びこれに対応する原本正解(Ground Truth)周辺モーション情報を参照して少なくとも一つのモーションロスを生成させ、前記モーションロスを使用してバックプロパゲーション(backpropagation)を遂行することによって、前記第1ないし前記第4ニューラルネットワークのパラメータのうち少なくとも一部を学習させる段階;
    を含むことを特徴とする方法。
  2. 前記(a)段階で、
    前記学習装置が、(i)前記第2ニューラルネットワークに含まれている少なくとも一つの第2FC(Fully−Connected)レイヤをもって、前記対象車両から閾値以下の距離に位置する周辺物体それぞれに対する通信基盤のメタデータをそれぞれの通信基盤のメタデータベクトルとして含む前記状況通信情報に少なくとも一つの第2FC演算を適用して、それぞれの前記通信基盤のメタデータベクトルに対応する通信基盤のメタ特徴ベクトルを生成させ、(ii)前記第2ニューラルネットワークに含まれている少なくとも一つの第2プーリングレイヤをもって、前記通信基盤のメタ特徴ベクトルに少なくとも一つの第2プーリング演算を適用して前記通信基盤の特徴マップを生成させることを特徴とする請求項1に記載の方法。
  3. 前記(c)段階で、
    前記学習装置が、前記第4ニューラルネットワークをもって、(i)前記カメラ及び前記通信モジュールを通じて取得されたグローバル情報に対応する前記統合特徴マップ、及び(ii)それぞれの前記周辺物体に関するローカル情報に対応する前記通信基盤の特徴マップが生成される過程で使用された一つ以上の通信基盤のメタ特徴ベクトルを含むメタ特徴マップに、前記第4ニューラルネットワーク演算を適用して前記予測周辺モーション情報を生成させることを特徴とする請求項1に記載の方法。
  4. 前記(c)段階で、
    前記学習装置が、前記カメラを通じて取得された前記周辺物体に対するイメージ基盤のメタデータに対応する一つ以上のイメージ基盤のメタ特徴ベクトル及び前記通信基盤のメタ特徴ベクトルを参照して、前記メタ特徴マップを生成することを特徴とする請求項3に記載の方法。
  5. 前記(b)段階で、
    前記学習装置は、前記通信基盤の特徴マップ及び前記イメージ基盤の特徴マップをチャンネルごとにコンカチネート(channel−wise concatenating)して臨時の特徴マップを生成し、RNN(Recurrent Neural Network)として具現された前記第3ニューラルネットワークをもって、前記第3ニューラルネットワークに以前に入力された情報に対応する状態ベクトルを使用して前記臨時の特徴マップに前記第3ニューラルネットワーク演算を適用することによって、前記統合特徴マップを生成させることを特徴とする請求項1に記載の方法。
  6. 前記第3ニューラルネットワークは、前記RNNの一種であるLSTM(Long−Short Term Memory)ネットワークとして具現されることを特徴とする請求項5に記載の方法。
  7. 前記学習装置は、前記第1ロスレイヤをもって、(i)前記状況イメージ及び前記状況通信情報が所定の第T時点に対応する場合、前記第T時点以後の時点である第T+1時点における前記周辺物体の位置情報及び速度情報を参照して取得された前記原本正解周辺モーション情報、及び(ii)前記予測周辺モーション情報を参照して、前記モーションロスを生成させることを特徴とする請求項1に記載の方法。
  8. (e)前記学習装置が、前記第1ないし前記第4ニューラルネットワークの学習が完了した状態で、第5ニューラルネットワークをもって、学習が完了した前記第4ニューラルネットワークから出力された予測周辺モーション情報に少なくとも一つの第5ニューラルネットワーク演算を適用して、前記特定の時間範囲の間に前記対象車両との関連度が閾値以上である事故が起きる確率に関する情報を含む予測危険情報を生成させる段階;及び
    (f)前記学習装置が、第2ロスレイヤをもって、前記予測危険情報及びこれに対応する原本正解危険情報を参照して少なくとも一つの危険ロスを生成させ、前記危険ロスを使用してバックプロパゲーションを遂行することによって、前記第5ニューラルネットワークのパラメータのうち少なくとも一部を学習させる段階;
    をさらに含むことを特徴とする請求項1に記載の方法。
  9. 前記(a)段階で、
    前記学習装置が、前記第1ニューラルネットワークに含まれている第1コンボリューションレイヤをもって、前記状況イメージに少なくとも一つの第1コンボリューション演算を適用して少なくとも一つの第1特徴マップを生成させ、前記第1ニューラルネットワークに含まれている第1プーリングレイヤをもって、前記第1特徴マップに少なくとも一つの第1プーリング演算を適用して少なくとも一つの第1プーリング済み特徴マップを生成させ、前記第1ニューラルネットワークに含まれている第1FCレイヤをもって、前記第1プーリング済み特徴マップに少なくとも一つの第1FC演算を適用して前記イメージ基盤の特徴マップを生成させることを特徴とする請求項1に記載の方法。
  10. イメージ及び通信を介して取得される各情報のフュージョンを使用して一つ以上のテスト用周辺物体の一つ以上のモーションを予測することによって、事故の危険を回避して安全な自律走行を遂行するように支援するテスト方法において、
    (a)(1)学習装置が、学習用対象車両に搭載された少なくとも一つの学習用カメラを通じて少なくとも一つの学習用状況イメージが取得されると、第1ニューラルネットワークをもって、前記学習用状況イメージに少なくとも一つの第1ニューラルネットワーク演算を適用して、前記学習用状況イメージに対応する少なくとも一つの学習用イメージ基盤の特徴マップを生成させるプロセス、及び前記学習用対象車両に搭載された少なくとも一つの学習用通信モジュールを通じて学習用状況通信情報が取得されると、第2ニューラルネットワークをもって、前記学習用状況通信情報に少なくとも一つの第2ニューラルネットワーク演算を適用して、前記学習用状況通信情報に対応する学習用通信基盤の特徴マップを生成させるプロセスを遂行し、(2)前記学習装置が、第3ニューラルネットワークをもって、前記学習用イメージ基盤の特徴マップ及び前記学習用通信基盤の特徴マップに少なくとも一つの第3ニューラルネットワーク演算を適用して、学習用統合特徴マップを生成させ、(3)前記学習装置が、第4ニューラルネットワークをもって、前記学習用統合特徴マップに少なくとも一つの第4ニューラルネットワーク演算を適用して、特定の時間範囲の間における学習用周辺物体のモーション予測結果である学習用予測周辺モーション情報を生成させ、(4)前記学習装置が、第1ロスレイヤをもって、前記学習用予測周辺モーション情報及びこれに対応する原本正解周辺モーション情報を参照して少なくとも一つのモーションロスを生成させ、前記モーションロスを使用してバックプロパゲーションを遂行することによって前記第1ないし前記第4ニューラルネットワークのパラメータのうち少なくとも一部を学習させた状態で、テスト装置が、テスト用対象車両に搭載された少なくとも一つのテスト用カメラを通じて少なくとも一つのテスト用状況イメージが取得されると、前記第1ニューラルネットワークをもって、前記テスト用状況イメージに前記第1ニューラルネットワーク演算を適用して、前記テスト用状況イメージに対応する少なくとも一つのテスト用イメージ基盤の特徴マップを生成させるプロセス、及び前記テスト用対象車両に搭載された少なくとも一つのテスト用通信モジュールを通じてテスト用状況通信情報が取得されると、前記第2ニューラルネットワークをもって、前記テスト用状況通信情報に前記第2ニューラルネットワーク演算を適用して、前記テスト用状況通信情報に対応する少なくとも一つのテスト用通信基盤の特徴マップを生成させるプロセスを遂行する段階;
    (b)前記テスト装置が、前記第3ニューラルネットワークをもって、前記テスト用イメージ基盤の特徴マップ及び前記テスト用通信基盤の特徴マップに前記第3ニューラルネットワーク演算を適用して、テスト用統合特徴マップを生成させる段階;及び
    (c)前記テスト装置が、前記第4ニューラルネットワークをもって、前記テスト用統合特徴マップに前記第4ニューラルネットワーク演算を適用して、前記特定の時間範囲の間における前記テスト用周辺物体のモーション予測結果であるテスト用予測周辺モーション情報を生成させる段階;
    を含むことを特徴とする方法。
  11. (d)前記テスト装置が、前記第1ないし前記第4ニューラルネットワークを使用して学習が完了した第5ニューラルネットワークをもって、前記テスト用予測周辺モーション情報に少なくとも一つの第5ニューラルネットワーク演算を適用して、前記特定の時間範囲の間に前記テスト用対象車両との関連度が閾値以上である事故が起きる確率に関する情報を含むテスト用予測危険情報を生成させる段階;
    をさらに含むことを特徴とする請求項10に記載の方法。
  12. (e)前記テスト装置が、前記テスト用対象車両が群集走行(platooning)を通じて前記自律走行を遂行している場合、前記テスト用予測危険情報を参照して群集走行パラメータを調整する段階;
    をさらに含むことを特徴とする請求項11に記載の方法。
  13. 前記テスト装置が、前記テスト用対象車両との前記関連度が前記臨界値以上である特定の事故が実際に発生して検出された場合、前記特定の事故に関する情報を前記テスト用周辺物体と共有し、前記テスト用対象車両をもって、前記特定の事故により発生する危険な状況を回避するための走行戦略を参照して前記自律走行を遂行するように支援することを特徴とする請求項12に記載の方法。
  14. 前記(c)段階で、
    前記テスト装置が、前記第4ニューラルネットワークをもって、(i)前記テスト用カメラ及び前記テスト用通信モジュールを通じて取得されたテスト用グローバル情報に対応する前記テスト用統合特徴マップ、及び(ii)それぞれの前記テスト用周辺物体に関するテスト用ローカル情報に対応する、前記テスト用通信基盤の特徴マップが生成される過程で使用された一つ以上のテスト用通信基盤のメタ特徴ベクトルを含むテスト用メタ特徴マップに、前記第4ニューラルネットワーク演算を適用して前記テスト用予測周辺モーション情報を生成させることを特徴とする請求項10に記載の方法。
  15. 前記(c)段階で、
    前記テスト装置が、前記テスト用カメラを通じて取得された前記テスト用周辺物体に対するテスト用イメージ基盤のメタデータに対応する一つ以上のテスト用イメージ基盤のメタ特徴ベクトル及び前記テスト用通信基盤のメタ特徴ベクトルを参照して、前記テスト用メタ特徴マップを生成することを特徴とする請求項14に記載の方法。
  16. イメージ及び通信を介して取得される各情報のフュージョンを使用して、一つ以上の周辺物体の一つ以上のモーション(motion)を予測することによって、事故の危険を回避して安全な自律走行を遂行するように支援する学習装置において、
    一つ以上のインストラクションを格納する少なくとも一つのメモリと、
    (I)対象車両に搭載された少なくとも一つのカメラを通じて少なくとも一つの状況イメージが取得されると、第1ニューラルネットワークをもって、前記状況イメージに少なくとも一つの第1ニューラルネットワーク演算を適用して、前記状況イメージに対応する少なくとも一つのイメージ基盤の特徴マップを生成させ、前記対象車両に搭載された少なくとも一つの通信モジュールを通じて状況通信情報が取得されると、第2ニューラルネットワークをもって、前記状況通信情報に少なくとも一つの第2ニューラルネットワーク演算を適用して、前記状況通信情報に対応する通信基盤の特徴マップを生成させるプロセス、(II)第3ニューラルネットワークをもって、前記イメージ基盤の特徴マップ及び前記通信基盤の特徴マップに少なくとも一つの第3ニューラルネットワーク演算を適用して、統合特徴マップを生成させるプロセス、(III)第4ニューラルネットワークをもって、前記統合特徴マップに少なくとも一つの第4ニューラルネットワーク演算を適用して、特定の時間範囲の間における前記周辺物体のモーション予測結果である予測周辺モーション情報を生成させるプロセス、及び(IV)第1ロスレイヤをもって、前記予測周辺モーション情報及びこれに対応する原本正解(Ground Truth)周辺モーション情報を参照して少なくとも一つのモーションロスを生成させ、前記モーションロスを使用してバックプロパゲーション(backpropagation)を遂行することによって、前記第1乃至前記第4ニューラルネットワークのパラメータのうち少なくとも一部を学習させるプロセスを遂行するための前記各インストラクションを実行するように構成された少なくとも一つのプロセッサと、
    を含むことを特徴とする装置。
  17. 前記(I)プロセスで、
    前記プロセッサが、(i)前記第2ニューラルネットワークに含まれている少なくとも一つの第2FC(Fully−Connected)レイヤをもって、前記対象車両から閾値以下の距離に位置する周辺物体それぞれに対する通信基盤のメタデータをそれぞれの通信基盤のメタデータベクトルとして含む前記状況通信情報に少なくとも一つの第2FC演算を適用して、それぞれの前記通信基盤のメタデータベクトルに対応する通信基盤のメタ特徴ベクトルを生成させ、(ii)前記第2ニューラルネットワークに含まれている少なくとも一つの第2プーリングレイヤをもって、前記通信基盤のメタ特徴ベクトルに少なくとも一つの第2プーリング演算を適用して前記通信基盤の特徴マップを生成させることを特徴とする請求項16に記載の装置。
  18. 前記(III)プロセスで、
    前記プロセッサが、前記第4ニューラルネットワークをもって、(i)前記カメラ及び前記通信モジュールを通じて取得されたグローバル情報に対応する前記統合特徴マップ、及び(ii)それぞれの前記周辺物体に関するローカル情報に対応する、前記通信基盤の特徴マップが生成される過程で使用された一つ以上の通信基盤のメタ特徴ベクトルを含むメタ特徴マップに、前記第4ニューラルネットワーク演算を適用して前記予測周辺モーション情報を生成させることを特徴とする請求項16に記載の装置。
  19. 前記(III)プロセスで、
    前記プロセッサが、前記カメラを通じて取得された前記周辺物体に対するイメージ基盤のメタデータに対応する一つ以上のイメージ基盤のメタ特徴ベクトル及び前記通信基盤のメタ特徴ベクトルを参照して、前記メタ特徴マップを生成することを特徴とする請求項18に記載の装置。
  20. 前記(II)プロセスで、
    前記プロセッサは、前記通信基盤の特徴マップ及び前記イメージ基盤の特徴マップをチャンネルごとにコンカチネート(channel−wise concatenating)して臨時の特徴マップを生成し、RNN(Recurrent Neural Network)として具現された前記第3ニューラルネットワークをもって、前記第3ニューラルネットワークに以前に入力された情報に対応する状態ベクトルを使用して前記臨時の特徴マップに前記第3ニューラルネットワーク演算を適用することによって、前記統合特徴マップを生成させることを特徴とする請求項16に記載の装置。
  21. 前記第3ニューラルネットワークは、前記RNNの一種であるLSTM(Long−Short Term Memory)ネットワークとして具現されることを特徴とする請求項20に記載の装置。
  22. 前記プロセッサは、前記第1ロスレイヤをもって、(i)前記状況イメージ及び前記状況通信情報が所定の第T時点に対応する場合、前記第T時点以後の時点である第T+1時点における前記周辺物体の位置情報及び速度情報を参照して取得された前記原本正解周辺モーション情報、及び(ii)前記予測周辺モーション情報を参照して、前記モーションロスを生成させることを特徴とする請求項16に記載の装置。
  23. 前記プロセッサは、(V)前記第1ないし前記第4ニューラルネットワークの学習が完了した状態で、第5ニューラルネットワークをもって、学習が完了した前記第4ニューラルネットワークから出力された予測周辺モーション情報に少なくとも一つの第5ニューラルネットワーク演算を適用して、前記特定の時間範囲の間に前記対象車両との関連度が閾値以上である事故が起きる確率に関する情報を含む予測危険情報を生成させるプロセス、及び(VI)第2ロスレイヤをもって、前記予測危険情報及びこれに対応する原本正解危険情報を参照して少なくとも一つの危険ロスを生成させ、前記危険ロスを使用してバックプロパゲーションを遂行することによって前記第5ニューラルネットワークのパラメータのうち少なくとも一部を学習させるプロセスをさらに遂行することを特徴とする請求項16に記載の装置。
  24. 前記(I)プロセスで、
    前記プロセッサが、前記第1ニューラルネットワークに含まれている第1コンボリューションレイヤをもって、前記状況イメージに少なくとも一つの第1コンボリューション演算を適用して少なくとも一つの第1特徴マップを生成させ、前記第1ニューラルネットワークに含まれている第1プーリングレイヤをもって、前記第1特徴マップに少なくとも一つの第1プーリング演算を適用して少なくとも一つの第1プーリング済み特徴マップを生成させ、前記第1ニューラルネットワークに含まれている第1FCレイヤをもって、前記第1プーリング済み特徴マップに少なくとも一つの第1FC演算を適用して前記イメージ基盤の特徴マップを生成させることを特徴とする請求項16に記載の装置。
  25. イメージ及び通信を介して取得される各情報のフュージョンを使用して、一つ以上のテスト用周辺物体の一つ以上のモーションを予測することによって、事故の危険を回避して安全な自律走行を遂行するように支援するテスト装置において、
    一つ以上のインストラクションを格納する少なくとも一つのメモリと、
    (I)(1)学習装置が、学習用対象車両に搭載された少なくとも一つの学習用カメラを通じて少なくとも一つの学習用状況イメージが取得されると、第1ニューラルネットワークをもって、前記学習用状況イメージに少なくとも一つの第1ニューラルネットワーク演算を適用して、前記学習用状況イメージに対応する少なくとも一つの学習用イメージ基盤の特徴マップを生成させるプロセス、及び前記学習用対象車両に搭載された少なくとも一つの学習用通信モジュールを通じて学習用状況通信情報が取得されると、第2ニューラルネットワークをもって、前記学習用状況通信情報に少なくとも一つの第2ニューラルネットワーク演算を適用して、前記学習用状況通信情報に対応する学習用通信基盤の特徴マップを生成させるプロセスを遂行し、(2)前記学習装置が、第3ニューラルネットワークをもって、前記学習用イメージ基盤の特徴マップ及び前記学習用通信基盤の特徴マップに少なくとも一つの第3ニューラルネットワーク演算を適用して、学習用統合特徴マップを生成させ、(3)前記学習装置が、第4ニューラルネットワークをもって、前記学習用統合特徴マップに少なくとも一つの第4ニューラルネットワーク演算を適用して、特定の時間範囲の間における学習用周辺物体のモーション予測結果である学習用予測周辺モーション情報を生成させ、(4)前記学習装置が、第1ロスレイヤをもって、前記学習用予測周辺モーション情報及びこれに対応する原本正解周辺モーション情報を参照して少なくとも一つのモーションロスを生成させ、前記モーションロスを使用してバックプロパゲーションを遂行することによって、前記第1ないし前記第4ニューラルネットワークのパラメータのうち少なくとも一部を学習させた状態で、テスト用対象車両に搭載された少なくとも一つのテスト用カメラを通じて少なくとも一つのテスト用状況イメージが取得されると、前記第1ニューラルネットワークをもって、前記テスト用状況イメージに前記第1ニューラルネットワーク演算を適用して、前記テスト用状況イメージに対応する少なくとも一つのテスト用イメージ基盤の特徴マップを生成させ、前記テスト用対象車両に搭載された少なくとも一つのテスト用通信モジュールを通じてテスト用状況通信情報が取得されると、前記第2ニューラルネットワークをもって、前記テスト用状況通信情報に前記第2ニューラルネットワーク演算を適用して、前記テスト用状況通信情報に対応する少なくとも一つのテスト用通信基盤の特徴マップを生成させるプロセス、(II)前記第3ニューラルネットワークをもって、前記テスト用イメージ基盤の特徴マップ及び前記テスト用通信基盤の特徴マップに前記第3ニューラルネットワーク演算を適用して、テスト用統合特徴マップを生成させるプロセス、及び(III)前記第4ニューラルネットワークをもって、前記テスト用統合特徴マップに前記第4ニューラルネットワーク演算を適用して、前記特定の時間範囲の間における前記テスト用周辺物体のモーション予測結果であるテスト用予測周辺モーション情報を生成させるプロセスを遂行するための前記各インストラクションを実行するように構成された少なくとも一つのプロセッサと、
    を含むことを特徴とする装置。
  26. 前記プロセッサが、(IV)前記第1ないし前記第4ニューラルネットワークを使用して学習が完了した第5ニューラルネットワークをもって、前記テスト用予測周辺モーション情報に少なくとも一つの第5ニューラルネットワーク演算を適用して、前記特定の時間範囲の間に前記テスト用対象車両との関連度が閾値以上である事故が起きる確率に関する情報を含むテスト用予測危険情報を生成させるプロセスをさらに遂行することを特徴とする請求項25に記載の装置。
  27. 前記プロセッサが、(V)前記テスト用対象車両が群集走行(platooning)を通じて前記自律走行を遂行している場合、前記テスト用予測危険情報を参照して群集走行パラメータを調整するプロセスをさらに遂行することを特徴とする請求項26に記載の装置。
  28. 前記プロセッサが、前記テスト用対象車両との前記関連度が前記閾値以上である特定の事故が実際に発生して検出された場合、前記特定の事故に関する情報を前記テスト用周辺物体と共有し、前記テスト用対象車両をもって、前記特定の事故により発生する危険な状況を回避するための走行戦略を参照して前記自律走行を遂行するように支援することを特徴とする請求項27に記載の装置。
  29. 前記(III)プロセスで、
    前記プロセッサが、前記第4ニューラルネットワークをもって、(i)前記テスト用カメラ及び前記テスト用通信モジュールを通じて取得されたテスト用グローバル情報に対応する前記テスト用統合特徴マップ、及び(ii)それぞれの前記テスト用周辺物体に関するテスト用ローカル情報に対応する、前記テスト用通信基盤の特徴マップが生成される過程で使用された一つ以上のテスト用通信基盤のメタ特徴ベクトルを含むテスト用メタ特徴マップに、前記第4ニューラルネットワーク演算を適用して前記テスト用予測周辺モーション情報を生成させることを特徴とする請求項25に記載の装置。
  30. 前記(III)プロセスで、
    前記プロセッサが、前記テスト用カメラを通じて取得された前記テスト用周辺物体に対するテスト用イメージ基盤のメタデータに対応する一つ以上のテスト用イメージ基盤のメタ特徴ベクトル及び前記テスト用通信基盤のメタ特徴ベクトルを参照して、前記テスト用メタ特徴マップを生成することを特徴とする請求項29に記載の装置。
JP2020010125A 2019-01-31 2020-01-24 安全な自律走行を支援する学習方法、そしてこれを利用した学習装置、テスト方法、及びテスト装置 Active JP6857371B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962799315P 2019-01-31 2019-01-31
US62/799,315 2019-01-31
US16/738,680 US10824947B2 (en) 2019-01-31 2020-01-09 Learning method for supporting safer autonomous driving without danger of accident by estimating motions of surrounding objects through fusion of information from multiple sources, learning device, testing method and testing device using the same
US16/738,680 2020-01-09

Publications (2)

Publication Number Publication Date
JP2020126639A JP2020126639A (ja) 2020-08-20
JP6857371B2 true JP6857371B2 (ja) 2021-04-14

Family

ID=69191929

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020010125A Active JP6857371B2 (ja) 2019-01-31 2020-01-24 安全な自律走行を支援する学習方法、そしてこれを利用した学習装置、テスト方法、及びテスト装置

Country Status (5)

Country Link
US (1) US10824947B2 (ja)
EP (1) EP3690730A3 (ja)
JP (1) JP6857371B2 (ja)
KR (1) KR102328732B1 (ja)
CN (1) CN111507172B (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018176000A1 (en) 2017-03-23 2018-09-27 DeepScale, Inc. Data synthesis for autonomous control systems
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
CN113039556B (zh) 2018-10-11 2022-10-21 特斯拉公司 用于使用增广数据训练机器模型的系统和方法
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
KR102590622B1 (ko) * 2021-04-02 2023-10-17 세종대학교산학협력단 멀티레이블 학습을 이용한 멀티스펙트럴 도메인에서의 객체 인식 방법 및 장치
CN114093171B (zh) * 2022-01-21 2022-05-06 杭州海康威视数字技术股份有限公司 基于多源数据融合的交通运行状态监测方法及装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3606853B2 (ja) * 2001-09-07 2005-01-05 松下電器産業株式会社 車両周囲状況表示装置
US9830709B2 (en) * 2016-03-11 2017-11-28 Qualcomm Incorporated Video analysis with convolutional attention recurrent neural networks
JP2017162438A (ja) * 2016-03-11 2017-09-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 危険予測方法
CN109791737A (zh) * 2016-10-07 2019-05-21 爱信艾达株式会社 行驶辅助装置以及计算机程序
JP7061964B2 (ja) * 2016-11-01 2022-05-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ データ生成方法及びデータ生成装置
JP6888950B2 (ja) * 2016-12-16 2021-06-18 フォルシアクラリオン・エレクトロニクス株式会社 画像処理装置、外界認識装置
WO2018145308A1 (en) * 2017-02-13 2018-08-16 Nokia Technologies Oy Filter reusing mechanism for constructing robust deep convolutional neural network
CN108229455B (zh) * 2017-02-23 2020-10-16 北京市商汤科技开发有限公司 物体检测方法、神经网络的训练方法、装置和电子设备
US10551842B2 (en) * 2017-06-19 2020-02-04 Hitachi, Ltd. Real-time vehicle state trajectory prediction for vehicle energy management and autonomous drive
US10169679B1 (en) * 2017-10-13 2019-01-01 StradVision, Inc. Learning method and learning device for adjusting parameters of CNN by using loss augmentation and testing method and testing device using the same
US10836379B2 (en) * 2018-03-23 2020-11-17 Sf Motors, Inc. Multi-network-based path generation for vehicle parking

Also Published As

Publication number Publication date
CN111507172A (zh) 2020-08-07
EP3690730A2 (en) 2020-08-05
KR102328732B1 (ko) 2021-11-23
JP2020126639A (ja) 2020-08-20
US20200250541A1 (en) 2020-08-06
KR20200096131A (ko) 2020-08-11
EP3690730A3 (en) 2020-11-04
CN111507172B (zh) 2023-08-18
US10824947B2 (en) 2020-11-03

Similar Documents

Publication Publication Date Title
JP6857371B2 (ja) 安全な自律走行を支援する学習方法、そしてこれを利用した学習装置、テスト方法、及びテスト装置
JP6913969B2 (ja) 強化学習に基づいて協同走行で多重エージェントセンサフュージョンを遂行する方法及び装置
US11087175B2 (en) Learning method and learning device of recurrent neural network for autonomous driving safety check for changing driving mode between autonomous driving mode and manual driving mode, and testing method and testing device using them
JP6964354B2 (ja) 最近の走行経路に対する軌跡基盤行動分析を遂行して、車両のモードを手動走行モードから自律走行モードに変更するか否かを判断する学習方法及び学習装置
JP6895694B2 (ja) Avm及び強化学習を利用して自律走行の安全性を達成するためのアテンション−ドリブンアルゴリズムを利用したリソース割り当てのための方法及び装置{method and device for attention−driven resource allocation by using avmand reinforcement learning to thereby achieve safety of autonomous driving}
EP3690708A1 (en) Method and device for optimized resource allocation in autonomous driving on the basis of reinforcement learning using data from lidar, radar, and camera sensor
JP6916551B2 (ja) V2x通信及びイメージ処理を利用した情報融合によって自律走行の短期経路をプランニングするための方法及び装置{method and device for short−term path planning of autonomous driving through information fusion by using v2x communication and image processing}
EP3822852B1 (en) Method, apparatus, computer storage medium and program for training a trajectory planning model
CN110356412B (zh) 用于自主驾驶的自动规则学习的方法和设备
JP6941386B2 (ja) 自律走行の安全性を提供するための方法及び装置
JP7092383B2 (ja) 各領域において最適化された自律走行を遂行できるように位置基盤アルゴリズムの選択によってシームレスパラメータ変更を遂行する方法及び装置
KR102301631B1 (ko) 협업 주행을 수행하는 자동차들로부터 획득된 주행 이미지들을 통합하는 방법 및 이를 이용한 주행 이미지 통합 장치
US10796571B2 (en) Method and device for detecting emergency vehicles in real time and planning driving routes to cope with situations to be expected to be occurred by the emergency vehicles
JP6892158B2 (ja) オンデバイス独立型予測に基づいて自律走行車両のモードを切り換えることによって自律走行の安全性を図る学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置
JP6938056B2 (ja) 競争的なコンピューティング及び情報フュージョンを利用して、車両の自律走行を支援するのに利用される自律走行サービスプラットフォームを提供する方法及びこれを利用したサーバ{method for providing autonomous driving service platform to be used for supporting autonomous driving of vehicles by using competitive computing and information fusion, and server using the same}
US20210398014A1 (en) Reinforcement learning based control of imitative policies for autonomous driving
JP6865365B2 (ja) ディープラーニング基盤装置の学習に使用されるバーチャル世界シミュレータの物理エンジンをキャリブレーションする方法及び装置、そしてそのためのリアル状態ネットワークを学習する方法及びそれを利用した学習装置
US11938939B1 (en) Determining current state of traffic light(s) for use in controlling an autonomous vehicle
Pandya et al. An End—End Framework for Autonomous Driving Cars in a CARLA Simulator
CN117782136A (zh) 虚拟驾驶辅助导航方法、装置及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210312

R150 Certificate of patent or registration of utility model

Ref document number: 6857371

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250