JP2020125102A - ライダ、レーダ及びカメラセンサのデータを使用する強化学習に基づく自律走行時の最適化されたリソース割当てのための方法及び装置 - Google Patents

ライダ、レーダ及びカメラセンサのデータを使用する強化学習に基づく自律走行時の最適化されたリソース割当てのための方法及び装置 Download PDF

Info

Publication number
JP2020125102A
JP2020125102A JP2020004217A JP2020004217A JP2020125102A JP 2020125102 A JP2020125102 A JP 2020125102A JP 2020004217 A JP2020004217 A JP 2020004217A JP 2020004217 A JP2020004217 A JP 2020004217A JP 2020125102 A JP2020125102 A JP 2020125102A
Authority
JP
Japan
Prior art keywords
attention
vehicle
data
computing device
autonomous
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020004217A
Other languages
English (en)
Other versions
JP6982897B2 (ja
Inventor
金桂賢
Kye-Hyeon Kim
金鎔重
Yongjoong Kim
金寅洙
Insu Kim
金鶴京
Hak-Kyoung Kim
南雲鉉
Woonhyun Nam
夫碩▲くん▼
Sukhoon Boo
成明哲
Myungchul Sung
呂東勳
Donghun Yeo
柳宇宙
Wooju Ryu
張泰雄
Taewoong Jang
鄭景中
Kyungjoong Jeong
諸泓模
Hongmo Je
趙浩辰
Hojin Cho
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stradvision Inc
Original Assignee
Stradvision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stradvision Inc filed Critical Stradvision Inc
Publication of JP2020125102A publication Critical patent/JP2020125102A/ja
Application granted granted Critical
Publication of JP6982897B2 publication Critical patent/JP6982897B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/329Power saving characterised by the action undertaken by task scheduling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5094Allocation of resources, e.g. of the central processing unit [CPU] where the allocation takes into account power or heat criteria
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/08Predicting or avoiding probable or impending collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/14Cruise control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9318Controlling the steering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Transportation (AREA)
  • Optics & Photonics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

【課題】強化学習による自律走行時に効率的にリソースの割当てを行って、自律走行車両の電力消耗を減らす。【解決手段】強化学習により自律走行時に効率的にリソースの割当てを遂行する方法において、(a)コンピューティング装置が、少なくとも1つのアテンションセンサデータを取得し、1つ以上のアテンションスコアを計算させる段階、(b)前記コンピューティング装置が、少なくとも一つのビデオデータを取得させ、少なくとも一つの自律走行用判断データを生成させる段階、(c)前記コンピューティング装置が、ドライブネットワークをもって、前記判断データを参照して前記自律走行車両を運行させ、周辺状況の変化を示す少なくとも一つの状況データを取得させる段階、(d)前記コンピューティング装置が、前記ニューラルネットワーク演算に使用される一つ以上のパラメータの少なくとも一部を調整させる段階、を含む。【選択図】図1

Description

本発明は、自律走行車両に使用するための方法及び装置に関し、より詳しくは、強化学習による自律走行時に効率的にリソースの割当てを遂行する方法に関する。
自律走行システムは電力消耗が大きいため、電力を節約することが重要である。自律走行システムをなす構成要素のうち一つであるカメラは、その電力消耗が大きいが、特定の場合、すなわち閑散とした高速道路を走っていて周辺に障害物が存在しない場合又は特定の方向には障害物が存在しない場合、少数のカメラのみが必要となる。このような場合にすべてのカメラを動作させると、多くの電力が浪費する大きな問題がある。
したがって、このような電力浪費を減らし、電力のようなリソースを効率的に分配し得る技術が必要となるが、CNN(ConvolutionalNeuralNetwork)でこれを具現しようとすると、このような状況の原本正解を容易に定義することができず、従ってロスを明確に定義することが難しいことから学習が困難である。したがって、原本正解を必要としないディープラーニング方法のうち一つである強化学習が活用され得る。しかし、強化学習を通じてこのような機能を学習させようとすると、実際にモジュールを作動させながら学習しなければならない。例えば、自律走行の場合、強化学習を遂行するために車両が実際に走行しなければならないということである。ところが、実際に車両を走行しながら学習する場合、車両事故が発生する可能性が高い。
本発明は、前述した問題点を解決することを目的とする。
本発明は、強化学習による自律走行時に効率的にリソースの割当てを行って、自律走行車両の電力消耗を減らすことを目的とする。
本発明は、自律走行車両が強化学習によりリソースの割当てを最適化する仮想空間を提供することにより、学習過程における潜在的な危険要素を減らすことを目的とする。
前記のような本発明の目的を達成し、後述する本発明の特徴的な効果を実現するための本発明の特徴的な構成は以下の通りである。
本発明の一態様によると、強化学習により自律走行時に効率的にリソースの割当てを遂行する方法において、(a)コンピューティング装置が、少なくとも1つのアテンションセンサデータを取得すると、アテンションネットワークをもって、前記アテンションセンサデータを参照して少なくとも1つのニューラルネットワーク演算を遂行することにより1つ以上のアテンションスコアを計算させる段階;(b)前記コンピューティング装置が、検出ネットワークをもって、前記アテンションスコアを参照して自律走行車両に設置された一つ以上のカメラのうち少なくとも一部により取得された少なくとも一つのビデオデータを取得させ、前記ビデオデータを参照して少なくとも一つの自律走行用判断データを生成させる段階;(c)前記コンピューティング装置が、ドライブネットワークをもって、前記判断データを参照して前記自律走行車両を運行させ、運行中である前記自律走行車両の周辺状況の変化を示す少なくとも一つの状況データを取得させ、前記状況データを参照して少なくとも一つのリワードを生成させる段階;(d)前記コンピューティング装置が、前記アテンションネットワークをもって、前記リワードを参照して前記ニューラルネットワーク演算に使用される一つ以上のパラメータの少なくとも一部を調整させる段階;を含むことを特徴とする方法が提供される。
一実施例において、前記(a)段階は、前記ニューラルネットワーク演算は、前記アテンションセンサデータが入力される少なくとも1つのコンボリューションレイヤと、少なくとも1つのプーリングレイヤと、少なくとも1つのFCレイヤと、前記アテンションスコアが出力される少なくとも1つのソフトマックスレイヤとの演算を含み、前記自律走行車両近傍の空間に含まれた各角度の範囲ごとに少なくとも1つの走行危険レベルを決定させることを特徴とする方法が提供される。
一実施例において、前記(b)段階は、前記コンピューティング装置が、前記検出ネットワークをもって、第1閾値以上の前記アテンションスコアを有する特定の角度範囲に対応する、前記自律走行車両に設置された特定カメラの特定ビデオデータを取得させることを特徴とする方法が提供される。
一実施例において、前記(b)段階は、前記コンピューティング装置が、前記検出ネットワークをもって、少なくとも一つの領域が少なくとも一つのROIとして設定された前記ビデオデータを使用することで前記判断データを生成させ、前記領域は第1閾値以上のアテンションスコアを有する特定の角度範囲に対応する領域であることを特徴とする方法が提供される。
一実施例において、前記(c)段階は、前記状況データは、(i)前記自律走行車両から所定の距離以内の少なくとも1つの隣接した周辺車両の少なくとも1つの車両警笛が使用中であるかに関する情報、(ii)前記少なくとも1つの隣接した周辺車両の速力変化情報、(iii)前記自律走行車両と前記隣接した周辺車両との少なくとも1つの事故情報のうち少なくとも一部を含むことを特徴とする方法が提供される。
一実施例において、前記(a)段階は、前記アテンションセンサデータはレーダを使用して取得されるか、ライダを使用して取得されるか、両方を使用して取得され、前記ライダを使用するか又は前記レーダ及び前記ライダをいずれも使用して前記アテンションセンサデータが取得された場合、前記コンピューティング装置が、前記アテンションネットワークをもって、前記アテンションセンサデータに含まれた各3次元座標を参照して少なくとも一つの希少デプスイメージ(sparse depth image)を生成させ、前記希少デプスイメージに少なくとも一つのスムージング(smoothing)演算を適用させて少なくとも一つの高密度デプスイメージ(dense depth image)を生成させ、前記高密度デプスイメージを参照して前記ニューラルネットワーク演算を遂行することで前記アテンションスコアを計算させることを特徴とする方法が提供される。
一実施例において、前記自律走行車両は仮想空間で具現されるようにし、前記仮想空間で前記自律走行車両が運行される過程を通じて前記パラメータの少なくとも一部が調整されることを特徴とする方法が提供される。
一実施例において、前記仮想空間で、前記自律走行車両から所定の距離以内に位置する一つ以上の仮想物体間の関係に関する情報を参照して前記アテンションセンサデータ、前記ビデオデータ、前記状況データが取得されるように前記アテンションセンサデータ、前記ビデオデータ、前記状況データの変形がプログラミングされていることを特徴とする方法が提供される。
一実施例において、前記仮想空間は、(i)前記自律走行車両から所定の距離以内の周辺車両が第1臨界時間内に前記自律走行車両と衝突する可能性があるものと検出されると、前記仮想空間にある少なくとも一つの前記周辺車両が警笛を鳴らすようにプログラミングされ、(ii)前記周辺車両が第2臨界時間内に前記自律走行車両と衝突する可能性があるものと検出されると、前記周辺車両の速力を落とすようにプログラミングされ、前記第1臨界時間は前記第2臨界時間に比べて大きいか、同じであることを特徴とする方法が提供される。
本発明の他の態様によると、強化学習により自律走行時に効率的にリソースの割当てを遂行するコンピューティング装置において、各インストラクションを格納する少なくとも一つのメモリと、(I)アテンションネットワークをもって、少なくとも一つのアテンションセンサデータを参照して少なくとも一つのニューラルネットワーク演算を遂行することにより一つ以上のアテンションスコアを計算させるプロセス;(II)検出ネットワークをもって、前記アテンションスコアを参照して、自律走行車両に設置された一つ以上のカメラのうち少なくとも一部によって取得された少なくとも一つのビデオデータを取得させ、前記ビデオデータを参照して少なくとも一つの自律走行用判断データを生成させるプロセス;(III)のドライブネットワークをもって、前記判断データを参照して前記自律走行車両を運行させ、運行中である前記自律走行車両の周辺状況の変化を示す少なくとも一つの状況データを取得させ、前記状況データを参照して少なくとも一つのリワードを生成させるプロセス;(IV)前記アテンションネットワークをもって、前記リワードを参照して前記ニューラルネットワーク演算に使用される一つ以上のパラメータの少なくとも一部を調整させるプロセス;を遂行するための前記各インストラクションを実行するように構成された少なくとも一つのプロセッサと、を含むことを特徴とするコンピューティング装置が提供される。
一実施例において、前記(I)プロセスで、前記ニューラルネットワーク演算は、前記アテンションセンサデータが入力される少なくとも一つのコンボリューションレイヤと、少なくとも一つのプーリングレイヤと、少なくとも一つのFCレイヤと、前記アテンションスコアとが出力される少なくとも一つのソフトマックスレイヤの演算を含み、前記自律走行車両近傍の空間に含まれた各角度の範囲ごとに少なくとも一つの走行危険レベルを決定させることを特徴とするコンピューティング装置が提供される。
一実施例において、前記(II)プロセスで、前記プロセッサが、前記検出ネットワークをもって、第1閾値以上の前記アテンションスコアを有する特定の角度範囲に対応する、前記自律走行車両に設置された特定カメラの特定ビデオデータを取得させることを特徴とするコンピューティング装置が提供される。
一実施例において、前記(II)プロセスで、前記プロセッサが、前記検出ネットワークをもって、少なくとも一つの領域が少なくとも一つのROIとして設定された前記ビデオデータを使用することで前記判断データを生成させ、前記領域は第1閾値以上のアテンションスコアを有する特定の角度範囲に対応する領域であることを特徴とするコンピューティング装置が提供される。
一実施例において、前記(III)プロセスで、前記状況データは、(i)前記自律走行車両から所定の距離以内の少なくとも1つの隣接した周辺車両の少なくとも1つの車両警笛が使用中であるかに関する情報、(ii)前記少なくとも1つの隣接した周辺車両の速力変化情報、(iii)前記自律走行車両と前記隣接した周辺車両との少なくとも1つの事故情報のうち少なくとも一部を含むことを特徴とするコンピューティング装置が提供される。
一実施例において、前記(I)プロセスで、前記アテンションセンサデータはレーダを使用して取得されるか、ライダを使用して取得されるか、両方を使用して取得され、前記ライダを使用するか又は前記レーダ及び前記ライダをいずれも使用して前記アテンションセンサデータが取得された場合、前記プロセッサが、前記アテンションネットワークをもって、前記アテンションセンサデータに含まれた各3次元座標を参照して少なくとも一つの希少デプスイメージ(sparse depth image)を生成させ、前記希少デプスイメージに少なくとも一つのスムージング(smoothing)演算を適用させて少なくとも一つの高密度デプスイメージ(dense depth image)を生成させ、前記高密度デプスイメージを参照して前記ニューラルネットワーク演算を遂行することで前記アテンションスコアを計算させることを特徴とするコンピューティング装置が提供される。
一実施例において、前記自律走行車両は仮想空間で具現されるようにし、前記仮想空間で前記自律走行車両が運行される過程を通じて前記パラメータの少なくとも一部が調整されることを特徴とするコンピューティング装置が提供される。
一実施例において、前記仮想空間で、前記自律走行車両から所定の距離以内に位置する一つ以上の仮想物体間の関係に関する情報を参照して、前記アテンションセンサデータ、前記ビデオデータ、前記状況データが取得されるように前記アテンションセンサデータ、前記ビデオデータ、前記状況データの変形がプログラミングされていることを特徴とするコンピューティング装置が提供される。
一実施例において、前記仮想空間は、(i)前記自律走行車両から所定の距離以内の周辺車両が第1臨界時間内に前記自律走行車両と衝突する可能性があるものと検出されると、前記仮想空間にある少なくとも一つの前記周辺車両が警笛を鳴らすようにプログラミングされ、(ii)前記周辺車両が第2臨界時間内に前記自律走行車両と衝突する可能性があるものと検出されると、前記周辺車両の速力を落とすようにプログラミングされ、前記第1臨界時間は前記第2臨界時間に比べて大きいか、同じであることを特徴とするコンピューティング装置が提供される。
本発明は、強化学習により自律走行時に効率的にリソースの割当てを遂行する方法を提供することにより、自律走行車両の電力消耗を減らすことができる効果がある。
本発明は、自律走行車両が強化学習によりリソースの割当てを最適化して仮想空間を提供することにより、学習過程における潜在的な危険要素を減らすことができる効果がある。
本発明の実施例の説明に利用されるために添付された以下の各図面は、本発明の実施例のうち単に一部であるに過ぎず、本発明の属する技術分野において通常の知識を有する者(以下「通常の技術者」)にとっては、発明的作業が行われずにこれらの図面に基づいて他の各図面が得られ得る。
本発明の一実施例にしたがって、強化学習による自律走行時の効率的なリソースの割当てを遂行するコンピューティング装置の構成を簡略に示した図面である。 本発明の一実施例にしたがって、強化学習による自律走行時の効率的なリソースの割当てを遂行する過程を簡略に示した図面である。 本発明の一実施例による効率的なリソースの割当てのために遂行されるニューラルネットワーク演算の一例を示した図面である。 本発明の一実施例による効率的なリソースの割当てを遂行するために計算されたアテンションスコアの一例を示した図面である。
後述する本発明に関する詳細な説明は、本発明が実施され得る特定の実施例を例示として示す添付図面を参照する。これらの実施例は、当業者が本発明を実施することができるように十分詳細に説明される。本発明の多様な実施例は互いに異なるが、相互に排他的である必要はないことが理解されるべきである。例えば、ここに記載されている特定の形状、構造及び特性は、一実施例に関連して本発明の精神及び範囲を逸脱せず、かつ他の実施例で具現され得る。また、それぞれの開示された実施例内の個別の構成要素の位置又は配置は、本発明の精神及び範囲を逸脱せず、かつ変更され得ることが理解されるべきである。したがって、後述の詳細な説明は、限定的な意味として受け取ろうとするものではなく、本発明の範囲は適切に説明されるのであれば、その請求項が主張することと均等な全ての範囲とともに添付された請求項によってのみ限定される。図面において類似の参照符号は、様々な側面にわたって同一であるか、又は類似の機能を指す。
また、本発明の詳細な説明及び各請求項にわたって、「含む」という単語及びそれらの変形は、他の技術的各特徴、各付加物、構成要素又は段階を除外することを意図したものではない。通常の技術者にとって本発明の他の各目的、長所及び各特性が、一部は本説明書から、また一部は本発明の実施から明らかになるであろう。以下の例示及び図面は実例として提供され、本発明を限定することを意図したものではない。
本発明で言及している各種イメージは、舗装または非舗装道路関連のイメージを含み得、この場合、道路環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではなく、本発明で言及している各種イメージは、道路と関係のないイメージ(例えば、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内と関連したイメージ)でもあり得、この場合、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではない。
以下、本発明の属する技術分野において通常の知識を有する者が本発明を容易に実施し得るようにするために、本発明の好ましい実施例について、添付された図面を参照して詳細に説明することにする。
図1は、本発明の一実施例にしたがって、強化学習による自律走行時の効率的なリソースの割当てを遂行するコンピューティング装置の構成を簡略に示した図面である。
図1を参照すると、コンピューティング装置100は、アテンションネットワーク130と、検出ネットワーク140と、ドライブネットワーク150とを含み得る。アテンションネットワーク130、検出ネットワーク140及びドライブネットワーク150の入出力及び演算の過程は、それぞれ通信部110とプロセッサ120とによって行われ得る。ただし、図1では通信部110及びプロセッサ120の具体的な連結関係を省略した。この際、メモリ115は、後述する各インストラクションを格納した状態であり得、プロセッサ120はメモリ115に格納された各インストラクションを遂行するように設定され、プロセッサ120は追って説明するプロセスを遂行することにより本発明を遂行することができる。このように学習装置100が描写されたからといって、学習装置100が本発明を実施するためのプロセッサ、メモリ、ミディアム(medium)または任意の他のコンピューティングコンポーネントの任意の組み合わせを含む統合装置を排除するわけではない。
コンピューティング装置100の構成は前記のとおりであるところ、以下、それぞれの構成がどのように連動して作動するのかを図2を参照して概括的に検討するようにする。
図2は、本発明の一実施例にしたがって、強化学習による自律走行時の効率的なリソースの割当てを遂行する過程を簡略に示した図面である。
図2を参照すると、アテンションネットワーク130は、追って詳しく説明する少なくとも一つのアテンションセンサデータを取得するか、他の装置をもって取得するように支援し得る。アテンションネットワーク130は、アテンションセンサデータを利用して一つ以上のアテンションスコアを計算するか、他の装置をもって計算するように支援することができ、検出ネットワーク140は、アテンションスコアを参照して自律走行車両に設置された一つ以上のカメラのうち少なくとも一部によって取得された少なくとも一つのビデオデータを取得するプロセス、取得されたビデオデータを参照して少なくとも一つの自律走行用判断データを生成するプロセスを遂行するか、他の装置をもって遂行し得るように支援することができる。以後、ドライブネットワーク150は、自律走行用判断データを参照して自律走行車両を運行するプロセス、運行中である自律走行車両の周辺状況の変化を示す少なくとも一つの状況データを取得するプロセスを遂行するか、他の装置をもって遂行するように支援することができる。そして、ドライブネットワーク150は、状況データを参照して強化学習に使用された少なくとも一つのリワードを生成するか、他の装置をもって生成するように支援することができる。そして、アテンションネットワーク130は、リワードを参照してニューラルネットワーク演算で一つ以上のパラメータの少なくとも一部を調整するか、他の装置をもって調整するように支援することができる。
以上、概括的な本発明のチャートを図2を通じて検討したところ、本発明の具体的な遂行方式を以下にてさらに詳細に検討することにする。
まず、アテンションセンサデータが取得されると、コンピューティング装置100は、アテンションネットワーク130をもって、アテンションセンサデータを参照してニューラルネットワーク演算を遂行させることができる。
ここで、アテンションセンサデータとは、自律走行車両に設置されたセンサから取得されるデータであるが、これはレーダを使用して取得されるか、ライダ(Lidar)を使用して取得されるか、レーダ及びライダをいずれも使用して取得され得る。ライダを使用せずにレーダのみを使用してアテンションセンサデータを取得した場合には、アテンションネットワーク130は直ちにこれを参照してニューラルネットワーク演算を遂行することができる。ところが、ライダを使用した場合、すなわちライダとレーダとをいずれも使用してアテンションセンサデータを取得した場合、又はレーダは使用せずにライダを使用してアテンションセンサデータを取得した場合、ニューラルネットワーク演算を遂行するにはデータが最適化された状態ではないので、これを前処理する過程が必要であるところ、前処理過程について見てみる。
ライダによって取得されたアテンションセンサデータは、レーザスキャンラインに沿ってレーザが反射される地点までの距離を測定して取得されたものであり、自律走行車両を中心とした同心円の形態に配列された3次元座標を含む。前処理はこのような3次元座標を利用し、3次元座標の投影(projection)及びスムージング(smoothing)する過程を含む。具体的に、3次元座標を仮想の平面上に投影すると、各ピクセルのそれぞれの距離に関する情報を含む希少デプスイメージが生成される。以後、希少デプスイメージの中間の空間部分を満たすために、希少デプスイメージに少なくとも一つのスムージング演算を適用することで高密度デプスイメージが生成され得る。アテンションネットワーク130は、このような高密度デプスイメージを参照してニューラルネットワーク演算を遂行することができる。
アテンションネットワーク130によって行われるニューラルネットワーク演算は、図3を通じて確認することができる。
図3は、本発明の一実施例による効率的なリソースの割当てのために遂行されるニューラルネットワーク演算の一例を示した図面である。
図3を参照すると、ニューラルネットワーク演算はアテンションセンサデータまたはこれを前処理した高密度デプスイメージが入力される一つ以上のコンボリューションレイヤと、コンボリューションレイヤの結果に少なくとも一つのプーリング演算を適用する少なくとも一つのプーリングレイヤと、プーリングレイヤの結果に一つ以上のFC演算を適用する一つ以上のFCレイヤと、前記アテンションスコアが出力される少なくとも一つのソフトマックスレイヤとを含む。もちろん、図3に示された構成は一例示であって、それぞれのレイヤは一つ以上の他のレイヤに代替されるか、少なくとも一つの他のレイヤが本構成に追加されるか、特定のレイヤが削除されることもまた可能である。
このようなニューラルネットワーク演算は、自律走行車両を中心とする所定の空間に対して、それぞれの角度範囲ごとに走行時の危険度を点数化して判断する演算であって、アテンションスコアを出力するための演算である。危険度は、図4を参照して具体的に説明することにする。
図4は、本発明の一実施例による効率的なリソースの割当てを遂行するために、計算されたアテンションスコアの一例を示した図面である。
図4を参照すると、自律走行車両200の周辺を表したパノラマイメージ220上で物体が多い一部の特定方向に対応するアテンションスコア210のうち一部が高く測定されたことが分かる。パノラマイメージ220は、理解の一助とするために配置したものであって、実際にはこのようなパノラマイメージ220ではなく、高密度デプスイメージまたはレーダから取得されたアテンションセンサデータを利用してアテンションスコアが生成される。図4の例示されたアテンションスコア210は、一部の特定方向である222方向と223方向に対応するアテンションスコアのうち一部は高く示されている。すなわち、特定方向に多くの物体が検出される場合、一つ以上の物体が自律走行車両200に向かって移動したり、それから潜在的な危険が高まる可能性があるため、当該方向の走行危険レベルは高いものと決定され、その方向に対応する当該角度の範囲のアテンションスコアは高く計算されるのである。このようなアテンションスコア210が検出ネットワーク140によって計算されると、どのような効果が発生するのかは追って再度図4を参照して再び説明することにする。
このようにアテンションスコアが計算されると、コンピューティング装置100が検出ネットワーク140をもって、アテンションスコアを参照して自律走行車両200に設置された一つ以上のカメラのうち少なくとも一部によって取得された少なくとも一つのビデオデータを取得させ、ビデオデータを参照して少なくとも一つの自律走行用判断データを生成させることができる。
すなわち、自律走行車両に設置されたカメラのうち少なくとも一部を選択して、当該カメラのうち少なくとも一部によって撮影されたビデオを利用して計算が遂行されることにより、すべてのカメラを使用するのに比べてカメラに使用される電力消費を最小化することができる。この際、潜在的危険性が存在することから、それに備えなければならない一部の方向に対応するカメラのうち少なくとも一部のビデオを利用することが安全性向上に役立つので、そのためにアテンションスコアを使用するのである。
つまり、図4を再び参照すると、222及び223方向のアテンションスコアが高いところ、自律走行車両200の222及び223方向を撮影するカメラによるビデオデータを取得するようになるのである。カメラを選択する基準となるアテンションスコアは、その値が第1閾値より大きいか否かによって決定され得る。つまり、検出ネットワーク140は、アテンションスコアが第1閾値以上である特定の角度範囲に対応する自律走行車両200に設置された特定のカメラによって生成された特定のビデオデータを取得させることができるということである。
または、アテンションスコアは少なくとも一つのROI、すなわちRegion−of−Interestを決定するのに使用することもできる。図4を再度例に挙げると、ビデオデータ自体はすべてのカメラを通じて取得し、実際に演算を適用するROIを決定する際に、ROIパノラマイメージ230に示されているように、走行危険レベルが高いものと判断される方向のイメージが一つ以上のROIのためのソースとして決定され得る。つまり、検出ネットワーク140は、アテンションスコアが第1閾値以上である特定の角度範囲に対応する一つ以上の領域をROIとして設定した状態で、以後のプロセスを遂行することができるということである。
本発明は、前記のようにカメラの少なくとも一部のビデオデータを選択するか、イメージのROIを設定することにより、検出ネットワーク140及びドライブネットワーク150の演算量を減らすことができる効果がある。このように演算量を減らすためのプロセスを経た後、検出ネットワーク140は、各カメラのうち少なくとも一部によって取得されたビデオデータを参照して自律走行用判断データを生成するか、ビデオデータのうち少なくとも一部に設定されたROIを参照して自律走行用判断データを生成することができる。
検出ネットワーク140は、ビデオデータに含まれたイメージ上の物体を検出し、自律走行用判断データとして機能する前記物体の距離及び/又は位置を計算した後、これに基づいて自律走行車両200が進行する少なくとも一つの経路を決定することができるであろう。検出ネットワーク140は、このような自律走行用判断データを生成することができるが、本発明は効率的なリソース割当てのための強化学習方法をその主眼点としているので、自律走行用判断データの具体的な生成方法についての説明は省略することにする。
自律走行用判断データが生成されると、コンピューティング装置100がドライブネットワーク150をもって、自律走行用判断データを参照して自律走行車両200を運行させ、運行中である自律走行車両200の周辺状況の変化を示す、少なくとも一つの状況データを取得させ、状況データを参照して強化学習による少なくとも一つのリワードを生成させることができる。
ドライブネットワーク150は、自律走行用判断データに含まれた、自律走行車両200が進行する少なくとも一つの経路に沿って自律走行車両200が運行されるようにすることができる。ドライブネットワーク150が自律走行車両200を操縦する部分もやはり、本発明の主眼点とは異なる部分であるため、これについての具体的な説明は省略することにする。
自律走行車両200は、運行しつつその周辺状況の変化を示す状況データを取得することができる。状況データは、(i)前記自律走行車両から所定の距離内の少なくとも1つの隣接した周辺車両の少なくとも1つの車両警笛が使用中であるかに関する情報、(ii)前記少なくとも1つの隣接した周辺車両の速力変化情報、(iii)前記自律走行車両と前記隣接した周辺車両との少なくとも1つの事故情報のうち少なくとも一部を含み得る。ドライブネットワーク150は、状況データを参照してリワードを生成することができ、リワードはニューラルネットワーク演算に使用されるパラメータを調整することに関与するので、結局、上記のような情報を参照してパラメータを調整するというものである。
警笛を使用するか否かの情報、速力変化情報及び事故情報は、自律走行車両200が安全に運行しているかを判断するための基準であり得る。自律走行車両200が安全に走行しているのであれば周辺の車両は警笛を作動させないであろうし、速力を緩めないはずであり、自律走行車両200と衝突しないからである。警笛の作動、速力の緩和、衝突などの事故が発生すると、ドライブネットワーク150はリワードを下げることで、自律走行車両200がさらに安全に走行させるであろう。これについて、以下に具体的に説明される。
コンピューティング装置100は、アテンションネットワーク130をもって、リワードを参照してニューラルネットワーク演算に使用されるパラメータを調整させることができる。アテンションネットワーク130は、リワードに応じてパラメータの変化方向を決定するものであるが、一例として、リワードが低ければ、アテンションネットワーク130はより多くのカメラのビデオデータを使用することができ、ROIをさらに広く設定することで、検出ネットワーク140がさらに広い範囲の領域に対して検査させて、より安全な走行をさせることができる。また他の例示として、アテンションスコアが全般的に高く導き出されるようにパラメータを調節することができるであろう。これは強化学習のアルゴリズム遂行方式であって、これを通じてカメラを効率的に使用しながらも安全に自律走行することができる。
前記のような本発明はいくつかの長所があるが、このような方式の学習過程は実際に道路を走行しながら行われなければならず、準備されたトレーニングイメージが単純に入力されるCNNの一般的な学習過程と反対に遂行されなければならない。すなわち、本発明による前記例の場合、学習過程が十分に遂行されなければ、実際の道路走行過程において事故の確率が非常に高くなり得る。したがって、本発明はこれを解決するための方案として、仮想空間(Virtual Space)での学習を提案する。具体的な事項は以下の通りである。
自律走行車両200及び自律走行車両200から所定の距離以内にある少なくとも一つの周辺車両は、仮想空間に存在するようにプログラミングされ得る。この際、自律走行車両200が取得し得るアテンションセンサデータ、ビデオデータ及び状況データは、仮想空間で自律走行車両200の周辺に位置する仮想物体間の関係に関する情報を利用して取得されるようにプログラミングされ得る。アテンションセンサデータの場合、仮想空間上における自律走行車両200とその周辺の仮想物体との間の距離を容易に計算することができるので、レーダまたはライダによって生成されたデータのフォーマットとほぼ同様にアテンションセンサデータが生成され得るであろうし、ビデオデータもやはり仮想空間内部における視点によってイメージを生成することにより、実際のデータとほぼ同様に生成され得る。状況データもやはりほぼ同様に生成され得るが、そのためには仮想周辺車両へのさらなるロジックが必要であるので、これについても検討してみる。
状況データが取得されるためには、各仮想周辺車両が警笛を鳴らし、速力を落とすロジックが予めプログラミングされていなければならない。具体的に、仮想空間は、(i)前記自律走行車両200から所定の距離以内の周辺車両が第1臨界時間内に前記自律走行車両と衝突する可能性があるものと検出されると、前記仮想空間にある少なくとも一つの前記周辺車両が警笛を鳴らすようにプログラミングされ、(ii)前記周辺車両が第2臨界時間内に前記自律走行車両200と衝突する可能性があるものと検出されると、前記周辺車両の速力を落とすようにプログラミングされ得る。ここで、前記第1臨界時間は、前記第2臨界時間に比べて大きいか同じであり得るが、これは警笛を鳴らすのは運転者が自らの速力を落としたくなくて鳴らす場合が多いからである。もちろん、これは一実施例であるだけであり、第1臨界時間と第2臨界時間との大きさの関係は任意に設定され得る。
このように仮想周辺車両のロジックが具現されている場合、状況データも現実世界(real−world)とほぼ同じく取得され得るであろう。自律走行車両200は、このように仮想空間で具現され得、その内部で運行される過程でニューラルネットワーク演算に使用されるパラメータが調整されることにより学習され得る。このように学習過程を具現すると、実際とほぼ同じ空間を仮想空間を通じて具現することができるため、仮想空間上での様々な状況、すなわち車両が多い渋滞状況、カーブの多い道を走行する状況、坂道が屈曲した道を走行する状況等について事故なしに安全に学習し得る長所がある。
以上にて説明された本発明による各実施例は、多様なコンピュータの構成要素を通じて遂行することができるプログラム命令語の形態で具現されて、コンピュータ読取り可能な記録媒体に格納され得る。前記コンピュータ読取り可能な記録媒体は、プログラム命令語、データファイル、データ構造などを単独で又は組み合わせて含むことができる。前記コンピュータ読取り可能な記録媒体に格納されるプログラム命令語は、本発明のために特別に設計され、構成されたものであるか、コンピュータソフトウェア分野の当業者に公知にされて使用可能なものであり得る。コンピュータ読取り可能な記録媒体の例には、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスク(Floptical Disk)のような磁気−光メディア(Magneto−Optical Media)、及びROM、RAM、フラッシュメモリなどのようなプログラム命令語を格納して遂行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラによって作られるもののような機械語コードだけでなく、インタープリターなどを使用してコンピュータによって実行され得る高級言語コードも含まれる。前記ハードウェア装置は、本発明による処理を実行するために一つ以上のソフトウェアモジュールとして作動するように構成され得、その反対も同様である。
以上にて本発明が具体的な構成要素などのような特定事項と限定された実施例及び図面によって説明されたが、これは本発明のより全般的な理解の一助とするために提供されたものであるに過ぎず、本発明が前記実施例に限られるものではなく、本発明が属する技術分野において通常の知識を有する者であれば、かかる記載から多様な修正及び変形が行われ得る。
従って、本発明の思想は、前記説明された実施例に局限されて定められてはならず、後述する特許請求の範囲だけでなく、本特許請求の範囲と均等または等価的に変形されたものすべては、本発明の思想の範囲に属するといえる。
[付記]
本発明は、自律走行車両に使用するための最適化されたリソース割当てのための方法及び装置{METHOD AND DEVICE FOR OPTIMIZED RESOURCE ALLOCATION IN AUTONOMOUS DRIVING ON THE BASIS OF REINFORCEMENT LEARNING USING DATA FROM LIDAR, RADAR, AND CAMERA SENSOR}に関する。
より詳細には、強化学習による自律走行時に効率的にリソースの割当てを実行する方法において、(a)コンピューティング装置が、少なくとも一つのアテンションセンサデータを取得すると、アテンションネットワークをもって、前記アテンションセンサデータを参照して少なくとも一つのニューラルネットワーク演算を遂行することにより一つ以上のアテンションスコアを計算させる段階:(b)前記コンピューティング装置が、検出ネットワークをもって、前記アテンションスコアを参照して、自律走行車両に設置された一つ以上のカメラのうち少なくとも一部によって取得された少なくとも一つのビデオデータを取得させ、前記ビデオデータを参照して少なくとも一つの自律走行用判断データを生成させる段階:(c)前記コンピューティング装置が、ドライブネットワークをもって、前記判断データを参照して前記自律走行車両を運行させ、運行中である前記自律走行車両の周辺状況の変化を示す少なくとも一つの状況データを取得させ、前記状況データを参照して少なくとも一つのリワードを生成させる段階:(d)前記コンピューティング装置が、前記アテンションネットワークをもって、前記リワードを参照して前記ニューラルネットワーク演算に使用される一つ以上のパラメータの少なくとも一部を調整させる段階;を含むことを特徴とする方法及び装置に関する。

Claims (18)

  1. 強化学習により自律走行時に効率的にリソースの割当てを遂行する方法において、
    (a)コンピューティング装置が、少なくとも1つのアテンションセンサデータを取得すると、アテンションネットワークをもって、前記アテンションセンサデータを参照して少なくとも1つのニューラルネットワーク演算を遂行することにより1つ以上のアテンションスコアを計算させる段階;
    (b)前記コンピューティング装置が、検出ネットワークをもって、前記アテンションスコアを参照して自律走行車両に設置された一つ以上のカメラのうち少なくとも一部により取得された少なくとも一つのビデオデータを取得させ、前記ビデオデータを参照して少なくとも一つの自律走行用判断データを生成させる段階;
    (c)前記コンピューティング装置が、ドライブネットワークをもって、前記判断データを参照して前記自律走行車両を運行させ、運行中である前記自律走行車両の周辺状況の変化を示す少なくとも一つの状況データを取得させ、前記状況データを参照して少なくとも一つのリワードを生成させる段階;
    (d)前記コンピューティング装置が、前記アテンションネットワークをもって、前記リワードを参照して前記ニューラルネットワーク演算に使用される一つ以上のパラメータの少なくとも一部を調整させる段階;
    を含むことを特徴とする方法。
  2. 前記(a)段階は、
    前記ニューラルネットワーク演算は、前記アテンションセンサデータが入力される少なくとも1つのコンボリューションレイヤと、少なくとも1つのプーリングレイヤと、少なくとも1つのFCレイヤと、前記アテンションスコアが出力される少なくとも1つのソフトマックスレイヤとの演算を含み、前記自律走行車両近傍の空間に含まれた各角度の範囲ごとに少なくとも1つの走行危険レベルを決定させることを特徴とする請求項1に記載の方法。
  3. 前記(b)段階は、
    前記コンピューティング装置が、前記検出ネットワークをもって、第1閾値以上の前記アテンションスコアを有する特定の角度範囲に対応する、前記自律走行車両に設置された特定カメラの特定ビデオデータを取得させることを特徴とする請求項1に記載の方法。
  4. 前記(b)段階は、
    前記コンピューティング装置が、前記検出ネットワークをもって、少なくとも一つの領域が少なくとも一つのROIとして設定された前記ビデオデータを使用することで前記判断データを生成させ、前記領域は第1閾値以上のアテンションスコアを有する特定の角度範囲に対応する領域であることを特徴とする請求項1に記載の方法。
  5. 前記(c)段階は、
    前記状況データは、(i)前記自律走行車両から所定の距離以内の少なくとも1つの隣接した周辺車両の少なくとも1つの車両警笛が使用中であるかに関する情報、(ii)前記少なくとも1つの隣接した周辺車両の速力変化情報、(iii)前記自律走行車両と前記隣接した周辺車両との少なくとも1つの事故情報のうち少なくとも一部を含むことを特徴とする請求項1に記載の方法。
  6. 前記(a)段階は、
    前記アテンションセンサデータはレーダを使用して取得されるか、ライダを使用して取得されるか、両方を使用して取得され、
    前記ライダを使用するか又は前記レーダ及び前記ライダをいずれも使用して前記アテンションセンサデータが取得された場合、前記コンピューティング装置が、前記アテンションネットワークをもって、前記アテンションセンサデータに含まれた各3次元座標を参照して少なくとも一つの希少デプスイメージ(sparse depth image)を生成させ、前記希少デプスイメージに少なくとも一つのスムージング(smoothing)演算を適用させて少なくとも一つの高密度デプスイメージ(dense depth image)を生成させ、前記高密度デプスイメージを参照して前記ニューラルネットワーク演算を遂行することで前記アテンションスコアを計算させることを特徴とする請求項1に記載の方法。
  7. 前記自律走行車両は仮想空間で具現されるようにし、前記仮想空間で前記自律走行車両が運行される過程を通じて前記パラメータの少なくとも一部が調整されることを特徴とする請求項1に記載の方法。
  8. 前記仮想空間で、前記自律走行車両から所定の距離以内に位置する一つ以上の仮想物体間の関係に関する情報を参照して、前記アテンションセンサデータ、前記ビデオデータ、前記状況データが取得されるように前記アテンションセンサデータ、前記ビデオデータ、前記状況データの変形がプログラミングされていることを特徴とする請求項7に記載の方法。
  9. 前記仮想空間は、(i)前記自律走行車両から所定の距離以内の周辺車両が第1臨界時間内に前記自律走行車両と衝突する可能性があるものと検出されると、前記仮想空間にある少なくとも一つの前記周辺車両が警笛を鳴らすようにプログラミングされ、(ii)前記周辺車両が第2臨界時間内に前記自律走行車両と衝突する可能性があるものと検出されると、前記周辺車両の速力を落とすようにプログラミングされ、前記第1臨界時間は前記第2臨界時間に比べて大きいか、同じであることを特徴とする請求項7に記載の方法。
  10. 強化学習により自律走行時に効率的にリソースの割当てを遂行するコンピューティング装置において、
    各インストラクションを格納する少なくとも一つのメモリと、
    (I)アテンションネットワークをもって、少なくとも一つのアテンションセンサデータを参照して少なくとも一つのニューラルネットワーク演算を遂行することにより一つ以上のアテンションスコアを計算させるプロセス;(II)検出ネットワークをもって、前記アテンションスコアを参照して、自律走行車両に設置された一つ以上のカメラのうち少なくとも一部によって取得された少なくとも一つのビデオデータを取得させ、前記ビデオデータを参照して少なくとも一つの自律走行用判断データを生成させるプロセス;(III)ドライブネットワークをもって、前記判断データを参照して前記自律走行車両を運行させ、運行中である前記自律走行車両の周辺状況の変化を示す少なくとも一つの状況データを取得させ、前記状況データを参照して少なくとも一つのリワードを生成させるプロセス;(IV)前記アテンションネットワークをもって、前記リワードを参照して前記ニューラルネットワーク演算に使用される一つ以上のパラメータの少なくとも一部を調整させるプロセス;を遂行するための前記各インストラクションを実行するように構成された少なくとも一つのプロセッサと、
    を含むことを特徴とするコンピューティング装置。
  11. 前記(I)プロセスで、
    前記ニューラルネットワーク演算は、前記アテンションセンサデータが入力される少なくとも一つのコンボリューションレイヤと、少なくとも一つのプーリングレイヤと、少なくとも一つのFCレイヤと、前記アテンションスコアとが出力される少なくとも一つのソフトマックスレイヤの演算を含み、前記自律走行車両近傍の空間に含まれた各角度の範囲ごとに少なくとも一つの走行危険レベルを決定させることを特徴とする請求項10に記載のコンピューティング装置。
  12. 前記(II)プロセスで、
    前記プロセッサが、前記検出ネットワークをもって、第1閾値以上の前記アテンションスコアを有する特定の角度範囲に対応する、前記自律走行車両に設置された特定カメラの特定ビデオデータを取得させることを特徴とする請求項10に記載のコンピューティング装置。
  13. 前記(II)プロセスで、
    前記プロセッサが、前記検出ネットワークをもって、少なくとも一つの領域が少なくとも一つのROIとして設定された前記ビデオデータを使用することで前記判断データを生成させ、前記領域は第1閾値以上のアテンションスコアを有する特定の角度範囲に対応する領域であることを特徴とする請求項10に記載のコンピューティング装置。
  14. 前記(III)プロセスで、
    前記状況データは、(i)前記自律走行車両から所定の距離以内の少なくとも1つの隣接した周辺車両の少なくとも1つの車両警笛が使用中であるかに関する情報、(ii)前記少なくとも1つの隣接した周辺車両の速力変化情報、(iii)前記自律走行車両と前記隣接した周辺車両との少なくとも1つの事故情報のうち少なくとも一部を含むことを特徴とする請求項10に記載のコンピューティング装置。
  15. 前記(I)プロセスで、
    前記アテンションセンサデータはレーダを使用して取得されるか、ライダを使用して取得されるか、両方を使用して取得され、
    前記ライダを使用するか又は前記レーダ及び前記ライダをいずれも使用して前記アテンションセンサデータが取得された場合、前記プロセッサが、前記アテンションネットワークをもって、前記アテンションセンサデータに含まれた各3次元座標を参照して少なくとも一つの希少デプスイメージ(sparse depth image)を生成させ、前記希少デプスイメージに少なくとも一つのスムージング(smoothing)演算を適用させて少なくとも一つの高密度デプスイメージ(dense depth image)を生成させ、前記高密度デプスイメージを参照して前記ニューラルネットワーク演算を遂行することで前記アテンションスコアを計算させることを特徴とする請求項10に記載のコンピューティング装置。
  16. 前記自律走行車両は仮想空間で具現されるようにし、前記仮想空間で前記自律走行車両が運行される過程を通じて前記パラメータの少なくとも一部が調整されることを特徴とする請求項10に記載のコンピューティング装置。
  17. 前記仮想空間で、前記自律走行車両から所定の距離以内に位置する一つ以上の仮想物体間の関係に関する情報を参照して、前記アテンションセンサデータ、前記ビデオデータ、前記状況データが取得されるように前記アテンションセンサデータ、前記ビデオデータ、前記状況データの変形がプログラミングされていることを特徴とする請求項16に記載のコンピューティング装置。
  18. 前記仮想空間は、(i)前記自律走行車両から所定の距離以内の周辺車両が第1臨界時間内に前記自律走行車両と衝突する可能性があるものと検出されると、前記仮想空間にある少なくとも一つの前記周辺車両が警笛を鳴らすようにプログラミングされ、(ii)前記周辺車両が第2臨界時間内に前記自律走行車両と衝突する可能性があるものと検出されると、前記周辺車両の速力を落とすようにプログラミングされ、前記第1臨界時間は前記第2臨界時間に比べて大きいか、同じであることを特徴とする請求項16に記載のコンピューティング装置。
JP2020004217A 2019-01-31 2020-01-15 ライダ、レーダ及びカメラセンサのデータを使用する強化学習に基づく自律走行時の最適化されたリソース割当てのための方法及び装置 Active JP6982897B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/263511 2019-01-31
US16/263,511 US10503174B1 (en) 2019-01-31 2019-01-31 Method and device for optimized resource allocation in autonomous driving on the basis of reinforcement learning using data from lidar, radar, and camera sensor

Publications (2)

Publication Number Publication Date
JP2020125102A true JP2020125102A (ja) 2020-08-20
JP6982897B2 JP6982897B2 (ja) 2021-12-17

Family

ID=68766170

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020004217A Active JP6982897B2 (ja) 2019-01-31 2020-01-15 ライダ、レーダ及びカメラセンサのデータを使用する強化学習に基づく自律走行時の最適化されたリソース割当てのための方法及び装置

Country Status (5)

Country Link
US (1) US10503174B1 (ja)
EP (1) EP3690708A1 (ja)
JP (1) JP6982897B2 (ja)
KR (1) KR102277531B1 (ja)
CN (1) CN111507157B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022019092A1 (ja) 2020-07-22 2022-01-27 パナソニックIpマネジメント株式会社 複合部材
WO2022054176A1 (ja) * 2020-09-09 2022-03-17 日本電信電話株式会社 制御対象デバイス選択装置、制御対象デバイス選択方法およびプログラム
KR102538104B1 (ko) * 2022-06-17 2023-05-31 한국건설기술연구원 라이다 검지형 도로 시설물

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11927668B2 (en) 2018-11-30 2024-03-12 Qualcomm Incorporated Radar deep learning
US10728461B1 (en) * 2019-01-31 2020-07-28 StradVision, Inc. Method for correcting misalignment of camera by selectively using information generated by itself and information generated by other entities and device using the same
US11276189B2 (en) * 2019-03-06 2022-03-15 Qualcomm Incorporated Radar-aided single image three-dimensional depth reconstruction
US11556000B1 (en) 2019-08-22 2023-01-17 Red Creamery Llc Distally-actuated scanning mirror
EP3851962A1 (en) * 2020-01-15 2021-07-21 Bayerische Motoren Werke Aktiengesellschaft Method, computer program and apparatus for assigning sensory resources of an autonomously operated system
CN111260937B (zh) * 2020-02-24 2021-09-14 武汉大学深圳研究院 一种基于强化学习的十字路口交通信号灯控制方法
EP4141663A4 (en) * 2020-07-17 2023-05-31 Huawei Technologies Co., Ltd. DATA PROCESSING METHOD AND APPARATUS, AND INTELLIGENT VEHICLE
US20230294729A1 (en) * 2020-08-18 2023-09-21 Foresight Automotive Ltd. Method and system for assessment of sensor performance
CN112052776B (zh) * 2020-09-01 2021-09-10 中国人民解放军国防科技大学 无人车自主驾驶行为优化方法、装置和计算机设备
CN111882878B (zh) * 2020-09-02 2021-07-02 烟台大学 一种基于交通流预测的最大化关键道路通行能力的方法
CN112198506B (zh) * 2020-09-14 2022-11-04 桂林电子科技大学 一种超宽带穿墙雷达学习成像的方法、装置、系统和可读存储介质
CN112485781B (zh) * 2020-11-18 2022-10-28 济南和普威视光电技术有限公司 一种基于深度学习的反无人机无人值守系统及方法
CN112616131B (zh) * 2020-12-11 2022-05-13 北京邮电大学 一种基于视频内容优先级的车联网资源分配方法
KR102433577B1 (ko) 2020-12-18 2022-08-18 연세대학교 산학협력단 차량 네트워크의 자원 재할당 제어 방법 및 장치
US11884296B2 (en) 2020-12-21 2024-01-30 Qualcomm Incorporated Allocating processing resources to concurrently-executing neural networks
CN113253249B (zh) * 2021-04-19 2023-04-28 中国电子科技集团公司第二十九研究所 一种基于深度强化学习的mimo雷达功率分配设计方法
CN113435253B (zh) * 2021-05-31 2022-12-02 西安电子科技大学 一种多源影像联合城区地表覆盖分类方法
DE102021003567A1 (de) 2021-07-12 2021-08-26 Daimler Ag Verfahren zur Erkennung von Objektbeziehungen und Attributierungen aus Sensordaten
CN113867332B (zh) * 2021-08-18 2024-05-14 中国科学院自动化研究所 一种无人车自学习控制方法、装置、设备及可读存储介质
US11851068B2 (en) 2021-10-25 2023-12-26 Ford Global Technologies, Llc Enhanced target detection
KR20230071437A (ko) 2021-11-16 2023-05-23 에스케이하이닉스 주식회사 자율 주행 장치
CN114358128A (zh) * 2021-12-06 2022-04-15 深圳先进技术研究院 一种训练端到端的自动驾驶策略的方法
CN114919581B (zh) * 2022-05-11 2024-04-26 中南大学 智能车辆无序交叉路口的行为决策方法、计算机装置
CN116343513B (zh) * 2023-03-07 2023-10-24 江苏纬信工程咨询有限公司 农村公路超视距风险点安全监测预警方法及其系统
CN116661465B (zh) * 2023-07-04 2023-10-31 无锡八英里电子科技有限公司 一种基于时序分析与多传感器融合的机器人自动行驶方法
CN116678506B (zh) * 2023-08-02 2023-10-10 国检测试控股集团南京国材检测有限公司 一种无线传输热损检测装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011039864A (ja) * 2009-08-13 2011-02-24 Suzuki Motor Corp ドライブレコーダ装置
JP2015221648A (ja) * 2014-05-23 2015-12-10 三菱電機株式会社 サスペンション制御装置
JP2018198012A (ja) * 2017-05-24 2018-12-13 日本電信電話株式会社 ネットワーク学習装置、行動決定装置、ネットワーク学習方法、及びプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4218670B2 (ja) 2005-09-27 2009-02-04 オムロン株式会社 前方撮影装置
KR101663027B1 (ko) * 2015-01-12 2016-10-07 한국기술교육대학교 산학협력단 레이더센서가 구비된 차량용 블랙박스 및 그 제어 방법
KR102137213B1 (ko) * 2015-11-16 2020-08-13 삼성전자 주식회사 자율 주행을 위한 모델 학습 장치 및 방법과 자율 주행 장치
EP3400419A2 (en) * 2016-01-05 2018-11-14 Mobileye Vision Technologies Ltd. Trained navigational system with imposed constraints
JP6838248B2 (ja) * 2016-02-22 2021-03-03 日立Astemo株式会社 情報処理装置
US9802599B2 (en) * 2016-03-08 2017-10-31 Ford Global Technologies, Llc Vehicle lane placement
US10061316B2 (en) * 2016-07-08 2018-08-28 Toyota Motor Engineering & Manufacturing North America, Inc. Control policy learning and vehicle control method based on reinforcement learning without active exploration
US10176388B1 (en) * 2016-11-14 2019-01-08 Zoox, Inc. Spatial and temporal information for semantic segmentation
KR20180094725A (ko) * 2017-02-16 2018-08-24 삼성전자주식회사 자율 주행을 위한 차량 제어 방법, 차량 제어 장치 및 자율 주행을 위한 학습 방법
US10176596B1 (en) * 2017-07-06 2019-01-08 GM Global Technology Operations LLC Calibration verification methods for autonomous vehicle operations
US11836611B2 (en) * 2017-07-25 2023-12-05 University Of Massachusetts Method for meta-level continual learning
US10019011B1 (en) * 2017-10-09 2018-07-10 Uber Technologies, Inc. Autonomous vehicles featuring machine-learned yield model
CN108196535B (zh) * 2017-12-12 2021-09-07 清华大学苏州汽车研究院(吴江) 基于增强学习和多传感器融合的自动驾驶系统
US10816984B2 (en) 2018-04-13 2020-10-27 Baidu Usa Llc Automatic data labelling for autonomous driving vehicles
WO2020241922A1 (ko) * 2019-05-29 2020-12-03 엘지전자 주식회사 차량 제어 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011039864A (ja) * 2009-08-13 2011-02-24 Suzuki Motor Corp ドライブレコーダ装置
JP2015221648A (ja) * 2014-05-23 2015-12-10 三菱電機株式会社 サスペンション制御装置
JP2018198012A (ja) * 2017-05-24 2018-12-13 日本電信電話株式会社 ネットワーク学習装置、行動決定装置、ネットワーク学習方法、及びプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022019092A1 (ja) 2020-07-22 2022-01-27 パナソニックIpマネジメント株式会社 複合部材
WO2022054176A1 (ja) * 2020-09-09 2022-03-17 日本電信電話株式会社 制御対象デバイス選択装置、制御対象デバイス選択方法およびプログラム
JP7405272B2 (ja) 2020-09-09 2023-12-26 日本電信電話株式会社 制御対象デバイス選択装置、制御対象デバイス選択方法およびプログラム
KR102538104B1 (ko) * 2022-06-17 2023-05-31 한국건설기술연구원 라이다 검지형 도로 시설물

Also Published As

Publication number Publication date
EP3690708A1 (en) 2020-08-05
US10503174B1 (en) 2019-12-10
JP6982897B2 (ja) 2021-12-17
KR102277531B1 (ko) 2021-07-15
CN111507157B (zh) 2023-07-21
KR20200096096A (ko) 2020-08-11
CN111507157A (zh) 2020-08-07

Similar Documents

Publication Publication Date Title
JP2020125102A (ja) ライダ、レーダ及びカメラセンサのデータを使用する強化学習に基づく自律走行時の最適化されたリソース割当てのための方法及び装置
US10991156B2 (en) Multi-modal data fusion for enhanced 3D perception for platforms
US10948907B2 (en) Self-driving mobile robots using human-robot interactions
JP2020126639A (ja) 安全な自律走行を支援する学習方法、そしてこれを利用した学習装置、テスト方法、及びテスト装置
JP2021089724A (ja) 構造的制約及び物理的制約を伴う3d自動ラベル付け
CN114845914A (zh) 自主机器应用中的车道变换规划和控制
JP6941386B2 (ja) 自律走行の安全性を提供するための方法及び装置
JP6979228B2 (ja) V2v通信によって取得された、他の自律走行車両の空間探知結果を自身の自律走行車両の空間探知結果と統合する学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置{learning method and learning device for integrating object detection information acquired through v2v communication from other autonomous vehicle with object detection information generated by present autonomous vehicle, and testing method and testing device using the same}
JP6910664B2 (ja) 自動駐車システム内のセマンティックセグメンテーションを利用した駐車領域を検出するための方法及び装置
CN111091038A (zh) 训练方法、计算机可读介质和检测消失点的方法及装置
CN112298168B (zh) 一种车位检测方法及装置、自动泊车方法及装置
CN111508272B (zh) 提供基于照相机的鲁棒物体距离预测的方法及装置
CN112883790A (zh) 一种基于单目摄像头的3d物体检测方法
CN114973050A (zh) 自动驾驶应用中深度神经网络感知的地面实况数据生成
KR102372687B1 (ko) 비최대값 억제를 학습하는 병합 네트워크를 이용한 이종 센서 융합을 위한 학습 방법 및 학습 장치
CN111508253B (zh) 提供自动行驶服务平台的方法及利用其的服务器
CN114170826B (zh) 自动驾驶控制方法和装置、电子设备和存储介质
WO2023154568A1 (en) Method and system for conditional operation of an autonomous agent
WO2022247303A1 (zh) 预测控制的方法、装置、设备及计算机可读存储介质
CN115701623A (zh) 自主机器应用中范围图像映射的置信传播
Memon et al. Self-driving car using lidar sensing and image processing
CN116189150B (zh) 基于融合输出的单目3d目标检测方法、装置、设备和介质
EP3229173B1 (en) Method and apparatus for determining a traversable path
JP2021012446A (ja) 学習装置及びプログラム
US11915436B1 (en) System for aligning sensor data with maps comprising covariances

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200115

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200706

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200709

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20201022

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211115

R150 Certificate of patent or registration of utility model

Ref document number: 6982897

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150