KR102078488B1 - 차량 주변의 컨텍스트에 기초하여 차량의 하나 이상의 궤적을 예측하는 방법 및 시스템 - Google Patents
차량 주변의 컨텍스트에 기초하여 차량의 하나 이상의 궤적을 예측하는 방법 및 시스템 Download PDFInfo
- Publication number
- KR102078488B1 KR102078488B1 KR1020187009732A KR20187009732A KR102078488B1 KR 102078488 B1 KR102078488 B1 KR 102078488B1 KR 1020187009732 A KR1020187009732 A KR 1020187009732A KR 20187009732 A KR20187009732 A KR 20187009732A KR 102078488 B1 KR102078488 B1 KR 102078488B1
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- identified
- trajectories
- independent information
- information
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 30
- 238000012545 processing Methods 0.000 claims description 34
- 238000010801 machine learning Methods 0.000 claims description 28
- 230000015654 memory Effects 0.000 claims description 20
- 230000008569 process Effects 0.000 description 16
- 230000001419 dependent effect Effects 0.000 description 15
- 238000004891 communication Methods 0.000 description 13
- 230000006399 behavior Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 230000001149 cognitive effect Effects 0.000 description 8
- 238000000605 extraction Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 230000004807 localization Effects 0.000 description 8
- 230000033001 locomotion Effects 0.000 description 8
- 230000001133 acceleration Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000002085 persistent effect Effects 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 210000002364 input neuron Anatomy 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 210000001153 interneuron Anatomy 0.000 description 2
- 230000005291 magnetic effect Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000010267 cellular communication Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009429 electrical wiring Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0027—Planning or execution of driving tasks using trajectory prediction for other traffic participants
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0027—Planning or execution of driving tasks using trajectory prediction for other traffic participants
- B60W60/00276—Planning or execution of driving tasks using trajectory prediction for other traffic participants for two or more other traffic participants
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/28—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/0097—Predicting future conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0027—Planning or execution of driving tasks using trajectory prediction for other traffic participants
- B60W60/00274—Planning or execution of driving tasks using trajectory prediction for other traffic participants considering possible movement changes
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0287—Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
- G05D1/0289—Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling with means for avoiding collisions between vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/16—Type of output information
- B60K2360/175—Autonomous driving
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0019—Control system elements or transfer functions
- B60W2050/0028—Mathematical models, e.g. for simulation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/54—Audio sensitive means, e.g. ultrasound
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/30—Road curve radius
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/35—Road bumpiness, e.g. potholes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/53—Road markings, e.g. lane marker or crosswalk
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/20—Static objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4026—Cycles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4029—Pedestrians
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4044—Direction of movement, e.g. backwards
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/406—Traffic density
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2555/00—Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
- B60W2555/20—Ambient conditions, e.g. wind or rain
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/10—Historical data
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Theoretical Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Traffic Control Systems (AREA)
- Medical Informatics (AREA)
- Game Theory and Decision Science (AREA)
- Business, Economics & Management (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
자율 주행 차량의 주변 환경은 인근의 하나 이상의 차량을 식별하도록 인식된다. 식별된 차량의 각각에 대해, 식별된 차량의 현재 위치에 기초하여, 차량-독립적 정보는 식별된 차량 주변의 컨텍스트를 결정하기 위해 얻어지고, 차량-독립적 정보는 식별된 차량에 부과된 물리적 제약을 규정하는 차량 주변 정보를 포함한다. 식별된 차량 각각에 대해, 식별된 차량에 대한 하나 이상의 궤적은 식별된 차량과 관련된 차량-독립적 정보에 적어도 부분적으로 기초하여 예측된다. 자율 주행 차량은 하나 이상의 식별된 차량의 하나 이상의 예측된 궤적에 기초하여 제어된다.
Description
본 발명의 실시예들은 일반적으로 자율 주행 차량을 운행하는 것에 관한 것이다. 특히, 본 발명의 실시예는 차량 주위의 컨텍스트(context)에 기초하여 차량의 궤적의 예측에 관한 것이다.
자율 주행 모드에서(예를 들어, 운전자 없이) 운행하는 차량은 탑승자, 특히 운전자의 운전 관련 일부 책무를 덜어줄 수 있다. 자율 주행 모드에서 작동할 때, 차량은 온보드 센서를 사용하여 다양한 위치들로 내비게이트할 수 있고, 그 결과 최소한의 인간과의 상호 작용으로 또는 일부의 경우 승객 없이 차량이 이동하는 것이 허용된다.
운전 중 다양한 결정을 내리는 인간과 유사하게, 자율 주행 차량은 특정 주행 조건, 주변 장애물 및 교통 조건을 포함할 수 있는 실제 주변 환경에 따라 즉각적인 주행 결정을 내려야 한다. 그러한 환경은 차량의 움직임에 종종 영향을 미치며, 차량이 환경에서 실행할 후속 조작(maneuver)을 결정하거나 확인하는 것이 어려울 수 있다. 그러나, 인간은, 예를 들어 육안으로, 어려움을 쉽게 파악하고 해결할 수 있다. 불행하게도, 그러한 것은 자율 차량에 대한 도전이 될 수 있다.
일부 실시예에 따르면, 자율 주행 차량의 모델링을 구축할 때, 시스템은 자율 주행 차량이 주행 환경을 이해하고 안전하고 적절한 결정을 내리기 위해 주행 환경을 인식함으로써 인간 사고 프로세스를 에뮬레이션한다. 예를 들어, 시스템은 주행 환경을 인지 또는 스캔하여 자율 주행 차량 인근의 하나 이상의 차량을 식별한다. 식별된 차량 각각에 대해, 시스템은 식별된 차량의 현재 위치를 획득한다. 현재 위치를 사용하여, 시스템은 식별된 차량 주변의 컨텍스트 정보를 얻을 수 있다. 컨텍스트 정보는 식별된 차량의 이동의 자유에 영향을 미치는 요소가 될 수 있다. 시스템은 식별된 차량의 궤적 예측 결과를 학습(train) 및 제공하기 위한 머신 러닝 모델, 예를 들어 재귀 신경망(RNN) 모델에 컨텍스트 정보를 제공함으로써 자율 주행 차량이 예측 결과에 기초하여 안전하고 적절한 주행 결정을 내릴 수 있도록 한다.
일 실시예에서, 자율 주행 차량의 주변 환경은 인근의 하나 이상의 차량을 식별하도록 인식된다. 식별된 차량의 각각에 대해, 식별된 차량의 현재 위치에 기초하여, 차량-독립적 정보는 식별된 차량 주변의 컨텍스트를 결정하기 위해 얻어지고, 차량-독립적 정보는 식별된 차량에 부과된 물리적 제약을 규정하는 차량 주변 정보를 포함한다. 식별된 차량에 대한 하나 이상의 궤적은 식별된 차량과 관련된 차량-독립적 정보에 적어도 부분적으로 기초하여 예측된다. 자율 주행 차량은 하나 이상의 식별된 차량의 하나 이상의 예측된 궤적에 기초하여 제어된다.
본 발명의 실시예들은 아래의 도면들에서 비제한적이며 예시적으로 도시되며, 유사한 참조 번호는 유사한 요소를 나타낸다.
도 1은 본 발명의 일 실시예에 따른 네트워크 시스템을 나타내는 블록도이다.
도 2는 본 발명의 일 실시예에 따른 자율 주행 차량의 일례를 나타내는 블록도이다.
도 3은 본 발명의 일 실시예에 따른 자율 주행 차량과 함께 사용되는 인지 및 계획 시스템의 일례를 나타내는 블록도이다.
도 4는 본 발명의 일 실시예에 따른 머신 러닝 모델의 일례를 나타내는 도면이다.
도 5는 본 발명의 일 실시예에 따른 다른 머신 러닝 모델의 일례를 나타내는 도면이다.
도 6은 본 발명의 일 실시예에 따른 또 다른 머신 러닝 모델의 일례를 나타내는 도면이다.
도 7은 본 발명의 일 실시예에 따라 자율 주행 차량을 동작시키는 프로세스를 나타내는 흐름도이다.
도 8은 본 발명의 일 실시예에 따른 주행 시나리오의 예를 도시한다.
도 9은 일 실시예에 따른 데이터 처리 시스템을 나타내는 블록도이다.
도 1은 본 발명의 일 실시예에 따른 네트워크 시스템을 나타내는 블록도이다.
도 2는 본 발명의 일 실시예에 따른 자율 주행 차량의 일례를 나타내는 블록도이다.
도 3은 본 발명의 일 실시예에 따른 자율 주행 차량과 함께 사용되는 인지 및 계획 시스템의 일례를 나타내는 블록도이다.
도 4는 본 발명의 일 실시예에 따른 머신 러닝 모델의 일례를 나타내는 도면이다.
도 5는 본 발명의 일 실시예에 따른 다른 머신 러닝 모델의 일례를 나타내는 도면이다.
도 6은 본 발명의 일 실시예에 따른 또 다른 머신 러닝 모델의 일례를 나타내는 도면이다.
도 7은 본 발명의 일 실시예에 따라 자율 주행 차량을 동작시키는 프로세스를 나타내는 흐름도이다.
도 8은 본 발명의 일 실시예에 따른 주행 시나리오의 예를 도시한다.
도 9은 일 실시예에 따른 데이터 처리 시스템을 나타내는 블록도이다.
본 발명의 다양한 실시예들 및 양상들은 이하 세부 설명을 참조하여 설명되며, 첨부 도면들은 다양한 실시예들을 나타낸다. 아래의 설명 및 도면은 본 발명을 예시적으로 보여주며, 본 발명을 제한하는 것으로 해석되어서는 안 된다. 본 발명의 다양한 실시예들에 대한 완전한 이해를 제공하기 위해 다수의 구체적인 세부 사항들이 설명된다. 그러나, 어떤 경우에는, 본 발명의 실시예들에 대한 간결한 설명을 제공하기 위해 잘 알려진 또는 종래의 세부 사항은 설명되지 않는다.
명세서에서의 "일 실시예" 또는 "실시예"는, 실시예와 관련하여 설명된 특정 특징, 구조 또는 특성이 본 발명의 적어도 하나의 실시예에 포함될 수 있다는 것을 의미한다. 명세서의 다양한 곳에서 기재된 "일 실시예에서"라는 문구는 반드시 모두 동일한 실시예를 지칭하는 것은 아니다.
일부 실시예에 따르면, 자율 주행 차량의 모델링을 구축할 때, 시스템은 자율 주행 차량이 주행 환경을 이해하고 안전하고 적절한 결정을 내리기 위해 주행 환경을 인식함으로써 인간 사고 프로세스를 에뮬레이션한다. 예를 들어, 시스템은 주행 환경을 인지 또는 스캔하여 자율 주행 차량 인근의 하나 이상의 차량을 식별한다. 식별된 차량 각각에 대해, 시스템은 식별된 차량의 현재 위치를 획득한다. 현재 위치를 사용하여, 시스템은 식별된 차량 주변의 컨텍스트 정보를 얻을 수 있다. 컨텍스트 정보는 식별된 차량의 이동의 자유에 영향을 미치는 요소가 될 수 있다. 시스템은 식별된 차량의 궤적 예측 결과를 학습(train) 및 제공하기 위한 머신 러닝 모델, 예를 들어 재귀 신경망(RNN) 모델에 컨텍스트 정보를 제공함으로써 자율 주행 차량이 예측 결과에 기초하여 안전하고 적절한 주행 결정을 내릴 수 있도록 한다.
일 실시예에서, 자율 주행 차량의 주변 환경은 인근의 하나 이상의 차량을 식별하도록 인식된다. 식별된 차량의 각각에 대해, 식별된 차량의 현재 위치에 기초하여, 차량-독립적 정보는 식별된 차량 주변의 컨텍스트를 결정하기 위해 얻어지고, 차량-독립적 정보는 식별된 차량에 부과된 물리적 제약을 규정하는 차량 주변 정보를 포함한다. 식별된 차량에 대한 하나 이상의 궤적은 식별된 차량과 관련된 차량-독립적 정보에 적어도 부분적으로 기초하여 예측된다. 자율 주행 차량은 하나 이상의 식별된 차량의 하나 이상의 예측된 궤적에 기초하여 제어된다.
도 1은 본 발명의 일 실시예에 따른 자율 주행 차량 네트워크 구성을 나타내는 블록도이다. 도 1을 참조하면, 네트워크 구성(100)은, 네트워크(102) 상에서 하나 이상의 서버(103-104)와 통신 가능하게 결합될 수 있는 자율 주행 차량(101)을 포함한다. 하나의 자율 주행 차량이 도시되어 있지만, 다수의 자율 주행 차량이 서로 결합될 수 있고/있거나 네트워크(102)를 통해 서버들(103-104)에 결합될 수 있다. 네트워크(102)는 근거리 네트워크(LAN), 인터넷과 같은 광역 네트워크(WAN), 셀룰러 네트워크, 위성 네트워크 또는 이들의 조합과 같은 유선 또는 무선의 임의의 유형의 네트워크일 수 있다. 서버(들)(103-104)는 웹 또는 클라우드 서버, 애플리케이션 서버, 백엔드 서버 또는 이들의 조합과 같은 임의의 종류의 서버 또는 서버 클러스터일 수 있다. 서버(103-104)는 데이터 분석 서버, 콘텐츠 서버, 교통 정보 서버, 지도 및 관심 지점(MPOI: map and point of interest) 서버 또는 위치 서버 등일 수 있다.
자율 주행 차량은 차량이 운전자로부터의 입력이 거의 또는 전혀 없이 주변 환경을 내비게이트하는 자율 주행 모드로 구성될 수 있는 차량을 지칭한다. 이러한 자율 주행 차량은 차량이 운행되는 환경에 관한 정보를 검출하도록 구성된 하나 이상의 센서를 갖는 센서 시스템을 포함할 수 있다. 차량 및 관련 제어기(들)는 검출된 정보를 이용하여 주변 환경 사이로 내비게이트한다. 자율 주행 차량(101)은 수동 모드, 완전 자율 주행 모드 또는 부분 자율 주행 모드로 운행될 수 있다.
일 실시예에서, 자율 주행 차량(101)은 인지 및 계획 시스템(110), 차량 제어 시스템(111), 무선 통신 시스템(112), 사용자 인터페이스 시스템(113), 및 센서 시스템(114)을 포함하지만, 이에 한정되지 않는다. 자율 주행 차량(101)은, 예를 들어, 가속 신호 또는 명령, 감속 신호 또는 명령, 조향 신호 또는 명령, 제동 신호 또는 명령 등과 같은 다양한 통신 신호 및/또는 명령을 사용하여, 차량 제어 시스템(111) 및/또는 인지 및 계획 시스템(110)에 의해 제어될 수 있는, 엔진, 차륜(wheel), 스티어링 휠, 변속기 등과 같은, 일반 차량에 포함되는 특정 공통 구성 요소를 더 포함할 수 있다.
구성요소(110-114)는 인터커넥트(interconnect), 버스, 네트워크 또는 이들의 조합을 통해 서로 통신 가능하게 결합될 수 있다. 예를 들어, 구성요소(110-114)는, 제어기 영역 네트워크(CAN) 버스를 통해 서로 통신 가능하게 결합될 수 있다. CAN 버스는, 호스트 컴퓨터가 없는 어플리케이션들에서 마이크로 컨트롤러들과 장치들이 서로 통신할 수 있도록 설계된 차량 버스 표준이다. 그것은 메시지 기반 프로토콜로서, 원래는 자동차 내의 멀티플렉스(multiplex) 전기 배선을 위해 설계되었지만, 다른 많은 상황에서도 사용된다.
이제 도 2를 참조하면, 일 실시예에서, 센서 시스템(114)은, 하나 이상의 카메라(211), GPS(global positioning system) 유닛(212), 관성 측정 유닛(IMU)(213), 레이더 유닛(214) 및 광 검출 및 측정(LIDAR) 유닛(215)을 포함하지만, 이에 한정되지 않는다. GPS 유닛(212)은 자율 주행 차량의 위치에 관한 정보를 제공하도록 동작 가능한 송수신기(트랜시버)를 포함할 수 있다. IMU 유닛(213)은, 관성 가속도에 기초하여 자율 주행 차량의 위치 및 방향(orientation) 변화를 감지할 수 있다. 레이더 유닛(214)은, 무선 신호를 활용하여 자율 주행 차량의 로컬 환경 내의 물체들을 감지하는 시스템을 나타낼 수 있다. 일부 실시예들에서, 물체를 감지하는 것 외에, 레이더 유닛(214)은 물체의 속력 및/또는 진로(heading)를 추가로 감지할 수 있다. LIDAR 유닛(215)은, 레이저를 사용하여 자율 주행 차량이 위치한 환경 내의 물체들을 감지할 수 있다. LIDAR 유닛(215)은, 여러 시스템 구성 요소들 중에서, 하나 이상의 레이저 소스, 레이저 스캐너 및 하나 이상의 검출기를 포함할 수 있다. 카메라(211)는 자율 주행 차량을 둘러싸는 환경의 이미지를 캡쳐하기 위한 하나 이상의 장치를 포함할 수 있다. 카메라(211)는 정지 화상 카메라 및/또는 비디오 카메라일 수 있다. 카메라는, 예를 들어, 카메라를 회전 및/또는 틸팅 플랫폼에 장착함으로써, 기계적으로 이동 가능할 수 있다.
센서 시스템(114)은, 소나(sonar) 센서, 적외선 센서, 스티어링(조향) 센서, 스로틀 센서, 제동 센서 및 오디오 센서(예를 들어, 마이크로폰)와 같은 다른 센서들을 더 포함할 수 있다. 오디오 센서는 자율 주행 차량을 둘러싸는 환경에서 소리(sound)를 캡쳐하도록 구성될 수 있다. 스티어링 센서는, 스티어링 휠, 차량의 차륜 또는 이들의 조합의 스티어링 각도를 감지하도록 구성될 수 있다. 스로틀 센서 및 제동 센서는, 차량의 스로틀 위치 및 제동 위치를 각각 감지한다. 일부 상황에서는, 스로틀 센서와 제동 센서가 통합 스로틀/제동 센서로 통합될 수 있다.
일 실시예에서, 차량 제어 시스템(111)은, 스티어링 유닛(201), 스로틀 유닛(202)(가속 유닛으로도 지칭됨) 및 제동 유닛(203)을 포함하지만, 이에 한정되지 않는다. 스티어링 유닛(201)은, 차량의 방향 또는 진로(또는 진행 방향)을 조정하기 위한 것이다. 스로틀 유닛(202)은 모터 또는 엔진의 속력을 제어하여 차량의 속력 및 가속도를 차례로 제어하기 위한 것이다. 제동 유닛(203)은 차량의 차륜 또는 타이어를 감속시키도록 마찰을 제공함으로써 차량을 감속시키기 위한 것이다. 도 2에 도시된 구성 요소들은, 하드웨어, 소프트웨어 또는 이들의 조합으로 구현될 수 있다.
도 1을 다시 참조하면, 무선 통신 시스템(112)은, 자율 주행 차량(101)과, 장치들, 센서들, 다른 차량들 등과 같은 외부 시스템들 간의 통신을 가능하게 한다. 예를 들어, 무선 통신 시스템(112)은, 하나 이상의 장치들과 직접 또는 네트워크(102) 상의 서버들(103-104)과 같은 통신 네트워크를 통해 무선 통신할 수 있다. 무선 통신 시스템(112)은, 임의의 셀룰러 통신 네트워크 또는 무선 근거리 네트워크(WLAN)를 사용할 수 있으며, 예를 들어, 다른 구성 요소 또는 시스템과 통신하기 위해 WiFi를 사용할 수 있다. 무선 통신 시스템(112)은, 예를 들어, 적외선 링크, 블루투스 등을 사용하여, 장치(예를 들어, 승객의 모바일 장치, 디스플레이 장치, 차량(101) 내의 스피커)와 직접 통신할 수 있다. 사용자 인터페이스 시스템(113)은, 예를 들어, 키보드, 터치 스크린 디스플레이 장치, 마이크로폰 및 스피커 등을 포함하는 차량(101) 내에 구현되는 주변 장치들의 일부일 수 있다.
자율 주행 차량(101)의 일부 또는 모든 기능은, 특히 자율 주행 모드에서 운행될 때, 인지 및 계획 시스템(110)에 의해 제어되거나 관리될 수 있다. 인지 및 계획 시스템(110)은, 센서 시스템(114), 제어 시스템(111), 무선 통신 시스템(112) 및/또는 사용자 인터페이스 시스템(113)으로부터 정보를 수신하고, 수신된 정보를 처리하고, 출발점에서 목적지점까지의 루트(route) 또는 경로를 계획한 다음, 계획 및 제어 정보에 기초하여 차량(101)을 주행하기 위해, 필요한 하드웨어(예를 들어, 프로세서(들), 메모리, 저장 장치) 및 소프트웨어(예를 들어, 운영 체계, 계획 및 라우팅(routing) 프로그램)을 포함한다. 대안적으로, 인지 및 계획 시스템(110)은 차량 제어 시스템(111)과 통합될 수 있다.
예를 들어, 승객인 사용자는, 예를 들어, 사용자 인터페이스를 통해 여행의 출발 위치 및 목적지를 지정할 수 있다. 인지 및 계획 시스템(110)은 여행 관련 데이터를 획득한다. 예를 들어, 인지 및 계획 시스템(110)은 서버들(103-104)의 일부일 수 있는 MPOI 서버로부터 위치 및 루트 정보를 획득할 수 있다. 위치 서버는 위치 서비스를 제공하고, MPOI 서버는 지도 서비스와 특정 위치들의 POI들을 제공한다. 대안적으로, 이러한 위치 및 MPOI 정보는 인지 및 계획 시스템(110)의 영구 저장 장치에 국부적으로 캐시될 수 있다.
자율 주행 차량(101)이 루트를 따라 이동하는 동안, 인지 및 계획 시스템(110)은 교통 정보 시스템 또는 서버(TIS)로부터 실시간 교통 정보도 획득할 수 있다. 서버(103-104)는 제3자 엔티티에 의해 운영될 수 있다. 대안적으로, 서버들(103-104)의 기능들은 인지 및 계획 시스템(110)과 통합될 수 있다. 인지 및 계획 시스템(110)은, 실시간 교통 정보, MPOI 정보 및 위치 정보뿐만 아니라 센서 시스템(114)에 의해 검출 또는 감지된 실시간 로컬 환경 데이터(예를 들어, 장애물, 물체, 인근 차량)에 기초하여, 예를 들어, 제어 시스템(111)을 통해, 최적의 루트를 계획하고, 지정된 목적지에 안전하고 효율적으로 도착하기 위해 계획된 루트에 따라 차량(101)을 주행할 수 있다.
일 실시예에서, 안전하고 적절한 주행 결정을 내리는데 있어서, 자율 주행 차량(101)은 주변 환경을 인식하여 인근의 하나 이상의 차량을 식별한다. 각각의 식별된 차량에 대해, 식별된 차량의 현재 위치에 기초하여, 자율 주행 차량(101)은 차량-독립적 정보를 획득하여 식별된 차량 주변의 컨텍스트를 결정하고, 차량-독립적 정보는 식별된 차량에 부과된 물리적 제약을 규정하는 차량 주변 정보를 포함한다. 식별된 차량과 관련된 차량-독립적 정보에 적어도 부분적으로 기초하여, 자율 주행 차량(101)은 식별된 차량에 대한 하나 이상의 궤적을 예측한다. 그리고 나서, 자율 주행 차량(101)은 식별된 차량에 대한 예측된 궤도에 기초하여 조작을 수행한다.
일 실시예에서, 차량-독립적 정보는 차량이 식별되는 시간, 주행 조건, 관심 지점(POI) 및 이벤트 정보, 및 차량에 물리적 제한을 더 부과하는 교통 정보를 더 포함한다. 이러한 요인은 차량이 후속으로 작동할 수 있는 방법에 영향을 미칠 수 있다.
일 실시예에서, 자율 주행 차량(101)은 적어도 부분적으로는 머신 러닝 모델을 호출함으로써 차량 독립 정보에 적어도 부분적으로 기초하여 식별된 차량에 대한 하나 이상의 궤적을 예측하여, 차량-독립적 정보에 기초하여 하나 이상의 궤적을 생성하거나 예측한다.
식별된 차량들 각각에 대해, 자율 주행 차량(101)은 자율 주행 차량(101)의 하나 이상의 센서들로부터 식별된 차량과 관련된 센서 데이터를 더 획득하고, 센서 데이터에 적어도 부분적으로 기초하여 식별된 차량의 현재 위치를 결정한다.
도 3은 본 발명의 일 실시예에 따른 자율 주행 차량과 함께 사용되는 인지 및 계획 시스템의 일례를 나타내는 블록도이다. 시스템(300)은, 도 1의 자율 주행 차량(101)의 일부로서 구현될 수 있으며, 인지 및 계획 시스템(110), 제어 시스템(111) 및 센서 시스템(114)을 포함하지만, 이에 한정되지 않는다. 도 3을 참조하면, 인지 및 계획 시스템(110)은 로컬라이제이션(localization) 모듈(301), 인지 모듈(302), 결정 모듈(303), 계획 모듈(304), 제어 모듈(305), 차량-의존적 특징 추출 모듈(306), 차량-독립적 특징 추출 모듈(307) 및 행동 예측 모듈(308)을 포함하지만, 이에 제한되지 않는다
모듈들(301-308)의 일부 또는 전부는 소프트웨어, 하드웨어, 또는 이들의 조합으로 구현될 수 있다. 예를 들어, 이들 모듈은 영구 저장 장치(352)에 설치되고, 메모리(351)에 로드되며, 하나 이상의 프로세서(미도시)에 의해 실행될 수 있다. 이들 모듈 중 일부 또는 전부는, 도 2의 차량 제어 시스템(111)의 일부 또는 모든 모듈들과 통신 가능하게 결합되거나 통합될 수 있다. 모듈들(301-308) 중 일부는 통합 모듈로서 함께 통합될 수 있다.
로컬라이제이션 모듈(301)은, (예를 들어, GPS 유닛(212)을 이용하여) 자율 주행 차량(300)의 현재 위치를 결정하고, 사용자의 여행 또는 루트와 관련된 임의의 데이터를 관리한다. 사용자는, 예를 들어, 사용자 인터페이스를 통해 로그인하고 여행의 출발 위치 및 목적지를 지정할 수 있다. 로컬라이제이션 모듈(301)은, 지도 및 루트 정보(311)와 같은 자율 주행 차량(300)의 다른 구성 요소와 통신하여 여행 관련 데이터를 획득한다. 예를 들어, 로컬라이제이션 모듈(301)은 위치 서버, 및 지도 및 POI(MPOI) 서버로부터 위치 및 루트 정보를 획득할 수 있다. 위치 서버는 위치 서비스를 제공하고, MPOI 서버는 지도 서비스와 특정 위치들의 POI들을 제공하며, 이는 지도 및 루트 정보(311)의 일부로서 캐시될 수 있다. 자율 주행 차량(300)이 루트를 따라 이동하는 동안, 로컬라이제이션 모듈(301)은 교통 정보 시스템 또는 서버로부터 실시간 교통 정보도 획득할 수 있다.
센서 시스템(114)에 의해 제공되는 센서 데이터 및 로컬라이제이션 모듈(301)에 의해 획득되는 로컬라이제이션 정보에 기초하여, 인지 모듈(302)에 의해 주변 환경의 인지(perception)가 결정된다. 인지 정보는 일반 운전자가 그가 주행하는 차량 주위를 어떻게 인지하는지를 나타낼 수 있다. 인지는 차로 구성(예를 들어, 직선 또는 곡선 차선), 신호등 신호, 다른 차량의 상대적 위치, 보행자, 건물, 횡단 보도 또는 기타 교통 관련 표지판(예를 들어, 정지 표지판, 양보 표지판) 등을, 예를 들어, 물체의 형태로 포함할 수 있다.
인지 모듈(302)은, 자율 주행 차량의 환경에서 물체 및/또는 특징을 식별하기 위해, 하나 이상의 카메라에 의해 캡쳐된 이미지를 처리 및 분석하는 컴퓨터 비전 시스템 또는 컴퓨터 비전 시스템의 기능을 포함할 수 있다. 물체는 교통 신호, 도로 경계, 다른 차량, 보행자 및/또는 장애물 등을 포함할 수 있다. 컴퓨터 비전 시스템은 물체 인식 알고리즘, 비디오 추적 및 다른 컴퓨터 비전 기술을 사용할 수 있다. 일부 실시예에서, 컴퓨터 비전 시스템은, 환경을 매핑하고, 물체를 추적하고, 물체의 속력 추정 등을 할 수 있다. 인지 모듈(302)은 레이더 및/또는 LIDAR와 같은 다른 센서에 의해 제공되는 다른 센서 데이터에 기초하여 물체를 검출할 수도 있다.
각각의 물체에 대해, 결정 모듈(303)은 물체를 어떻게 다룰지에 대한 결정을 한다. 예를 들어, 특정 물체(예를 들어, 교차 루트에 있는 다른 차량)뿐만 아니라 물체를 기술하는 메타 데이터(예를 들어, 속력, 방향, 선회 각도)에 대해서, 결정 모듈(303)은 물체를 어떤 식으로 대면할지를 결정한다(예를 들어, 추월, 양보, 정지, 통과). 결정 모듈(303)은, 영구 저장 장치(352)(미도시)에 저장될 수 있는 교통 규칙과 같은 규칙들의 세트에 따라 이러한 결정을 내릴 수 있다.
인지된 물체들 각각에 대한 결정에 기초하여, 계획 모듈(304)은 자율 주행 차량에 대한 경로 또는 루트뿐만 아니라 주행 파라미터(예를 들어, 거리, 속력 및/또는 선회 각도)를 계획한다. 즉, 주어진 물체에 대해, 결정 모듈(303)은 물체에 대한 처리를 결정하고, 계획 모듈(304)은 그것을 어떻게 수행할지를 결정한다. 예를 들어, 주어진 물체에 대해, 결정 모듈(303)은 물체를 지나가는 것으로 결정할 수 있는 반면, 계획 모듈(304)은 물체의 좌측 또는 우측으로 지나갈지를 결정할 수 있다. 계획 및 제어 데이터는 계획 모듈(304)에 의해 생성되고, 차량(300)이 후속 이동 사이클(예를 들어, 후속 루트/경로 세그먼트)에서 어떻게 움직일 것인지를 기술하는 정보를 포함한다. 예를 들어, 계획 및 제어 데이터는, 차량(300)이 시속 30 마일(mph)의 속력으로 10m 이동한 다음 25 mph의 속력으로 우측 차로로 변경하도록 지시할 수 있다.
계획 및 제어 데이터에 기초하여, 제어 모듈(305)은 계획 및 제어 데이터에 의해 정의된 루트 또는 경로에 따라, 차량 제어 시스템(111)에 적절한 명령 또는 신호를 전송함으로써 자율 주행 차량을 제어 및 주행한다. 계획 및 제어 데이터에는, 경로 또는 루트 상의 시간에 따른 상이한 시점에서 적절한 차량 설정 또는 주행 파라미터(예를 들어, 스로틀, 제동 및 선회 명령)를 사용하여 루트 또는 경로의 제1 지점에서 제2 지점까지 차량을 주행할 수 있는 충분한 정보가 포함되어 있다.
결정 모듈(303) 및 계획 모듈(304)은 통합 모듈로서 통합될 수 있다. 결정 모듈(303)/계획 모듈(304)은, 자율 주행 차량에 대한 주행 경로를 결정하기 위한 내비게이션 시스템 또는 내비게이션 시스템의 기능들을 포함할 수 있다. 예를 들어, 네비게이션 시스템은, 일련의 속력 및 진행 방향(directional heading)을 결정하여, 인지된 장애물을 실질적으로 피하는 경로를 따라 자율 주행 차량의 이동을 수행하면서, 궁극적인 목적지에 이르는 도로 기반 경로를 따라 자율 주행 차량을 일반적으로 전진시킬 수 있다. 목적지는, 사용자 인터페이스 시스템(113)을 통한 사용자 입력에 따라 설정될 수 있다. 내비게이션 시스템은, 자율 주행 차량이 운행되는 동안 주행 경로를 동적으로 업데이트할 수 있다. 네비게이션 시스템은, 자율 주행 차량을 위한 주행 경로를 결정하기 위해 GPS 시스템 및 하나 이상의 지도로부터의 데이터를 통합할 수 있다.
결정 모듈(303)/계획 모듈(304)은, 자율 주행 차량의 환경에서의 잠재적 장애물을 식별, 평가 및 회피하거나 협상하기 위한 충돌 회피 시스템 또는 충돌 회피 시스템의 기능을 더 포함할 수 있다. 예를 들어, 충돌 회피 시스템은, 급회피 조작, 선회 조작, 제동 조작 등을 수행하기 위해, 제어 시스템(111)의 하나 이상의 서브 시스템을 조작하여 자율 주행 차량의 네비게이션의 변화를 수행할 수 있다. 충돌 회피 시스템은, 주변의 교통 패턴, 도로 조건 등에 기초하여, 실현 가능한 장애물 회피 조작을 자동으로 결정할 수 있다. 충돌 회피 시스템은, 자율 주행 차량이 급회피하여 진입할 인접 영역에서, 차량, 건축 장애물 등을 다른 센서 시스템이 검출할 때, 급회피 조작이 수행되지 않도록 구성될 수 있다. 충돌 회피 시스템이, 사용 가능하면서 자율 운행 차량의 탑승자의 안전을 극대화하는 조작을 자동적으로 선택할 수 있다. 충돌 회피 시스템은, 자율 운행 차량의 승객실에서 최소량의 가속을 일으킬 것으로 예상되는 회피 조작을 선택할 수 있다.
차량-의존적 특징 추출 모듈(306)은 차량-의존적 정보 또는 특징들(예컨대, 다른 차량과 연관된 센서 데이터)을 획득하고, 차량-의존적 정보를 행동 예측 모듈(308)에 제공한다. 예를 들어, 인지 모듈(302)은 자율 주행 차량(예를 들어, 자율 주행 차량(101))의 주변 환경을 감지하여 자율 주행 차량의 소정의 근접도 내의 또는 인근의 하나 이상의 차량을 탐지 또는 식별할 수 있다. 하나 이상의 인근 차량이 식별될 때 그리고 식별된 차량 각각에 대해, 센서 시스템(114)은 (예를 들어, 레이더 유닛(214)을 통해) 무선 신호를 이용하여 식별된 차량을 감지하고 식별된 차량과 연관된 센서 데이터(예를 들어, 속도, 가속, 방향 등)를 생성할 수 있다.
또한, 예를 들어, 지도 및 경로 정보(311), MPOI 정보, 위치 정보 및/또는 센서 데이터를 이용함으로써, 식별된 차량의 현재 위치가 결정될 수 있다. 예를 들어, 센서 데이터 및 식별된 차량의 현재 위치는 예를 들어, 인식 및 계획 시스템(110)에 의해 식별된 차량에 생성 및 할당된 차량 식별자(VID) 하에서, 인지 및 계획 시스템(110)의 메모리 또는 저장부에 저장될 수 있다. 따라서, 차량-의존적 특징 추출 모듈(306)은 인지 및 계획 시스템(110)의 메모리로부터 센서 데이터를 판독하거나 검색함으로써 센서 데이터를 획득하고 센서 데이터를 행동 예측 모듈(308)에 제공할 수 있다.
식별된 차량의 현재 위치에 기초하여, 차량-독립적 특징 추출 모듈(307)은 차량-독립적 정보 또는 특징(예를 들어, 컨텍스트-인식 특징)을 획득하여 식별된 차량 주변의 컨텍스트를 결정할 수 있다. 컨텍스트-인식 기능은 "언제, 어디서, 누가"라는 개념을 커버하기 위해 다른 범주로 분류될 수 있으며 식별된 차량에 부과된 다양한 물리적 제약을 정의하는 정보를 포함한다. 예를 들어, 인지 모듈(302)을 이용하여, 차량-독립적 특징 추출 모듈(307)은 차량이 인지되고 식별될 때 시간(예를 들어, 월, 요일, 시, 분, 초)을 결정할 수 있다. 한 달의 다른 날짜와 일주일의 다른 평일에는 다른 운전자가 자신의 차량을 운행하는 방법에 영향을 줄 수 있는 주행 조건(예: 교통 혼잡)이 다를 수 있다. 부가적으로, 차량-독립적 추출 모듈(307)은 원격 서버(예를 들어, 서버들(103-104)), 인지 모듈(302) 및/또는 센서 시스템(114)으로부터, 주행 조건 정보, 차량 주변 정보, 관심 지점(POI) 및 이벤트 정보 및 교통 정보와 같은 컨텍스트-인식 특징을 수신할 수 있다. 또한, 이에 따라, 차량-독립적 정보는 현재 위치에서 실시간으로 획득되는 현재 차량-독립적 정보와 상기 현재 위치에서 예전에 저장된 예전 차량-독립적 정보를 포함할 수 있다.
일부 실시예에서, 주행 조건 정보는 가시성, 안정성 및 주행성을 결정하는데 이용된다. 따라서, 주행 조건 정보는 도로 불균일, 도로 폭 대 차량 폭 비율, 도로 곡률, 강우량, 안개 레벨, 눈 레벨, 온도 및/또는 식별된 차량의 주행 조건에 영향을 미치는 임의의 정보를 포함할 수 있다.
일부 실시예에서, 차량 주변 정보는 예를 들면, 저지(blocking) 면적 백분율, 저지 장애물 유형 분포(예를 들어, 정적 장애물, 차량, 자전거, 보행자 및/또는 식별된 차량 인근의 다른 이동 장애물 및 식별된 차량에 대한 그들의 방향) 및 상대적인 혼잡도와 같은, 차량의 이동의 자유를 나타내는 정보를 포함한다.
일부 실시예에서, POI 및 이벤트 정보는 또한 차량에 대한 이동의 자유를 결정하는데 이용될 수 있다. 즉, POI 및 이벤트 정보는 차량에 대한 목적지 주변을 서술할 수 있다. 예를 들어, 특정 관심 지점(예: 명소)은 차량(예: 식별된 차량)에 대한 목적지 방향(heading)을 나타낼 수 있다. 예를 들어, 한 주의 특정 날짜와 시간 동안에 그러한 관심 지점에서 이벤트(예: 콘서트)가 발생하면 특정 날짜와 시간 동안에 그러한 이벤트에 대해 군중이 모일 것으로 예상될 수 있다. 따라서, 특정 날짜와 시간 동안 차량이 관심 지점(즉, 그것의 목적지)에 근접했을 때 차량 이동의 자유가 영향을 받을 수 있다. 따라서, 일부 실시예에서, POI 및 이벤트 정보는 인근 POI 타입의 분포 데이터, 이벤트 타입의 분포 데이터, 이벤트 평판 정보 및 이벤트 평판 이력을 포함할 수 있다.
일부 실시예에서, 트래픽 정보는 특정 시간 및 목적지의 교통 이력 데이터를 포함할 수 있다. 예를 들어, 동일한 시간 동안 주중 이전 4일의 평균 교통 이력 데이터 분포가 오늘의 교통 조건을 예측하는 요인이 될 수 있다. 또한, 예를 들어, 특정 목적지 인근의 사고 이력도 오늘 그러한 목적지에서 사고가 발생할 가능성을 예측하는 요인이 될 수 있다.
차량-독립적 및/또는 차량-의존적 정보에 기초하여, 행동 예측 모듈(308)은 식별된 차량에 대한 하나 이상의 궤적을 예측하고, 예측된 궤적을 결정 모듈(303) 및/또는 계획 모듈(304)에 제공한다. 예를 들어, 행동 예측 모듈(308)은 차량-독립적 및/또는 차량-의존적 정보에 의해 제공되는 데이터로부터 학습하고/에 대해 예측을 행하기 위해, 하나 이상의 머신 러닝 모델 또는 알고리즘, 예를 들어, 재귀 신경 네트워크(RNN) 모델을 호출할 수 있으며, 그에 의해 차량-독립적 및/또는 차량-의존적 정보의 학습 세트 상에서 식별된 차량의 하나 이상의 궤적을 예측하도록 모델을 트레이닝한다.
도 4는 본 발명의 일 실시예에 따른 머신 러닝 모델의 일례를 나타내는 도면이다. 일부 실시예에서, 머신 러닝 모델(400)은 도 3의 행동 예측 모듈(308)에 의해 호출될 수 있다. 도 4를 참조하면, 머신 러닝 모델은, 예를 들어 RNN 모델의 일부로서, 입력 레이어(402), 히든 레이어(411-413) 및 출력 레이어(415)를 포함한다. RNN 모델은 단위 사이의 연결이 방향성 사이클(directed cycle)을 형성하는 인공 신경망의 클래스이다. 이것은 네트워크의 내부 상태를 생성하여 동적 시간 행동(dynamic temporal behavior)을 나타낼 수 있게 한다. RNN들은 그들의 내부 메모리를 사용하여 임의의 입력 시퀀스를 처리할 수 있다.
도 4에 도시된 바와 같이, 차량-독립적 특징(401)은 재귀(recurring) 방식으로 입력 레이어(402)에 제공된다. 입력 레이어(402)는 차량-독립적 특징(401)을 수신하는 입력 노드 또는 뉴런(예를 들어, 차량이 감지되고 식별되는 시간, 주행 조건 정보, 차량 주변 정보, POI 및 이벤트 정보 및 교통 정보)을 포함할 수 있고, 프로세싱을 위해, 차량-독립적 특징(401)을 인터 뉴론들을 포함할 수 있는 제1 히든 레이어(411)에 전달할 수 있다. 일부 실시예에서, 입력 레이어(402)는 정보를 제1 히든 레이어(411)에 전달하기 전에 차량-독립적 특징(401)을 편리한 형태로 변환 또는 인코딩할 수 있다. 일부 실시예에서, 제1 히든 레이어(411)는 학습 세트로서 차량-독립적 특징(401)을 사용하는 지도 학습 규칙(supervised learning rule)을 호출할 수 있다. 일부 실시예들에서, 제1 히든 레이어(411)는 지도 학습 규칙 대신에 또는 이에 추가하여, 제공된 차량-독립적 특징(401)에 따라 입력 레이어(402)와 제1 히든 레이어(411) 사이의 접속의 가중치를 변경 또는 업데이트하는 자율 학습 규칙(unsupervised learning rule; 예를 들어, 델타 규칙)을 호출할 수 있다.
추가 처리를 위해, 제1 히든 레이어(411)로부터의 출력 데이터는 후속 숨겨진 레이어, 예를 들어 N 번째의 히든 레이어(413)에 제공될 수 있으며, N은 머신 러닝 모델(400)에서의 히든 레이어의 수이다. 상기 제N 히든 레이어(413)는 제1 히든 레이어(411)로부터의 중간 뉴런(interneurons)과 통신하는 중간 뉴런을 포함할 수 있다. 제1 히든 레이어(411)에서와 같이, 일부 실시예에서, N 번째 히든 레이어(413)는 또한 제1 히든 레이어(411)로부터의 데이터를 처리하기 위한 지도 및/또는 자율 학습 규칙을 호출할 수 있다. 데이터를 처리하자 마자, N 번째 히든 레이어(413)로부터의 출력 데이터는 차량의 하나 이상의 예측된 궤적을 나타내는 N 번째 히든 레이어(413)로부터의 출력 데이터와 함께 출력 레이어(415)에 제공될 수 있다. 일부 실시예에서, 출력 레이어(415)는 N 번째 히든 레이어(413)로부터 출력 데이터를 수신하고, 예를 들어 결정 모듈(303) 및/또는 계획 모듈(304)에 데이터를 전달하는 출력 노드 또는 뉴런을 포함할 수 있다.
도 5는 본 발명의 일 실시예에 따른 다른 머신 러닝 모델의 일례를 나타내는 도면이다. 일부 실시예에서, 머신 러닝 모델(500)은 도 3의 행동 예측 모듈(308)에 의해 호출될 수 있다. 도 5를 참조하면, 머신 러닝 모델은 제1 입력 레이어(502), 제2 입력 레이어(503), 히든 레이어(511-513) 및 출력 레이어(521)를 포함한다. 도 5에 도시된 바와 같이, 차량-독립적 특징(401)은 제1 입력 레이어(502)에 제공되고 차량-의존적 특징(예를 들어, 차량과 관련된 센서 데이터 및 현재 위치)은 제2 입력 레이어(503)에 재귀 방식으로 각각 제공된다. 제1 입력 레이어(502)는 차량-독립적 특징(401)을 수신하는 제1 세트의 입력 뉴런(미도시)을 포함할 수 있고, 제2 입력 레이어(503)는 차량-의존적 특징(501)을 수신할 수 있는 제2 세트의 입력 뉴런(또한 미도시)을 포함할 수 있으며, 제1 및 제2 세트의 입력 뉴런은 차량-독립적 특징(401) 및 차량-의존적 특징(501)을 제1 히든 레이어(511)에 제공한다. 제1 히든 레이어(511)은 지도 및/또는 자율 학습 규칙을 호출함으로써 차량-독립적 특징(401) 및 차량-의존적 특징(501)으로부터의 데이터 또는 정보를 처리할 수 있다. 이어서, 처리된 데이터는 후속 히든 레이어(예를 들어, N 번째 히든 레이어, N은 머신 러닝 모델(500)에서의 히든 레이어의 수)로 전달된다. N 번째 히든 레이어(513)는 데이터를 더 처리하기 위해 지도 및/또는 자율 학습 규칙을 또한 호출할 수 있고, 차량의 하나 이상의 예측된 궤적을 나타내는 출력 데이터를 출력 레이어(521)에 전달할 수 있다.
도 6은 본 발명의 일 실시예에 따른 또 다른 머신 러닝 모델의 일례를 나타내는 도면이다. 일부 실시예에서, 머신 러닝 모델(600)은 도 3의 행동 예측 모듈(308)에 의해 호출될 수 있다. 도 6을 참조하면, 차량-독립적 특징(401) 및 차량-의존적 특징(501)은 최종 예측(623)으로 결합되거나 병합되는 제1 러닝 모델(601) 및 제2 러닝 모델(602)로부터의 결과 또는 출력 정보와 함께, 제1 러닝 모델(601) 및 제2 러닝 모델(602)로 각각 병렬로 제공된다. 일부 실시예에서, 제1 러닝 모델(601) 및 제2 러닝 모델(602)은 도 4의 머신 러닝 모델(400) 및/또는 도 5의 머신 러닝모델(500)과 유사하거나 동일하다.
도 6을 참조하면, 차량-독립적 특징(401)은 재귀 방식으로 입력 레이어(603)에 제공된다. 이어서, 입력 레이어(603)는 차량-독립적 특징(401)으로부터의 정보를 제1 히든 레이어(611)에 전달한다. (예를 들어, 지도 및/또는 자율 학습 규칙을 사용하여) 정보를 처리하자 마자, 제1 히든 레이어(611)는 추가적인 처리를 위해 처리된 정보를 후속 히든 레이어(예를 들어, N 번째 히든 레이어(613), N은 제1 러닝 모델(601)에서의 히든 레이어의 수)에 전달 또는 제공할 수 있으며, N 번째 히든 레이어(613)으로부터의 출력 정보는 출력 레이어(621)에 제공될 수 있다.
유사하게, 여전히 도 6을 참조하면, 차량-의존적 특징(501)는 재귀 방식으로 입력 레이어(604)에 또한 제공된다. 그리고 나서, 입력 레이어(604)는 처리를 위해 차량-의존적 특징(501)로부터의 정보를 제1 히든 레이어(612)에 전달한다. 정보를 처리한 후에, 제1 히든 레이어(612)는 추가적인 처리를 위해 처리된 정보를 후속 히든 레이어(예를 들어, N 번째 히든 레이어(614), N은 제2 러닝 모델(602)에서의 히든 레이어의 수)에 전달 또는 제공할 수 있으며, N 번째 히든 레이어(614)으로부터의 출력 정보는 출력 레이어(622)에 제공될 수 있다. 출력 레이어(621) 및 출력 레이어(622)로부터의 출력 정보는 (예를 들어, 베이지안(Bayesian) 알고리즘, 의사 결정 트리(decision tree) 및/또는 승산(multiplication)을 사용하여) 최종 예측(623)에 조합되거나 병합되며, 최종 예측(623)은 차량의 하나 이상의 최종 예측된 궤적을 나타낸다.
도 7은 본 발명의 일 실시예에 따라 자율 주행 차량을 동작시키는 프로세스를 나타내는 흐름도이다. 프로세스(700)는 소프트웨어, 하드웨어, 또는 이들의 조합을 포함할 수 있는 프로세싱 로직에 의해 수행될 수 있다. 예를 들어, 프로세스(700)는 도 1의 인지 및 계획 시스템(110)에 의해 수행될 수 있다. 도 7을 참조하면, 블록(701)에서, 프로세싱 로직은 자율 주행 차량의 주변 환경을 인지하여 인근의 하나 이상의 차량을 식별한다. 블록(702)에서, 각각의 식별된 차량에 대해, 식별된 차량의 현재 위치에 기초하여, 프로세싱 로직은 차량-독립적 정보를 획득하여 식별된 차량 주변의 컨텍스트를 결정하고, 차량-독립적 정보는 식별된 차량에 부과된 물리적 제약을 규정하는 차량 주변 정보를 포함한다. 블록(703)에서, 프로세싱 로직은 식별된 차량과 관련된 차량-독립적 정보에 적어도 부분적으로 기초하여 식별된 차량에 대한 하나 이상의 궤적을 예측한다. 블록(704)에서, 프로세싱 로직은 하나 이상의 식별된 차량의 하나 이상의 예측된 궤적에 기초하여 자율 주행 차량을 제어한다.
도 8은 본 발명의 일 실시예에 따른 주행 시나리오의 예를 도시한다. 도 8을 참조하면, 이 예에서, "마스터 차량"으로 지칭될 수 있는 제1 차량(801)(예를 들면, 자율 주행 차량(101)), 제2 차량(802) 및 제3 차량(803)은 정지 사인 교차로에 또는 대략적으로 동시에 도착할 수 있고, 제2 차량(802) 및 제3 차량(803)은 마스터 차량의 계획된 궤적을 방해하는(intervening with) 궤적을 따라 잠재적으로 이동할 수 있다. 이어서, 마스터 차량은 (예를 들어, 인지 모듈(302)을 호출함으로써) 정지 사인 교차점 내의 주변 환경을 인지하여 인근의 하나 이상의 차량을 식별할 수 있다. 이 경우, 마스터 차량은 제2 차량(802) 및 제3 차량(803)을 식별할 것이다. 식별된 차량들(즉, 제2 차량(802) 및 제3 차량(803)) 각각에 대해, 마스터 차량은 (예를 들어, 적어도 부분적으로는 로컬라이제이션 모듈(301)을 호출함으로써) 식별된 차량의 현재 위치를 획득한다. 현재 위치를 사용하여, 마스터 차량은 (예를 들어, 차량-독립적 특징 추출 모듈(307)을 호출함으로써) 식별된 차량에 대한 차량-독립적 정보 또는 특징(예를 들면, 주위 정보(surround information))을 획득할 수 있다. 이 시나리오에서, 마스터 차량은 제3 차량(803) 주변의 임의의 장애물을 검출하지 않을 것이다. 그러나, 지각 모듈(302)을 호출함으로써 및/또는 센서 시스템(114)으로부터의 센서 데이터를 이용함으로써 마스터 차량은 제2 차량(802)의 궤적을 방해하는 보행자(804)를 검출할 것이다. 제3 차량(803)이 경로를 방해하는 장애물을 가지지 않기 때문에, 마스터 차량은 제3 차량(803)이 추월 조작을 수행할 것으로 예측할 수 있다. 따라서, 예를 들면, 마스터 차량은 제3 차량(803)에 양보할 수 있다. 반면에, 제2 차량(802)은 가로 지르기 위해 보행자(804)를 기다릴 필요가 있기 때문에, 제2 차량(802)은 일정 기간 동안에 조작할 수 없을 수도 있다. 따라서, 마스터 차량은 제2 차량(802)이 양보하고 제2 차량(802)을 추월할 것이라는 예측을 할 수 있다.
상술되고 도시된 구성 요소의 일부 또는 전부는 소프트웨어, 하드웨어 또는 이들의 조합으로 구현될 수 있다. 예를 들어, 이러한 구성 요소는 영구 기억 장치에 설치되고 저장되는 소프트웨어로서 구현될 수 있고, 이는 본 출원 전반에 걸쳐 기술된 프로세스 또는 동작들을 실행하기 위해 프로세서(미도시)에 의해 메모리에 로딩되고 실행될 수 있다. 대안적으로, 이러한 구성 요소는, 집적 회로(예를 들어, 주문형 집적 회로 또는 ASIC), 디지털 신호 프로세서(DSP) 또는 필드 프로그래머블 게이트 어레이(Field Programmable Gate Array; FPGA)와 같은 전용 하드웨어에 프로그램되거나 내장된 실행 가능 코드로서 구현될 수 있으며, 이는 애플리케이션으로부터 대응하는 드라이버 및/또는 운영 체제를 통해 액세스될 수 있다. 또한, 이러한 구성요소는, 하나 이상의 특정 명령을 통해 소프트웨어 구성요소에 의해 액세스 가능한 명령어 세트의 일부로서, 프로세서 또는 프로세서 코어 내에 특정 하드웨어 로직으로서 구현될 수 있다.
도 9은 본 발명의 일 실시예와 함께 사용될 수 있는 데이터 처리 시스템의 일례를 나타내는 블록도이다. 예를 들어, 시스템(900)은, 예를 들어, 도 1의 임의의 서버(103-104) 또는 인지 및 계획 시스템(110)과 같은, 상술된 임의의 프로세스 또는 방법을 수행하는 상술된 데이터 처리 시스템 중 임의의 것을 나타낼 수 있다. 시스템(900)은 다수의 상이한 구성 요소들을 포함할 수 있다. 이들 구성 요소는, 집적 회로(IC), 그 부분, 개별 전자 장치 또는 컴퓨터 시스템의 마더 보드 또는 애드-인 카드와 같은 회로 보드에 적용되는 다른 모듈로서 구현 될 수 있거나, 컴퓨터 시스템의 샤시 내에 다른 방법으로 통합되는 구성 요소들로써 구현될 수 있다.
또한, 시스템(900)은 컴퓨터 시스템의 많은 구성 요소들의 상위 레벨 뷰를 도시하기 위한 것이다. 그러나, 추가의 구성 요소가 특정 구현 예에 존재할 수 있고, 또한, 도시된 구성 요소의 상이한 배열이 다른 구현 예에서 나타날 수 있음을 이해해야 한다. 시스템(900)은 데스크탑, 랩탑, 태블릿, 서버, 이동 전화, 미디어 플레이어, PDA(personal digital assistant), 스마트 워치, 개인용 통신기, 게임 장치, 네트워크 라우터 또는 허브, 무선 액세스 포인트(AP) 또는 중계기(repeater), 셋톱 박스 또는 이들의 조합일 수 있다. 또한, 단지 하나의 기계 또는 시스템이 도시되어 있지만, "기계" 또는 "시스템"이라는 용어는, 본 출원에서 기술하는 방법들의 하나 이상을 실행하기 위해, 개별적으로 또는 공동으로 명령어들의 세트(또는 다수의 세트)를 수행하는 임의의 기계 또는 시스템의 집합을 포함하도록 취급될 것이다.
일 실시예에서, 시스템(900)은 버스 또는 인터커넥트(910)를 통해 프로세서(901), 메모리(903) 및 장치들(905-908)을 포함한다. 프로세서(901)는, 내부에 단일 프로세서 코어 또는 다중 프로세서 코어를 포함하는, 단일 프로세서 또는 다중 프로세서를 나타낼 수 있다. 프로세서(901)는, 마이크로 프로세서, 중앙 처리 장치(CPU) 등과 같은 하나 이상의 범용 프로세서를 나타낼 수 있다. 구체적으로, 프로세서(901)는 CISC(COMPLEX INSTRUCTION SET COMPUTING) 마이크로프로세서, RISC(REDUCED INSTRUCTION SET COMPUTING) 마이크로프로세서, VLIW(VERY LONG INSTRUCTION WORD) 마이크로프로세서, 또는 다른 명령어 세트를 구현하는 프로세서, 또는 명령어 세트의 조합을 구현하는 프로세서들일 수 있다. 프로세서(901)는 주문형 집적 회로(ASIC), 셀룰러 또는 베이스 밴드 프로세서, 필드 프로그래머블 게이트 어레이(FPGA), 디지털 신호 프로세서(DSP), 네트워크 프로세서, 그래픽 프로세서, 통신 프로세서, 암호화 프로세서, 코-프로세서, 임베디드 프로세서, 또는 명령어를 처리할 수 있는 임의의 다른 유형의 로직 등과 같은 하나 이상의 특수 목적 프로세서일 수도 있다.
프로세서(901)는, 초 저전압 프로세서와 같은 저전력 멀티 코어 프로세서 소켓일 수 있고, 시스템의 다양한 구성요소와의 통신을 위한 메인 프로세싱 유닛 및 중앙 허브로서 작동할 수 있다. 이러한 프로세서는 시스템 온 칩(SoC)으로서 구현될 수 있다. 프로세서(901)는, 본 명세서에서 논의된 동작들 및 단계들을 수행하기 위한 명령어를 실행하도록 구성된다. 시스템(900)은, 디스플레이 제어기, 그래픽 프로세서 및/또는 디스플레이 장치를 포함할 수 있는, 선택적인 그래픽 서브 시스템(904)과 통신하는 그래픽 인터페이스를 더 포함할 수 있다.
프로세서(901)는, 일 실시예에서 주어진 양의 시스템 메모리를 제공하기 위한 다수의 메모리 장치를 통해 구현될 수 있는, 메모리(903)와 통신할 수 있다. 메모리(903)는, 랜덤 액세스 메모리(RAM), 다이나믹 RAM(DRAM), 동기식 DRAM(SDRAM), 스태틱 RAM(SRAM)와 같은 하나 이상의 휘발성 저장(또는 메모리) 장치 또는 다른 유형의 저장 장치를 포함할 수 있다. 메모리(903)는, 프로세서(901) 또는 임의의 다른 장치에 의해 실행되는 명령어들의 시퀀스를 포함하는 정보를 저장할 수 있다. 예를 들어, 다양한 운영 체제, 장치 드라이버, 펌웨어(예를 들어, 입출력 기본 시스템 또는 BIOS), 및/또는 애플리케이션의 실행 가능 코드 및/또는 데이터는 메모리(903)에 로드되고 프로세서(901)에 의해 실행될 수 있다. 운영 체제는, 예를 들어, 로봇 운영 체제(ROS), 마이크로소프트® 사의 윈도우즈® 운영 체제, 애플의 맥 OS®/iOS®, 구글®의 안드로이드®, LINUX, UNIX, 또는 다른 실시간 또는 임베디드 운영 체제와 같은 임의의 유형의 운영 체제일 수 있다.
시스템(900)은, 네트워크 인터페이스 장치(들)(905), 선택적인 입력 장치(들)(906) 및 다른 선택적인 I/O 장치(들)(907)를 포함하는 장치들(905-908)과 같은 I/O 장치들을 더 포함할 수 있다. 네트워크 인터페이스 장치(905)는 무선 트랜시버 및/또는 네트워크 인터페이스 카드(NIC)를 포함할 수 있다. 무선 트랜시버는, WiFi 트랜시버, 적외선 트랜시버, 블루투스 트랜시버, WiMax 트랜시버, 무선 셀룰러 전화 트랜시버, 위성 트랜시버(예를 들어, GPS(Global Positioning System) 송수신기) 또는 다른 무선 주파수(RF) 트랜시버일 수 있으며, 또는 이들의 조합일 수 있다. NIC는 이더넷 카드(Ethernet card)일 수 있다.
입력 장치(들)(906)는, 마우스, 터치 패드, (디스플레이 장치(904)와 통합될 수 있는) 터치 감지 스크린, 스타일러스와 같은 포인터 장치 및/또는 키보드(예를 들어, 물리적 키보드 또는 터치 감지 스크린의 일부로 표시되는 가상 키보드)를 포함할 수 있다. 예를 들어, 입력 장치(906)는, 터치 스크린에 결합되는 터치 스크린 제어기를 포함할 수 있다. 터치 스크린 및 터치 스크린 제어기는, 예컨대 터치 감도 기술 중 임의의 것을 사용하여 접촉(CONTACT) 및 이동(MOVE) 또는 중지(BREAK)를 검출할 수 있다. 터치 감도 기술은 예를 들어, 용량성, 저항성, 적외선 및 표면 탄성파 기술뿐만 아니라, 터치 스크린과의 하나 이상의 접촉점을 결정하기 위한 그 외의 근접 센서 어레이 또는 다른 요소를 포함하며, 이에 제한되지 않는다.
I/O 장치들(907)은 오디오 장치를 포함할 수 있다. 오디오 장치는 음성 인식, 음성 복제, 디지털 녹음 및/또는 전화 기능과 같은 음성 작동 기능을 가능하게 하기 위해 스피커 및/또는 마이크를 포함할 수 있다. 다른 I/O 장치들(907)은, USB(universal serial bus) 포트(들), 병렬 포트(들), 직렬 포트(들), 프린터, 네트워크 인터페이스, 버스 브리지(예를 들어, PCI-PCI 브리지), 센서(들)(예를 들어, 가속도계, 자이로스코프, 자력계, 광 센서, 나침반, 근접 센서 등과 같은 모션 센서) 또는 이들의 조합을 포함할 수 있다. 장치들(907)은 이미징 프로세싱 서브 시스템(예를 들어, 카메라)를 더 포함할 수 있다. 이미징 프로세싱 서브 시스템은, 사진 및 비디오 클립 녹화와 같은 카메라 기능들을 가능하게 하는데 이용되는, CCD(CHARGE COUPLED DEVICE) 또는 CMOS(COMPLEMENTARY METAL-OXIDE SEMICONDUCTOR) 광학 센서와 같은 광학 센서를 포함할 수 있다. 특정 센서들은, 센서 허브(미도시)를 통해 인터커넥트(910)에 연결될 수 있고, 키보드 또는 열 센서와 같은 다른 장치는 시스템(900)의 구체적인 구성 또는 설계에 따라 내장형 제어기(미도시)에 의해 제어될 수 있다.
데이터, 애플리케이션, 하나 이상의 운영 체제 등과 같은 정보의 영구 저장을 제공하기 위해, 대용량 저장 장치(미도시)가 또한 프로세서(901)에 연결될 수 있다. 다양한 실시예에서, 시스템 응답성을 향상하고 더 얇고 가벼운 시스템 설계를 가능하게 하기 위해, 이 대용량 저장 장치는 SSD(solid state device)를 통해 구현될 수 있다. 그러나, 다른 실시예들에서, 대용량 저장 장치는, 시스템 활동의 재가동 시에 빠른 파워 업이 일어나도록, 파워 다운 이벤트들 동안 컨텍스트 상태(context state) 및 다른 그러한 정보의 비 휘발성 저장을 가능하게 하기 위해 SSD 캐시로서 작용하는, 더 적은 양의 SSD 스토리지와 함께 하드 디스크 드라이브(HDD)를 사용하여 주로 구현될 수 있다. 또한, 플래시 장치는, 예를 들어, 직렬 주변 장치 인터페이스(SPI)를 통해 프로세서(901)에 결합될 수 있다. 이 플래시 장치는, 시스템의 다른 펌웨어뿐만 아니라 BIOS를 포함하는, 시스템 소프트웨어의 비휘발성 저장 공간을 제공할 수 있다.
저장 장치(908)는, 본 명세서에 기술된 방법들 또는 기능들의 하나 이상을 내장하는 하나 이상의 명령어 세트 또는 소프트웨어(예를 들어, 모듈, 유닛 및/또는 로직(928)이 저장되는 컴퓨터 액세스 가능 저장 매체(909)(기계 판독 가능 저장 매체 또는 컴퓨터 판독 가능 매체로도 알려짐)을 포함할 수 있다. 프로세싱 모듈/유닛/로직(928)은 예를 들어, 계획 모듈(304), 제어 모듈(305), 또는 임의의 모듈(306-308)(단독 또는 조합으로)와 같은 전술한 컴포넌트 중 임의의 것을 나타낼 수 있다. 처리 모듈/유닛/로직(928)은 또한 머신 액세스 가능 저장 매체를 또한 구성하는, 데이터 처리 시스템(900), 메모리(903) 및 프로세서(901)에 의한 실행 중에 메모리(903) 및/또는 프로세서(901) 내에 완전히 또는 적어도 부분적으로 상주할 수 있다. 프로세싱 모듈/유닛/로직(928)은 네트워크 인터페이스 장치(905)를 통해 네트워크를 거쳐 더 송신되거나 수신될 수 있다.
또한, 컴퓨터 판독 가능 저장 매체(909)는 전술한 일부 소프트웨어 기능을 지속적으로 저장하는데 사용될 수 있다. 컴퓨터 판독 가능 저장 매체(909)는 예시적인 실시예에서 단일 매체로 도시되지만, "컴퓨터 판독 가능 저장 매체"라는 용어는 하나 이상의 명령어 세트들을 저장하는 단일 매체 또는 다중 매체(예를 들어, 중앙 집중식 또는 분산형 데이터베이스 및/또는 연관된 캐시들 및 서버들)를 포함하도록 취급되어야 한다. "컴퓨터 판독 가능 저장 매체"라는 용어는, 또한 기계에 의한 실행을 위한 명령어 세트를 저장 또는 인코딩할 수 있고, 본 발명의 방법론들 중 하나 이상을 기계가 수행하게 하는 임의의 매체를 포함하도록 취급될 것이다. 따라서, "컴퓨터 판독 가능 저장 매체"라는 용어는, 솔리드 스테이트 메모리, 광학 및 자기 매체, 또는 임의의 다른 비 일시적 기계 판독 가능 매체를 포함하도록 취급될 것이지만, 이에 한정되는 것은 아니다.
프로세싱 모듈/유닛/로직(928), 본 명세서에서 설명된 구성 요소들 및 다른 특징들은, 개별 하드웨어 구성 요소들로서 구현되거나, ASIC, FPGA, DSP 또는 유사한 장치와 같은 하드웨어 구성 요소들의 기능성에 통합될 수 있다. 또한, 처리 모듈/유닛/로직(928)은 하드웨어 장치 내의 펌웨어 또는 기능 회로로 구현될 수 있다. 또한, 처리 모듈/유닛/로직(928)은 임의의 조합 하드웨어 장치 및 소프트웨어 구성 요소로 구현될 수 있다.
시스템(900)은, 데이터 처리 시스템의 다양한 구성 요소로 도시되어 있지만, 구성 요소를 상호 접속시키는 임의의 특정 아키텍처나 방식을 나타내 위한 것이 아니다. 이러한 세부 사항들은 본 발명의 실시예들과 관련되지 않는다. 네트워크 컴퓨터들, 핸드 헬드 컴퓨터들, 이동 전화들, 서버들 및/또는 더 적은 구성 요소 또는 더 많은 구성 요소를 갖는 다른 데이터 처리 시스템들 또한 본 발명의 실시예들과 함께 사용될 수 있다.
전술한 상세 설명의 일부는, 컴퓨터 메모리 내의 데이터 비트에 대한 동작의 알고리즘 및 기호 표현의 방식으로 제시되었다. 이러한 알고리즘 설명 및 표현은, 데이터 처리 기술 분야의 당업자가 자신의 연구 내용을 다른 당업자에게 가장 효과적으로 전달하는데 사용되는 방법이다. 알고리즘은 본 명세서에서 그리고 일반적으로, 원하는 결과를 이끌어내는 일관된 동작 순서(self-consistent sequence)로 인식된다. 이 동작들은 물리량의 물리적인 조작을 요구하는 것들이다.
그러나 이러한 모든 용어 및 그와 유사한 용어들은 적절한 물리량과 관련되어야 하며 이러한 수량에 적용되는 편리한 레이블일 뿐이다. 상기 논의로부터 명백한 바와 같이, 특별히 달리 언급되지 않는 한, 명세서 전반에 걸쳐, 이하의 특허청구범위에서 제시된 것과 같은 용어들을 활용한 논의들은, 컴퓨터 시스템의 레지스터 및 메모리 내의 물리(전자)량으로 표현되는 데이터를, 컴퓨터 시스템 메모리 또는 레지스터 또는 다른 그러한 정보 저장소, 전송 또는 디스플레이 장치 내에 물리량으로 유사하게 표현되는 다른 데이터로 조작하고 변형시키는, 컴퓨터 시스템 또는 유사한 전자 컴퓨팅 장치의 동작 및 프로세스를 지칭한다.
본 발명의 실시예는 또한 본 명세서의 동작을 수행하기 위한 장치에 관한 것이다. 이러한 컴퓨터 프로그램은 비일시적 컴퓨터 판독 가능 매체에 저장된다. 기계 판독 가능 매체는, 기계(예를 들어, 컴퓨터)에 의해 판독 가능한 형태로 정보를 저장하기 위한 임의의 메커니즘을 포함한다. 예를 들어, 기계 판독 가능(예를 들어, 컴퓨터 판독 가능) 매체는 기계(예를 들어, 컴퓨터) 판독 가능 저장 매체(예를 들어, 읽기 전용 메모리(ROM)), 랜덤 액세스 메모리(RAM), 자기 디스 저장 매체, 광학 저장 매체, 플래시 메모리 장치)를 포함한다.
상기 도면들에 도시된 프로세스들 또는 방법들은, 하드웨어(예를 들어, 회로, 전용 로직 등), 소프트웨어(예를 들어, 비일시적인 컴퓨터 판독 가능 매체 상에 구현되는), 또는 이들의 조합을 포함하는 프로세싱 로직에 의해 수행될 수 있다. 프로세스들 또는 방법들이 몇몇 순차적인 동작들과 관련해서 상술되었지만, 기술된 동작들 중 일부는 다른 순서로 수행될 수 있다. 더욱이, 몇몇 동작들은 순차적으로보다는 병렬로 수행될 수 있다.
본 발명의 실시예는 임의의 특정 프로그래밍 언어를 참조하여 설명되지 않는다. 본 명세서에 설명된 본 발명의 실시예들의 교시를 구현하기 위해 다양한 프로그래밍 언어가 사용될 수 있다.
전술한 명세서에서, 본 발명의 실시예는 특정 예시적 실시예를 참조하여 설명되었다. 후술할 특허청구범위에 기재된 본 발명의 보다 넓은 사상 및 영역을 벗어나지 않으면서도 다양한 변형이 가능하다는 것은 명백할 것이다. 따라서, 명세서 및 도면은 제한적인 의미라기보다는 예시적인 의미로 간주되어야 한다.
Claims (21)
- 자율 주행 차량을 운행하기 위한 컴퓨터로 구현된 방법에 있어서,
인근의 하나 이상의 차량을 식별하도록 자율 주행 차량의 주변 환경을 인지하는 단계;
상기 식별된 차량의 각각에 대해,
상기 식별된 차량의 현재 위치에 기초하여, 차량-독립적 정보를 획득하여 상기 식별된 차량의 주변의 컨텍스트를 결정하고 저장하되, 여기서 상기 차량-독립적 정보는 상기 식별된 차량에 부과된 물리적 제약을 규정하는 차량 주변 정보 및 상기 차량이 인지되고 식별된 시간을 포함하여 상기 현재 위치에서 실시간으로 획득되는 현재 차량-독립적 정보와 상기 현재 위치에서 저장된 예전 차량-독립적 정보를 포함하는 단계; 및
상기 식별된 차량과 관련된 상기 차량-독립적 정보에 적어도 부분적으로 기초하여 상기 식별된 차량에 대한 하나 이상의 궤적을 예측하는 단계; 및
상기 하나 이상의 식별된 차량의 상기 하나 이상의 예측된 궤적에 기초하여 상기 자율 주행 차량을 제어하는 단계를 포함하며,
상기 식별된 차량의 각각에 대해, 상기 자율 주행 차량의 하나 이상의 센서로부터 상기 식별된 차량과 관련된 센서 데이터를 획득하는 단계, 및 상기 센서 데이터에 적어도 부분적으로 기초하여 상기 식별된 차량의 상기 현재 위치를 결정하는 단계를 포함하고,
상기 차량-독립적 정보는, 주행 조건, 관심 지점(POI) 및 이벤트 정보 및 상기 차량에 상기 물리적 제약을 더 부과하는 교통 정보를 포함하며,
상기 POI 및 이벤트 정보는 상기 식별된 차량에 대한 목적지 방향(heading)을 나타내는 정보를 포함하고,
상기 차량-독립적 정보에 적어도 부분적으로 기초하여 상기 식별된 차량에 대한 하나 이상의 궤적을 예측하는 단계는, 머신 러닝 모델을 호출하여 상기 차량-독립적 정보에 기초하여 상기 하나 이상의 궤적을 출력하는 단계를 포함하며,
상기 차량-독립적 정보에 적어도 부분적으로 기초하여 상기 식별된 차량의 하나 이상의 궤적을 예측하는 단계는: 상기 센서 데이터를 제1 머신 러닝 모델에 입력하는 단계; 상기 식별된 차량의 제1 세트의 예측된 궤적을 출력하는 단계; 상기 차량-독립적 정보를 제2 머신 러닝 모델에 입력하는 단계; 상기 식별된 차량의 제2 세트의 예측된 궤적을 출력하는 단계; 및 상기 제1 세트의 예측된 궤적 및 상기 제2 세트의 예측된 궤적을 병합하여 최종 세트의 예측된 궤적을 획득하는 단계를 포함하고,
상기 제1 세트의 예측된 궤적 및 상기 제2 세트의 예측된 궤적을 병합하여 상기 최종 세트의 예측된 궤적을 획득하는 단계는 베이지안(Bayesian) 알고리즘을 이용하여 수행되는, 컴퓨터로 구현된 방법.
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 명령어들을 저장하는 비일시적 기계 판독 가능 매체로서, 상기 명령어들은 프로세서에 의해 실행될 때 상기 프로세서로 하여금 자율 주행 차량을 운행시키는 동작들을 수행하게 하고, 상기 동작들은,
인근의 하나 이상의 차량을 식별하도록 자율 주행 차량의 주변 환경을 인지하는 것;
상기 식별된 차량의 각각에 대해,
상기 식별된 차량의 현재 위치에 기초하여, 차량-독립적 정보를 획득하여 상기 식별된 차량의 주변의 컨텍스트를 결정하고 저장하되, 여기서 상기 차량-독립적 정보는 상기 식별된 차량에 부과된 물리적 제약을 규정하는 차량 주변 정보 및 상기 차량이 인지되고 식별된 시간을 포함하여 상기 현재 위치에서 실시간으로 획득되는 현재 차량-독립적 정보와 상기 현재 위치에서 저장된 예전 차량-독립적 정보를 포함하는 것; 및
상기 식별된 차량과 관련된 상기 차량-독립적 정보에 적어도 부분적으로 기초하여 상기 식별된 차량에 대한 하나 이상의 궤적을 예측하는 것; 및
상기 하나 이상의 식별된 차량의 상기 하나 이상의 예측된 궤적에 기초하여 상기 자율 주행 차량을 제어하는 것을 포함하며,
상기 동작들은, 상기 식별된 차량의 각각에 대해, 상기 자율 주행 차량의 하나 이상의 센서로부터 상기 식별된 차량과 관련된 센서 데이터를 획득하는 것, 및 상기 센서 데이터에 적어도 부분적으로 기초하여 상기 식별된 차량의 상기 현재 위치를 결정하는 것을 더 포함하고,
상기 차량-독립적 정보는, 주행 조건, 관심 지점(POI) 및 이벤트 정보 및 상기 차량에 상기 물리적 제약을 더 부과하는 교통 정보를 더 포함하며,
상기 POI 및 이벤트 정보는 상기 식별된 차량에 대한 목적지 방향을 나타내는 정보를 포함하고,
상기 차량-독립적 정보에 적어도 부분적으로 기초하여 상기 식별된 차량에 대한 하나 이상의 궤적을 예측하는 것은, 머신 러닝 모델을 호출하여 상기 차량-독립적 정보에 기초하여 상기 하나 이상의 궤적을 출력하는 것을 포함하며,
상기 차량-독립적 정보에 적어도 부분적으로 기초하여 상기 식별된 차량의 하나 이상의 궤적을 예측하는 것은, 상기 센서 데이터를 제1 머신 러닝 모델에 입력하는 것; 상기 식별된 차량의 제1 세트의 예측된 궤적을 출력하는 것; 상기 차량-독립적 정보를 제2 머신 러닝 모델에 입력하는 것; 상기 식별된 차량의 제2 세트의 예측된 궤적을 출력하는 것; 및 상기 제1 세트의 예측된 궤적 및 상기 제2 세트의 예측된 궤적을 병합하여 최종 세트의 예측된 궤적을 획득하는 것을 포함하고,
상기 제1 세트의 예측된 궤적 및 상기 제2 세트의 예측된 궤적을 병합하여 상기 최종 세트의 예측된 궤적을 획득하는 것은 베이지안 알고리즘을 이용하여 수행되는, 비일시적 기계 판독 가능 매체.
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 데이터 처리 시스템에 있어서,
프로세서; 및
상기 프로세서에 결합되어 명령어들을 저장하는 메모리를 포함하고, 상기 명령어들은 상기 프로세서에 의해 실행될 때 상기 프로세서로 하여금 자율 주행 차량을 운행하는 동작들을 수행하게 하며, 상기 동작들은:
인근의 하나 이상의 차량을 식별하도록 자율 주행 차량의 주변 환경을 인지하는 것;
상기 식별된 차량의 각각에 대해,
상기 식별된 차량의 현재 위치에 기초하여, 차량-독립적 정보를 획득하여 상기 식별된 차량의 주변의 컨텍스트를 결정하고 저장하되, 여기서 상기 차량-독립적 정보는 상기 식별된 차량에 부과된 물리적 제약을 규정하는 차량 주변 정보 및 상기 차량이 인지되고 식별된 시간을 포함하여 상기 현재 위치에서 실시간으로 획득되는 현재 차량-독립적 정보와 상기 현재 위치에서 저장된 예전 차량-독립적 정보를 포함하는 것;
상기 식별된 차량과 관련된 상기 차량-독립적 정보에 적어도 부분적으로 기초하여 상기 식별된 차량에 대한 하나 이상의 궤적을 예측하는 것; 및
상기 하나 이상의 식별된 차량의 상기 하나 이상의 예측된 궤적에 기초하여 상기 자율 주행 차량을 제어하는 것을 포함하며,
상기 동작들은, 상기 식별된 차량의 각각에 대해, 상기 자율 주행 차량의 하나 이상의 센서로부터 상기 식별된 차량과 관련된 센서 데이터를 획득하는 것, 및 상기 센서 데이터에 적어도 부분적으로 기초하여 상기 식별된 차량의 상기 현재 위치를 결정하는 것을 포함하고,
상기 차량-독립적 정보는, 주행 조건, 관심 지점(POI) 및 이벤트 정보 및 상기 차량에 상기 물리적 제약을 더 부과하는 교통 정보를 더 포함하며,
상기 POI 및 이벤트 정보는 상기 식별된 차량에 대한 목적지 방향을 나타내는 정보를 포함하고,
상기 차량-독립적 정보에 적어도 부분적으로 기초하여 상기 식별된 차량에 대한 하나 이상의 궤적을 예측하는 것은, 머신 러닝 모델을 호출하여 상기 차량-독립적 정보에 기초하여 상기 하나 이상의 궤적을 출력하는 것을 포함하며,
상기 차량-독립적 정보에 적어도 부분적으로 기초하여 상기 식별된 차량의 하나 이상의 궤적을 예측하는 것은, 상기 센서 데이터를 제1 머신 러닝 모델에 입력하는 것; 상기 식별된 차량의 제1 세트의 예측된 궤적을 출력하는 것; 상기 차량-독립적 정보를 제2 머신 러닝 모델에 입력하는 것; 상기 식별된 차량의 제2 세트의 예측된 궤적을 출력하는 것; 및 상기 제1 세트의 예측된 궤적 및 상기 제2 세트의 예측된 궤적을 병합하여 최종 세트의 예측된 궤적을 획득하는 것을 포함하고,
상기 제1 세트의 예측된 궤적 및 상기 제2 세트의 예측된 궤적을 병합하여 상기 최종 세트의 예측된 궤적을 획득하는 것은 베이지안 알고리즘을 이용하여 수행되는, 데이터 처리 시스템.
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/387,466 US10268200B2 (en) | 2016-12-21 | 2016-12-21 | Method and system to predict one or more trajectories of a vehicle based on context surrounding the vehicle |
US15/387,466 | 2016-12-21 | ||
PCT/US2017/034160 WO2018118112A1 (en) | 2016-12-21 | 2017-05-24 | Method and system to predict one or more trajectories of a vehicle based on context surrounding the vehicle |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180088789A KR20180088789A (ko) | 2018-08-07 |
KR102078488B1 true KR102078488B1 (ko) | 2020-02-17 |
Family
ID=62110823
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020187009732A KR102078488B1 (ko) | 2016-12-21 | 2017-05-24 | 차량 주변의 컨텍스트에 기초하여 차량의 하나 이상의 궤적을 예측하는 방법 및 시스템 |
Country Status (6)
Country | Link |
---|---|
US (2) | US10268200B2 (ko) |
EP (1) | EP3356900B1 (ko) |
JP (1) | JP6684346B2 (ko) |
KR (1) | KR102078488B1 (ko) |
CN (1) | CN108475057B (ko) |
WO (1) | WO2018118112A1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220112624A (ko) | 2021-02-04 | 2022-08-11 | 엘아이지넥스원 주식회사 | 선박 복귀 시점 결정 장치 및 방법 |
Families Citing this family (100)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10769453B2 (en) * | 2017-05-16 | 2020-09-08 | Samsung Electronics Co., Ltd. | Electronic device and method of controlling operation of vehicle |
US10829149B1 (en) * | 2017-03-01 | 2020-11-10 | Zoox, Inc. | Steering control for vehicles |
CN108628904B (zh) * | 2017-03-23 | 2021-03-02 | 北京嘀嘀无限科技发展有限公司 | 一种路径编码、相似路径检索方法及装置和电子设备 |
KR102406507B1 (ko) * | 2017-03-27 | 2022-06-10 | 현대자동차주식회사 | 딥러닝 기반 자율주행 차량 제어 장치, 그를 포함한 시스템 및 그 방법 |
US10643084B2 (en) | 2017-04-18 | 2020-05-05 | nuTonomy Inc. | Automatically perceiving travel signals |
US10572773B2 (en) * | 2017-05-05 | 2020-02-25 | Intel Corporation | On the fly deep learning in machine learning for autonomous machines |
WO2018212538A1 (en) * | 2017-05-16 | 2018-11-22 | Samsung Electronics Co., Ltd. | Electronic device and method of detecting driving event of vehicle |
US11537134B1 (en) * | 2017-05-25 | 2022-12-27 | Apple Inc. | Generating environmental input encoding for training neural networks |
US11029693B2 (en) | 2017-08-08 | 2021-06-08 | Tusimple, Inc. | Neural network based vehicle dynamics model |
US20190050714A1 (en) * | 2017-08-09 | 2019-02-14 | Ants Technology (Hk) Limited | Modular distributed artificial neural networks |
US10782693B2 (en) * | 2017-09-07 | 2020-09-22 | Tusimple, Inc. | Prediction-based system and method for trajectory planning of autonomous vehicles |
US10953881B2 (en) | 2017-09-07 | 2021-03-23 | Tusimple, Inc. | System and method for automated lane change control for autonomous vehicles |
US10782694B2 (en) * | 2017-09-07 | 2020-09-22 | Tusimple, Inc. | Prediction-based system and method for trajectory planning of autonomous vehicles |
US10649458B2 (en) * | 2017-09-07 | 2020-05-12 | Tusimple, Inc. | Data-driven prediction-based system and method for trajectory planning of autonomous vehicles |
US10953880B2 (en) | 2017-09-07 | 2021-03-23 | Tusimple, Inc. | System and method for automated lane change control for autonomous vehicles |
US11555706B1 (en) | 2017-09-27 | 2023-01-17 | Apple Inc. | Processing graph representations of tactical maps using neural networks |
US11243532B1 (en) * | 2017-09-27 | 2022-02-08 | Apple Inc. | Evaluating varying-sized action spaces using reinforcement learning |
US20190164007A1 (en) * | 2017-11-30 | 2019-05-30 | TuSimple | Human driving behavior modeling system using machine learning |
WO2019136375A1 (en) | 2018-01-07 | 2019-07-11 | Nvidia Corporation | Guiding vehicles through vehicle maneuvers using machine learning models |
DE112019000065T5 (de) | 2018-02-02 | 2020-03-05 | Nvidia Corporation | Sicherheitsprozeduranalyse zur hindernisvermeidung in einem autonomen fahrzeug |
JP2019151177A (ja) * | 2018-03-01 | 2019-09-12 | 本田技研工業株式会社 | 車両制御装置、車両制御方法、及びプログラム |
US11104334B2 (en) | 2018-05-31 | 2021-08-31 | Tusimple, Inc. | System and method for proximate vehicle intention prediction for autonomous vehicles |
US11966838B2 (en) | 2018-06-19 | 2024-04-23 | Nvidia Corporation | Behavior-guided path planning in autonomous machine applications |
EP3819889A4 (en) * | 2018-07-04 | 2021-06-09 | Nissan Motor Co., Ltd. | DRIVING ASSISTANCE PROCESS AND DRIVING ASSISTANCE DEVICE |
CN108944945B (zh) * | 2018-07-10 | 2020-03-20 | 深圳地平线机器人科技有限公司 | 用于辅助驾驶的状态预测方法、装置、电子设备和车辆 |
US11260855B2 (en) * | 2018-07-17 | 2022-03-01 | Baidu Usa Llc | Methods and systems to predict object movement for autonomous driving vehicles |
EP3598414A1 (en) * | 2018-07-20 | 2020-01-22 | Volvo Car Corporation | System and method for avoiding a collision course |
JP6684533B2 (ja) * | 2018-08-28 | 2020-04-22 | 三菱ロジスネクスト株式会社 | 進路予測装置および進路予測方法 |
CN117351272A (zh) * | 2018-09-01 | 2024-01-05 | 图森有限公司 | 一种使用机器学习的人类驾驶行为建模系统 |
EP3850548A1 (en) * | 2018-09-11 | 2021-07-21 | NVIDIA Corporation | Future object trajectory predictions for autonomous machine applications |
CN110378502A (zh) * | 2018-09-13 | 2019-10-25 | 北京京东尚科信息技术有限公司 | 辅助无人车确定路径的方法和装置 |
CN110928286B (zh) * | 2018-09-19 | 2023-12-26 | 阿波罗智能技术(北京)有限公司 | 用于控制车辆的自动驾驶的方法、设备、介质和系统 |
US11199847B2 (en) * | 2018-09-26 | 2021-12-14 | Baidu Usa Llc | Curvature corrected path sampling system for autonomous driving vehicles |
US11169531B2 (en) * | 2018-10-04 | 2021-11-09 | Zoox, Inc. | Trajectory prediction on top-down scenes |
US10885776B2 (en) * | 2018-10-11 | 2021-01-05 | Toyota Research Institute, Inc. | System and method for roadway context learning by infrastructure sensors |
US11073831B2 (en) * | 2018-10-17 | 2021-07-27 | Baidu Usa Llc | Autonomous driving using a standard navigation map and lane configuration determined based on prior trajectories of vehicles |
US11194331B2 (en) * | 2018-10-30 | 2021-12-07 | The Regents Of The University Of Michigan | Unsupervised classification of encountering scenarios using connected vehicle datasets |
US11110922B2 (en) | 2018-11-05 | 2021-09-07 | Zoox, Inc. | Vehicle trajectory modification for following |
EP3650297B1 (en) * | 2018-11-08 | 2023-06-14 | Bayerische Motoren Werke Aktiengesellschaft | Method and apparatus for determining information related to a lane change of a target vehicle, and computer program |
US11577750B2 (en) | 2018-11-08 | 2023-02-14 | Bayerische Motoren Werke Aktiengesellschaft | Method and apparatus for determining a vehicle comfort metric for a prediction of a driving maneuver of a target vehicle |
CN109631915B (zh) * | 2018-12-19 | 2021-06-29 | 百度在线网络技术(北京)有限公司 | 轨迹预测方法、装置、设备及计算机可读存储介质 |
CN113242998B (zh) * | 2018-12-27 | 2024-04-02 | 本田技研工业株式会社 | 路径决定方法 |
US11494613B2 (en) * | 2019-01-02 | 2022-11-08 | The Aerospace Corporation | Fusing output of artificial intelligence networks |
KR102505717B1 (ko) | 2019-01-29 | 2023-03-02 | 모셔널 에이디 엘엘씨 | 교통 신호등 추정 |
EP3749976A4 (en) * | 2019-01-30 | 2021-08-18 | Baidu.com Times Technology (Beijing) Co., Ltd. | DEEP LEARNING FEATURES EXTRACTION FOR LIDAR LOCALIZATION OF AUTONOMOUS DRIVING VEHICLES |
US10838418B2 (en) * | 2019-01-31 | 2020-11-17 | StradVision, Inc. | Method for providing autonomous driving service platform to be used for supporting autonomous driving of vehicles by using competitive computing and information fusion, and server using the same |
US20200249674A1 (en) * | 2019-02-05 | 2020-08-06 | Nvidia Corporation | Combined prediction and path planning for autonomous objects using neural networks |
WO2020163390A1 (en) | 2019-02-05 | 2020-08-13 | Nvidia Corporation | Driving lane perception diversity and redundancy in autonomous driving applications |
CN113454555A (zh) * | 2019-02-15 | 2021-09-28 | 宝马股份公司 | 用于驾驶策略的轨迹预测 |
WO2020164089A1 (en) * | 2019-02-15 | 2020-08-20 | Bayerische Motoren Werke Aktiengesellschaft | Trajectory prediction using deep learning multiple predictor fusion and bayesian optimization |
CN109849934B (zh) * | 2019-02-19 | 2020-09-29 | 百度在线网络技术(北京)有限公司 | 轨迹处理的方法、装置、存储介质和终端设备 |
CN109855641B (zh) * | 2019-02-20 | 2021-06-11 | 百度在线网络技术(北京)有限公司 | 预测运动轨迹的方法、装置、存储介质和终端设备 |
JP7250572B2 (ja) * | 2019-03-11 | 2023-04-03 | 本田技研工業株式会社 | 倒立振子型ロボット |
JP7250573B2 (ja) | 2019-03-11 | 2023-04-03 | 本田技研工業株式会社 | 倒立振子型ロボット |
CN110047276B (zh) * | 2019-03-11 | 2020-11-27 | 广州文远知行科技有限公司 | 障碍物车辆的拥堵状态确定方法、装置和相关产品 |
JP7250571B2 (ja) * | 2019-03-11 | 2023-04-03 | 本田技研工業株式会社 | 倒立振子型ロボット |
JP7469850B2 (ja) * | 2019-03-25 | 2024-04-17 | 本田技研工業株式会社 | 経路決定装置、ロボット及び経路決定方法 |
US20200310422A1 (en) * | 2019-03-26 | 2020-10-01 | GM Global Technology Operations LLC | Cognitive processor feedforward and feedback integration in autonomous systems |
US11364904B2 (en) * | 2019-03-26 | 2022-06-21 | GM Global Technology Operations LLC | Path-planning fusion for a vehicle |
RU2750152C1 (ru) | 2019-04-25 | 2021-06-22 | Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" | Способы и системы для определения порядка оценивания траекторий транспортных средств |
DE102020111938A1 (de) * | 2019-05-07 | 2020-11-12 | Hyundai-Aptiv Ad Llc | Systeme und verfahren zum planen und aktualisieren einer fahrzeugtrajektorie |
WO2020223751A1 (en) * | 2019-05-07 | 2020-11-12 | Kontrol Gmbh | Formal verification for the development and real-time application of autonomous systems |
WO2020224778A1 (en) * | 2019-05-08 | 2020-11-12 | Volvo Truck Corporation | A method for determining if a vehicle control command precludes a future vehicle safety maneuver |
US11157784B2 (en) * | 2019-05-08 | 2021-10-26 | GM Global Technology Operations LLC | Explainable learning system and methods for autonomous driving |
KR20200133858A (ko) * | 2019-05-20 | 2020-12-01 | 현대모비스 주식회사 | 자율 주행 장치 및 방법 |
US11131993B2 (en) * | 2019-05-29 | 2021-09-28 | Argo AI, LLC | Methods and systems for trajectory forecasting with recurrent neural networks using inertial behavioral rollout |
CN110262486B (zh) * | 2019-06-11 | 2020-09-04 | 北京三快在线科技有限公司 | 一种无人驾驶设备运动控制方法及装置 |
CN112078592B (zh) * | 2019-06-13 | 2021-12-24 | 魔门塔(苏州)科技有限公司 | 一种车辆行为和/或车辆轨迹的预测方法及装置 |
CN110275531B (zh) * | 2019-06-21 | 2020-11-27 | 北京三快在线科技有限公司 | 障碍物的轨迹预测方法、装置及无人驾驶设备 |
CN113905938B (zh) * | 2019-07-08 | 2023-11-28 | 华为技术有限公司 | 用于改进多个自动驾驶车辆与其所在驾驶环境间交互的系统和方法 |
US11691650B2 (en) * | 2019-07-08 | 2023-07-04 | Uatc, Llc | Systems and methods for generating motion forecast data for a plurality of actors with respect to an autonomous vehicle |
CN110333517B (zh) * | 2019-07-11 | 2022-11-25 | 腾讯科技(深圳)有限公司 | 障碍物感知方法、装置及存储介质 |
DE102019211457A1 (de) * | 2019-07-31 | 2021-02-04 | Volkswagen Aktiengesellschaft | Verfahren und System zum Bereitstellen einer kontextabhängigen Wissensbasis zum Plausibilisieren mindestens einer Wahrnehmungsfunktion |
US11460843B2 (en) * | 2019-09-25 | 2022-10-04 | GM Global Technology Operations LLC | Parallelized tree-based decision scheme for autonomous vehicle |
CN114450703A (zh) * | 2019-09-30 | 2022-05-06 | 北京航迹科技有限公司 | 预测行人的移动轨迹的系统和方法 |
US11591012B2 (en) * | 2019-10-01 | 2023-02-28 | Robert Bosch Gmbh | Vehicle trajectory prediction using road topology and traffic participant object states |
US20210101625A1 (en) * | 2019-10-08 | 2021-04-08 | Motional Ad Llc | Navigating multi-way stop intersections with an autonomous vehicle |
US11643073B2 (en) * | 2019-10-24 | 2023-05-09 | Zoox, Inc. | Trajectory modifications based on a collision zone |
US11420630B2 (en) | 2019-10-24 | 2022-08-23 | Zoox, Inc. | Trajectory modifications based on a collision zone |
CN112712729B (zh) * | 2019-10-26 | 2023-01-06 | 华为技术有限公司 | 预测运动轨迹的方法和系统 |
WO2021084420A1 (en) * | 2019-10-29 | 2021-05-06 | Sony Corporation | Vehicle control in geographical control zones |
CN111009153B (zh) * | 2019-12-04 | 2021-10-15 | 珠海深圳清华大学研究院创新中心 | 一种轨迹预测模型的训练方法、装置和设备 |
CN111114554B (zh) * | 2019-12-16 | 2021-06-11 | 苏州智加科技有限公司 | 行驶轨迹预测方法、装置、终端及存储介质 |
US11314258B2 (en) * | 2019-12-27 | 2022-04-26 | Intel Corporation | Safety system for a vehicle |
CN111260950B (zh) * | 2020-01-17 | 2021-03-26 | 清华大学 | 一种基于轨迹预测的轨迹跟踪方法、介质和车载设备 |
KR102416686B1 (ko) * | 2020-03-04 | 2022-07-05 | 김명락 | 자율주행차량 사용자정보 수집을 통한 유동인구 및 지역 가치 예측 방법 |
US20210357763A1 (en) * | 2020-05-18 | 2021-11-18 | StradVision, Inc. | Method and device for performing behavior prediction by using explainable self-focused attention |
CN113942524B (zh) * | 2020-07-15 | 2023-08-08 | 广州汽车集团股份有限公司 | 一种车辆行驶控制方法、系统及计算机可读存储介质 |
US11794731B2 (en) | 2020-08-12 | 2023-10-24 | Ford Global Technologies, Llc | Waypoint prediction for vehicle motion planning |
US11648965B2 (en) | 2020-09-28 | 2023-05-16 | Argo AI, LLC | Method and system for using a reaction of other road users to ego-vehicle actions in autonomous driving |
DE112020007699T5 (de) * | 2020-10-13 | 2023-08-03 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Vorrichtung und Verfahren zur Vorhersage einer Bewegungsbahn eines Fahrzeugs |
DE102020127051A1 (de) * | 2020-10-14 | 2022-04-14 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Verfahren zur Bestimmung von sicherheitskritischen Ausgabewerten mittels einer Datenanalyseeinrichtung für eine technische Entität |
JP7125969B2 (ja) * | 2020-10-28 | 2022-08-25 | 本田技研工業株式会社 | 車両制御装置、車両制御方法、およびプログラム |
FR3118928B1 (fr) | 2021-01-19 | 2023-12-15 | Baptiste Hanrion | Procédé et système d’aide à la conduite d’un véhicule dans un flux de circulation impliquant d’autres véhicules |
CN113232674A (zh) * | 2021-05-28 | 2021-08-10 | 南京航空航天大学 | 基于决策树和贝叶斯网络的车辆控制方法和装置 |
KR102459218B1 (ko) * | 2022-01-28 | 2022-10-26 | 이지디텍터 주식회사 | 3차원 시정정보를 제공하는 방법 및 이를 이용한 내비게이션 시스템과 이동체와 프로그램 |
CN114758502B (zh) * | 2022-04-29 | 2023-08-18 | 北京百度网讯科技有限公司 | 双车联合轨迹预测方法及装置、电子设备和自动驾驶车辆 |
DE102022205068A1 (de) * | 2022-05-20 | 2023-11-23 | Continental Autonomous Mobility Germany GmbH | Verfahren für ein Fahrzeug zur Bewegungsprädiktion, ein Assistenzsystem sowie ein Fahrzeug |
CN115201615B (zh) * | 2022-09-15 | 2022-12-20 | 之江实验室 | 基于物理约束神经网络的非侵入式负荷监测方法及装置 |
CN117994754A (zh) * | 2022-10-31 | 2024-05-07 | 华为技术有限公司 | 车辆的位置获取方法、模型的训练方法以及相关设备 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4561139B2 (ja) * | 2004-03-22 | 2010-10-13 | アイシン・エィ・ダブリュ株式会社 | ナビゲーションシステム |
JP2010055403A (ja) * | 2008-08-28 | 2010-03-11 | Fujitsu Ten Ltd | 運転支援装置、運転支援プログラムおよび車載システム |
WO2010101749A1 (en) | 2009-03-05 | 2010-09-10 | Massachusetts Institute Of Technology | Predictive semi-autonomous vehicle navigation system |
JP5262986B2 (ja) * | 2009-03-05 | 2013-08-14 | 日産自動車株式会社 | 走行経路生成装置、走行経路生成方法、及び運転操作支援装置 |
JP2011107068A (ja) * | 2009-11-20 | 2011-06-02 | Aisin Aw Co Ltd | ナビゲーション装置、渋滞情報配信装置、及びナビゲーション方法 |
JP5607409B2 (ja) * | 2010-04-06 | 2014-10-15 | トヨタ自動車株式会社 | 対象物リスク予測装置 |
JP5533157B2 (ja) * | 2010-04-07 | 2014-06-25 | トヨタ自動車株式会社 | 将来挙動予測装置 |
EP2562060B1 (en) * | 2011-08-22 | 2014-10-01 | Honda Research Institute Europe GmbH | A method and system for predicting movement behavior of a target traffic object |
US8965633B2 (en) | 2011-09-02 | 2015-02-24 | GM Global Technology Operations LLC | System and method for speed adaptive steering override detection during automated lane centering |
US8457827B1 (en) * | 2012-03-15 | 2013-06-04 | Google Inc. | Modifying behavior of autonomous vehicle based on predicted behavior of other vehicles |
US10737665B2 (en) | 2012-08-28 | 2020-08-11 | Ford Global Technologies, Llc | Vehicle braking based on external object communications |
DE102013005362A1 (de) * | 2013-03-28 | 2013-10-10 | Daimler Ag | Verfahren zur Analyse einer Verkehrssituation |
JP5939357B2 (ja) * | 2013-05-31 | 2016-06-22 | トヨタ自動車株式会社 | 移動軌跡予測装置及び移動軌跡予測方法 |
US20150106010A1 (en) * | 2013-10-15 | 2015-04-16 | Ford Global Technologies, Llc | Aerial data for vehicle navigation |
EP2923911B1 (en) * | 2014-03-24 | 2019-03-13 | Honda Research Institute Europe GmbH | A method and system for predicting movement behavior of a target traffic object |
JP6314744B2 (ja) * | 2014-08-21 | 2018-04-25 | 日産自動車株式会社 | 移動物体進路予測装置 |
CN105374231A (zh) * | 2014-08-27 | 2016-03-02 | 中国移动通信集团公司 | 一种预警方法、装置及系统 |
US9248834B1 (en) * | 2014-10-02 | 2016-02-02 | Google Inc. | Predicting trajectories of objects based on contextual information |
KR102624434B1 (ko) * | 2015-02-10 | 2024-01-15 | 모빌아이 비젼 테크놀로지스 엘티디. | 자율 주행을 위한 약도 |
US10044751B2 (en) * | 2015-12-28 | 2018-08-07 | Arbor Networks, Inc. | Using recurrent neural networks to defeat DNS denial of service attacks |
-
2016
- 2016-12-21 US US15/387,466 patent/US10268200B2/en active Active
-
2017
- 2017-05-24 EP EP17847775.8A patent/EP3356900B1/en active Active
- 2017-05-24 KR KR1020187009732A patent/KR102078488B1/ko active IP Right Grant
- 2017-05-24 CN CN201780003103.5A patent/CN108475057B/zh active Active
- 2017-05-24 WO PCT/US2017/034160 patent/WO2018118112A1/en unknown
- 2017-05-24 JP JP2018517765A patent/JP6684346B2/ja active Active
-
2019
- 2019-03-07 US US16/296,177 patent/US11400959B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220112624A (ko) | 2021-02-04 | 2022-08-11 | 엘아이지넥스원 주식회사 | 선박 복귀 시점 결정 장치 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
US20180173240A1 (en) | 2018-06-21 |
EP3356900B1 (en) | 2020-04-29 |
JP6684346B2 (ja) | 2020-04-22 |
CN108475057A (zh) | 2018-08-31 |
EP3356900A4 (en) | 2018-11-14 |
JP2019504373A (ja) | 2019-02-14 |
US10268200B2 (en) | 2019-04-23 |
US20190204843A1 (en) | 2019-07-04 |
EP3356900A1 (en) | 2018-08-08 |
KR20180088789A (ko) | 2018-08-07 |
CN108475057B (zh) | 2021-04-09 |
WO2018118112A1 (en) | 2018-06-28 |
US11400959B2 (en) | 2022-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102078488B1 (ko) | 차량 주변의 컨텍스트에 기초하여 차량의 하나 이상의 궤적을 예측하는 방법 및 시스템 | |
JP6975512B2 (ja) | 自動運転車両の周辺車両の挙動に基づくリアルタイム感知調整と運転調整 | |
KR102070530B1 (ko) | 모션 계획에 기초한 자율 주행 차량의 운행 방법 및 시스템 | |
US11328219B2 (en) | System and method for training a machine learning model deployed on a simulation platform | |
CN110794823B (zh) | 预测自动驾驶车辆的对象移动的方法和系统 | |
CN107943016B (zh) | 用于自主车辆的群体驾驶风格学习框架 | |
KR102020163B1 (ko) | 자율 주행 차량의 조향률의 동적 조정 | |
JP6799592B2 (ja) | 自律走行車を完全に停止させるための速度制御 | |
KR102048646B1 (ko) | 자율 주행 차량 이동을 시뮬레이트하기 위한 물리 모델 및 머신 러닝과 결합된 방법 | |
KR101975728B1 (ko) | 자율 주행 차량을 위한 사이드슬립 보상 제어 방법 | |
JP6684345B2 (ja) | 自律走行車の走行を決定するための周辺環境を構築する方法及びシステム | |
CN108255170B (zh) | 动态地调整自动驾驶车辆的速度控制率的方法 | |
CN108733046B (zh) | 用于自动驾驶车辆的轨迹重新规划的系统和方法 | |
JP2019527862A (ja) | 自律走行のための地図画像に基づく交通予測 | |
JP2018116705A (ja) | ブレーキライトを利用して自動運転車両と追従車両との間の距離を保持する方法 | |
JP2018158721A (ja) | 自動運転車両に用いられる衝突予測及びエアバッグ事前展開システム | |
CN109085818B (zh) | 基于车道信息控制自动驾驶车辆的车门锁的方法和系统 | |
JP2018158719A (ja) | 自動運転車両に用いられる制御型の計画と制御システム | |
CN111857119A (zh) | 用于停放自动驾驶车辆的停车管理架构 | |
CN111328385A (zh) | 用于自动驾驶车辆的基于螺旋路径的三点转弯规划 | |
CN111103876A (zh) | 自动驾驶车辆的基于雷达通信的扩展感知 | |
CN110825290A (zh) | 用于自动驾驶车辆上的用户隐私保护的设计 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |