KR102617604B1 - 동적 점유 격자를 사용하는 차량 동작 - Google Patents
동적 점유 격자를 사용하는 차량 동작 Download PDFInfo
- Publication number
- KR102617604B1 KR102617604B1 KR1020210061305A KR20210061305A KR102617604B1 KR 102617604 B1 KR102617604 B1 KR 102617604B1 KR 1020210061305 A KR1020210061305 A KR 1020210061305A KR 20210061305 A KR20210061305 A KR 20210061305A KR 102617604 B1 KR102617604 B1 KR 102617604B1
- Authority
- KR
- South Korea
- Prior art keywords
- delete delete
- grid
- environment
- probability
- vehicle
- Prior art date
Links
- 238000000034 method Methods 0.000 claims abstract description 191
- 230000004044 response Effects 0.000 claims abstract description 34
- 238000001514 detection method Methods 0.000 claims abstract description 7
- 239000002245 particle Substances 0.000 claims description 197
- 238000005070 sampling Methods 0.000 claims description 10
- 238000010207 Bayesian analysis Methods 0.000 claims description 6
- 230000001788 irregular Effects 0.000 claims description 6
- 230000006870 function Effects 0.000 description 101
- 238000005315 distribution function Methods 0.000 description 43
- 238000010586 diagram Methods 0.000 description 36
- 238000004891 communication Methods 0.000 description 35
- 238000009826 distribution Methods 0.000 description 25
- 230000015654 memory Effects 0.000 description 25
- 230000008569 process Effects 0.000 description 19
- 239000013598 vector Substances 0.000 description 15
- 230000008859 change Effects 0.000 description 14
- 230000033001 locomotion Effects 0.000 description 14
- 238000005259 measurement Methods 0.000 description 13
- 238000012545 processing Methods 0.000 description 13
- 230000001133 acceleration Effects 0.000 description 12
- 230000001149 cognitive effect Effects 0.000 description 12
- 125000004122 cyclic group Chemical group 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 239000012530 fluid Substances 0.000 description 8
- 230000004927 fusion Effects 0.000 description 8
- 230000004807 localization Effects 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 8
- 238000013500 data storage Methods 0.000 description 7
- 239000000284 extract Substances 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000005290 field theory Methods 0.000 description 5
- 230000008447 perception Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000001914 filtration Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 239000007787 solid Substances 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000006855 networking Effects 0.000 description 3
- 230000010363 phase shift Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 101100175317 Danio rerio gdf6a gene Proteins 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000008846 dynamic interplay Effects 0.000 description 2
- 239000000446 fuel Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000020169 heat generation Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 238000001556 precipitation Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3453—Special cost functions, i.e. other than distance or default speed limit of road segments
- G01C21/3492—Special cost functions, i.e. other than distance or default speed limit of road segments employing speed data or traffic data, e.g. real-time or historical
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/20—Conjoint control of vehicle sub-units of different type or different function including control of steering systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
- B60W40/105—Speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3658—Lane guidance
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/50—Systems of measurement based on relative movement of target
- G01S13/58—Velocity or trajectory determination systems; Sense-of-movement determination systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0217—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with energy consumption, time reduction or distance reduction criteria
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0004—In digital systems, e.g. discrete-time systems involving sampling
- B60W2050/0005—Processor details or data handling, e.g. memory registers or chip architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0043—Signal treatments, identification of variables or parameters, parameter estimation or state estimation
- B60W2050/0052—Filtering, filters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/143—Alarm means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/18—Steering angle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4029—Pedestrians
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4049—Relationship among other objects, e.g. converging dynamic objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2720/00—Output or target parameters relating to overall vehicle dynamics
- B60W2720/10—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2300/00—Purposes or special features of road vehicle drive control systems
- B60Y2300/08—Predicting or avoiding probable or impending collision
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/14—Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Aviation & Aerospace Engineering (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Computational Mathematics (AREA)
- Pure & Applied Mathematics (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Probability & Statistics with Applications (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Databases & Information Systems (AREA)
- Algebra (AREA)
- Operations Research (AREA)
- Evolutionary Biology (AREA)
- Human Computer Interaction (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Optics & Photonics (AREA)
- Traffic Control Systems (AREA)
Abstract
환경에서 차량을 동작시키기 위한 방법은 차량의 LiDAR(light detection and ranging)로부터 LiDAR 데이터를 수신하는 단계를 포함한다. LiDAR 데이터는 환경에 위치된 대상체들을 표현한다. 동적 점유 격자(DOG)는 시맨틱 맵에 기초하여 생성된다. DOG는 다수의 격자 셀을 포함한다. 각각의 격자 셀은 환경의 일부분을 표현한다. 각각의 격자 셀에 대해, 확률 밀도 함수는 LiDAR 데이터에 기초하여 생성된다. 확률 밀도 함수는 격자 셀에 의해 표현된 환경의 일부분이 대상체에 의해 점유될 확률을 표현한다. 확률 밀도 함수에 기초하여 차량과 대상체의 충돌 소요 시간(TTC)이 문턱 시간보다 작은 것으로 결정된다. TTC가 문턱 시간보다 작다고 결정한 것에 응답하여, 차량의 제어 회로는 차량과 대상체의 충돌을 피하도록 차량을 동작시킨다.
Description
본 설명은 일반적으로 차량의 동작에 관한 것이며, 구체적으로 동적 점유 격자(dynamic occupancy grid)를 사용하는 차량 동작에 관한 것이다.
초기 위치로부터 최종 목적지까지 차량을 동작시키는 것은 종종 사용자 또는 차량의 의사 결정 시스템에 초기 위치로부터 최종 목적지까지의 도로망을 통한 루트를 선택할 것을 요구한다. 루트는 최대 운전 시간을 초과하지 않는 것과 같은 목표를 충족시키는 것을 수반할 수 있다. 복잡한 루트는 많은 결정을 요구할 수 있어, 전통적인 자율주행 운전 알고리즘을 비실용적으로 만들 수 있다.
환경에서 차량을 동작시키기 위한 방법은 차량의 하나 이상의 LiDAR(light detection and ranging)로부터 LiDAR 데이터를 수신하기 위해 차량의 하나 이상의 프로세서를 사용하는 것을 포함한다. LiDAR 데이터는 환경에 위치된 하나 이상의 대상체(object)를 표현한다. 하나 이상의 프로세서는 환경의 시맨틱 맵(semantic map)에 기초하여 동적 점유 격자(DOG)를 생성한다. DOG는 다수의 격자 셀을 포함한다. 각각의 격자 셀은 환경의 일부분을 표현한다. 각각의 격자 셀에 대해, 하나 이상의 프로세서는 LiDAR 데이터에 기초하여 확률 밀도 함수를 생성한다. 확률 밀도 함수는 격자 셀에 의해 표현된 환경의 일부분이 대상체에 의해 점유될 제1 확률을 표현한다. 하나 이상의 프로세서는 확률 밀도 함수에 기초하여 차량과 대상체의 충돌 소요 시간(time-to-collision, TTC)이 문턱 시간보다 작다고 결정한다. TTC가 문턱 시간보다 작다고 결정한 것에 응답하여, 차량의 제어 회로는 차량과 대상체의 충돌을 피하도록 차량을 동작시킨다.
다른 양태에서, 차량의 하나 이상의 프로세서는 차량의 궤적을 따라 운전가능 구역을 표현하는 동적 점유 그래프(dynamic occupancy graph)를 생성한다. 동적 점유 그래프는 적어도 2개의 노드 및 2개의 노드를 연결시키는 에지를 포함한다. 2개의 노드는 운전가능 구역의 2개의 인접한 시공간적 위치를 표현한다. 하나 이상의 프로세서는 차량의 하나 이상의 LiDAR로부터 수신된 LiDAR 데이터에 기초하여 다수의 입자의 입자 분포 함수를 생성한다. 다수의 입자는 운전가능 구역 내의 적어도 하나의 대상체를 표현한다. 동적 점유 그래프의 에지는 운전가능 구역의 2개의 인접한 시공간적 위치 사이에서의 적어도 하나의 대상체의 움직임을 표현한다. 하나 이상의 프로세서는 입자 분포 함수에 기초하여 차량에 상대적인 대상체의 속도를 결정한다. 하나 이상의 프로세서는 입자 분포 함수에 기초하여 차량과 적어도 하나의 대상체의 TTC를 결정한다. TTC가 문턱 시간보다 작다고 결정한 것에 응답하여, 하나 이상의 프로세서는 차량과 적어도 하나의 대상체의 충돌을 피하기 위해 차량의 제어 회로에 충돌 경고를 송신한다.
다른 양태에서, 차량의 하나 이상의 프로세서는 차량의 하나 이상의 센서로부터 센서 데이터를 수신한다. 센서 데이터는 레이턴시(latency)를 갖는다. 레이턴시가 문턱 레이턴시보다 작다고 결정한 것에 응답하여, 하나 이상의 프로세서는 센서 데이터에 대해 순환 중복 검사를 실행한다. 센서 데이터가 순환 중복 검사를 통과했다고 결정한 것에 응답하여, 하나 이상의 프로세서는 센서 데이터에 기초하여 하나 이상의 센서의 역 센서 모델(inverse sensor model)을 사용하여 동적 점유 격자의 각각의 격자 셀에 대한 이산 이진 점유 확률을 결정한다. 점유 확률은 차량이 동작하고 있는 환경의 일부분이 대상체에 의해 점유되는지 여부를 표현한다. 하나 이상의 프로세서는 운동 함수(kinetic function)를 사용하여 점유 확률에 기초하여 입자 밀도 함수를 결정한다. 입자 밀도 함수가 차량과 대상체 사이의 TTC가 문턱 TTC보다 작다는 것을 표현한다고 결정한 것에 응답하여, 하나 이상의 프로세서는 감속 요청을 차량의 제어 회로에 송신한다.
다른 양태에서, 환경에서 동작하는 차량의 하나 이상의 프로세서는 차량의 LIDAR로부터 수신된 제1 LIDAR 데이터에 기초하여 DOG를 생성한다. 하나 이상의 프로세서에 의해 실행되는 입자 필터(particle filter)는 DOG로부터 파형을 추출한다. 파형은 LiDAR의 광의 위상에 따른 LiDAR 데이터의 강도(intensity)의 변동을 포함한다. 하나 이상의 프로세서는 제1 LiDAR 데이터가 하나 이상의 대상체 중 특정 대상체로부터 반사되었는지 식별하기 위해 파형을 하나 이상의 대상체로부터 반사된 이력적 LiDAR 데이터로부터 추출된 파형들의 라이브러리와 매칭한다. 하나 이상의 프로세서는 제1 LiDAR 데이터가 수신된 후에 차량의 LiDAR로부터 수신된 제2 LiDAR 데이터에 기초하여 파형을 업데이트한다. 하나 이상의 프로세서는 업데이트된 파형에 기초하여 차량과 특정 대상체의 거리 변화율(range rate)을 결정한다. 차량의 제어 회로는 차량과 특정 대상체의 거리 변화율에 기초하여 특정 대상체와의 충돌을 피하도록 차량을 동작시킨다.
이들 및 다른 양태, 특징, 및 구현예는 기능을 수행하기 위한 방법, 장치, 시스템, 컴포넌트, 프로그램 제품, 수단 또는 단계로서, 및 다른 방식으로 표현될 수 있다.
이들 및 다른 양태, 특징, 및 구현은 청구항을 포함하여, 이하의 설명으로부터 명백해질 것이다.
도 1은 하나 이상의 실시예에 따른, 자율주행 능력(autonomous capability)을 갖는 자율주행 차량(AV)의 예를 예시하는 블록 다이어그램이다.
도 2는 하나 이상의 실시예에 따른, 예시적인 "클라우드" 컴퓨팅 환경을 예시하는 블록 다이어그램이다.
도 3은 하나 이상의 실시예에 따른, 컴퓨터 시스템을 예시하는 블록 다이어그램이다.
도 4는 하나 이상의 실시예에 따른, AV에 대한 예시적인 아키텍처를 예시하는 블록 다이어그램이다.
도 5는 하나 이상의 실시예에 따른, 인지 모듈에 의해 사용될 수 있는 입력 및 출력의 예를 예시하는 블록 다이어그램이다.
도 6은 하나 이상의 실시예에 따른, LiDAR 시스템의 예를 예시하는 블록 다이어그램이다.
도 7은 하나 이상의 실시예에 따른, 동작 중인 LiDAR 시스템을 예시하는 블록 다이어그램이다.
도 8은 하나 이상의 실시예에 따른, LiDAR 시스템의 동작을 추가적으로 상세히 예시하는 블록 다이어그램이다.
도 9는 하나 이상의 실시예에 따른, 계획 모듈의 입력과 출력 사이의 관계를 예시하는 블록 다이어그램이다.
도 10은 하나 이상의 실시예에 따른, 경로 계획에서 사용되는 방향 그래프(directed graph)를 예시한다.
도 11은 하나 이상의 실시예에 따른, 제어 모듈의 입력과 출력의 블록 다이어그램을 예시하는 블록 다이어그램이다.
도 12는 하나 이상의 실시예에 따른, 제어기의 입력, 출력, 및 컴포넌트를 예시하는 블록 다이어그램이다.
도 13은 하나 이상의 실시예에 따른, 입자가 특정 셀 내의 대상체 또는 비점유 공간(free space)을 표현하는, 자율주행 차량의 환경의 이산화된 표현을 예시하는 블록 다이어그램이다.
도 14a는 하나 이상의 실시예에 따른 운전가능 구역을 예시한다.
도 14b는 하나 이상의 실시예에 따른, 동적 점유 그래프를 예시하는 블록 다이어그램이다.
도 15는 하나 이상의 실시예에 따른, 보행자를 표현하는 동적 점유 격자(DOG) 파형을 예시한다.
도 16은 하나 이상의 실시예에 따른, 차량을 표현하는 DOG 파형을 예시한다.
도 17은 하나 이상의 실시예에 따른, 차량의 동작을 위한 프로세스를 예시하는 흐름 다이어그램이다.
도 18은 하나 이상의 실시예에 따른, 차량의 동작을 위한 프로세스를 예시하는 흐름 다이어그램이다.
도 19는 하나 이상의 실시예에 따른, 차량의 동작을 위한 프로세스를 예시하는 흐름 다이어그램이다.
도 20은 하나 이상의 실시예에 따른, 차량의 동작을 위한 프로세스를 예시하는 흐름 다이어그램이다.
도 2는 하나 이상의 실시예에 따른, 예시적인 "클라우드" 컴퓨팅 환경을 예시하는 블록 다이어그램이다.
도 3은 하나 이상의 실시예에 따른, 컴퓨터 시스템을 예시하는 블록 다이어그램이다.
도 4는 하나 이상의 실시예에 따른, AV에 대한 예시적인 아키텍처를 예시하는 블록 다이어그램이다.
도 5는 하나 이상의 실시예에 따른, 인지 모듈에 의해 사용될 수 있는 입력 및 출력의 예를 예시하는 블록 다이어그램이다.
도 6은 하나 이상의 실시예에 따른, LiDAR 시스템의 예를 예시하는 블록 다이어그램이다.
도 7은 하나 이상의 실시예에 따른, 동작 중인 LiDAR 시스템을 예시하는 블록 다이어그램이다.
도 8은 하나 이상의 실시예에 따른, LiDAR 시스템의 동작을 추가적으로 상세히 예시하는 블록 다이어그램이다.
도 9는 하나 이상의 실시예에 따른, 계획 모듈의 입력과 출력 사이의 관계를 예시하는 블록 다이어그램이다.
도 10은 하나 이상의 실시예에 따른, 경로 계획에서 사용되는 방향 그래프(directed graph)를 예시한다.
도 11은 하나 이상의 실시예에 따른, 제어 모듈의 입력과 출력의 블록 다이어그램을 예시하는 블록 다이어그램이다.
도 12는 하나 이상의 실시예에 따른, 제어기의 입력, 출력, 및 컴포넌트를 예시하는 블록 다이어그램이다.
도 13은 하나 이상의 실시예에 따른, 입자가 특정 셀 내의 대상체 또는 비점유 공간(free space)을 표현하는, 자율주행 차량의 환경의 이산화된 표현을 예시하는 블록 다이어그램이다.
도 14a는 하나 이상의 실시예에 따른 운전가능 구역을 예시한다.
도 14b는 하나 이상의 실시예에 따른, 동적 점유 그래프를 예시하는 블록 다이어그램이다.
도 15는 하나 이상의 실시예에 따른, 보행자를 표현하는 동적 점유 격자(DOG) 파형을 예시한다.
도 16은 하나 이상의 실시예에 따른, 차량을 표현하는 DOG 파형을 예시한다.
도 17은 하나 이상의 실시예에 따른, 차량의 동작을 위한 프로세스를 예시하는 흐름 다이어그램이다.
도 18은 하나 이상의 실시예에 따른, 차량의 동작을 위한 프로세스를 예시하는 흐름 다이어그램이다.
도 19는 하나 이상의 실시예에 따른, 차량의 동작을 위한 프로세스를 예시하는 흐름 다이어그램이다.
도 20은 하나 이상의 실시예에 따른, 차량의 동작을 위한 프로세스를 예시하는 흐름 다이어그램이다.
이하의 설명에서는, 설명 목적으로, 본 발명에 대한 완전한 이해를 제공하기 위해 다수의 특정 세부 사항이 기재되어 있다. 그렇지만, 본 발명이 이러한 특정 세부 사항 없이 실시될 수 있음이 명백할 것이다. 다른 경우에, 공지된 구조 및 디바이스는 본 발명을 불필요하게 모호하게 하는 것을 피하기 위하여 블록 다이어그램 형태로 도시된다.
도면에서, 설명의 용이성을 위해, 디바이스, 모듈, 명령어 블록 및 데이터 요소를 표현하는 것과 같은 개략적 요소의 특정 배열 또는 순서가 도시되어 있다. 그렇지만, 본 기술 분야의 통상의 기술자라면, 도면에서의 개략적 요소의 특정 순서 또는 배열이 프로세싱의 특정 순서 또는 시퀀스, 또는 프로세스의 분리가 요구됨을 암시하는 것으로 의미되지 않는다는 점을 이해할 것이다. 게다가, 도면에 개략적 요소를 포함시키는 것은, 그러한 요소가 모든 실시예에서 요구됨을 암시하는 것으로 의미되지 않거나, 또는 그러한 요소에 의해 표현된 특징이 일 실시예에서 포함되지 않을 수 있거나 다른 요소와 조합되지 않을 수 있음을 암시하는 것으로 의미되지 않는다.
게다가, 도면에서, 2개 이상의 다른 개략적 요소 사이의 연결, 관계 또는 연관을 예시하기 위해 실선 또는 파선 또는 화살표와 같은 연결 요소가 사용되는 경우에, 임의의 그러한 연결 요소의 부재는 연결, 관계 또는 연관이 존재할 수 없음을 암시하는 것으로 의미되지 않는다. 환언하면, 요소들 사이의 일부 연결, 관계 또는 연관은 본 개시를 모호하게 하지 않기 위해 도면에 도시되어 있지 않다. 추가적으로, 예시의 용이성을 위해, 요소들 사이의 다수의 연결, 관계 또는 연관을 표현하기 위해 단일의 연결 요소가 사용된다. 예를 들어, 연결 요소가 신호, 데이터 또는 명령어의 통신을 표현하는 경우에, 본 기술 분야의 통상의 기술자라면 그러한 요소가, 통신을 수행하기 위해 필요할 수 있는, 하나 또는 다수의 신호 경로(예를 들면, 버스)를 표현한다는 것을 이해할 것이다.
그 예가 첨부된 도면에 예시되어 있는 실시예가 이제 상세하게 언급될 것이다. 이하의 상세한 설명에서, 다양한 기술된 실시예에 대한 완전한 이해를 제공하기 위해 많은 특정 세부 사항이 기재된다. 그렇지만, 다양한 기술된 실시예가 이러한 특정 세부 사항 없이 실시될 수 있다는 것이 본 기술 분야의 통상의 기술자에게 명백할 것이다. 다른 경우에, 실시예의 양태를 불필요하게 모호하게 하지 않기 위해 공지된 방법, 절차, 컴포넌트, 회로, 및 네트워크는 상세히 기술되지 않았다.
각각이 서로 독립적으로 또는 다른 특징들의 임의의 조합과 함께 사용될 수 있는 여러 특징이 이하에서 기술된다. 그렇지만, 임의의 개별 특징은 위에서 논의된 문제들 중 어떤 것도 해결할 수 없거나 또는 위에서 논의된 문제들 중 하나만을 해결할 수 있다. 위에서 논의된 문제들 중 일부가 본원에 기술된 특징들 중 임의의 것에 의해 완전히 해결되지는 않을 수 있다. 비록 여러 표제가 제공되어 있더라도, 특정 표제에 관련되지만 해당 표제를 갖는 섹션에서 발견되지는 않는 정보가 본 설명의 다른 곳에서 발견될 수도 있다. 실시예는 이하의 개요에 따라 본원에 기술된다:
1. 일반적 개관
2. 시스템 개관
3. 자율주행 차량 아키텍처
4. 자율주행 차량 입력
5. 자율주행 차량 계획
6. 자율주행 차량 제어
7. 동적 점유 격자(DOG)를 사용하는 자율주행 차량 동작
8. DOG를 사용하는 자율주행 차량 동작을 위한 프로세스
일반적 개관
본 문서는 동적 점유 격자(DOG)를 사용하여 자율주행 차량(AV)을 동작시키기 위한 방법, 시스템 및 장치를 제시한다. DOG는 AV의 환경에 있는 대상체 및 비점유 공간의 특성을 표현한 것이다. AV의 환경은 DOG라고 지칭되는 격자 또는 메시로서 표현된다. DOG는 일련의 연속 격자 셀 또는 격자 큐브로 분할되는 2차원(2D) 표면 또는 3차원(3D) 체적이다. 각각의 격자 셀 또는 격자 큐브는 고유 식별자를 할당받고 AV의 환경의 공간 인덱싱을 위해 사용된다. 공간 인덱싱이란 기하학적 공간, 예를 들어, AV의 환경에 정의된 대상체를 표현하는 데이터 구조에 데이터를 저장하고 질의하는 것을 말한다. 필드 이론 기반 유체 역학에서 유체가 모델링되는 방식과 유사하게, AV의 환경에 있는 하나 이상의 대상체 및 비점유 공간이 DOG에서 입자들의 집합체로서 모델링된다. 입자는 대상체 및 비점유 공간의 표현으로서 인스턴스화된다. 입자는 DOG에 걸쳐 시변 입자 밀도 함수를 업데이트하는 것에 의해 추적되고, 업데이트된 입자 밀도 함수는 격자 셀 또는 격자 큐브의 점유 확률을 결정하는 데 사용된다. AV는 격자 셀 또는 격자 큐브의 점유 확률에 따라 동작된다. 예를 들어, AV는 DOG에서 모델링된 대상체와 관련하여 충돌 소요 시간(TTC)을 결정하고 충돌을 피하기 위한 기동을 수행할 수 있다.
기술된 실시예를 사용하여 대상체 및 비점유 공간을 추적하는 것의 이점과 장점은, 개별 격자 셀을 추적하는 전통적인 방법과 비교하여, 감소된 계산 복잡도로 더 높은 분해능으로 대상체를 추적하는 것을 포함한다. 예를 들어, 기술된 시변 입자 밀도 함수를 추적하는 것이 감소된 계산 부담으로 수행될 수 있는데 그 이유는 DOG의 주어진 격자 셀 내의 개별 입자를 고려할 필요가 없기 때문이다. 비점유 공간에 대해 입자가 정의되고 추적될 수 있기 때문에, 개시된 실시예는 비점유 공간을 추적하는 것을 가능하게 하고, 이는 AV의 운행 능력을 개선시킨다. 더욱이, 대상체의 속도와 힘을 기술하는 파라미터의 선택을 통해, 대응하는 입자 밀도 함수를 분석하는 것에 의해 폐색되거나 부분적으로 보이는 대상체가 추적될 수 있다.
시스템 개관
도 1은 하나 이상의 실시예에 따른, 자율주행 능력을 갖는 자율주행 차량(100)의 예를 예시하는 블록 다이어그램이다.
본원에서 사용되는 바와 같이, "자율주행 능력"이라는 용어는, 완전한 자율주행 차량, 고도의 자율주행 차량, 및 조건부 자율주행 차량을 제한 없이 포함하는, 실시간 인간 개입 없이 차량이 부분적으로 또는 완전하게 동작할 수 있게 하는 기능, 특징, 또는 설비를 지칭한다.
본원에서 사용되는 바와 같이, 자율주행 차량(AV)은 자율주행 능력을 갖는 차량이다.
본원에서 사용되는 바와 같이, "차량"은 상품 또는 사람의 운송 수단을 포함한다. 예를 들어, 자동차, 버스, 기차, 비행기, 드론, 트럭, 보트, 선박, 잠수함, 비행선 등. 무인 자동차는 차량의 예이다.
본원에서 사용되는 바와 같이, "궤적"은 제1 시공간적 위치로부터 제2 시공간적 위치로 AV를 동작시키는 경로 또는 루트를 지칭한다. 일 실시예에서, 제1 시공간적 위치는 초기 또는 시작 위치라고 지칭되고 제2 시공간적 위치는 목적지, 최종 위치, 목표, 목표 위치, 또는 목표 장소라고 지칭된다. 일부 예에서, 궤적은 하나 이상의 세그먼트(예를 들면, 도로의 섹션)로 구성되고, 각각의 세그먼트는 하나 이상의 블록(예를 들면, 차선 또는 교차로의 부분)으로 구성된다. 일 실시예에서, 시공간적 위치는 현실 세계 위치에 대응한다. 예를 들어, 시공간적 위치는 사람을 태우거나 내려주고 또는 상품을 싣거나 내리는 픽업(pick up) 위치 또는 드롭 오프(drop-off) 위치이다.
본원에서 사용되는 바와 같이, "센서(들)"는 센서를 둘러싸는 환경에 관한 정보를 검출하는 하나 이상의 하드웨어 컴포넌트를 포함한다. 하드웨어 컴포넌트들 중 일부는 감지 컴포넌트(예를 들면, 이미지 센서, 생체 측정 센서), 송신 및/또는 수신 컴포넌트(예를 들면, 레이저 또는 무선 주파수 파 송신기 및 수신기), 아날로그 대 디지털 변환기와 같은 전자 컴포넌트, 데이터 저장 디바이스(예컨대, RAM 및/또는 비휘발성 스토리지), 소프트웨어 또는 펌웨어 컴포넌트, 및 ASIC(application-specific integrated circuit), 마이크로프로세서 및/또는 마이크로컨트롤러와 같은 데이터 프로세싱 컴포넌트를 포함할 수 있다.
본원에서 사용되는 바와 같이, "장면 묘사(scene description)"는 AV 차량 상의 하나 이상의 센서에 의해 검출되거나 AV 외부의 소스에 의해 제공되는 하나 이상의 분류된 또는 레이블링된 대상체를 포함하는 데이터 구조(예를 들면, 리스트) 또는 데이터 스트림이다.
본원에서 사용되는 바와 같이, "도로"는 차량에 의해 횡단될 수 있는 물리적 영역이고, 명명된 주요 도로(예를 들면, 도시 거리, 주간 프리웨이(interstate freeway) 등)에 대응할 수 있거나, 또는 명명되지 않은 주요 도로(예를 들면, 주택 또는 사무실 건물에서의 사유 도로, 주차장 섹션, 공터 섹션, 시골 지역의 비포장 경로 등)에 대응할 수 있다. 일부 차량(예를 들면, 4륜 구동 픽업 트럭, 스포츠 유틸리티 차량 등)은 차량 주행에 특히 적합하지 않은 다양한 물리적 영역을 횡단할 수 있기 때문에, "도로"는 임의의 지자체 또는 다른 정부 또는 행정처에 의해 주요 도로로서 공식적으로 규정되지 않은 물리적 영역일 수 있다.
본원에서 사용되는 바와 같이, "차선"은 차량에 의해 횡단될 수 있는 도로의 한 부분이고, 차선 마킹들 사이의 공간의 대부분 또는 전부에 대응할 수 있거나, 또는 차선 마킹들 사이의 공간의 단지 일부(예를 들면, 50% 미만)에 대응할 수 있다. 예를 들어, 멀리 이격된 차선 마킹을 갖는 도로는 차선 마킹들 사이에 둘 이상의 차량을 수용할 수 있어서, 하나의 차량이 차선 마킹을 횡단하지 않으면서 다른 차량을 추월할 수 있고, 따라서 차선 마킹들 사이의 공간보다 더 좁은 차선을 갖거나 차선 마킹들 사이에 2개의 차선을 갖는 것으로 해석될 수 있다. 차선은 차선 마킹의 부재 시에도 해석될 수 있다. 예를 들어, 차선은 환경의 물리적 특징, 예를 들어, 시골 지역에서의 주요 도로를 따라 있는 바위 및 나무에 기초하여 규정될 수 있다.
"하나 이상"은 하나의 요소에 의해 수행되는 기능, 하나보다 많은 요소에 의해, 예를 들어, 분산 방식으로, 수행되는 기능, 하나의 요소에 의해 수행되는 여러 기능, 여러 요소에 의해 수행되는 여러 기능, 또는 이들의 임의의 조합을 포함한다.
또한, 제1, 제2 등의 용어가, 일부 예에서, 다양한 요소를 기술하기 위해 본원에서 사용되고 있지만, 이러한 요소가 이러한 용어에 의해 제한되지 않아야 한다는 것이 이해될 것이다. 이러한 용어는 하나의 요소를 다른 요소와 구별하는 데만 사용된다. 예를 들어, 기술된 다양한 실시예의 범위를 벗어나지 않으면서, 제1 접촉은 제2 접촉이라고 지칭될 수 있고, 유사하게 제2 접촉은 제1 접촉이라고 지칭될 수 있다. 제1 접촉과 제2 접촉 둘 모두가 접촉이지만, 동일한 접촉은 아니다.
본원에 기술된 다양한 실시예의 설명에서 사용된 용어는 단지 특정한 실시예를 기술하기 위한 것이며, 제한하는 것으로 의도되지 않는다. 기술된 다양한 실시예 및 첨부된 청구항의 설명에서 사용되는 바와 같이, 단수형은, 문맥이 달리 명확히 표시하지 않는 한, 복수형을 포함하는 것으로 의도되어 있다. "및/또는"이라는 용어가, 본원에서 사용되는 바와 같이, 연관된 열거된 항목들 중 하나 이상의 항목의 일부 및 모든 가능한 조합을 지칭하고 포함한다는 것이 또한 이해될 것이다. 게다가, "포함한다" 및/또는 "포함하는"이라는 용어는 본 설명에서 사용될 때, 언급된 특징, 정수, 단계, 동작, 요소, 및/또는 컴포넌트의 존재를 명시하지만, 하나 이상의 다른 특징, 정수, 단계, 동작, 요소, 컴포넌트, 및/또는 그의 그룹의 존재 또는 추가를 배제하지 않는다는 것도 이해될 것이다.
본원에서 사용되는 바와 같이, "~ 경우"라는 용어는, 선택적으로, 문맥에 따라 "~할 때", 또는 "~시에" 또는 "~라고 결정한 것에 응답하여" 또는 "~을 검출한 것에 응답하여"를 의미하는 것으로 해석된다. 마찬가지로, 문구 "~라고 결정되는 경우" 또는 "[언급된 조건 또는 이벤트]가 검출되는 경우"는, 선택적으로, 문맥에 따라, "~라고 결정할 시에" 또는 "~라고 결정한 것에 응답하여" 또는 "[언급된 조건 또는 이벤트]를 검출할 시에" 또는 "[언급된 조건 또는 이벤트]를 검출한 것에 응답하여"를 의미하는 것으로 해석된다.
본원에서 사용되는 바와 같이, AV 시스템은 AV의 동작을 지원하는 하드웨어, 소프트웨어, 저장된 데이터 및 실시간으로 생성되는 데이터의 어레이와 함께 AV를 지칭한다. 일 실시예에서, AV 시스템은 AV 내에 포함된다. 일 실시예에서, AV 시스템은 여러 위치에 걸쳐 확산되어 있다. 예를 들어, AV 시스템의 소프트웨어 중 일부는 도 3과 관련하여 아래에서 기술되는 클라우드 컴퓨팅 환경(300)과 유사한 클라우드 컴퓨팅 환경 상에 구현된다.
일반적으로, 본원은 완전한 자율주행 차량, 고도의 자율주행 차량, 및 조건부 자율주행 차량, 예를 들어, 각각 소위 레벨 5 차량, 레벨 4 차량 및 레벨 3 차량을 포함하는 하나 이상의 자율주행 능력을 갖는 임의의 차량에 적용 가능한 기술을 개시한다(차량의 자율성의 레벨 분류에 대한 세부 사항은 본원에 그 전체가 참조로 포함된, SAE 국제 표준 J3016: 온로드 자동차 자동 운전 시스템에 관한 용어의 분류 및 정의(Taxonomy and Definitions for Terms Related to On-128-172020-02-28 Road Motor Vehicle Automated Driving Systems) 참조). 또한, 본원에서 개시된 기술은 부분적 자율주행 차량 및 운전자 보조 차량, 예컨대, 소위 레벨 2 및 레벨 1 차량에도 적용 가능하다(SAE 국제 표준 J3016: 온로드 자동차 자동 운전 시스템에 관한 용어의 분류 및 정의 참조). 일 실시예에서, 레벨 1, 레벨 2, 레벨 3, 레벨 4 및 레벨 5 차량 시스템 중 하나 이상은 센서 입력의 프로세싱에 기초하여 특정의 동작 조건 하에서 특정의 차량 동작(예를 들면, 조향, 제동, 및 맵 사용)을 자동화할 수 있다. 본 문서에서 설명된 기술은, 완전한 자율주행 차량으로부터 인간 운전 차량에 이르는, 임의의 레벨에 있는 차량에 혜택을 줄 수 있다.
도 1을 참조하면, AV 시스템(120)은, 대상체(예를 들면, 자연 장애물(191), 차량(193), 보행자(192), 자전거 타는 사람, 및 다른 장애물)을 피하고 도로 법규(예를 들면, 동작 규칙 또는 운전 선호사항)를 준수하면서, AV(100)를 궤적(198)을 따라 환경(190)을 통해 목적지(199)(때때로 최종 위치라고 지칭됨)로 동작시킨다.
일 실시예에서, AV 시스템(120)은 컴퓨터 프로세서(146)로부터 동작 커맨드를 수신하고 이에 따라 동작하도록 설비된 디바이스(101)를 포함한다. 일 실시예에서, 컴퓨팅 프로세서(146)는 도 3을 참조하여 아래에서 기술되는 프로세서(304)와 유사하다. 디바이스(101)의 예는 조향 컨트롤(102), 브레이크(103), 기어, 가속기 페달 또는 다른 가속 제어 메커니즘, 윈드실드 와이퍼, 사이드 도어 락, 윈도 컨트롤, 및 방향 지시등을 포함한다.
일 실시예에서, AV 시스템(120)은, AV의 위치, 선속도 및 선가속도, 각속도 및 각가속도, 및 헤딩(heading)(예를 들면, AV(100)의 선단의 배향)과 같은, AV(100)의 상태 또는 조건의 속성을 측정 또는 추론하기 위한 센서(121)를 포함한다. 센서(121)의 예는 GNSS, 차량 선가속도 및 각도 변화율(angular rate) 둘 모두를 측정하는 IMU(inertial measurement unit), 휠 슬립률(wheel slip ratio)을 측정 또는 추정하기 위한 휠 센서, 휠 브레이크 압력 또는 제동 토크 센서, 엔진 토크 또는 휠 토크 센서, 그리고 조향각 및 각도 변화율 센서이다.
일 실시예에서, 센서(121)는 AV의 환경의 속성을 감지 또는 측정하기 위한 센서를 또한 포함한다. 예를 들어, 가시광, 적외선 또는 열(또는 둘 모두) 스펙트럼의 단안 또는 스테레오 비디오 카메라(122), LiDAR(123), RADAR, 초음파 센서, 비행 시간(time-of-flight, TOF) 깊이 센서, 속력 센서, 온도 센서, 습도 센서, 및 강수 센서.
일 실시예에서, AV 시스템(120)은 컴퓨터 프로세서(146)와 연관된 머신 명령어 또는 센서(121)에 의해 수집된 데이터를 저장하기 위한 데이터 저장 유닛(142) 및 메모리(144)를 포함한다. 일 실시예에서, 데이터 저장 유닛(142)은 도 3과 관련하여 아래에서 기술되는 ROM(308) 또는 저장 디바이스(310)와 유사하다. 일 실시예에서, 메모리(144)는 아래에서 기술되는 메인 메모리(306)와 유사하다. 일 실시예에서, 데이터 저장 유닛(142) 및 메모리(144)는 환경(190)에 관한 이력적 정보, 실시간 정보, 및/또는 예측 정보를 저장한다. 일 실시예에서, 저장된 정보는 맵, 운전 성능, 교통 혼잡 업데이트 또는 기상 조건을 포함한다. 일 실시예에서, 환경(190)에 관한 데이터는 원격에 위치된 데이터베이스(134)로부터 통신 채널을 통해 AV(100)로 송신된다.
일 실시예에서, AV 시스템(120)은 다른 차량의 상태 및 조건, 예컨대, 위치, 선속도와 각속도, 선가속도와 각가속도, 및 AV(100)를 향한 선형 헤딩(linear heading)과 각도 헤딩(angular heading)의 측정된 또는 추론된 속성을 통신하기 위한 통신 디바이스(140)를 포함한다. 이러한 디바이스는 V2V(Vehicle-to-Vehicle) 및 V2I(Vehicle-to-Infrastructure) 통신 디바이스 및 포인트-투-포인트(point-to-point) 또는 애드혹(ad hoc) 네트워크 또는 둘 모두를 통한 무선 통신을 위한 디바이스를 포함한다. 일 실시예에서, 통신 디바이스(140)는 (무선 및 광학 통신을 포함하는) 전자기 스펙트럼 또는 다른 매체(예를 들면, 공기 및 음향 매체)를 통해 통신한다. V2V(Vehicle-to-Vehicle), V2I(Vehicle-to-Infrastructure) 통신(및 일 실시예에서 하나 이상의 다른 유형의 통신)의 조합이 때때로 V2X(Vehicle-to-Everything) 통신이라고 지칭된다. V2X 통신은 전형적으로, 자율주행 차량과의 통신 및 자율주행 차량들 사이의 통신을 위한 하나 이상의 통신 표준을 준수한다.
일 실시예에서, 통신 디바이스(140)는 통신 인터페이스를 포함한다. 예를 들어, 유선, 무선, WiMAX, Wi-Fi, 블루투스, 위성, 셀룰러, 광학, 근거리, 적외선, 또는 무선 인터페이스(radio interface). 통신 인터페이스는 원격에 위치된 데이터베이스(134)로부터 AV 시스템(120)으로 데이터를 송신한다. 일 실시예에서, 원격에 위치된 데이터베이스(134)는 도 2에 기술된 바와 같은 클라우드 컴퓨팅 환경(200)에 내장된다. 통신 인터페이스(140)는 센서(121)로부터 수집된 데이터 또는 AV(100)의 동작에 관련된 다른 데이터를 원격에 위치된 데이터베이스(134)로 송신한다. 일 실시예에서, 통신 인터페이스(140)는 원격 운용(teleoperation)에 관련되는 정보를 AV(100)로 송신한다. 일 실시예에서, AV(100)는 다른 원격(예를 들어, "클라우드") 서버(136)와 통신한다.
일 실시예에서, 원격에 위치된 데이터베이스(134)는 또한 디지털 데이터를 저장 및 송신한다(예를 들면, 도로 및 거리 위치와 같은 데이터를 저장함). 그러한 데이터는 AV(100) 상의 메모리(144)에 저장되거나, 원격에 위치된 데이터베이스(134)로부터 통신 채널을 통해 AV(100)로 송신된다.
일 실시예에서, 원격에 위치된 데이터베이스(134)는 유사한 하루 중 시간(time of day)에 궤적(198)을 따라 이전에 주행한 차량의 운전 속성(예를 들면, 속력 프로파일 및 가속도 프로파일)에 관한 이력적 정보를 저장 및 송신한다. 일 구현예에서, 그러한 데이터는 AV(100) 상의 메모리(144)에 저장될 수 있거나, 원격에 위치된 데이터베이스(134)로부터 통신 채널을 통해 AV(100)로 송신될 수 있다.
AV(100) 상에 위치된 컴퓨팅 디바이스(146)는 실시간 센서 데이터 및 사전 정보(prior information) 둘 모두에 기초한 제어 액션을 알고리즘적으로 생성하여, AV 시스템(120)이 자율주행 운전 능력을 실행할 수 있게 한다.
일 실시예에서, AV 시스템(120)은 AV(100)의 사용자(예를 들면, 탑승자 또는 원격 사용자)에게 정보 및 경고를 제공하고 그로부터 입력을 수신하기 위해 컴퓨팅 디바이스(146)에 결합된 컴퓨터 주변기기(132)를 포함한다. 일 실시예에서, 주변기기(132)는 도 3을 참조하여 아래에서 논의되는 디스플레이(312), 입력 디바이스(314), 및 커서 컨트롤러(316)와 유사하다. 결합은 무선 또는 유선이다. 인터페이스 디바이스들 중 임의의 둘 이상이 단일 디바이스에 통합될 수 있다.
예시적인 클라우드 컴퓨팅 환경
도 2는 하나 이상의 실시예에 따른, 예시적인 "클라우드" 컴퓨팅 환경을 예시하는 블록 다이어그램이다. 클라우드 컴퓨팅은 구성 가능한 컴퓨팅 리소스(예를 들면, 네트워크, 네트워크 대역폭, 서버, 프로세싱, 메모리, 스토리지, 애플리케이션, 가상 머신, 및 서비스)의 공유 풀에 대한 편리한 온 디맨드 네트워크 액세스를 가능하게 하기 위한 서비스 전달(service delivery)의 일 모델이다. 전형적인 클라우드 컴퓨팅 시스템에서는, 하나 이상의 대규모 클라우드 데이터 센터가 클라우드에 의해 제공되는 서비스를 전달하는 데 사용되는 머신을 수용한다. 이제 도 2를 참조하면, 클라우드 컴퓨팅 환경(200)은 클라우드(202)를 통해 상호연결되는 클라우드 데이터 센터(204a, 204b, 및 204c)를 포함한다. 데이터 센터(204a, 204b, 및 204c)는 클라우드 컴퓨팅 서비스를 클라우드(202)에 연결된 컴퓨터 시스템(206a, 206b, 206c, 206d, 206e, 및 206f)에 제공한다.
클라우드 컴퓨팅 환경(200)은 하나 이상의 클라우드 데이터 센터를 포함한다. 일반적으로, 클라우드 데이터 센터, 예를 들어, 도 2에 도시된 클라우드 데이터 센터(204a)는 클라우드, 예를 들어, 도 2에 도시된 클라우드(202) 또는 클라우드의 특정 부분을 구성하는 서버들의 물리적 배열체를 지칭한다. 예를 들어, 서버는 클라우드 데이터 센터에서 룸(room), 그룹, 로우(row), 및 랙(rack)으로 물리적으로 배열된다. 클라우드 데이터 센터는 하나 이상의 서버 룸을 포함하는 하나 이상의 구역(zone)을 갖는다. 각각의 룸은 하나 이상의 서버 로우를 가지며, 각각의 로우는 하나 이상의 랙을 포함한다. 각각의 랙은 하나 이상의 개별 서버 노드를 포함한다. 일부 구현예에서, 구역, 룸, 랙, 및/또는 로우 내의 서버는, 전력 요구사항, 에너지 요구사항, 열적 요구사항, 발열 요구사항, 및/또는 다른 요구사항을 포함하는, 데이터 센터 설비의 물리적 인프라스트럭처 요구사항에 기초하여 그룹으로 배열된다. 일 실시예에서, 서버 노드는 도 3에서 기술된 컴퓨터 시스템과 유사하다. 데이터 센터(204a)는 다수의 랙을 통해 분산된 다수의 컴퓨팅 시스템을 갖는다.
클라우드(202)는 클라우드 데이터 센터(204a, 204b, 및 204c)를 상호연결시키고 클라우드 컴퓨팅 서비스에 대한 컴퓨팅 시스템(206a 내지 206f)의 액세스를 용이하게 하는 데 도움을 주는 네트워크 및 네트워킹 리소스(예를 들어, 네트워킹 장비, 노드, 라우터, 스위치, 및 네트워킹 케이블)와 함께 클라우드 데이터 센터(204a, 204b, 및 204c)를 포함한다. 일 실시예에서, 네트워크는 지상 또는 위성 연결을 사용하여 배포된 유선 또는 무선 링크를 사용하여 결합된 하나 이상의 로컬 네트워크, 광역 네트워크, 또는 인터네트워크의 임의의 조합을 표현한다. 네트워크를 통해 교환되는 데이터는, IP(Internet Protocol), MPLS(Multiprotocol Label Switching), ATM(Asynchronous Transfer Mode), 및 프레임 릴레이 등과 같은, 임의의 개수의 네트워크 계층 프로토콜을 사용하여 전송된다. 게다가, 네트워크가 다수의 서브 네트워크의 조합을 표현하는 실시예에서는, 기저 서브 네트워크(underlying sub-network) 각각에서 상이한 네트워크 계층 프로토콜이 사용된다. 일 실시예에서, 네트워크는 공중 인터넷과 같은 하나 이상의 상호연결된 인터네트워크를 표현한다.
컴퓨팅 시스템(206a 내지 206f) 또는 클라우드 컴퓨팅 서비스 소비자는 네트워크 링크 및 네트워크 어댑터를 통해 클라우드(202)에 연결된다. 일 실시예에서, 컴퓨팅 시스템(206a 내지 206f)은 다양한 컴퓨팅 디바이스, 예를 들어, 서버, 데스크톱, 랩톱, 태블릿, 스마트폰, IoT(Internet of Things) 디바이스, 자율주행 차량(자동차, 드론, 셔틀, 기차, 버스 등을 포함함) 및 소비자 전자기기로서 구현된다. 일 실시예에서, 컴퓨팅 시스템(206a 내지 206f)은 다른 시스템 내에 또는 그 일부로서 구현된다.
컴퓨터 시스템
도 3은 하나 이상의 실시예에 따른, 컴퓨터 시스템(300)을 예시하는 블록 다이어그램이다. 일 구현예에서, 컴퓨터 시스템(300)은 특수 목적 컴퓨팅 디바이스이다. 특수 목적 컴퓨팅 디바이스는 기술을 수행하도록 고정-배선(hard-wired)되거나, 기술을 수행하도록 지속적으로 프로그래밍되는 하나 이상의 ASIC(application-specific integrated circuit) 또는 FPGA(field programmable gate array)와 같은 디지털 전자 디바이스를 포함하거나, 펌웨어, 메모리, 다른 스토리지 또는 이들의 조합 내의 프로그램 명령어에 따라 기술을 수행하도록 프로그래밍되는 하나 이상의 범용 하드웨어 프로세서를 포함할 수 있다. 그러한 특수 목적 컴퓨팅 디바이스는 또한 커스텀 고정 배선 로직, ASIC, 또는 FPGA를 커스텀 프로그래밍과 조합하여 기술을 실현할 수 있다. 다양한 실시예에서, 특수 목적 컴퓨팅 디바이스는 기술을 구현하기 위한 고정 배선 및/또는 프로그램 로직을 포함하는 데스크톱 컴퓨터 시스템, 휴대용 컴퓨터 시스템, 핸드헬드 디바이스, 네트워크 디바이스, 또는 임의의 다른 디바이스이다.
일 실시예에서, 컴퓨터 시스템(300)은 정보를 통신하기 위한 버스(302) 또는 다른 통신 메커니즘, 및 정보를 프로세싱하기 위한, 버스(302)와 결합된 하드웨어 프로세서(304)를 포함한다. 하드웨어 프로세서(304)는, 예를 들어, 범용 마이크로프로세서이다. 컴퓨터 시스템(300)은 프로세서(304)에 의해 실행될 명령어 및 정보를 저장하기 위한, 버스(302)에 결합된 메인 메모리(306), 예컨대, RAM(random access memory) 또는 다른 동적 저장 디바이스를 또한 포함한다. 일 구현예에서, 메인 메모리(306)는 프로세서(304)에 의해 실행될 명령어의 실행 동안 임시 변수 또는 다른 중간 정보를 저장하는 데 사용된다. 그러한 명령어는, 프로세서(304)에 의해 액세스 가능한 비일시적 저장 매체에 저장되어 있을 때, 컴퓨터 시스템(300)을 명령어에 명시된 동작을 수행하도록 커스터마이징된 특수 목적 머신으로 만든다.
일 실시예에서, 컴퓨터 시스템(300)은, 프로세서(304)에 대한 정적 정보 및 명령어를 저장하기 위한, 버스(302)에 결합된 ROM(read only memory)(308) 또는 다른 정적 저장 디바이스를 더 포함한다. 정보 및 명령어를 저장하기 위한, 자기 디스크, 광학 디스크, 솔리드 스테이트 드라이브, 또는 3차원 크로스 포인트 메모리와 같은, 저장 디바이스(310)가 제공되고 버스(302)에 결합된다.
일 실시예에서, 컴퓨터 시스템(300)은 정보를 컴퓨터 사용자에게 디스플레이하기 위한 CRT(cathode ray tube), LCD(liquid crystal display), 플라스마 디스플레이, LED(light emitting diode) 디스플레이, 또는 OLED(organic light emitting diode) 디스플레이와 같은 디스플레이(312)에 버스(302)를 통해 결합된다. 정보 및 커맨드 선택을 프로세서(304)로 통신하기 위한 문자 숫자식 키 및 다른 키를 포함하는 입력 디바이스(314)가 버스(302)에 결합된다. 다른 유형의 사용자 입력 디바이스는 방향 정보 및 커맨드 선택을 프로세서(304)로 통신하고 디스플레이(312) 상에서의 커서 움직임을 제어하기 위한, 마우스, 트랙볼, 터치식 디스플레이, 또는 커서 방향 키와 같은, 커서 컨트롤러(316)이다. 이러한 입력 디바이스는 전형적으로, 디바이스가 평면에서의 위치를 명시할 수 있게 하는 2개의 축, 즉 제1 축(예를 들면, x 축) 및 제2 축(예를 들면, y 축)에서의 2 자유도를 갖는다.
일 실시예에 따르면, 본원에서의 기술은 프로세서(304)가 메인 메모리(306)에 포함된 하나 이상의 명령어의 하나 이상의 시퀀스를 실행한 것에 응답하여 컴퓨터 시스템(300)에 의해 수행된다. 그러한 명령어는, 저장 디바이스(310)와 같은, 다른 저장 매체로부터 메인 메모리(306) 내로 판독된다. 메인 메모리(306)에 포함된 명령어 시퀀스의 실행은 프로세서(304)로 하여금 본원에서 기술된 프로세스 단계를 수행하게 한다. 대안적인 실시예에서, 소프트웨어 명령어 대신에 또는 소프트웨어 명령어와 조합하여 고정 배선 회로가 사용된다.
"저장 매체"라는 용어는, 본원에서 사용되는 바와 같이, 머신으로 하여금 특정 방식으로 동작하게 하는 데이터 및/또는 명령어를 저장하는 임의의 비일시적 매체를 지칭한다. 그러한 저장 매체는 비휘발성 매체 및/또는 휘발성 매체를 포함한다. 비휘발성 매체는, 예를 들어, 광학 디스크, 자기 디스크, 솔리드 스테이트 드라이브, 또는 3차원 크로스 포인트 메모리, 예컨대, 저장 디바이스(310)를 포함한다. 휘발성 매체는 동적 메모리, 예컨대, 메인 메모리(306)를 포함한다. 저장 매체의 일반적인 형태는, 예를 들어, 플로피 디스크, 플렉서블 디스크, 하드 디스크, 솔리드 스테이트 드라이브, 자기 테이프, 또는 임의의 다른 자기 데이터 저장 매체, CD-ROM, 임의의 다른 광학 데이터 저장 매체, 홀 패턴을 갖는 임의의 물리적 매체, RAM, PROM, 및 EPROM, FLASH-EPROM, NV-RAM, 또는 임의의 다른 메모리 칩, 또는 카트리지를 포함한다.
저장 매체는 송신 매체와 별개이지만 송신 매체와 함께 사용될 수 있다. 송신 매체는 저장 매체들 사이에서 정보를 전달하는 데 참여한다. 예를 들어, 송신 매체는 버스(302)를 포함하는 와이어를 포함하여, 동축 케이블, 구리 와이어 및 광섬유를 포함한다. 송신 매체는 또한, 전파(radio-wave) 및 적외선 데이터 통신 동안 생성되는 것과 같은, 광파 또는 음향파의 형태를 취할 수 있다.
일 실시예에서, 실행을 위해 하나 이상의 명령어의 하나 이상의 시퀀스를 프로세서(304)로 반송하는 데 다양한 형태의 매체가 관여된다. 예를 들어, 명령어는 초기에 원격 컴퓨터의 자기 디스크 또는 솔리드 스테이트 드라이브에 보유된다. 원격 컴퓨터는 자체 동적 메모리에 명령어를 로딩하고 모뎀을 사용하여 전화선을 통해 명령어를 전송한다. 컴퓨터 시스템(300)에 로컬인 모뎀은 전화선을 통해 데이터를 수신하고 적외선 송신기를 사용하여 데이터를 적외선 신호로 변환한다. 적외선 검출기는 적외선 신호로 반송되는 데이터를 수신하고 적절한 회로는 데이터를 버스(302)에 올려 놓는다. 버스(302)는 데이터를 메인 메모리(306)로 반송하고, 프로세서(304)는 메인 메모리로부터 명령어를 리트리브(retrieve)하고 실행한다. 메인 메모리(306)에 의해 수신된 명령어는 프로세서(304)에 의해 실행되기 전이나 실행된 후에 선택적으로 저장 디바이스(310)에 저장될 수 있다.
컴퓨터 시스템(300)은 버스(302)에 결합된 통신 인터페이스(318)를 또한 포함한다. 통신 인터페이스(318)는 로컬 네트워크(322)에 연결된 네트워크 링크(320)에 대한 양방향 데이터 통신(two-way data communication) 결합을 제공한다. 예를 들어, 통신 인터페이스(318)는 ISDN(integrated service digital network) 카드, 케이블 모뎀, 위성 모뎀, 또는 대응하는 유형의 전화선에 대한 데이터 통신 연결을 제공하기 위한 모뎀이다. 다른 예로서, 통신 인터페이스(318)는 호환 가능한 LAN(local area network)에 대한 데이터 통신 연결을 제공하기 위한 LAN 카드이다. 일부 구현예에서는, 무선 링크도 구현된다. 임의의 그러한 구현예에서, 통신 인터페이스(318)는 다양한 유형의 정보를 표현하는 디지털 데이터 스트림을 반송하는 전기 신호, 전자기 신호, 또는 광학 신호를 전송 및 수신한다.
네트워크 링크(320)는 전형적으로 하나 이상의 네트워크를 통한 다른 데이터 디바이스로의 데이터 통신을 제공한다. 예를 들어, 네트워크 링크(320)는 로컬 네트워크(322)를 통해 호스트 컴퓨터(324)에 대한 연결 또는 ISP(Internet Service Provider)(326)에 의해 운영되는 클라우드 데이터 센터 또는 장비에 대한 연결을 제공한다. ISP(326)는 차례로 지금은 "인터넷(328)"이라고 통상적으로 지칭되는 월드 와이드 패킷 데이터 통신 네트워크(world-wide packet data communication network)를 통해 데이터 통신 서비스를 제공한다. 로컬 네트워크(322) 및 인터넷(328) 둘 모두는 디지털 데이터 스트림을 반송하는 전기 신호, 전자기 신호, 또는 광학 신호를 사용한다. 컴퓨터 시스템(300)으로 및 컴퓨터 시스템(300)으로부터 디지털 데이터를 반송하는, 다양한 네트워크를 통한 신호 및 통신 인터페이스(318)를 통한 네트워크 링크(320) 상의 신호는 송신 매체의 예시적인 형태이다. 일 실시예에서, 네트워크(320)는 위에서 기술된 클라우드(202) 또는 클라우드(202)의 일부를 포함한다.
컴퓨터 시스템(300)은 네트워크(들), 네트워크 링크(320), 및 통신 인터페이스(318)를 통해, 프로그램 코드를 포함하여, 메시지를 전송하고 데이터를 수신한다. 일 실시예에서, 컴퓨터 시스템(300)은 프로세싱하기 위한 코드를 수신한다. 수신된 코드는 수신될 때 프로세서(304)에 의해 실행되고/되거나 추후의 실행을 위해 저장 디바이스(310) 또는 다른 비휘발성 스토리지에 저장된다.
자율주행 차량 아키텍처
도 4는 하나 이상의 실시예에 따른, 자율주행 차량(예를 들면, 도 1에 도시된 AV(100))에 대한 예시적인 아키텍처(400)를 예시하는 블록 다이어그램이다. 아키텍처(400)는 인지 모듈(402)(때때로 인지 회로라고 지칭됨), 계획 모듈(404)(때때로 계획 회로라고 지칭됨), 제어 모듈(406)(때때로 제어 회로라고 지칭됨), 로컬화 모듈(408)(때때로 로컬화 회로라고 지칭됨), 및 데이터베이스 모듈(410)(때때로 데이터베이스 회로라고 지칭됨)을 포함한다. 각각의 모듈은 AV(100)의 동작에서 소정의 역할을 한다. 다함께, 모듈(402, 404, 406, 408, 및 410)은 도 1에 도시된 AV 시스템(120)의 일부일 수 있다. 일 실시예에서, 모듈(402, 404, 406, 408, 및 410) 중 임의의 모듈은 컴퓨터 소프트웨어(예를 들면, 컴퓨터 판독 가능 매체 상에 저장된 실행 가능한 코드) 및 컴퓨터 하드웨어(예를 들면, 하나 이상의 마이크로프로세서, 마이크로컨트롤러, ASIC(application-specific integrated circuit), 하드웨어 메모리 디바이스, 다른 유형의 집적 회로, 다른 유형의 컴퓨터 하드웨어, 또는 이러한 것 중 임의의 것 또는 모든 것의 조합)의 조합이다.
사용 중에, 계획 모듈(404)은 목적지(412)를 표현하는 데이터를 수신하고 목적지(412)에 도달하기 위해(예를 들면, 도착하기 위해) AV(100)에 의해 주행될 수 있는 궤적(414)(때때로 루트라고 지칭됨)을 표현하는 데이터를 결정한다. 계획 모듈(404)이 궤적(414)을 표현하는 데이터를 결정하기 위해, 계획 모듈(404)은 인지 모듈(402), 로컬화 모듈(408), 및 데이터베이스 모듈(410)로부터 데이터를 수신한다.
인지 모듈(402)은, 예를 들면, 도 1에도 도시된 바와 같이, 하나 이상의 센서(121)를 사용하여 인근의 물리적 대상체를 식별한다. 대상체는 분류되고(예를 들면, 보행자, 자전거, 자동차, 교통 표지판 등과 같은 유형으로 그룹화되고), 분류된 대상체(416)를 포함하는 장면 묘사는 계획 모듈(404)에 제공된다.
계획 모듈(404)은 또한 AV 위치(418)를 표현하는 데이터를 로컬화 모듈(408)로부터 수신한다. 로컬화 모듈(408)은 위치를 계산하기 위해 센서(121)로부터의 데이터 및 데이터베이스 모듈(410)로부터의 데이터(예를 들면, 지리적 데이터)를 사용하여 AV 위치를 결정한다. 예를 들어, 로컬화 모듈(408)은 글로벌 내비게이션 위성 시스템(GNSS) 유닛으로부터의 데이터 및 지리적 데이터를 사용하여 AV의 경도 및 위도를 계산한다. 일 실시예에서, 로컬화 모듈(408)에 의해 사용되는 데이터는 도로 기하학적 속성의 고정밀 맵, 도로망 연결 속성을 기술하는 맵, 도로 물리적 속성(예컨대, 교통 속력, 교통량, 차량 교통 차선과 자전거 타는 사람 교통 차선의 개수, 차선 폭, 차선 교통 방향, 또는 차선 마커 유형 및 위치, 또는 그 조합)을 기술하는 맵, 및 도로 특징부, 예컨대, 횡단보도, 교통 표지판 또는 다양한 유형의 다른 주행 신호(travel signal)의 공간적 위치를 기술하는 맵을 포함한다.
제어 모듈(406)은 궤적(414)을 표현하는 데이터 및 AV 위치(418)를 표현하는 데이터를 수신하고, AV(100)로 하여금 목적지(412)를 향해 궤적(414)을 주행하게 할 방식으로 AV의 제어 기능(420a 내지 420c)(예를 들면, 조향, 스로틀링, 제동, 점화)을 동작시킨다. 예를 들어, 궤적(414)이 좌회전을 포함하는 경우, 제어 모듈(406)은, 조향 기능의 조향각이 AV(100)로 하여금 왼쪽으로 회전하게 하고 스로틀링 및 제동이 AV(100)로 하여금 이러한 회전이 이루어지기 전에 지나가는 보행자 또는 차량을 위해 일시정지 및 대기하게 하는 방식으로, 제어 기능(420a 내지 420c)을 동작시킬 것이다.
자율주행 차량 입력
도 5는 하나 이상의 실시예에 따른, 인지 모듈(402)(도 4)에 의해 사용되는 입력(502a 내지 502d)(예를 들면, 도 1에 도시된 센서(121)) 및 출력(504a 내지 504d)(예를 들면, 센서 데이터)의 예를 예시하는 블록 다이어그램이다. 하나의 입력(502a)은 LiDAR(Light Detection and Ranging) 시스템(예를 들면, 도 1에 도시된 LiDAR(123))이다. LiDAR는 그의 가시선에 있는 물리적 대상체에 관한 데이터를 획득하기 위해 광(예를 들면, 적외선 광과 같은 광의 버스트)을 사용하는 기술이다. LiDAR 시스템은 출력(504a)으로서 LiDAR 데이터를 생성한다. 예를 들어, LiDAR 데이터는 환경(190)의 표현을 구성하는 데 사용되는 3D 또는 2D 포인트(포인트 클라우드라고도 알려져 있음)의 집합체이다.
다른 입력(502b)은 RADAR 시스템이다. RADAR는 인근의 물리적 대상체에 관한 데이터를 획득하기 위해 전파를 사용하는 기술이다. RADAR는 LiDAR 시스템의 가시선 내에 있지 않은 대상체에 관한 데이터를 획득할 수 있다. RADAR 시스템(502b)은 출력(504b)으로서 RADAR 데이터를 생성한다. 예를 들어, RADAR 데이터는 환경(190)의 표현을 구성하는 데 사용되는 하나 이상의 무선 주파수 전자기 신호이다.
다른 입력(502c)은 카메라 시스템이다. 카메라 시스템은 인근의 물리적 대상체에 관한 정보를 획득하기 위해 하나 이상의 카메라(예를 들면, CCD(charge-coupled device)와 같은 광 센서를 사용하는 디지털 카메라)를 사용한다. 카메라 시스템은 출력(504c)으로서 카메라 데이터를 생성한다. 카메라 데이터는 종종 이미지 데이터(예를 들면, RAW, JPEG, PNG 등과 같은 이미지 데이터 포맷의 데이터)의 형태를 취한다. 일부 예에서, 카메라 시스템은, 카메라 시스템이 깊이를 인지할 수 있게 하는, 예를 들면, 입체시(stereopsis)(스테레오 비전)를 위한, 다수의 독립적인 카메라를 갖는다. 비록 카메라 시스템에 의해 인지되는 대상체가 여기서 "인근"으로 기술되지만, 이것은 AV를 기준으로 한 것이다. 사용 중에, 카메라 시스템은 멀리 있는, 예를 들어, AV 전방으로 최대 1 킬로미터 이상에 있는 대상체를 "보도록" 구성될 수 있다. 따라서, 카메라 시스템은 멀리 떨어져 있는 대상체를 인지하도록 최적화되어 있는 센서 및 렌즈와 같은 특징부를 가질 수 있다.
다른 입력(502d)은 TLD(traffic light detection) 시스템이다. TLD 시스템은 하나 이상의 카메라를 사용하여, 시각적 운행 정보를 제공하는 교통 신호등, 거리 표지판, 및 다른 물리적 대상체에 관한 정보를 획득한다. TLD 시스템은 출력(504d)으로서 TLD 데이터를 생성한다. TLD 데이터는 종종 이미지 데이터(예를 들면, RAW, JPEG, PNG 등과 같은 이미지 데이터 포맷의 데이터)의 형태를 취한다. TLD 시스템은, 시각적 운행 정보를 제공하는 가능한 한 많은 물리적 대상체에 관한 정보를 획득하기 위해 TLD 시스템이 넓은 시야를 갖는 카메라(예를 들면, 광각 렌즈 또는 어안 렌즈를 사용함)를 사용하여, AV(100)가 이러한 대상체에 의해 제공되는 모든 관련 운행 정보에 액세스한다는 점에서, 카메라를 포함하는 시스템과 상이하다. 예를 들어, TLD 시스템의 시야각은 약 120도 이상일 수 있다.
일 실시예에서, 출력(504a 내지 504d)은 센서 융합 기술을 사용하여 조합된다. 따라서, 개별 출력(504a 내지 504d) 중 어느 하나가 AV(100)의 다른 시스템에 제공되거나(예를 들면, 도 4에 도시된 바와 같은 계획 모듈(404)에 제공되거나), 또는 결합된 출력이 동일한 유형(동일한 결합 기술을 사용하는 것 또는 동일한 출력들을 결합시키는 것 또는 둘 모두)의 단일 결합 출력 또는 다중 결합 출력의 형태 또는 상이한 유형(예를 들면, 상이한 각자의 결합 기술을 사용하는 것 또는 상이한 각자의 출력들을 결합시키는 것 또는 둘 모두)의 단일 결합 출력 또는 다중 결합 출력의 형태 중 어느 하나로 다른 시스템에 제공될 수 있다. 일 실시예에서, 조기 융합(early fusion) 기술이 사용된다. 조기 융합 기술은 하나 이상의 데이터 프로세싱 단계가 결합된 출력에 적용되기 전에 출력들을 결합시키는 것을 특징으로 한다. 일부 실시예에서, 늦은 융합(late fusion) 기술이 사용된다. 늦은 융합 기술은 하나 이상의 데이터 프로세싱 단계가 개별 출력들에 적용된 후에 출력들을 결합시키는 것을 특징으로 한다.
도 6은 하나 이상의 실시예에 따른, LiDAR 시스템(602)(예를 들면, 도 5에 도시된 입력(502a))의 예를 예시하는 블록 다이어그램이다. LiDAR 시스템(602)은 광 방출기(606)(예를 들면, 레이저 송신기)로부터 광(604a 내지 604c)을 방출한다. LiDAR 시스템에 의해 방출되는 광은 전형적으로 가시 스펙트럼에 있지 않으며; 예를 들어, 적외선 광이 종종 사용된다. 방출되는 광(604b)의 일부는 물리적 대상체(608)(예를 들면, 차량)와 조우하고, LiDAR 시스템(602)으로 다시 반사된다. (LiDAR 시스템으로부터 방출되는 광은 전형적으로 물리적 대상체, 예를 들면, 고체 형태의 물리적 대상체를 관통하지 않는다). LiDAR 시스템(602)은 또한 반사된 광을 검출하는 하나 이상의 광 검출기(610)를 갖는다. 일 실시예에서, LiDAR 시스템과 연관된 하나 이상의 데이터 프로세싱 시스템은 LiDAR 시스템의 시야(614)를 표현하는 이미지(612)를 생성한다. 이미지(612)는 물리적 대상체(608)의 경계(616)를 표현하는 정보를 포함한다. 이러한 방식으로, 이미지(612)는 AV 인근의 하나 이상의 물리적 대상체의 경계(616)를 결정하는 데 사용된다.
도 7은 하나 이상의 실시예에 따른, 동작 중인 LiDAR 시스템(602)을 예시하는 블록 다이어그램이다. 이 도면에 도시된 시나리오에서, AV(100)는 이미지(702) 형태의 카메라 시스템 출력(504c) 및 LiDAR 데이터 포인트(704) 형태의 LiDAR 시스템 출력(504a) 둘 모두를 수신한다. 사용 중에, AV(100)의 데이터 프로세싱 시스템은 이미지(702)를 데이터 포인트(704)와 비교한다. 특히, 이미지(702)에서 식별된 물리적 대상체(706)가 데이터 포인트(704) 중에서도 식별된다. 이러한 방식으로, AV(100)는 데이터 포인트(704)의 윤곽 및 밀도에 기초하여 물리적 대상체의 경계를 인지한다.
도 8은 하나 이상의 실시예에 따른, LiDAR 시스템(602)의 동작을 추가적으로 상세히 예시하는 블록 다이어그램이다. 위에서 기술된 바와 같이, AV(100)는 LiDAR 시스템(602)에 의해 검출되는 데이터 포인트의 특성에 기초하여 물리적 대상체의 경계를 검출한다. 도 8에 도시된 바와 같이, 지면(802)과 같은 평평한 대상체는 LiDAR 시스템(602)으로부터 방출되는 광(804a 내지 804d)을 일관된 방식으로 반사할 것이다. 달리 말하면, LiDAR 시스템(602)이 일관된 간격을 사용하여 광을 방출하기 때문에, 지면(802)은 광을 동일한 일관된 간격으로 LiDAR 시스템(602)으로 다시 반사할 것이다. AV(100)가 지면(802) 위를 주행함에 따라, LiDAR 시스템(602)은 도로를 방해하는 것이 아무 것도 없는 경우 다음 유효 지면 포인트(806)에 의해 반사되는 광을 계속 검출할 것이다. 그렇지만, 대상체(808)가 도로를 방해하는 경우, LiDAR 시스템(602)에 의해 방출되는 광(804e 및 804f)은 예상되는 일관된 방식과 부합하지 않는 방식으로 포인트(810a 및 810b)로부터 반사될 것이다. 이 정보로부터, AV(100)는 대상체(808)가 존재한다고 결정할 수 있다.
경로 계획
도 9는 하나 이상의 실시예에 따른, (예를 들면, 도 4에 도시된 바와 같은) 계획 모듈(404)의 입력과 출력 사이의 관계를 예시하는 블록 다이어그램(900)이다. 일반적으로, 계획 모듈(404)의 출력은 시작 포인트(904)(예를 들면, 소스 위치 또는 초기 위치)로부터 종료 포인트(906)(예를 들면, 목적지 또는 최종 위치)까지의 루트(902)이다. 루트(902)는 전형적으로 하나 이상의 세그먼트에 의해 정의된다. 예를 들어, 세그먼트는 거리, 도로, 간선도로, 사유 도로, 또는 자동차 주행에 적절한 다른 물리적 영역의 적어도 일부분에 걸쳐 주행되는 거리이다. 일부 예에서, 예를 들어, AV(100)가 4륜 구동(4WD) 또는 상시 4륜구동(AWD) 자동차, SUV, 픽업 트럭 등과 같은 오프-로드 주행 가능 차량인 경우, 루트(902)는 비포장 경로 또는 탁트인 들판과 같은 "오프-로드" 세그먼트를 포함한다.
루트(902)에 추가하여, 계획 모듈은 차선 레벨 루트 계획 데이터(908)도 출력한다. 차선 레벨 루트 계획 데이터(908)는 특정 시간에서의 세그먼트의 조건에 기초하여 루트(902)의 세그먼트를 횡단하는 데 사용된다. 예를 들어, 루트(902)가 다중 차선 간선도로를 포함하는 경우, 차선 레벨 루트 계획 데이터(908)는, 예를 들어, 출구가 다가오고 있는지, 차선 중 하나 이상이 다른 차량을 갖는지, 또는 수 분 이하 동안에 걸쳐 변화되는 다른 인자에 기초하여, AV(100)가 다중 차선 중 한 차선을 선택하는 데 사용할 수 있는 궤적 계획 데이터(910)를 포함한다. 유사하게, 일부 구현예에서, 차선 레벨 루트 계획 데이터(908)는 루트(902)의 세그먼트에 특정적인 속력 제약(912)을 포함한다. 예를 들어, 세그먼트가 보행자 또는 예상치 못한 교통상황(traffic)을 포함하는 경우, 속력 제약(912)은 AV(100)를 예상된 속력보다 더 느린 주행 속력, 예를 들면, 세그먼트에 대한 속력 제한 데이터에 기초한 속력으로 제한할 수 있다.
일 실시예에서, 계획 모듈(404)에의 입력은 (예를 들면, 도 4에 도시된 데이터베이스 모듈(410)로부터의) 데이터베이스 데이터(914), 현재 위치 데이터(916)(예를 들면, 도 4에 도시된 AV 위치(418)), (예를 들면, 도 4에 도시된 목적지(412)에 대한) 목적지 데이터(918), 및 대상체 데이터(920)(예를 들면, 도 4에 도시된 인지 모듈(402)에 의해 인지되는 분류된 대상체(416))를 포함한다. 일 실시예에서, 데이터베이스 데이터(914)는 계획에 사용되는 규칙을 포함한다. 규칙은 형식 언어를 사용하여, 예를 들면, 불리언 논리를 사용하여 명시된다. AV(100)가 조우하는 임의의 주어진 상황에서, 규칙들 중 적어도 일부는 해당 상황에 적용될 것이다. 규칙이 AV(100)에 이용 가능한 정보, 예를 들면, 주위 환경에 관한 정보에 기초하여 충족되는 조건을 갖는 경우, 규칙이 주어진 상황에 적용된다. 규칙은 우선순위를 가질 수 있다. 예를 들어, "도로가 프리웨이인 경우, 최좌측 차선으로 이동하라"로 되어 있는 규칙은, 출구가 1마일 내로 다가오고 있는 경우, 최우측 차선으로 이동하라"는 것보다 낮은 우선순위를 가질 수 있다.
도 10은 하나 이상의 실시예에 따른, 예를 들어, 계획 모듈(404)(도 4)에 의해 경로 계획에 사용되는 방향 그래프(1000)를 예시한다. 일반적으로, 도 10에 도시된 것과 같은 방향 그래프(1000)는 임의의 시작 포인트(1002)와 종료 포인트(1004) 사이의 경로를 결정하는 데 사용된다. 현실 세계에서는, 시작 포인트(1002)와 종료 포인트(1004)를 분리시키는 거리는 상대적으로 클 수 있거나(예를 들면, 2개의 상이한 대도시 지역에 있음) 또는 상대적으로 작을 수 있다(예를 들면, 도시 블록과 접해 있는 2개의 교차로 또는 다중 차선 도로의 2개의 차선).
일 실시예에서, 방향 그래프(1000)는 AV(100)에 의해 점유될 수 있는 시작 포인트(1002)와 종료 포인트(1004) 사이의 상이한 위치를 표현하는 노드(1006a 내지 1006d)를 갖는다. 일부 예에서, 예를 들면, 시작 포인트(1002)와 종료 포인트(1004)가 상이한 대도시 지역을 표현할 때, 노드(1006a 내지 1006d)는 도로의 세그먼트를 표현한다. 일부 예에서, 예를 들면, 시작 포인트(1002)와 종료 포인트(1004)가 동일한 도로 상의 상이한 위치를 표현할 때, 노드(1006a 내지 1006d)는 해당 도로 상의 상이한 위치를 표현한다. 이러한 방식으로, 방향 그래프(1000)는 다양한 입도 레벨로 정보를 포함한다. 일 실시예에서, 높은 입도를 갖는 방향 그래프는 또한 더 큰 스케일을 갖는 다른 방향 그래프의 서브그래프(subgraph)이다. 예를 들어, 시작 포인트(1002)와 종료 포인트(1004)가 멀리 떨어져 있는(예를 들면, 수 마일 떨어져 있는) 방향 그래프는 그의 정보 대부분이 낮은 입도이고 저장된 데이터에 기초하지만, AV(100)의 시야 내의 물리적 위치를 표현하는 그래프의 부분에 대한 일부 높은 입도 정보도 포함한다.
노드(1006a 내지 1006d)는 노드와 중첩될 수 없는 대상체(1008a 및 1008b)와 별개이다. 일 실시예에서, 입도가 낮을 때, 대상체(1008a 및 1008b)는 자동차에 의해 횡단될 수 없는 영역, 예를 들면, 거리 또는 도로가 없는 구역을 표현한다. 입도가 높을 때, 대상체(1008a 및 1008b)는 AV(100)의 시야 내의 물리적 대상체, 예를 들면, 다른 자동차, 보행자, 또는 AV(100)와 물리적 공간을 공유할 수 없는 다른 엔티티를 표현한다. 일 실시예에서, 대상체(1008a 및 1008b)의 일부 또는 전부는 정적 대상체(예를 들면, 가로등 또는 전신주와 같은 위치를 변경하지 않는 대상체) 또는 동적 대상체(예를 들면, 보행자 또는 다른 자동차와 같은 위치를 변경할 수 있는 대상체)이다.
노드(1006a 내지 1006d)는 에지(1010a 내지 1010c)에 의해 연결된다. 2개의 노드(1006a 및 1006b)가 에지(1010a)에 의해 연결되는 경우, AV(100)가, 예를 들면, 다른 노드(1006b)에 도착하기 전에 중간 노드로 주행할 필요 없이, 하나의 노드(1006a)와 다른 노드(1006b) 사이에서 주행하는 것이 가능하다. (노드들 사이에서 주행하는 AV(100)를 언급할 때, AV(100)가 각자의 노드에 의해 표현된 2개의 물리적 위치 사이에서 주행한다는 것을 의미한다.) 에지(1010a 내지 1010c)는, AV(100)가 제1 노드로부터 제2 노드로, 또는 제2 노드로부터 제1 노드로 주행한다는 의미에서 종종 양방향성이다. 일 실시예에서, 에지(1010a 내지 1010c)는, AV(100)가 제1 노드로부터 제2 노드로 주행할 수 있지만, AV(100)가 제2 노드로부터 제1 노드로 주행할 수 없다는 의미에서 단방향성이다. 에지(1010a 내지 1010c)는, 예를 들어, 일방통행로, 거리, 도로, 또는 간선도로의 개별 차선, 또는 법적 또는 물리적 제약으로 인해 일 방향으로만 횡단될 수 있는 다른 특징부를 표현할 때, 단방향성이다.
일 실시예에서, 계획 모듈(404)은 방향 그래프(1000)를 사용하여 시작 포인트(1002)와 종료 포인트(1004) 사이의 노드 및 에지로 구성된 경로(1012)를 식별한다.
에지(1010a 내지 1010c)는 연관된 비용(1014a 및 1014b)을 갖는다. 비용(1014a 및 1014b)은 AV(100)가 해당 에지를 선택하는 경우 소비될 리소스를 표현하는 값이다. 전형적인 리소스는 시간이다. 예를 들어, 하나의 에지(1010a)가 다른 에지(1010b)의 물리적 거리의 2배인 물리적 거리를 표현하는 경우, 제1 에지(1010a)의 연관된 비용(1014a)은 제2 에지(1010b)의 연관된 비용(1014b)의 2배일 수 있다. 시간에 영향을 미치는 다른 인자는 예상된 교통, 교차로들의 개수, 속력 제한 등을 포함한다. 다른 전형적인 리소스는 연비이다. 2개의 에지(1010a 및 1010b)는 동일한 물리적 거리를 표현할 수 있지만, 예를 들면, 도로 조건, 예상된 날씨 등으로 인해, 하나의 에지(1010a)는 다른 에지(1010b)보다 많은 연료를 필요로 할 수 있다.
계획 모듈(404)이 시작 포인트(1002)와 종료 포인트(1004) 사이의 경로(1012)를 식별할 때, 계획 모듈(404)은 전형적으로, 비용에 최적화된 경로, 예를 들면, 에지의 개별 비용이 함께 가산될 때 가장 적은 총 비용을 갖는 경로를 선택한다.
자율주행 차량 제어
도 11은 하나 이상의 실시예에 따른, (예를 들면, 도 4에 도시된 바와 같은) 제어 모듈(406)의 입력 및 출력을 예시하는 블록 다이어그램(1100)이다. 제어 모듈은, 예를 들어, 프로세서(304)와 유사한 하나 이상의 프로세서(예를 들면, 마이크로프로세서 또는 마이크로컨트롤러 또는 둘 모두와 같은 하나 이상의 컴퓨터 프로세서), 메인 메모리(306)와 유사한 단기 및/또는 장기 데이터 스토리지(예를 들면, 메모리 랜덤 액세스 메모리 또는 플래시 메모리 또는 둘 모두), ROM(1308), 및 저장 디바이스(210)를 포함하는 제어기(1102), 및 메모리 내에 저장된 명령어에 따라 동작하는데, 상기 명령어는 명령어가 (예를 들면, 하나 이상의 프로세서에 의해) 실행될 때 제어기(1102)의 동작을 수행한다.
일 실시예에서, 제어기(1102)는 원하는 출력(1104)을 표현하는 데이터를 수신한다. 원하는 출력(1104)은 전형적으로 속도, 예를 들면, 속력 및 헤딩을 포함한다. 원하는 출력(1104)은, 예를 들어, (예를 들면, 도 4에 도시된 바와 같은) 계획 모듈(404)로부터 수신된 데이터에 기초할 수 있다. 원하는 출력(1104)에 따라, 제어기(1102)는 스로틀 입력(1106) 및 조향 입력(1108)으로서 사용 가능한 데이터를 생성한다. 스로틀 입력(1106)은 원하는 출력(1104)을 달성하기 위해, 예를 들면, 조향 페달에 관여하거나 또는 다른 스로틀 제어에 관여함으로써, AV(100)의 스로틀(예를 들면, 가속 제어)에 관여하는 정도를 표현한다. 일부 예에서, 스로틀 입력(1106)은 AV(100)의 브레이크(예를 들면, 감속 제어)에 관여하는 데 사용 가능한 데이터를 또한 포함한다. 조향 입력(1108)은 조향각, 예를 들면, AV의 조향 컨트롤(예를 들면, 조향 휠, 조향각 액추에이터, 또는 조향각을 제어하기 위한 다른 기능성)이 원하는 출력(1104)을 달성하도록 위치결정되어야 하는 각도를 표현한다.
일 실시예에서, 제어기(1102)는 스로틀 및 조향에 제공되는 입력을 조정하는 데 사용되는 피드백을 수신한다. 예를 들어, AV(100)가 언덕과 같은 방해물(1110)과 조우하면, AV(100)의 측정된 속력(1112)은 원하는 출력 속력 아래로 낮아진다. 일 실시예에서, 예를 들어, 측정된 속력과 원하는 출력 사이의 차분(1113)에 기초하여, 필요한 조정이 수행되도록 임의의 측정된 출력(1114)이 제어기(1102)에 제공된다. 측정된 출력(1114)은 측정된 위치(1116), 측정된 속도(1118)(속력 및 헤딩을 포함함), 측정된 가속도(1120), 및 AV(100)의 센서에 의해 측정 가능한 다른 출력을 포함한다.
일 실시예에서, 방해물(1110)에 관한 정보는, 예를 들면, 카메라 또는 LiDAR 센서와 같은 센서에 의해 미리 검출되고, 예측 피드백 모듈(1122)에 제공된다. 이어서, 예측 피드백 모듈(1122)은 정보를 제어기(1102)에 제공하며, 제어기(1102)는 이 정보를 사용하여 그에 따라 조정할 수 있다. 예를 들어, AV(100)의 센서가 언덕을 검출한("본") 경우, 이 정보는 상당한 감속을 방지하도록 적절한 시간에 스로틀에 관여할 준비를 하기 위해 제어기(1102)에 의해 사용될 수 있다.
도 12는 하나 이상의 실시예에 따른, 제어기(1102)의 입력, 출력, 및 컴포넌트를 예시하는 블록 다이어그램(1200)이다. 제어기(1102)는 스로틀/브레이크 제어기(1204)의 동작에 영향을 미치는 속력 프로파일러(1202)를 갖는다. 예를 들어, 속력 프로파일러(1202)는, 예를 들면, 제어기(1102)에 의해 수신되고 속력 프로파일러(1202)에 의해 프로세싱되는 피드백에 따라 스로틀/브레이크(1206)를 사용하여 가속에 관여하거나 감속에 관여하도록 스로틀/브레이크 제어기(1204)에 지시한다.
제어기(1102)는 또한 조향 제어기(1210)의 동작에 영향을 미치는 측방향 추적 제어기(1208)를 갖는다. 예를 들어, 측방향 추적 제어기(1208)는, 예를 들면, 제어기(1102)에 의해 수신되고 측방향 추적 제어기(1208)에 의해 프로세싱되는 피드백에 따라 조향각 액추에이터(1212)의 위치를 조정하도록 조향 제어기(1204)에 지시한다.
제어기(1102)는 스로틀/브레이크(1206) 및 조향각 액추에이터(1212)를 제어하는 방법을 결정하는 데 사용되는 여러 입력을 수신한다. 계획 모듈(404)은, 예를 들어, AV(100)가 동작을 시작할 때 헤딩을 선택하기 위해 그리고 AV(100)가 교차로에 도달할 때 어느 도로 세그먼트를 횡단할지를 결정하기 위해, 제어기(1102)에 의해 사용되는 정보를 제공한다. 로컬화 모듈(408)은, 예를 들어, 스로틀/브레이크(1206) 및 조향각 액추에이터(1212)가 제어되고 있는 방식에 기초하여 예상되는 위치에 AV(100)가 있는지를 제어기(1102)가 결정할 수 있도록, AV(100)의 현재 위치를 기술하는 정보를 제어기(1102)에 제공한다. 일 실시예에서, 제어기(1102)는 다른 입력(1214)으로부터의 정보, 예를 들어, 데이터베이스, 컴퓨터 네트워크 등으로부터 수신된 정보를 수신한다.
동적 점유 격자 시스템
도 13은 AV(100)의 환경(190)의 이산화된 표현(1300)을 예시하는 블록 다이어그램이다. 환경(190) 및 AV(100)는 도 1을 참조하여 더 상세히 예시되고 기술된다. 이산화된 표현(1300)은 동적 점유 격자(DOG)(1300)라고 지칭된다. DOG(1300)에서, 하나 이상의 입자는 특정 격자 셀 또는 격자 큐브(1310)에 있는 대상체(608) 또는 비점유 공간을 표현한다. 대상체(608)는 도 6을 참조하여 더 상세히 예시되고 기술되어 있다. 예를 들어, 격자 셀 또는 격자 큐브(1305)는 (대상체에 의해 점유되지 않은) 비점유 공간을 표현할 수 있다.
DOG(1300)는 다수의 개별 격자 셀(1305, 1310)(DOG(1300)가 3차원(3D) 격자일 때 격자 큐브라고도 지칭됨)을 갖는 격자 맵을 포함한다. 각각의 격자 셀(1305, 1310)(격자 큐브)은 환경(190)의 단위 면적(또는 체적)을 표현한다. DOG(1300)는 AV(100)의 DOG 회로에 의해 생성되고, 업데이트되며 프로세싱된다. 일 실시예에서, DOG 회로는, 도 4를 참조하여 더 상세히 예시되고 기술된, 인지 모듈(402)의 일부이다. 다른 실시예에서, DOG 회로는 AV 스택과 독립적인 안전 시스템(때로는 RADAR 및 카메라 시스템이라고도 지칭됨)의 일부이다. AV 스택은 인지 모듈(402) 및 계획 모듈(404)을 포함하는 내비게이션 시스템을 지칭한다. 이 실시예에서, DOG 회로는 네비게이션 시스템과 독립적으로 충돌 예측을 수행한다. DOG 회로는 도 3을 참조하여 더 상세히 예시되고 기술되는 컴포넌트를 사용하여 구축된다.
일 실시예에서, DOG 회로는 그러한 개별 격자 셀(1305, 1310)의 점유 확률을 업데이트하도록 구성된다. 점유 확률은 분류된 대상체들(608) 중 하나 이상이 개별 격자 셀(1305, 1310)에 존재할 가능성을 표현한다. 대상체(608)는 자연 장애물(191), 차량(193), 보행자(192) 또는 다른 대상체일 수 있다. 자연 장애물(191), 차량(193) 및 보행자(192)는 도 1을 참조하여 더 상세히 예시되고 기술된다. 예를 들면, 새로운 센서 측정치를 대응하는 격자 셀(1305)에 대한 사후 확률(posterior probability)의 현재 추정치와 재귀적으로(recursively) 결합시키기 위해 베이지안 필터(Bayesian filter)를 사용하여, DOG(1300)에서의 각각의 격자 셀(1305)의 점유 상태가 계산될 수 있다. 예시적인 센서(121, 122, 123)가 도 1을 참조하여 더 상세히 예시되고 기술된다. 따라서 DOG(1300)가 시간에 따라 동적으로 업데이트된다. 이 방법은 환경(190)이 동적으로 변하고 있다고 가정하고, 환경(190)의 역학은 뉴턴 운동 모델(Newtonian motion model)에 의해 기술된다. 따라서, 이 방법은 점유뿐만 아니라, 예를 들어, 속도 또는 힘과 같은, 동적 모델의 파라미터도 추정한다.
DOG(1300)는 AV(100)의 환경(190)을 개별 격자 셀(1305, 1310)의 집합체로 분할하고, 개별 격자 셀(1305, 1310)의 점유 확률(P1)이 계산된다. 일부 구현예에서, 셀(1305, 1310)은 카테시안 격자(Cartesian grid), 극 좌표계, 구조화된 메시(structured mesh), 블록 구조화된 메시(block structured mesh), 또는 구조화되지 않은 메시(unstructured mesh)에 기초하여 시맨틱 맵(또는 운전 환경)을 분할하는 것에 의해 생성된다. 일부 구현예에서, 셀(1305, 1310)은, 예를 들면, 격자 셀(1305, 1310)이 삼각형, 사변형, 오각형, 육각형, 또는 임의의 다른 다각형 또는 2D 메시에 대한 다양한 다각형의 조합일 수 있는 구조화되지 않은 메시에 의해, 시맨틱 맵(또는 운전 환경)을 규칙적으로(regularly) 또는 불규칙적으로 샘플링하는 것에 의해 생성된다. 유사하게, 셀(1305)은 불규칙적인 사면체, 육면체, 또는 임의의 다른 폴리토프(polytope) 또는 3차원 메시에 대한 폴리토프의 조합일 수 있다.
구조화되지 않은 메시에서, 격자 셀들(1305, 1310) 사이의 관계는 셀(1305, 1310)이 공유할 수 있는 공통 정점에 의해 결정된다. 예를 들어, 2개의 정점 인덱스 세트 [a, b, c] 및 [b, c, e]로서 정의된 2개의 삼각형은 정점 b와 정점 c 사이의 선분(line segment)으로서 정의되는 공통 모서리(common edge)를 공유한다. 일부 구현예에서, 셀(1305, 1310)은 동적 점유 그래프에 의해 기술될 수 있으며, 여기서 각각의 셀(1305)은 노드에 대응하고 2개의 인접한 셀은 동적 점유 그래프 상의 에지에 의해 특성화된다. 예시적인 동적 점유 그래프(1400)가 도 14를 참조하여 더 상세히 예시되고 기술된다. 에지는 링크된 2개의 노드/셀 사이의 동적 상호작용(아래에서 기술됨)을 표현하는 값을 할당받을 수 있다. 각각의 격자 셀(1305)은 두 가지 상태 - 점유(occupied) 또는 비점유(free) - 중 하나에 있는 것으로 간주될 수 있다.
도 13을 참조하면, 주어진 셀(310)이 비어 있을 확률은 로 표기된다. 격자 셀(1305, 1310)의 상태는 센서 관측치에 기초하여 업데이트된다. 이것은, 예를 들어, 시간 t + 1에서의 측정치 zt+1에 기초하여 각각의 격자 셀에 이산 이진 점유 확률 을 할당하는 역 센서 모델(inverse sensor model)을 사용하여 행해질 수 있다. 격자 셀(1305, 1310)의 동적 상태는, 예를 들어, 필드 이론 기반 유체 역학에서 유체가 모델링되는 방식과 유사하게, 차량(193) 또는 보행자(192)와 같은 대상체(608)를 입자의 집합체로서 모델링하는 것에 의해 다루어질 수 있다. 입자라는 용어는, 본원에서 사용되는 바와 같이, 물질의 물리적 단위를 지칭하지 않는다. 오히려, 소프트웨어 컴포넌트들이 함께 AV(100)의 환경(190)에 있는 대상체(608)(예를 들면, 차량(193), 보행자(192) 등) 및 비점유 공간의 가상 표현을 형성하도록, 입자는 상호작용 소프트웨어 컴포넌트들의 세트를 표현한다. 일부 구현예에서, 각각의 소프트웨어 컴포넌트는 개념 객체(conceptual object)의 단위의 인스턴스화를 표현하는 데이터이다.
도 13을 또다시 참조하면, 격자 셀(1310)의 확대 삽입도는 격자 셀(1310)의 내용물을 표현하는 다수의 입자(1315)를 예시한다. 입자들(1315) 각각은 대응하는 입자(1315)의 상태를 표현하는 하나 이상의 파라미터와 연관될 수 있다. 예를 들어, 입자(1315)의 상태는 속도(X 방향, Y 방향, Z 방향 중 하나 이상을 따른 속도), 다수의 속도와 연관된 공분산(covariance), 및 입자(1315)에 작용하는 힘 중 하나 이상에 의해 표현될 수 있다. 그러한 파라미터는 입자(1315)의 다양한 동적 특성을 고려할 수 있다. 예를 들어, 힘 파라미터는 곡선 도로를 따른 역학 또는 가속 차량의 역학을 고려하는 것을 가능하게 한다.
그러한 필드 이론 기반 모델링에서, 특정 격자 셀(1310) 내의 입자(1315)의 개수 또는 특정 격자 셀(1310)에서의 입자 가중치의 합계는 대응하는 격자 셀(1310)의 점유 확률에 대한 척도를 표현할 수 있다. 본원에서 설명된 기술은 입자 밀도 함수의 통계치를 추적하는 것에 의해 셀(1305, 1310)의 점유 확률을 계산한다. 환언하면, 이 접근법에서의 격자 셀(1305, 1310)의 상태는 입자가 격자 셀들을 횡단할 때 입자의 결합 분포의 하나 이상의 파라미터에 의존한다. 오일러 솔버(Eulerian solver) 또는 라그랑지 솔버(Lagrangian solver)는 하나 이상의 센서(121, 122, 123)를 사용하여 획득되는 하나 이상의 입자 역학 파라미터에 대해 정의되는 미분 방정식의 해를 계산하는 것에 의해 시변 결합 분포를 결정하는 데 사용될 수 있다. 결과적인 업데이트된 입자 밀도 함수는 다양한 격자 셀의 점유 확률에 대한 예측을 생성하기 위해 대응하는 센서(121, 122, 123)와 연관된 순방향 센서 모델(forward sensor model)과 관련하여 사용된다.
위에서 기술된 바와 같이, 주어진 셀(1310)이 비어 있을 확률이 로서 표기된다. 추가적으로, 본원에서 설명된 기술은, 2개의 서로 소(disjoint)인 체적 및 에 대해, 그 각자의 점유 확률(또는 비어 있을 확률)이 상관성이 없다고 가정한다. 이것은 다음과 같이 표현될 수 있다:
이러한 가정으로부터, 는 상태 공간에 대한 가법 측도(additive measure)로서 정의되며, 밀도 함수 f(x)는 다음과 같이 측도와 연관된 것으로 정의될 수 있다:
이것은 상태 공간의 체적 내의 개의 독립 항등 분포(identically distributed and independent) 입자의 확률 밀도 함수(때때로 입자 밀도 함수라고 지칭됨)로서 해석될 수 있다. 특히, 입자들이 동일한 것으로 간주되기 때문에, 본원에서 설명된 기술의 다른 내재된 가정은 센서 측정치가 입자들을 구분하는 데 사용될 수 없다는 것이다. 오히려, 센서 측정치는 입자가 x에 위치된 경우의 관측치 γ의 확률로서 정의된다. 이러한 측정치는 순방향 센서 모델이라고 지칭될 수 있으며, p(γ|x)로서 표기된다. 또한, 센서 데이터가 입자를 구분할 수 없고 측정치가 단지 하나의 입자로부터 취해질 수 있기 때문에, DOG(1300)에서의 격자 셀의 전체 체적 V가 점유된 경우(시각적 보조 목적으로, 로 표기된 상황)의 관측치 γ의 확률은 다음과 같이 표기될 수 있다:
자율주행 차량 응용 분야의 경우, 입자는 대상체(608), 비점유 공간 등을 표현하며, DOG(1300)의 격자 셀들(1305, 1310)에 걸쳐 동적인 것으로 간주된다. 이러한 이유는 AV(100)의 환경(190)이 지속적으로 변하고 AV(100)에 대한 입자의 위치가 시간에 따라 달라지기 때문이다. 입자 역학을 고려하기 위해, 입자 밀도 함수가 다차원 위상 공간(phase space)에 대해 정의될 수 있다. 예를 들어, 일부 구현예에서, 입자 밀도 함수는 시간-공간-속도 좌표 프레임에서 함수 f(t, x, v)로서 정의될 수 있다. 이 함수는 시간 t에서, 위치 x에서, 속도 v로 이동하는 입자를 발견할 확률 밀도(때때로 입자 밀도라고 지칭됨)를 표현할 수 있다. 일부 구현예에서, 확률 밀도는 센서 데이터로부터 경험적으로 추론된다. 일부 구현예에서, 확률 밀도는 알려진 확률 분포(예를 들면, 지수족(exponential family)) 또는 2개 이상의 알려진 확률 분포의 혼합으로서 모델링된다. 일부 구현예에서, 확률 밀도는 알려진 분포로서 모델링되지 않을 수 있고, 순전히 센서 데이터에 의해 특성화된다.
일부 구현예에서, 입자에 작용하는 힘, 하나 이상의 추가적인 방향을 따른 속도, 또는 다수의 속도의 공분산과 같은 다른 입자 동적 파라미터가 시변 입자 밀도 함수에서 사용될 수 있다. 입자가 움직이지 않는(stationary) 것은 아니기 때문에, 입자 밀도 함수는 시간 경과에 따라 진화하고, 입자 밀도 함수를 구성하는 파라미터에 대해 정의된 미분 방정식 세트의 해를 결정하는 것에 의해 입자 밀도 함수의 시간 변화(time-variation)가 계산될 수 있다. 일부 구현예에서, 시간 경과에 따른 입자 밀도 함수의 진화는 확률 밀도 함수(때때로 입자 밀도 함수라고 지칭됨)에 대한 볼츠만 방정식과 같은 운동 방정식(kinetic equation)을 사용하여 모델링될 수 있다. 예를 들어, 입자 수 보존(particle number conservation)의 기본 원칙으로부터, 다음과 같은 미분 방정식이 정의될 수 있다:
위치와 속도의 시간 도함수를 구하는 것에 의해, 볼츠만 편미분 방정식이 다음과 같이 유도될 수 있다:
상기 방정식에 기술된 역학은 카테시안 좌표계에 기초하지만, 임의의 좌표계에 대해 일반화될 수 있다. 일부 구현예에서, 셀들 및 셀들의 상호작용을 그래프로 기술할 때, 그래프에 대한 구배 연산자(gradient operator)는 볼츠만 방정식을 포착하는 데 사용될 수 있다. 실시간 AV 응용 분야에 대한 계산 복잡도를 감소시키기 위해, 본원에서 설명된 기술은 수치 근사법을 사용하여 미분 방정식의 해를 계산하는 오일러 솔버를 사용한다. 오일러 솔버는 파라미터 세트의 알려진 초기 값을 사용하여 미분 방정식을 상미분 방정식(ODE)으로서 근사하는 것에 의해 동작하며, 순방향 오일러 방법(forward Euler method)을 사용하여 미래 시점에서의 파라미터의 값을 예측한다.
일 실시예에서, DOG 회로는 특정 시점(tn)에서의 입자 밀도 함수를 결정한다. 이것은, 예를 들어, 하나 이상의 센서(121, 122, 123)로부터 수신된 센서 데이터를 사용하여 행해질 수 있다. 일부 구현예에서, 센서 데이터는 입자에 관한 하나 이상의 파라미터에 대한 정보를 갖는 RADAR 및/또는 LiDAR 데이터(504a)를 포함할 수 있다. LiDAR 데이터(504a)는 도 5를 참조하여 더 상세히 예시되고 기술되어 있다. 예를 들어, 파라미터는 환경(190)의 이산화된 표현을 지배하는 좌표계에 따라 정의되는 바와 같은 특정 방향을 따른 입자(1315)의 속도, 입자(1315)에 작용하는 힘, 입자(1315)의 위치 중 하나 이상을 포함할 수 있다. 일부 구현예에서, DOG 회로는 센서(121, 122, 123)로부터 수신된 정보에 기초하여 하나 이상의 추가적인 파라미터를 결정한다. 예를 들어, 다수의 방향(예를 들면, 카테시안 좌표계에 따라 정의되는 바와 같은, X 방향 및 Y 방향, 및 어쩌면 또한 Z 방향)을 따른 속도에 대한 정보가 센서(121, 122, 123)로부터 수신되는 경우, DOG 회로는 그러한 속도의 공분산을 결정한다.
일부 구현예에서, 수신된 센서 정보가 X 방향 및 Y 방향을 따른 속도 정보를 포함할 때, DOG 회로는 입자 역학과 연관된 다음과 같은 파라미터, 즉 격자 셀 내의 입자들의 밀도 ρ, 제각기, x 방향 및 y 방향을 따른 속도 성분 vx 및 vy, 그리고 대응하는 공분산 σxx, σxy, 및 σyy를 포함하는 관측 벡터 γ를 생성한다. 공분산 항은 속도 항에서의 불확실성을 고려하는 데 사용된다. 표기상의 목적을 위해, 입자 밀도 함수는 본 문서에서, 위에서 표기된 바와 같이, f(t, x, v), f(t, x(t), v(t))로서 또는 2차원 DOG의 경우 f(t, x, y, v)로서 표현된다. 일 실시예에서, 극 좌표계가 사용될 수 있으며, 밀도 분포의 표기법은 f(t, r, v)가 되고, 여기서 r은 위치 (x, y)의 반경이다.
이어서 하나 이상의 파라미터에 대해 정의된 미분 방정식의 해를 결정하기 위해 오일러 솔버 또는 라그랑지 솔버에 관측치가 제공될 수 있다. 오일러 솔버는 순방향 오일러 방법을 사용하여 미분 방정식의 수치 해(numerical solution)를 계산하도록 프로그래밍된 하나 이상의 프로세싱 디바이스를 포함할 수 있다. 이것은 미래 시점 tn+1에 대한 상이한 파라미터의 변동을 예측하는 것을 포함할 수 있다. 오일러 솔버 접근법은 전통적인 프로세스와 비교하여 계산 복잡도를 감소시키고 더 높은 품질(예를 들면, 분해능) 및 다이내믹 레인지를 갖는 이미지를 생성한다.
오일러 솔버는 시점 tn+1에 대해 입자의 다양한 파라미터의 진화를 예측하고 그러한 예측된 값을 DOG 회로에 제공한다. DOG 회로는 입자 밀도 함수의 예측된 분포를 계산하고, 입자 밀도 함수 f(t, x, y, v)의 업데이트된 버전을 생성한다. 그러나 표기상의 용이성을 위해, 입자 밀도 함수가 또한 본 문서에서 f(t, x, v)로서 표현될 수 있다. DOG 회로에 의해 계산되는 입자 밀도 함수는 사전 분포(prior distribution)를 업데이트하기 위해 피드백 루프를 통해 DOG 회로에 제공될 수 있다.
DOG 회로는 또한, 현재 관측 벡터 γ(관측치 γ의 확률이라고도 지칭됨)가 주어진 경우, 미래 시점 tn+1에서 입자 위치가 점유될 가능성을 결정한다. 이것은 다음과 같이 계산된다:
여기서, 항은 순방향 센서 모델을 표현하고 포인트 (x, y)가 속도 v를 갖는 대상체에 의해 점유된 경우의 관측치 γ의 확률을 표현한다. 다양한 센서 모달리티(예를 들면, LiDAR, RADAR, 비전, 및 다른 센서 모달리티)에 대한 순방향 센서 모델은 주석이 달린 그라운드 트루스(ground-truth) 데이터로부터 계산될 수 있다. 예를 들어, 관측치와 점유 정보의 통계를, 둘 모두를 독립적인 랜덤 샘플로서 간주하여, 수집하는 것에 의해, 그라운드 트루스 데이터가 수집될 수 있다. 점유와 관련하여 파라미터의 결합 분포에 조건을 부여하기(condition) 위해 DOG 회로에 의해 그러한 순방향 센서 모델이 사용된다. 일부 구현예에서, 측정치와 점유 정보는 실질적으로 연속적인 분포로부터 도출된다. 그러한 연속 분포는 관측 샘플을 적절히 이격된 빈에 배치함으로써 히스토그램을 기록하는 것 및 분석 밀도 함수를 이산 히스토그램에 피팅하는 것에 의해 근사화될 수 있다.
일부 구현예에서, 순방향 센서 모델은 또한 센서(121, 122, 123)에서 고장 조건을 검출하도록 구성될 수 있다. 예를 들어, 그러한 모델로부터 획득되는 그라운드 트루스 데이터는 수신된 센서 데이터가 해당 특정 센서에 대한 예상된 값의 범위를 문턱 양만큼 벗어났는지, 및/또는 수신된 데이터가 다른 센서에 대해 수신된 데이터와 일치하지 않는지를 결정하는 데 사용될 수 있다. 특정 센서로부터의 센서 데이터가 그 범위를 문턱 양만큼 벗어난 것으로 결정되는 경우, 해당 센서에 대해 고장 조건이 결정/플래깅될 수 있으며, 대응하는 센서 입력은 고장 조건이 해결될 때까지 무시될 수 있다.
따라서 DOG 회로에 의해 생성되는 출력은 입자 밀도 함수 f(t, x, y, v)에 대한 베이지안 추정치이다. 이 함수에서, 는 시간을 표현하고, (x, y)는 2차원 공간 W에서의 위치를 표현하며, 는 (x, y)에서의 속도 벡터이다. 이 출력은 DOG(1300)에 걸쳐 다양한 방식으로 질의될 수 있다. 예를 들어, 질의의 한 형태는 시간이 추가된 위상 공간의 영역에서 예상된 입자 수를 계산하는 것이다.
일부 구현예에서, 이것은 다음과 같이 계산될 수 있다:
입자가 독립적이고 항등적으로 분포되어 있고 입자 수가 매우 많다는 가정 하에서, 이것은 시간이 추가된 위상 공간의 영역이 비어 있을 확률이 다음과 같이 주어진다는 것을 산출한다:
따라서 본원에서 설명된 기술은 대상체(608)뿐만 아니라 비점유 공간도 추적하는 데 사용될 수 있다. AV(100)의 계획 모듈(404)은 이 정보를 사용하여 AV(100)가 어디로 조향될 수 있는지를 결정한다. 계획 모듈(404)은 도 4를 참조하여 더 상세히 예시되고 기술되어 있다. 일부 구현예에서, 이 정보는, 어쩌면 AV(100)가 그로부터 멀어지게 조향되어야 하는 대상체(608)에 대한 정보와 함께, 예를 들어, 여러 가능성을 제공하는 것에 의해 AV(100)의 제어를 개선시킬 수 있다.
일부 구현예에서, 입자 밀도 함수로부터 더 많은 정보를 획득하기 위해 하나 이상의 추가 수량이 정의될 수 있다. 예를 들어, 포인트 세트 에 대해, 이러한 포인트들 중 임의의 것에서 나오는 광선이 홀수 개의 세그먼트와 교차하도록 월드(world) W에서의 포인트 세트로서 닫힌 다각형이 정의될 수 있다.
이러한 다각형은 P로서 표기될 수 있다. 일부 구현예에서, 다각형은 AV 환경(190)의 이산화된 표현의 격자 셀을 표현할 수 있다. 그렇지만, 특히, 다각형의 정의가 임의의 특정 격자에 의존하지 않기 때문에, 본원에서 설명된 기술은 격자에 무관한 방식(grid-agnostic manner)으로 구현될 수 있다. 게다가, 일부 경우에 특정 시점에서의 입자 밀도 함수를 표현하는 조건부 분포 f(t0, x, v), 속도에 관계없이 공간과 시간에서의 입자 밀도 함수를 표현하는 비조건부 분포(unconditional distribution) , 및 둘 모두의 조합을 정의하는 것이 유용할 수 있다. 그러한 수량은 AV(100)의 동작에 대한 다양한 관심 수량을 결정하는 데 사용될 수 있다. 예를 들어, 다각형 P가 특정 시간 t0에서 점유될 확률은 다음과 같이 계산될 수 있다:
다수의 속도들(예를 들면, 상이한 방향들을 따른 속도들)을 고려할 때, 속도 벡터 공간에서 다른 다각형 Pv를 정의하는 것에 의해 이것이 확장될 수 있다. 이러한 확장 하에서, 대상체(608)가 다각형 Px를 점유하고 Pv로부터의 속도로 주행할 확률은 다음과 같이 주어진다:
다른 예에서, 공간이 어떤 시간 간격 동안 점유될 확률과 같은, 다양한 다른 확률이 위에서 기술된 입자 밀도 함수를 사용하여 계산될 수 있다. 그러한 확률은, 입자에 대한 레이블링과 함께, 무생물 대상체, 사람, 및 비점유 공간을 포함한 다양한 분류된 대상체(608), 및 이들이 AV 환경(190)의 이산화된 표현을 통해 시간 경과에 따라 어떻게 움직이는지를 식별하는 데 사용될 수 있다.
DOG(1300)에 걸쳐 입자 밀도 함수를 추적하기 전에, DOG 회로는 입자(보행자(192), 차량(193) 또는 비점유 공간)를 정의하고 레이블링할 수 있으며, 개별 격자 셀에 초기 확률을 할당할 수 있다. 일부 구현예에서, 각각의 셀은 초기에 (예를 들면, 높은 점유 확률의 할당을 통해) 점유된 것으로 가정되고, 나중에 센서 데이터에 기초하여 업데이트된다. 일부 구현예에서, 입자는 대상체(608)를 표현하는지(차량들(193) 또는 보행자들(192) 간을 구분하기 위해 추가적인 컬러 코딩을 사용함) 또는 비점유 공간을 표현하는지에 기초하여 상이한 컬러를 할당받을 수 있다. 일부 구현예에서, 입자는, 그 내용이 본원에 참고로 포함되는, 문서 - Nuss et. al, “A Random Finite Set Approach for Dynamic Occupancy Grid Maps with Real-Time Application,” International Journal of Robotics Research, Volume: 37 issue: 8, page(s): 841-866 - 에 기술된 것과 같은 상호작용적 소프트웨어 컴포넌트로서 정의되고, 레이블링되며, 업데이트될 수 있다.
일 실시예에서, DOG 회로는 AV(100)의 하나 이상의 LiDAR(502a)로부터 LiDAR 데이터(504a)를 수신한다. LiDAR 데이터(504a) 및 LiDAR(502a)는 도 5를 참조하여 더 상세히 예시되고 기술되어 있다. LiDAR 데이터(504a)는 환경(190)에 위치된 하나 이상의 대상체(608)를 표현한다. DOG 회로는 환경(190)의 시맨틱 맵에 기초하여 DOG(1300)를 생성한다. DOG(1300)는 다수의 격자 셀(1305, 1310)을 포함한다. 각각의 격자 셀(1310)은 환경(190)의 일부분을 표현한다. 일 실시예에서, 각각의 격자 셀(1310)은 2차원 다각형 또는 3차원 다면체 중 하나이다. 일 실시예에서, 격자 셀(1310)의 각각의 에지의 길이는 1 cm 내지 1 m 범위 내이다. 계산 복잡도가 초과되지 않도록, 각각의 2D 격자 셀 또는 3D 격자 큐브는 센티미터 내지 미터 레벨에서 추적된다.
일 실시예에서, DOG(1300)를 생성하는 것은 카테시안 좌표계에 기초하여 환경(190)의 시맨틱 맵을 격자 셀(1305, 1310)로 분리하는 것을 포함한다. 예를 들어, 3D 격자 큐브는 카테시안 좌표계 또는 극 좌표계에 기초하여 맵(또는 운전 환경)을 분할하는 것에 의해 생성된다. 일 실시예에서, DOG(1300)를 생성하는 것은 극 좌표계에 기초하여 환경(190)의 시맨틱 맵을 격자 셀(1305, 1310)로 분리하는 것을 포함한다. 일 실시예에서, DOG(1300)는 환경(190)의 시맨틱 맵의 규칙적인 샘플링에 기초하여 생성된다. 예를 들어, 3D 격자 큐브는 맵 또는 운전 환경을 규칙적으로 또는 불규칙적으로 샘플링하는 것에 의해 생성된다. 일 실시예에서, DOG(1300)는 환경(190)의 시맨틱 맵의 불규칙적인 샘플링에 기초하여 생성된다.
인지 모듈(402)에 의해 인식되는 바와 같은, 분류된 대상체(608)가 DOG(1300) 상에 위치된다. DOG(1300)는 환경(190)의 단위 체적을 각각 표현하는 다수의 개별 큐브를 갖는 격자 맵을 포함할 수 있다. 일 실시예에서, DOG(1300)를 생성하는 것은 LiDAR 데이터(504a)의 일부분을 하나보다 많은 격자 셀(1310)에 할당하는 것을 포함한다. LiDAR 데이터(504a)의 그 부분은 특정 대상체, 말하자면, 차량(193)에 대응한다. 각각의 대상체는 전형적으로 단일 격자 큐브보다 크고 하나보다 많은 격자 큐브에 걸쳐 분포된다.
각각의 격자 셀(1310)에 대해, DOG 회로는 LiDAR 데이터(504a)에 기초하여 확률 밀도 함수(때때로 입자 밀도 함수라고도 지칭됨)를 생성한다. 확률 밀도 함수는 격자 셀(1310)에 의해 표현된 환경(190)의 부분이 특정 대상체(차량(193))에 의해 점유될 확률 P1을 표현한다. 따라서 LiDAR 포인트 클라우드 데이터(504a)가 수신되어 격자 셀(1305, 1310)에 걸쳐 분포된다. 수신된 LiDAR 데이터(504a)가 시간 경과에 따라 격자 셀들(1305, 1310) 사이를 이동함에 따라 (확률 밀도 함수의 형태로) 차량(193)이 추적된다. 확률 밀도 함수는 격자 셀(1310)에 차량(193)이 없을 확률 P0을 추가로 표현할 수 있다.
일 실시예에서, DOG 회로는 시간 경과에 따라 LiDAR 데이터(504a)에 대한 재귀적 베이지안 분석을 사용하여 DOG(1300)를 업데이트한다. 따라서 DOG 회로는 LiDAR 리턴(LiDAR return)에 기초하여 각각의 3D 격자 큐브(1310)(또는 2D 격자 셀)에 대한 점유 확률 P0 및 P1을 지속적으로 또는 주기적으로 업데이트한다. 도 15 및 도 16을 참조하여 더 상세히 예시되고 기술되는 바와 같이, AV(100)가 운행하고 있는 환경(190)의 특성을 결정하기 위해, 이력적 LiDAR 데이터를 사용하여 생성되는 미리 계산된 템플릿 파형이 저장되고 관측된 DOG 파형과 비교될 수 있다.
일 실시예에서, 확률 밀도 함수를 생성하는 것은: 차량(193)에 대응하는 LiDAR 데이터(504a)의 일부분의 강도(LiDAR 신호 강도)가 문턱 강도보다 크다고 결정한 것에 응답하여, 환경(190)의 그 부분을 표현하는 격자 셀(1310)을 식별하는 것을 포함한다. 일 실시예에서, 확률 밀도 함수를 생성하는 것은 환경(190)의 그 부분이 차량(193)에 의해 점유될 확률 P1을 0보다 크도록 조정하는 것을 더 포함한다. 문턱 강도 초과의 강도를 갖는 단일 LiDAR 리턴이 수신될 때, 대응하는 격자 큐브(1310)가 식별되고 값 "점유됨"으로 설정된다. LiDAR 신호 강도는, 와트(Watt) 또는 줄(Joule)과 같은, 전력 또는 광학 전력의 단위로 측정될 수 있다. 일 실시예에서, LiDAR 신호 강도는 시간에 의해(예를 들면, 초 당) 또는 공간에 의해(예를 들면, cm2 당) 정규화된다. 다른 실시예에서, DOG 회로가 (비어 있는 공간에 대응하는) 잡음에 대한 상대적인 LiDAR 신호 레벨을 분석하거나 LiDAR 강도 분포를 확률 밀도 함수로서 정규화하기 때문에 단위가 사용되지 않는다.
일 실시예에서, 확률 밀도 함수는, 격자 셀(예를 들면, 격자 셀(1305))에 의해 표현된 환경(190)의 일부분이 차량(193)에 의해 점유된 경우, 격자 셀(1305)에 의해 표현된 환경(190)의 부분이 차량(193)에 의해 점유된 채로 남아 있을 조건부 확률 B2를 추가로 표현한다. 일 실시예에서, 확률 밀도 함수는, 격자 셀(1305)에 의해 표현된 환경(190)의 부분에 차량(193)이 없는 경우, 격자 셀(1305)에 의해 표현된 환경(190)의 부분에 차량(193)이 없는 채로 남아 있을 조건부 확률 B1을 추가로 표현한다. 따라서, 격자 큐브(1305)에 대상체가 없는 경우, 격자 큐브(1305)가 비점유인 채로 남아 있을 확률은 B1이다. 격자 큐브(1305)가 점유되어 있을 확률은 1-B1이다. 유사하게, 격자 큐브(1305)가 점유된 경우, 격자 큐브(1305)가 점유된 채로 남아 있을 확률은 B2이다.
일 실시예에서, 격자 셀(1310)에 의해 표현된 환경(190)의 부분이 차량(193)에 의해 점유될 확률은 P1로 표기된다. DOG 회로는 LiDAR 데이터(504a)에 기초하여 제2 확률 밀도 함수를 생성한다. 제2 확률 밀도 함수는 격자 셀(1310)에 의해 표현된 환경(190)의 부분이 보행자(192)에 의해 점유될 제2 확률 p2를 표현한다. 하나 이상의 대상체(608)는 보행자(192)를 포함한다. 따라서 각각의 격자 셀(1310)은 보행자(192), 차량(193) 또는 다른 대상체에 대해 상이한 확률 분포를 가질 수 있다. 일 실시예에서, LiDAR 데이터(504a)는 잡음을 포함한다. DOG 회로는 특정 격자 셀(1310)에 대한 확률 P1이 0보다 크다고 결정한다. DOG 회로는 특정 격자 셀(1310)의 이웃하는 격자 셀에 대한 확률 P1이 0이라고 결정한다. 따라서 LiDAR 데이터(504a)는 DOG(1300)의 일부를 형성하는 잡음을 포함할 수 있다. 따라서, 하나의 셀(1310)은 점유될 수 있는 반면 그 주위의 다른 셀은 비점유일 수 있다. 주변 큐브에 아무것도 없는 경우, 잡음을 필터링 제거하기 위해, 점유된 큐브가 비점유로 설정된다. 일 실시예에서, LiDAR 데이터(504a)는 잡음을 포함한다. DOG 회로는 특정 격자 셀(1310)에 대한 확률 P1을 0으로 조정한다.
일 실시예에서, 확률 밀도 함수를 생성하는 것은, 푸리에 변환을 사용하여, LiDAR 데이터(504a)를 격자 셀(1310)에 의해 표현된 환경(190)의 부분이 차량(193)에 의해 점유될 확률 P1로 변환하는 것을 포함한다. LiDAR 데이터(504a)는 시간 도메인에서 측정되고 격자 셀(1305, 1310)은 공간 도메인에서 생성된다. 푸리에 변환은 시간 도메인 LiDAR 데이터(504a)를 공간 도메인(DOG(1300))으로 변환하는 데 사용된다. 일 실시예에서, 확률 밀도 함수를 생성하는 것은, 베이지안 필터를 사용하여, LiDAR 데이터(504a)를 격자 셀(1310)에 의해 표현된 환경(190)의 부분이 차량(193)에 의해 점유될 사후 확률과 재귀적으로 결합시키는 것을 포함한다. 새로운 LIDAR 측정치를 격자 셀(1305)의 사후 확률의 현재 추정치와 재귀적으로 결합시키기 위해 베이지안 필터를 사용하여 각각의 격자 셀(1305)의 점유 상태가 계산된다.
DOG 회로는 확률 밀도 함수에 기초하여 AV(100)와 차량(193)의 충돌 소요 시간(TTC)이 문턱 시간보다 작다고 결정한다. TTC가 문턱 시간보다 작다고 결정한 것에 응답하여, 제어 모듈(406)은 AV(100)와 차량(193)의 충돌을 피하도록 AV(100)를 동작시킨다. 제어 모듈(406)은 도 4를 참조하여 더 상세히 예시되고 기술되어 있다.
일 실시예에서, DOG 회로는 AV(100)의 하나 이상의 센서(121, 122, 123)로부터 센서 데이터를 수신한다. 센서 데이터는 센서(121, 122, 123)로부터 (선택적으로 인지 모듈(402)를 통해) DOG 회로로 송신될 때 (데이터에 인코딩될 수 있는) 캡처 시간으로부터의 연관된 레이턴시를 갖는다. 레이턴시가 문턱 레이턴시보다 작다고 결정한 것에 응답하여, DOG 회로는 센서 데이터에 대해 순환 중복 검사를 실행한다. 예를 들어, DOG 회로는, 경로 데이터의 타이밍(예를 들면, 레이턴시) 또는 경로 데이터의 프로토콜과 같은, 센서 데이터 신호의 품질을 검사한다. 경로 데이터는 AV(100)가 횡단하고 있는 물리적 경로를 기술하는 센서 데이터를 지칭한다. DOG 회로가 센서 데이터가 열악한 품질을 갖는다고 결정하는 경우, DOG 회로는 "고장난 센서 데이터" 신호를 안전 시스템의 아비터 모듈(arbiter module)로 또는 AV 스택(AV 내비게이션 시스템)으로 전송할 수 있다.
일 실시예에서, DOG(1300)는 다수의 입자를 포함한다. 각각의 입자는 상태를 갖는다. 일 실시예에서, 상태는 X 방향에서의 입자의 제1 속도, Y 방향에서의 입자의 제2 속도, 및 Z 방향에서의 입자의 제3 속도를 포함한다. 예를 들어, DOG(1300) 내의 입자들 각각은 대응하는 입자의 상태를 표현하는 파라미터와 연관된다. 입자의 상태는 X 방향, Y 방향 또는 Z 방향 중 하나 이상을 따른 속도 중 하나 이상에 의해 표현될 수 있다. 일 실시예에서, 상태는 제1 속도, 제2 속도 및 제3 속도와 연관된 공분산을 더 포함한다. 일 실시예에서, 상태는 입자에 작용하는 힘을 더 포함한다. 그러한 파라미터는 입자의 다양한 동적 특성을 고려할 수 있다. 일 실시예에서, 힘은 곡선 도로를 따른 AV(100)의 움직임을 표현한다. 예를 들어, 힘 파라미터는 곡선 도로를 따른 역학 또는 가속하는 AV(100)의 역학을 고려하는 것을 가능하게 한다. 일 실시예에서, 힘은 AV(100)의 가속도를 표현한다.
센서 데이터가 순환 중복 검사를 통과했다고 결정한 것에 응답하여, DOG 회로는 센서 데이터에 기초하여 하나 이상의 센서(121, 122, 123)의 역 센서 모델을 사용하여 각각의 격자 셀(1305, 1310)에 대한 이산 이진(0 또는 1) 점유 확률을 결정한다. 이진 점유 확률은 AV(100)가 동작하고 있는 환경(190)의 일부분이 대상체(608)에 의해 점유되는지 여부를 표현한다. 역 센서 모델은 시간 t에서의 측정치에 기초하여 각각의 격자 셀(1305, 1310)에 이산 이진 점유 확률을 할당한다. 일 실시예에서, 각각의 격자 셀(1305, 1310)의 점유 확률을 결정한 것에 응답하여, DOG 회로는 점유 확률의 변화에 기초하여 대상체(608)의 움직임을 결정한다. 예를 들어, 격자 셀(1305, 1310)이 환경(190)의 점유된 부분을 표현하는 경우, 격자 셀(1305, 1310)은 격자 셀(1305, 1310)과 연관된 더 강한 LiDAR 신호를 가질 것이다. 격자 셀(1305, 1310)(환경(190)의 부분)이 점유되어 있지 않은 경우, 격자 셀(1305, 1310)은, 주로 잡음인, 더 약한 LiDAR 신호를 가질 것이다. 따라서, DOG 회로는 격자 셀(1305, 1310)이 점유되었는지 여부를 결정할 뿐만 아니라, 점유하는 대상체(608)의 움직임을 추론하기도 한다. 먼저, DOG 회로는 환경(190)의 부분이 점유되어 있는지 여부를 결정하고, 이어서 움직임을 추론한다.
DOG 회로는 점유된 셀 비율(occupied cell rate)(0 또는 1) 및 신뢰도(confidence)를 결정한다. 일 실시예에서, DOG 회로는 DOG(1300)의 각각의 격자 셀(1305, 1310)에 대한 점유 확률에 대응하는 점유 신뢰도를 결정한다. 일 실시예에서, 점유 신뢰도는 센서 데이터의 성숙도(maturity), 플리커(flicker), LiDAR 리턴 강도 또는 융합 메트릭 중 적어도 하나에 기초하여 결정된다. 예를 들어, 성숙도, 플리커, 리턴 강도 및 다른 융합 메트릭과 같은 인자를 포함하는 (교정 가능한) 문턱치보다 높은 신뢰도에 기초하여 충돌 경고 또는 브레이크 감속이 트리거링된다. 일 실시예에서, 감속 요청을 송신하는 것은 점유 신뢰도가 문턱 점유 신뢰도보다 큰 것에 응답한 것이다.
DOG 회로는 운동 함수를 사용하여 점유 확률에 기초하여 입자 밀도 함수를 결정한다. 예를 들어, DOG 회로는 큐브 점유 누적 분포 함수를 결정한다. 시간 경과에 따른 입자 밀도 함수의 진화는 확률 밀도 함수에 대한 볼츠만 방정식과 같은 운동 방정식을 사용하여 모델링될 수 있다. 일 실시예에서, 입자 밀도 함수가 다차원 위상 공간에 걸쳐 결정된다. 일 실시예에서, 입자 밀도 함수가 시간-공간-속도 좌표 프레임에서 결정된다. 이 함수는 시간 t에서, 위치 l에서, 속도 v로 이동하는 입자를 발견할 확률 밀도를 표현할 수 있다.
입자 밀도 함수가 AV(100)와 대상체(608) 사이의 TTC가 문턱 TTC보다 작다는 것을 표현한다고 결정한 것에 응답하여, DOG 회로는 감속 요청을 AV(100)의 제어 회로(406)로 송신한다. 예를 들어, DOG 회로는 등속 모델을 사용하여 연관된 TTC 분포를 계산한다. DOG 회로는 문턱 신뢰 수준에서 평균 TTC와 최소 TTC를 계산한다. DOG 회로는 TTC에 기초하여 충돌 경고 및 브레이크 감속을 명령할지 여부를 결정한다. 충돌 위협을 검출할 때, DOG 회로는 셀 점유 확률에 기초하여 감속 요청을 송신하며, 예를 들어, (교정 가능한) 문턱 확률보다 큰 확률에 기초하여 트리거를 송신한다. 일 실시예에서, TTC가 감소함에 따라 감속 요청의 감속이 증가한다. 예를 들어, 감속 요청은 더 짧은 TTC에 대해 더 크다. 일 실시예에서, AV(100)의 속력이 증가함에 따라 감속 요청의 감속이 증가한다. 예를 들어, 감속 요청은 더 큰 AV(100) 속력에 대해 더 커야 한다.
도 14a는 하나 이상의 실시예에 따른, 운전가능 구역(1424)을 예시한다. 운전가능 구역(1424)은 AV(100)가 그를 따라 동작할 수 있는 도로(1428)를 포함한다. AV(100)는 도 1을 참조하여 더 상세히 예시되고 기술되어 있다. 도 14a에서의 도로(1428) 상에 2개의 인접한 시공간적 위치(1420, 1416)가 도시되어 있다. 예를 들어, AV(100)는 시공간적 위치(1420)로부터 시공간적 위치(1416)로 운전할 수 있다. 궤적(198)은 시공간적 위치(1420)를 인접한 시공간적 위치(1416)에 연결시킨다. 궤적(198)은 도 1을 참조하여 더 상세히 예시되고 기술되어 있다.
도 14b는 하나 이상의 실시예에 따른, 동적 점유 그래프(1400)를 예시하는 블록 다이어그램이다. DOG 회로는 (DOG(1300) 대신에) AV(100)의 궤적(198)을 따른 운전가능 구역(1424)을 표현하는 동적 점유 그래프(1400)를 생성한다. DOG(1300)는 도 13을 참조하여 더 상세히 예시되고 기술되어 있다. 궤적(198) 및 AV(100)는 도 1을 참조하여 더 상세히 예시되고 기술되어 있다. 운전가능 구역(1424)은 도 14a를 참조하여 더 상세히 예시되고 기술되어 있다. 동적 점유 그래프(1400)는 적어도 2개의 노드(1404, 1408) 및 2개의 노드(1404, 1408)를 연결시키는 에지(1412)를 포함한다. 2개의 노드(1404, 1408)는 도로(1428)를 포함한 운전가능 구역(1424)의 2개의 인접한 시공간적 위치(1420, 1416)를 표현한다. 2개의 인접한 시공간적 위치(1420, 1416) 및 도로(1428)는 도 14를 참조하여 더 상세히 예시되고 기술되어 있다.
일 실시예에서, 동적 점유 그래프(1400)를 생성하는 것은 LiDAR 데이터(504a)의 일부분을 적어도 2개의 노드(1404, 1408)에 할당하는 것을 포함한다. LiDAR 데이터(504a)의 부분은 대상체(608)에 대응한다. 대상체는 전형적으로 단일 노드보다 크고 하나보다 많은 노드에 걸쳐 분포된다. 동적 점유 그래프(1400)는 DOG, 예를 들어, DOG(1300)의 그래픽 표현이다. 각각의 격자 셀(1305, 1310)은 그래픽 표현(1400)의 노드(1404, 1408)에 대응한다. 격자 셀(1305, 1310)은 도 13을 참조하여 더 상세히 예시되고 기술되어 있다. 따라서 DOG(1300) 큐브는 동적 점유 그래프(1400)에 의해 기술될 수 있으며, 여기서 각각의 큐브는 노드에 대응하고 2개의 인접한 큐브는 동적 점유 그래프(1400) 상의 에지(1412)에 의해 특성화된다. 에지(1412)는 노드들(1404, 1408) 간의 동적 상호작용을 표현하는 값을 할당받을 수 있다.
일 실시예에서, DOG 회로는 LiDAR 데이터(504a)에 대한 재귀적 베이지안 분석을 사용하여 동적 점유 그래프(1400)를 업데이트한다. DOG 회로는 LiDAR 리턴(504a)에 기초하여 각각의 노드(1404, 1408)에 대한 점유 확률을 지속적으로 또는 주기적으로 업데이트한다. AV(100)가 운행하고 있는 환경(190)의 특성을 결정하기 위해, 이력적 LiDAR를 사용하여 생성되는 미리 계산된 템플릿 파형이 저장되고 관측된 동적 점유 그래프(1400) 파형과 비교될 수 있다.
DOG 회로는 AV(100)의 하나 이상의 LiDAR(502a)로부터 수신된 LiDAR 데이터(504a)에 기초하여 다수의 입자의 입자 분포 함수를 생성한다. LiDAR 데이터(504a) 및 LiDAR(502a)는 도 5를 참조하여 더 상세히 예시되고 기술되어 있다. 다수의 입자는 운전가능 구역(1424) 내의 적어도 하나의 대상체(608)를 표현한다. 동적 점유 그래프(1400)의 에지(1412)는 운전가능 구역의 2개의 인접한 시공간적 위치(1420, 1416) 사이에서의 적어도 하나의 대상체(608)의 움직임을 표현한다. 노드(1404, 1408)의 동적 상태는, 예를 들어, 차량(193) 또는 보행자(192)와 같은 대상체(608)를 입자의 집합체로서 모델링하는 것에 의해 다루어질 수 있다. DOG 회로는 입자 분포 함수에 기초하여 AV(100)에 상대적인 대상체(608)의 속도를 생성한다. 모델링은 필드 이론 기반 유체 역학에서 유체가 모델링되는 방식과 유사하다. 입자라는 용어는, 본원에서 사용되는 바와 같이, 물질의 물리적 단위를 지칭하지 않는다. 오히려, 입자는, AV(100)의 환경(190)에 있는 대상체(608), 예를 들면, 차량(193), 보행자(192) 또는 비점유 공간의 가상 표현을 형성하는, 상호작용하는 변수들의 세트를 표현한다.
일 실시예에서, 입자 분포 함수를 생성하는 것은 운전가능 구역(1424)의 일부분이 대상체(608)에 의해 점유될 확률을 0보다 크도록 조정하는 것을 포함한다. 일 실시예에서, DOG 회로는 하나 이상의 LiDAR(123)의 모델들에 기초하여 입자 분포 함수를 업데이트한다. 예를 들어, 업데이트된 입자 분포 함수는 다양한 노드(1404, 1408)의 점유 확률에 대한 예측을 생성하기 위해 대응하는 센서(123)와 연관된 순방향 센서 모델과 관련하여 사용된다.
일 실시예에서, DOG 회로는 AV(100)의 하나 이상의 RADAR(502b)를 사용하여 수신된 RADAR 데이터(504b)와 대조하여 AV(100)에 상대적인 대상체(608)의 속도를 검증한다. RADAR 데이터(504b) 및 RADAR(502b)는 도 5를 참조하여 더 상세히 예시되고 기술되어 있다. 입자 분포 함수는 7개의 변수의 함수 f(x, y, z, vx, vy, vz, t)일 수 있다. 여기서, x는 X 축 상에서의 위치를 지칭하고, y는 Y 축 상에서의 위치를 지칭하며, z는 Z 축 상에서의 위치를 지칭하고, vx는 X 축 상에서의 속도를 지칭하며, vy는 Y 축 상에서의 속도를 지칭하고, vz는 Z 축 상에서의 속도를 지칭하며, t는 시간을 지칭한다. 따라서 입자 분포 함수는 시간 t에서 위치 r = (x, y, z)에서 속도 (vx, vy, vz)를 갖는 단위 체적 당 입자 수이다. 일 실시예에서, DOG 회로는 LiDAR 데이터(504a)에 기초하여 동적 점유 그래프(1400)를 통해 입자들의 흐름을 모니터링한다. 노드(1404, 1408)의 점유를 결정하기 위해 개별 입자를 추적하는 대신에, DOG 회로는 입자 분포 함수의 통계를 추적함으로써 노드(1404, 1408)의 점유 확률을 결정하는 것에 의해 동적 점유 그래프(1400)를 통해 입자들의 흐름을 모니터링한다.
일 실시예에서, DOG 회로는 입자 분포 함수에 기초하여 동적 점유 그래프(1400)의 각각의 노드(예를 들면, 노드(1404))의 상태를 결정한다. 입자가 노드(1404, 1408)를 횡단할 때 노드(1404, 1408)의 상태는 입자의 결합 분포의 파라미터에 의존한다. 일 실시예에서, 입자 분포 함수를 생성하는 것은 입자 분포 함수의 파라미터에 의해 정의되는 미분 방정식의 해를 결정하는 것을 포함한다. 예를 들어, 오일러 솔버는 하나 이상의 센서(121, 122, 123)를 사용하여 획득되는 하나 이상의 입자 역학 파라미터에 대해 정의되는 미분 방정식의 해를 계산하는 것에 의해 시변 결합 분포를 결정하는 데 사용된다.
일 실시예에서, 입자 분포 함수를 생성하는 것은 적어도 하나의 대상체(608)가 운전가능 구역(1424)의 2개의 인접한 시공간적 위치(1420, 1416) 중 적어도 하나를 점유할 확률을 결정하는 것을 포함한다. DOG 회로가 궤적(198)(에지(1412))을 따라 있는 타깃(대상체(608))을 "인지"하는 경우, DOG 회로는 연관된 확률로 "점유된" 것으로서 에지(1412)를 "채울(populate)" 것이다. 일 실시예에서, 입자 분포 함수를 생성하는 것은 운전가능 구역(1424)의 2개의 인접한 시공간적 위치(1416, 1420) 중 적어도 하나에서의 단위 체적 당 입자 수를 결정하는 것을 포함한다. 각각의 노드(1404, 1408)는 단일 입자 위상 공간이다. 각각의 노드(1404)는 점유 확률, 신뢰도 또는 거리 변화율(대상체(608)가 AV(100)에 얼마나 빠르게 접근하고 있는지)을 포함할 수 있다.
일 실시예에서, DOG 회로는 LiDAR 데이터(504a)에 기초하여 적어도 2개의 노드(1404, 1408) 중 노드(1404)에 대한 관측 벡터를 결정한다. 관측 벡터는 운전가능 구역(1424)의 2개의 인접한 시공간적 위치(1416, 1420) 중 대응하는 시공간적 위치(예를 들면, 시공간적 위치(1416))에서의 입자들의 밀도를 포함한다. 입자 분포 함수는 확률 변수가 특정 값 범위에 속할 확률을 명시한다. 이 확률은 그 범위에 걸친 변수의 입자 분포 함수의 적분에 의해 주어진다. 즉, 확률은 입자 분포 함수 아래에 있지만 수평축 위에 있고 그 범위의 가장 낮은 값과 가장 큰 값 사이에 있는 면적으로서 결정된다. 입자 분포 함수는 어디서나 음이 아니며 전체 공간에 걸친 그의 적분은 1과 동일하다. 일 실시예에서, 관측 벡터는 대응하는 시공간적 위치(1416)에 있는 입자의 속도 성분 및 입자 분포 함수의 공분산을 더 포함한다. LiDAR 데이터(504a)는 X 방향 및 Y 방향을 따른 속도 정보를 포함한다. DOG 회로는 노드(1404)에서의 입자들의 밀도, X 방향 및 Y 방향을 따른 속도 성분, 및 공분산을 포함하는 관측 벡터를 생성한다.
DOG 회로는 입자 분포 함수에 기초하여 AV(100)와 적어도 하나의 대상체(608)의 TTC를 결정한다. 예를 들어, 동적 점유 그래프(1400)는 AV(100)의 전진 의도 경로(forward-intended path)(궤적(198))를 따른 1차원 뷰를 표현한다. TTC가 문턱 시간보다 작다고 결정한 것에 응답하여, DOG 회로는 AV(100)와 적어도 하나의 대상체(608)의 충돌을 피하기 위해 충돌 경고를 AV(100)의 제어 회로(406)로 송신한다. 제어 회로(406)는 도 4를 참조하여 더 상세히 예시되고 기술되어 있다. 일 실시예에서, DOG 회로는 입자 분포 함수에 기초하여 AV(100)와 적어도 하나의 대상체(608)의 최소 TTC 및 평균 TTC를 결정한다. DOG 회로(1300)는 최소 TTC 및 평균 TTC를 결정하기 위해 등가속 모델을 사용한다.
일 실시예에서, DOG 회로는 제어 회로(406)로부터 제어 데이터를 수신한다. 제어 데이터는 조향 컨트롤(102)의 각도 또는 AV(100)의 조향 입력(1108)을 포함한다. 조향 컨트롤(102)은 도 1을 참조하여 더 상세히 예시되고 기술되어 있다. 조향 입력(1108)은 도 11을 참조하여 더 상세히 예시되고 기술되어 있다. DOG 회로는 운전가능 구역 내에서의 AV(100)의 시공간적 위치(예를 들면, 시공간적 위치(1416))를 결정한다. 일 실시예에서, 제어 데이터는 조향 컨트롤(102)의 각속도를 포함한다. 예를 들어, DOG 회로는 제어 모듈(406)에 조향 휠 각도 및 조향 휠 각속도를 요청한다. DOG 회로는 AV(100)가 어디에 위치되는지를 결정하기 위해 조향 휠 파라미터를 사용한다.
일 실시예에서, DOG 회로는 중복성을 위해 AV 스택과 별도로 그리고 독립적으로 동작한다. 일 실시예에서, DOG 회로는 충돌 경고를 AV(100)의 아비터 회로를 통해 제어 회로(406)로 송신한다. DOG 회로는 또한 심장박동 신호를 아비터 회로로 주기적으로 전송한다. 심장박동 신호의 의도는 DOG 회로가 예상대로 기능하거나 프로세싱하고 있으며 정지된(hung), 고장난(crashed) 또는 지연된(delayed) 상태에 있지 않다는 것을 통신하는 것이다. 심장박동 신호는 다양한 방식으로 구현될 수 있다. 하나의 방식은 예상 주파수로 교호하는 하이 및 로우 신호이다.
일 실시예에서, 동적 점유 그래프(1400)는 AV(100)의 좌표 프레임에 따라 생성된다. 예를 들어, DOG 회로는 에고 차량(ego-vehicle)(AV(100))의 로컬 좌표 프레임 내에서 동작한다. 일 실시예에서, 동적 점유 그래프(1400)를 생성하는 것은 운전가능 구역 내에서의 AV(100)의 시공간적 위치(예를 들면, 시공간적 위치(1416))에 기초한다. 예를 들어, AV(100)는 도로를 운전하고 있다. DOG 회로는 계획 모듈(404)로부터 궤적(198)을 수신한다. 계획 모듈(404)은 도 4를 참조하여 더 상세히 예시되고 기술되어 있다. DOG 회로는 궤적(198) 내에서의 AV(100)의 폭을 검사하고 대상체(608) 없음, 멀리 떨어진 대상체(608) 또는 궤적(198)에서 빠져나가는 대상체(608)를 감지한다. DOG 회로는 더 낮은 점유 확률 및 더 큰 평균 TTC를 갖는 노드(1404, 1408)를 갖는 동적 점유 그래프(1400)를 생성한다. DOG 회로는 심장박동 메시지를 아비터 회로로 송신하고 브레이크 프리차지(brake pre-charge) 또는 감속 요청을 제어 모듈(406)로 전송하지 않는다.
도 15는 하나 이상의 실시예에 따른, 보행자(192)를 표현하는 동적 점유 격자(DOG) 파형(1500)을 예시한다. 보행자(192)는 도 1을 참조하여 더 상세히 예시되고 기술되어 있다. 파형(1500)은 DOG(예를 들면, 도 13을 참조하여 더 상세히 예시되고 기술된 DOG(1300))로부터 추출된다. DOG(1300)는 다수의 3D 격자 큐브(또는 2D 격자 셀)(1305, 1310)를 포함한다. 도 16은 하나 이상의 실시예에 따른, 차량(193)을 표현하는 DOG 파형(1600)을 예시한다. 차량(193)은 도 1을 참조하여 더 상세히 예시되고 기술되어 있다. 파형(1600)은 DOG(예를 들면, 도 13을 참조하여 더 상세히 예시되고 기술된 DOG(1300))로부터 추출된다.
DOG 회로는 AV(100)의 LIDAR(502a)로부터 수신된 제1 LIDAR 데이터(504a)에 기초하여 DOG(예를 들면, DOG(1300))를 생성한다. 일 실시예에서, LiDAR(502a)는 위상 어레이(phased array)를 포함하고 제1 LiDAR 데이터(504a)는 시간, 주파수 및 위상 정보를 포함한다. LiDAR(502a)는 위상 어레이를 사용하며 따라서 리턴은 시간, 주파수 및 광의 위상(1508) 정보를 포함한다. 제1 LIDAR 데이터(504a) 및 LIDAR(502a)는 도 5를 참조하여 더 상세히 예시되고 기술되어 있다. 일 실시예에서, DOG(1300)를 생성하는 것은 DOG(1300)의 다수의 격자 셀(1305, 1310)에 걸쳐 보행자(192)를 표현하기 위한 베이지안 필터링을 사용하여 AV(100)의 센서(121, 122)로부터 수신된 센서 데이터를 제1 LIDAR 데이터(504a)와 융합하는 것을 포함한다. 센서(121, 122)는 도 1을 참조하여 더 상세히 예시되고 기술되어 있다. 격자 셀(1305, 1310)은 도 13을 참조하여 더 상세히 예시되고 기술되어 있다. DOG 회로는 다양한 센서(121, 122, 123)를 융합하고 다수의 격자 셀(1305, 1310)에 걸쳐 대상체(608)를 표현하기 위해 베이지안 필터링을 사용한다. 일 실시예에서, DOG(1300)는 환경(190)의 시맨틱 맵의 불규칙적인 샘플링에 기초하여 생성된다.
일 실시예에서, DOG(1300)의 다수의 격자 큐브(1305, 1310) 중 각각의 격자 큐브(1305)는 보행자(192)의 확률적 점유 추정치 및 속도 추정치를 포함한다. 일 실시예에서, DOG(1300)는 환경(192)의 경계 내의 구역을 표현하고 다수의 격자 큐브(1305, 1310) 중 각각의 격자 큐브(1305)는 폭을 갖는다. 격자 큐브(1305, 1310)는 정적 위치와 폭을 갖는다. 환경(190)의 경계는 움직이는 AV(100)를 DOG(1300)의 중심 내에 유지하기 위해 폭만큼 시프트된다. 일 실시예에서, DOG 회로는, 보행자(192)의 표현이 DOG(1300) 내에 위치되도록, DOG(1300) 내에서의 환경(190)의 경계의 표현을 폭만큼 조정한다.
일 실시예에서, DOG 회로는 제1 LiDAR 데이터(504a)의 위상 시프트를 결정한다. 제1 LiDAR 데이터(504a)는 위상 변조된(변화된) 신호이다. DOG 회로는 위상 변조된 신호에서의 위상 시프트를 측정할 수 있다. DOG 회로는 DOG(1300)로부터 파형(1500)을 생성하기 위해 DOG 회로의 하나 이상의 프로세서에 의해 실행되는 입자 필터를 포함한다. 환경(190)에 있는 대상체에 대응하는 DOG(1300)의 일부분이 추출되고 AV(100) 내의 임베디드 라이브러리에 레이블링된 파형으로서 저장된다. 환경(190)은 도 1을 참조하여 더 상세히 예시되고 기술되어 있다. 파형(1500)은 LiDAR(502a)의 광의 위상(1508)에 따른 LiDAR 데이터(504a)의 강도(1504)의 변동을 포함한다. 일 실시예에서, 파형(1500)은 제2 대상체(예를 들면, 차량(193))와 상호작용하는 보행자(192)를 표현한다. AV(100) 내의 임베디드 시스템은 가능한 많은 신호 파형을 저장한다. DOG 회로는 관측된 파형(1500, 1600)으로부터 정보를 추출하고 매치(match)(예를 들면, 보행자(192), 차량(193) 등)를 찾기 위해 그 정보를 저장된 파형과 비교한다. 비교는 다수의 도로 사용자, 예를 들면, 서로 상호작용하는 보행자(192), 자전거 및 자동차를 갖는 복잡한 시나리오를 검출할 수 있다.
DOG 회로는 제1 LiDAR 데이터(504a)가 하나 이상의 대상체(608) 중 특정 대상체(보행자(192))로부터 반사되었는지 식별하기 위해 파형(1500)을 하나 이상의 대상체(608)로부터 반사된 이력적 LiDAR 데이터로부터 추출된 파형들의 라이브러리와 매칭한다. 하나 이상의 대상체(608)는 도 6을 참조하여 더 상세히 예시되고 기술되어 있다. DOG 회로는 제1 LiDAR 데이터(504a)가 수신된 후에 AV(100)의 LiDAR(502a)로부터 수신된 제2 LiDAR 데이터(제1 LiDAR 데이터(504a)의 업데이트된 버전)에 기초하여 파형(1500)을 업데이트한다. DOG 회로는 업데이트된 파형(1500)에 기초하여 AV(100)와 보행자(192)의 거리 변화율을 결정한다. AV(100)의 제어 회로(406)는 AV(100)와 보행자(192)의 거리 변화율에 기초하여 보행자(192)와의 충돌을 피하도록 AV(100)를 동작시킨다.
일 실시예에서, 파형(1500)을 파형들의 라이브러리와 매칭하는 것은 파형(1500)으로부터 특성 벡터(feature vector)를 추출하는 것을 포함한다. DOG 회로는 머신 러닝 모델을 사용하여 하나 이상의 대상체(608)로부터 보행자(192)를 식별한다. 과거에는, AV(100)가 운행하고 있는 환경(190)의 특성을 계산적으로 효율적인 방식으로 결정하기 위해, 미리 계산된 템플릿 파형이 저장되고 LiDAR 데이터(504a)로부터의 관측된 DOG 파형(1500)과 비교된다. 일 실시예에서, DOG 회로는 이력적 LiDAR 데이터로부터 추출된 특성 벡터들에 기초하여 머신 러닝 모델을 트레이닝한다. 머신 러닝 모델은 저장된 파형과 비교하기 위해 관측된 파형(1500)으로부터 특징을 추출할 수 있다. 머신 러닝 모델은 레이블링되어 저장된 파형을 바탕으로 트레이닝될 수 있다.
일 실시예에서, DOG 회로는 다수의 격자 큐브(1305, 1310) 사이의 이력적 LIDAR 데이터의 상호작용을 무시하고 DOG(1300)에 걸친 확률적 점유 분포 및 속도 분포를 결정한다. 라이브러리 생성은 다수의 단계를 포함한다. LiDAR 리턴이 DOG(1300)로 변환된다. 입자 필터는 공간 점유 및 속도 분포를 추정한다. 각각의 격자 큐브(1305)는 독립적으로 업데이트되고 다수의 격자 큐브(1305, 1310) 간의 상호작용이 모델링되지 않는다.
일 실시예에서, 입자 필터는 DOG(1300)로부터 파형(1600)을 추출한다. 파형(1600)은 AV(100)로부터의 특정 대상체(예를 들면, 차량(193))의 거리(1604)에 따른 LiDAR 데이터(504a)의 강도(1504)의 변동을 포함한다. 격자 큐브(1305)가 점유되어 있는 경우, LiDAR 데이터(504a) 신호는 이를 표현하는 특정 분포를 가질 것이다. 격자 큐브(1305)가 점유되어 있지 않은 경우, 격자 큐브(1305)는 분포와 매칭하지 않을 잡음을 포함할 것이다. 파형(1600)에서, 더 높은 피크(1608)는 반사된 포인트들의 더 높은 밀도에 대응한다. Y 축(LiDAR 데이터(504a)의 강도(1504))은 점유 확률에 대응한다. 따라서, 파형(1600)은 LiDAR 데이터(504a)의 포인트들이 클러스터링되어, 차량(193)의 더 높은 존재 확률을 표현하는 곳에서 피크를 이룬다.
일 실시예에서, 입자 필터는 AV(100)로부터의 차량(193)의 거리(1604)에 따른 확률적 점유 추정치의 변동을 포함하는 파형을 DOG(1300)로부터 추출한다. 파형은 AV(100)로부터 특정 거리에 있는 격자 큐브(예를 들면, 격자 큐브(1305))의 점유 확률을 포함한다. 파형은 AV(100)로부터의 대상체(608)의 거리(1604)에 대해 플로팅된 점유 확률 밀도의 변동을 포함한다. 실시예에서, 입자 필터는 LiDAR 데이터(504a)의 광의 위상(1508)에 따른 확률적 점유 추정치의 변동을 포함하는 파형을 DOG(1300)로부터 추출한다.
일 실시예에서, DOG(1300)의 다수의 격자 큐브(1305, 1310) 중 특정 격자 큐브(1305)에 대응하는 특정 LiDAR 데이터(504a)의 강도는 α에 의해 표현된다. 특정 격자 큐브(1305)에 의해 표현된 환경(190)의 일부분이 특정 대상체(예를 들면, 차량(193))에 의해 점유되어 있을 때 DOG(1300)의 다수의 격자 큐브(1305, 1310) 중 특정 격자 큐브(1305)에 대응하는 특정 LiDAR 데이터(504a)의 강도가 문턱 강도보다 클 제1 조건부 확률은 P(α|occupied)에 의해 표현된다. DOG 회로는 DOG(1300)로부터 P(α|occupied)의 값을 결정한다. DOG 회로는 특정 큐브(1305)에 의해 표현된 환경(190)의 부분에 차량(193)이 없을 때 DOG(1300)의 다수의 격자 큐브(1305, 1310) 중 특정 격자 큐브(1305)에 대응하는 특정 LiDAR 데이터(504a)의 강도가 문턱 강도보다 클 제2 조건부 확률 P(α|free)를 추가로 결정한다. DOG 회로는 제1 조건부 확률 P(α|occupied) 및 제2 조건부 확률 P(α|free)에 기초하여 특정 격자 큐브(1305)에 의해 표현된 환경(190)의 부분이 실제로 차량(193)에 의해 점유되어 있다고 결정한다. 따라서, DOG 회로는 2개의 상호 배타적인 모델을 비교하는 것에 의해 격자 큐브가 대상체(608)에 의해 점유되는지 여부를 결정한다. 조건부 확률 P(α|occupied)와 P(α|free)가 비교 대상인 2개의 상호 배타적인 모델이다.
도 17은 하나 이상의 실시예에 따른, AV(100)의 동작 프로세스를 예시하는 흐름 다이어그램이다. 일 실시예에서, 도 17의 프로세스는, 도 13을 참조하여 더 상세히 기술된, DOG 회로에 의해 수행된다. 다른 엔티티, 예를 들어, 인지 모듈(402) 또는 계획 모듈(404)은 다른 실시예에서 프로세스의 단계들 중 일부 또는 전부를 수행한다. 마찬가지로, 실시예는 상이한 및/또는 추가적인 단계들을 포함할 수 있거나, 또는 단계들을 상이한 순서로 수행할 수 있다. 인지 모듈(402) 및 계획 모듈(404)은 도 4를 참조하여 더 상세히 예시되고 기술되어 있다.
DOG 회로는 AV(100)의 하나 이상의 LiDAR(502a)로부터 LiDAR 데이터(504a)를 수신한다(1704). LiDAR 데이터(504a) 및 LiDAR(502a)는 도 5를 참조하여 더 상세히 예시되고 기술되어 있다. LiDAR 데이터(504a)는 환경(190)에 위치된 하나 이상의 대상체(608)를 표현한다. 환경(190)은 도 1을 참조하여 더 상세히 예시되고 기술되어 있다. 하나 이상의 대상체(608)는 도 6을 참조하여 더 상세히 예시되고 기술되어 있다.
DOG 회로는 환경(190)의 시맨틱 맵에 기초하여 DOG(1300)를 생성한다(1708). DOG(1300)는 도 13을 참조하여 더 상세히 예시되고 기술되어 있다. DOG(1300)는 다수의 격자 셀(1305, 1310)을 포함한다. 격자 셀(1305, 1310)은 도 13을 참조하여 더 상세히 예시되고 기술되어 있다. 다수의 격자 셀(1305, 1310) 중 각각의 격자 셀(1305)은 환경(190)의 일부분을 표현한다.
다수의 격자 셀(1305, 1310) 중 각각의 격자 셀(1305)에 대해, DOG 회로는 LiDAR 데이터(504a)에 기초하여 확률 밀도 함수를 생성한다(1712). 확률 밀도 함수는 격자 셀(1305)에 의해 표현된 환경(190)의 부분이 하나 이상의 대상체(608) 중 한 대상체(예를 들면, 차량(193))에 의해 점유될 확률을 표현한다. 차량(193)은 도 1을 참조하여 더 상세히 예시되고 기술되어 있다.
DOG 회로는 확률 밀도 함수에 기초하여 AV(100)와 차량(193)의 충돌 소요 시간(TTC)이 문턱 시간보다 작다고 결정한다(1716). 확률 밀도 함수(때때로 입자 밀도 함수라고 지칭됨)는 상태 공간의 체적 내의 독립 항등 분포 입자의 수를 기술한다. 입자들이 동일한 것으로 간주되기 때문에, 본원에서 설명된 기술의 내재된 가정은 센서 측정치가 입자들을 구분하는 데 사용되지 않는다는 것이다. 오히려, 센서 측정치는 입자가 x에 위치되는 경우의 관측치 γ의 확률로서 정의된다. 이러한 측정치는 순방향 센서 모델이라고 지칭될 수 있으며, p(γ|x)로서 표기된다.
TTC가 문턱 시간보다 작다고 결정한 것에 응답하여, 제어 회로(406)는 AV(100)와 차량(193)의 충돌을 피하도록 AV(100)를 동작시킨다. 제어 회로(406)는 도 4를 참조하여 더 상세히 예시되고 기술되어 있다.
도 18은 하나 이상의 실시예에 따른, AV(100)의 동작 프로세스를 예시하는 흐름 다이어그램이다. AV(100)는 도 1을 참조하여 더 상세히 예시되고 기술되어 있다. 일 실시예에서, 도 18의 프로세스는, 도 13을 참조하여 더 상세히 기술된, DOG 회로에 의해 수행된다. 다른 엔티티, 예를 들어, 인지 모듈(402) 또는 계획 모듈(404)은 다른 실시예에서 프로세스의 단계들 중 일부 또는 전부를 수행한다. 마찬가지로, 실시예는 상이한 및/또는 추가적인 단계들을 포함할 수 있거나, 또는 단계들을 상이한 순서로 수행할 수 있다. 인지 모듈(402) 및 계획 모듈(404)은 도 4를 참조하여 더 상세히 예시되고 기술되어 있다.
DOG 회로는 AV(100)의 궤적(198)을 따른 운전가능 구역(1424)을 표현하는 동적 점유 그래프(1400)를 생성한다(1804). 동적 점유 그래프(1400)는 도 14b를 참조하여 더 상세히 예시되고 기술되어 있다. 운전가능 구역(1424)은 도 14a를 참조하여 더 상세히 예시되고 기술되어 있다. 궤적(198)은 도 1을 참조하여 더 상세히 예시되고 기술되어 있다. 동적 점유 그래프(1400)는 적어도 2개의 노드(1404, 1408) 및 2개의 노드(1404, 1408)를 연결시키는 에지(1412)를 포함한다. 노드(1404, 1408)는 도 14b를 참조하여 더 상세히 예시되고 기술되어 있다. 에지(141)는 도 14b를 참조하여 더 상세히 예시되고 기술되어 있다. 2개의 노드(1404, 1408)는 운전가능 구역(1424)의 2개의 인접한 시공간적 위치(1416, 1420)를 표현한다. 2개의 인접한 시공간적 위치(1416, 1420)는 도 14a를 참조하여 더 상세히 예시되고 기술되어 있다.
DOG 회로는 AV(100)의 하나 이상의 LiDAR(502a)로부터 수신된 LiDAR 데이터(504a)에 기초하여 다수의 입자의 입자 분포 함수를 생성한다(1808). LiDAR 데이터(504a) 및 LiDAR(502a)는 도 5를 참조하여 더 상세히 예시되고 기술되어 있다. 다수의 입자는 운전가능 구역(1424) 내의 적어도 하나의 대상체(608)를 표현한다. 대상체(608)는 도 6을 참조하여 더 상세히 예시되고 기술되어 있다. 동적 점유 그래프(1400)의 에지(1412)는 운전가능 구역(1424)의 2개의 인접한 시공간적 위치(1416, 1420) 사이에서의 적어도 하나의 대상체(608)의 움직임을 표현한다.
DOG 회로는 입자 분포 함수에 기초하여 AV(100)에 상대적인 대상체(608)의 속도를 생성한다(1812). 모델링은 필드 이론 기반 유체 역학에서 유체가 모델링되는 방식과 유사하다. 입자라는 용어는, 본원에서 사용되는 바와 같이, 물질의 물리적 단위를 지칭하지 않는다. 오히려, 입자는, AV(100)의 환경(190)에 있는 대상체(608), 예를 들면, 차량(193), 보행자(192) 또는 비점유 공간의 가상 표현을 형성하는, 상호작용하는 변수들의 세트를 표현한다.
DOG 회로는 입자 분포 함수에 기초하여 AV(100)와 적어도 하나의 대상체(608)의 충돌 소요 시간(TTC)을 결정한다(1816). 일 실시예에서, 입자 분포 함수를 생성하는 것은 운전가능 구역(1424)의 일부분이 대상체(608)에 의해 점유될 확률을 0보다 크도록 조정하는 것을 포함한다. 일 실시예에서, DOG 회로는 하나 이상의 LiDAR(123)의 모델들에 기초하여 입자 분포 함수를 업데이트한다. 예를 들어, 업데이트된 입자 분포 함수는 다양한 노드(1404, 1408)의 점유 확률에 대한 예측을 생성하기 위해 대응하는 센서(123)와 연관된 순방향 센서 모델과 관련하여 사용된다.
TTC가 문턱 시간보다 작다고 결정한 것에 응답하여, DOG 회로는 AV(100)와 적어도 하나의 대상체(608)의 충돌을 피하기 위해 충돌 경고를 AV(100)의 제어 회로(406)로 송신한다. 제어 회로(406)는 도 4를 참조하여 더 상세히 예시되고 기술되어 있다.
도 19는 하나 이상의 실시예에 따른, AV(100)의 동작 프로세스를 예시하는 흐름 다이어그램이다. AV(100)는 도 1을 참조하여 더 상세히 예시되고 기술되어 있다. 일 실시예에서, 도 19의 프로세스는, 도 13을 참조하여 더 상세히 기술된, DOG 회로에 의해 수행된다. 다른 엔티티, 예를 들어, 인지 모듈(402) 또는 계획 모듈(404)은 다른 실시예에서 프로세스의 단계들 중 일부 또는 전부를 수행한다. 마찬가지로, 실시예는 상이한 및/또는 추가적인 단계들을 포함할 수 있거나, 또는 단계들을 상이한 순서로 수행할 수 있다. 인지 모듈(402) 및 계획 모듈(404)은 도 4를 참조하여 더 상세히 예시되고 기술되어 있다.
DOG 회로는 AV(100)의 하나 이상의 센서(121, 122, 123)로부터 센서 데이터를 수신한다(1904). 하나 이상의 센서(121, 122, 123)는 도 1을 참조하여 더 상세히 예시되고 기술되어 있다. 센서 데이터는 센서(121, 122, 123)로부터 (선택적으로 인지 모듈(402)를 통해) DOG 회로로 송신될 때 (데이터에 인코딩될 수 있는) 캡처 시간으로부터의 연관된 레이턴시를 갖는다.
레이턴시가 문턱 레이턴시보다 작다고 결정한 것에 응답하여, DOG 회로는 센서 데이터에 대해 순환 중복 검사를 실행한다(1908). 예를 들어, DOG 회로는, 경로 데이터의 타이밍(예를 들면, 레이턴시) 또는 경로 데이터의 프로토콜과 같은, 센서 데이터 신호의 품질을 검사한다. 경로 데이터는 AV(100)가 횡단하고 있는 물리적 경로를 기술하는 센서 데이터를 지칭한다. DOG 회로가 센서 데이터가 열악한 품질을 갖는다고 결정하는 경우, DOG 회로는 "고장난 센서 데이터" 신호를 안전 시스템의 아비터 모듈로 또는 AV 스택(AV 내비게이션 시스템)으로 전송할 수 있다.
센서 데이터가 순환 중복 검사를 통과했다고 결정한 것에 응답하여, DOG 회로는 센서 데이터에 기초하여 하나 이상의 센서(121, 122, 123)의 역 센서 모델을 사용하여 DOG(1300)의 각각의 격자 셀(1305)에 대한 이산 이진 점유 확률을 결정한다(1912). 격자 셀(1305) 및 DOG(1300)는 도 13을 참조하여 더 상세히 예시되고 기술되어 있다. 점유 확률은 AV(100)가 동작하고 있는 환경(190)의 일부분이 대상체(608)에 의해 점유되는지 여부를 표현한다. 환경(190)은 도 1을 참조하여 더 상세히 예시되고 기술되어 있다. 대상체(608)는 도 6을 참조하여 더 상세히 예시되고 기술되어 있다.
DOG 회로는 운동 함수를 사용하여 점유 확률에 기초하여 입자 밀도 함수를 결정한다(1916). 예를 들어, DOG 회로는 큐브 점유 누적 분포 함수를 결정한다. 시간 경과에 따른 입자 밀도 함수의 진화는 확률 밀도 함수에 대한 볼츠만 방정식과 같은 운동 방정식을 사용하여 모델링될 수 있다.
입자 밀도 함수가 AV(100)와 대상체(608) 사이의 충돌 소요 시간(TTC)이 문턱 TTC보다 작다는 것을 표현한다고 결정한 것에 응답하여, DOG 회로는 감속 요청을 AV(100)의 제어 회로(406)로 송신한다.
도 20은 하나 이상의 실시예에 따른, AV(100)의 동작 프로세스를 예시하는 흐름 다이어그램이다. AV(100)는 도 1을 참조하여 더 상세히 예시되고 기술되어 있다. 일 실시예에서, 도 20의 프로세스는, 도 13을 참조하여 더 상세히 기술된, DOG 회로에 의해 수행된다. 다른 엔티티, 예를 들어, 인지 모듈(402) 또는 계획 모듈(404)은 다른 실시예에서 프로세스의 단계들 중 일부 또는 전부를 수행한다. 마찬가지로, 실시예는 상이한 및/또는 추가적인 단계들을 포함할 수 있거나, 또는 단계들을 상이한 순서로 수행할 수 있다. 인지 모듈(402) 및 계획 모듈(404)은 도 4를 참조하여 더 상세히 예시되고 기술되어 있다.
DOG 회로는 AV(100)의 LIDAR(502a)로부터 수신된 제1 LIDAR 데이터(504a)에 기초하여 DOG(1300)를 생성한다(2004). DOG(1300)는 도 13을 참조하여 더 상세히 예시되고 기술되어 있다. LiDAR 데이터(504a) 및 LiDAR(502a)는 도 5를 참조하여 더 상세히 예시되고 기술되어 있다.
DOG 회로의 하나 이상의 프로세서에 의해 실행되는 입자 필터는 DOG(1300)로부터 파형(1500)을 추출한다(2008). 파형(1500)은 도 15를 참조하여 더 상세히 예시되고 기술되어 있다. 파형(1500)은 LiDAR(502a)의 광의 위상(1508)에 따른 LiDAR 데이터(504a)의 강도(1504)의 변동을 포함한다. LIDAR 데이터(504a)의 강도(1504) 및 광의 위상(1508)은 도 15를 참조하여 더 상세히 예시되고 기술되어 있다.
DOG 회로는 제1 LiDAR 데이터(504a)가 하나 이상의 대상체(608) 중 특정 대상체(예를 들면, 보행자(192))로부터 반사되었는지 식별하기 위해 파형(1500)을 하나 이상의 대상체(608)로부터 반사된 이력적 LiDAR 데이터로부터 추출된 파형들의 라이브러리와 매칭한다(2012). 하나 이상의 대상체(608)는 도 6을 참조하여 더 상세히 예시되고 기술되어 있다. 보행자(192)는 도 1을 참조하여 더 상세히 예시되고 기술되어 있다.
DOG 회로는 제1 LiDAR 데이터(504a)가 수신된 후에 AV(100)의 LiDAR(502a)로부터 수신된 제2 LiDAR 데이터(제1 LiDAR 데이터(504a)의 업데이트된 버전)에 기초하여 파형(1500)을 업데이트한다(2016).
DOG 회로는 업데이트된 파형(1500)에 기초하여 AV(100)와 보행자(192)의 거리 변화율을 결정한다(2020). AV(100)와 보행자(192)의 거리 변화율은 AV(100)가 보행자(192)에 얼마나 빨리 접근하고 있는지를 표현한다.
AV(100)의 제어 회로(406)는 AV(100)와 보행자(192)의 거리 변화율에 기초하여 보행자(192)와의 충돌을 피하도록 AV(100)를 동작시킨다(2024). 제어 회로(406)는 도 4를 참조하여 더 상세히 예시되고 기술되어 있다.
전술한 설명에서, 본 발명의 실시예는 구현마다 달라질 수 있는 다수의 특정 세부 사항을 참조하여 기술되었다. 따라서, 상세한 설명 및 도면은 제한적인 의미보다는 예시적인 의미로 간주되어야 한다. 본 발명의 범위의 유일한 독점적인 지표, 및 출원인이 본 발명의 범위이도록 의도한 것은, 본 출원에서 특정 형태로 나오는 일련의 청구항의 문언적 등가 범위이며, 임의의 후속 보정을 포함한다. 그러한 청구항에 포함된 용어에 대한 본원에서 명시적으로 기재된 임의의 정의는 청구항에서 사용되는 그러한 용어의 의미를 결정한다. 그에 부가하여, 전술한 설명 및 이하의 청구항에서 "더 포함하는"이라는 용어가 사용될 때, 이 문구에 뒤따르는 것은 추가적인 단계 또는 엔티티, 또는 이전에 언급된 단계 또는 엔티티의 서브-단계/서브-엔티티일 수 있다.
실시예들
실시예 1. 방법으로서,
환경에서 동작하는 차량의 하나 이상의 프로세서에 의해, 상기 차량의 하나 이상의 LiDAR(light detection and ranging)로부터 LiDAR 데이터를 수신하는 단계 - 상기 LiDAR 데이터는 상기 환경에 위치된 하나 이상의 대상체(object)를 표현함 - ;
상기 하나 이상의 프로세서에 의해, 상기 환경의 시맨틱 맵(semantic map)에 기초하여 동적 점유 격자(dynamic occupancy grid, DOG)를 생성하는 단계 - 상기 DOG는 복수의 격자 셀들을 포함하고, 상기 복수의 격자 셀들 중 각각의 격자 셀은 상기 환경의 일부분을 표현함 - ;
상기 복수의 격자 셀들 중 각각의 격자 셀에 대해, 상기 하나 이상의 프로세서에 의해, 상기 LiDAR 데이터에 기초하여 확률 밀도 함수를 생성하는 단계 - 상기 확률 밀도 함수는 상기 격자 셀에 의해 표현된 상기 환경의 일부분이 상기 하나 이상의 대상체 중 한 대상체에 의해 점유될 확률을 표현함 - ;
상기 하나 이상의 프로세서에 의해, 상기 확률 밀도 함수에 기초하여 상기 차량과 상기 대상체의 충돌 소요 시간(time-to-collision, TTC)이 문턱 시간보다 작다고 결정하는 단계; 및
상기 TTC가 상기 문턱 시간보다 작다고 결정한 것에 응답하여, 상기 하나 이상의 프로세서에 의해, 상기 차량과 상기 대상체의 충돌을 피하도록 상기 차량을 동작시키는 단계
를 포함하는, 방법.
실시예 2. 실시예 1에 있어서, 상기 복수의 격자 셀들 중 각각의 격자 셀은 2차원 다각형 또는 3차원 다면체 중 하나인 것인, 방법.
실시예 3. 실시예 1 또는 실시예 2에 있어서, 상기 동적 점유 격자를 생성하는 단계는, 상기 하나 이상의 프로세서에 의해, 상기 LiDAR 데이터의 일부분을 상기 복수의 격자 셀들 중 하나보다 많은 격자 셀에 할당하는 단계 - 상기 LiDAR 데이터의 일부분은 상기 대상체에 대응함 - 를 포함하는 것인, 방법.
실시예 4. 실시예 1 내지 실시예 3 중 어느 한 실시예에 있어서, 상기 확률 밀도 함수를 생성하는 단계는,
상기 하나 이상의 프로세서에 의해, 상기 대상체에 대응하는 상기 LiDAR 데이터의 일부분의 강도(intensity)가 문턱 강도보다 크다고 결정한 것에 응답하여, 상기 하나 이상의 프로세서에 의해, 상기 환경의 일부분을 표현하는 상기 격자 셀을 식별하는 단계를 포함하는 것인, 방법.
실시예 5. 실시예 1 내지 실시예 4 중 어느 한 실시예에 있어서, 상기 확률 밀도 함수를 생성하는 단계는, 상기 하나 이상의 프로세서에 의해, 상기 환경의 일부분이 상기 대상체에 의해 점유될 확률을 0보다 크도록 조정하는 단계를 더 포함하는 것인, 방법.
실시예 6. 실시예 1 내지 실시예 5 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 LiDAR 데이터에 대한 재귀적 베이지안 분석(recursive Bayesian analysis)을 사용하여 상기 동적 점유 격자를 업데이트하는 단계를 더 포함하는, 방법.
실시예 7. 실시예 1 내지 실시예 6 중 어느 한 실시예에 있어서, 상기 확률 밀도 함수는 또한, 상기 격자 셀에 의해 표현된 상기 환경의 일부분이 상기 대상체에 의해 점유된 경우, 상기 격자 셀에 의해 표현된 상기 환경의 일부분이 상기 대상체에 의해 점유된 채로 남아 있을 제1 조건부 확률을 표현하는 것인, 방법.
실시예 8. 실시예 1 내지 실시예 7 중 어느 한 실시예에 있어서, 상기 확률 밀도 함수는 또한, 상기 격자 셀에 의해 표현된 상기 환경의 일부분에 상기 대상체가 없는 경우, 상기 격자 셀에 의해 표현된 상기 환경의 일부분에 상기 대상체가 없는 채로 남아 있을 제2 조건부 확률을 표현하는 것인, 방법.
실시예 9. 실시예 1 내지 실시예 8 중 어느 한 실시예에 있어서, 상기 격자 셀의 각각의 에지의 길이는 1 cm 내지 1 m 범위 내인 것인, 방법.
실시예 10. 실시예 1 내지 실시예 9 중 어느 한 실시예에 있어서, 상기 대상체는 차량이고, 상기 방법은, 상기 하나 이상의 프로세서에 의해, 상기 LiDAR 데이터에 기초하여 제2 확률 밀도 함수를 생성하는 단계 - 상기 제2 확률 밀도 함수는, 상기 격자 셀에 의해 표현된 상기 환경의 일부분이 보행자에 의해 점유될 제2 확률을 표현하고, 상기 하나 이상의 대상체는 상기 보행자를 포함함 - 를 더 포함하는 것인, 방법.
실시예 11. 실시예 1 내지 실시예 10 중 어느 한 실시예에 있어서, 상기 LiDAR 데이터는 잡음을 포함하고, 상기 방법은,
상기 하나 이상의 프로세서에 의해, 상기 복수의 격자 셀들 중 특정 격자 셀에 대한 확률이 0보다 크다고 결정하는 단계; 및
상기 하나 이상의 프로세서에 의해, 상기 특정 격자 셀의 이웃하는 격자 셀들에 대한 확률이 0이라고 결정하는 단계
를 더 포함하는 것인, 방법.
실시예 12. 실시예 1 내지 실시예 11 중 어느 한 실시예에 있어서, 상기 LiDAR 데이터는 잡음을 포함하고, 상기 방법은, 상기 하나 이상의 프로세서에 의해, 상기 특정 격자 셀에 대한 제1 확률을 0으로 조정하는 단계를 더 포함하는 것인, 방법.
실시예 13. 실시예 1 내지 실시예 12 중 어느 한 실시예에 있어서, 상기 확률 밀도 함수를 생성하는 단계는, 상기 하나 이상의 프로세서에 의해, 상기 LiDAR 데이터를 푸리에 변환을 사용하여 상기 격자 셀에 의해 표현된 상기 환경의 일부분이 상기 대상체에 의해 점유될 확률로 변환하는 단계 - 상기 LiDAR 데이터는 시간 도메인에서 측정되고 상기 복수의 격자 셀들은 공간 도메인에서 생성됨 - 를 포함하는 것인, 방법.
실시예 14. 실시예 1 내지 실시예 13 중 어느 한 실시예에 있어서, 상기 확률 밀도 함수를 생성하는 단계는, 상기 하나 이상의 프로세서에 의해, 상기 LiDAR 데이터를 베이지안 필터를 사용하여 상기 격자 셀에 의해 표현된 상기 환경의 일부분이 상기 대상체에 의해 점유될 사후 확률(posterior probability)과 재귀적으로 결합시키는 단계를 포함하는 것인, 방법.
실시예 15. 실시예 1 내지 실시예 14 중 어느 한 실시예에 있어서, 상기 동적 점유 격자를 생성하는 단계는, 상기 환경의 시맨틱 맵을 카테시안 좌표(Cartesian coordinates)를 사용하여 상기 복수의 격자 셀들로 분리하는 단계를 포함하는 것인, 방법.
실시예 16. 실시예 1 내지 실시예 15 중 어느 한 실시예에 있어서, 상기 동적 점유 격자를 생성하는 단계는, 상기 환경의 시맨틱 맵을 극좌표에 기초하여 상기 복수의 격자 셀들로 분리하는 단계를 포함하는 것인, 방법.
실시예 17. 실시예 1 내지 실시예 16 중 어느 한 실시예에 있어서, 상기 동적 점유 격자는, 상기 환경의 시맨틱 맵의 규칙적인 샘플링(regular sampling)에 기초하여 생성되는 것인, 방법.
실시예 18. 실시예 1 내지 실시예 17 중 어느 한 실시예에 있어서, 상기 동적 점유 격자는, 상기 환경의 시맨틱 맵의 불규칙적인 샘플링에 기초하여 생성되는 것인, 방법.
실시예 19. 방법으로서,
차량의 하나 이상의 프로세서에 의해, 상기 차량의 궤적을 따라 운전가능 구역을 표현하는 동적 점유 그래프를 생성하는 단계 - 상기 동적 점유 그래프는 적어도 2개의 노드들 및 상기 2개의 노드들을 연결하는 에지를 포함하고, 상기 2개의 노드들은 상기 운전가능 구역의 2개의 인접한 시공간적 위치들을 표현함 - ;
상기 하나 이상의 프로세서에 의해, 상기 차량의 하나 이상의 LiDAR로부터 수신된 LiDAR 데이터에 기초하여 복수의 입자들의 입자 분포 함수를 생성하는 단계 - 상기 복수의 입자들은 상기 운전가능 구역 내의 적어도 하나의 대상체를 표현하고, 상기 동적 점유 그래프의 에지는 상기 운전가능 구역의 2개의 인접한 시공간적 위치들 사이에서의 상기 적어도 하나의 대상체의 움직임(motion)을 표현함 - ;
상기 하나 이상의 프로세서에 의해, 상기 입자 분포 함수에 기초하여 상기 차량에 상대적인 상기 대상체의 속도를 생성하는 단계;
상기 하나 이상의 프로세서에 의해, 상기 입자 분포 함수에 기초하여 상기 차량과 상기 적어도 하나의 대상체의 충돌 소요 시간을 결정하는 단계; 및
상기 충돌 소요 시간이 문턱 시간보다 작다고 결정한 것에 응답하여, 상기 하나 이상의 프로세서에 의해, 상기 차량과 상기 적어도 하나의 대상체의 충돌을 피하기 위해 상기 차량의 제어 회로에 충돌 경고를 송신하는 단계
를 포함하는, 방법.
실시예 20. 실시예 19에 있어서, 상기 동적 점유 그래프는 상기 차량의 좌표 프레임에 따라 생성되는 것인, 방법.
실시예 21. 실시예 19 또는 실시예 20에 있어서, 상기 입자 분포 함수를 생성하는 단계는, 상기 하나 이상의 프로세서에 의해, 상기 적어도 하나의 대상체가 상기 운전가능 구역의 2개의 인접한 시공간적 위치들 중 적어도 하나를 점유할 확률을 결정하는 단계를 포함하는 것인, 방법.
실시예 22. 실시예 19 내지 실시예 21 중 어느 한 실시예에 있어서, 상기 입자 분포 함수를 생성하는 단계는, 상기 하나 이상의 프로세서에 의해, 상기 운전가능 구역의 2개의 인접한 시공간적 위치들 중 적어도 하나에서의 단위 체적 당 상기 복수의 입자들의 수를 결정하는 단계를 포함하는 것인, 방법.
실시예 23. 실시예 19 내지 실시예 22 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서는 상기 충돌 경고를 상기 차량의 아비터 회로(arbiter circuit)를 통해 상기 제어 회로에 송신하고, 상기 방법은, 상기 하나 이상의 프로세서에 의해, 심장박동 신호를 상기 아비터 회로에 주기적으로 송신하는 단계를 더 포함하는 것인, 방법.
실시예 24. 실시예 19 내지 실시예 23 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 차량의 하나 이상의 RADAR를 사용하여 수신된 RADAR 데이터와 대조하여(against) 상기 차량에 상대적인 상기 대상체의 속도를 검증하는 단계를 더 포함하는, 방법.
실시예 25. 실시예 19 내지 실시예 24 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 입자 분포 함수에 기초하여 상기 차량 및 상기 적어도 하나의 대상체의 최소 충돌 소요 시간(TTC) 및 평균 TTC를 결정하는 단계를 더 포함하는, 방법.
실시예 26. 실시예 19 내지 실시예 25 중 어느 한 실시예에 있어서,
상기 하나 이상의 프로세서에 의해, 상기 제어 회로로부터 제어 데이터를 수신하는 단계 - 상기 제어 데이터는 상기 차량의 조향 휠의 각도를 포함함 - ; 및
상기 하나 이상의 프로세서에 의해, 상기 운전가능 구역 내에서 상기 차량의 시공간적 위치를 결정하는 단계
를 더 포함하는, 방법.
실시예 27. 실시예 19 내지 실시예 26 중 어느 한 실시예에 있어서, 상기 제어 데이터는 상기 조향 휠의 각속도를 더 포함하는 것인, 방법.
실시예 28. 실시예 19 내지 실시예 27 중 어느 한 실시예에 있어서, 상기 동적 점유 그래프를 생성하는 단계는 상기 운전가능 구역 내에서의 상기 차량의 시공간적 위치에 기초하는 것인, 방법.
실시예 29. 실시예 19 내지 실시예 28 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 LiDAR 데이터에 기초하여 상기 적어도 2개의 노드들 중 한 노드에 대한 관측 벡터(observation vector)를 결정하는 단계 - 상기 관측 벡터는 상기 운전가능 구역의 2개의 인접한 시공간적 위치들 중 대응하는 시공간적 위치에서의 입자들의 밀도를 포함함 - 를 더 포함하는, 방법.
실시예 30. 실시예 19 내지 실시예 29 중 어느 한 실시예에 있어서, 상기 관측 벡터는, 상기 대응하는 시공간적 위치에서의 상기 입자들의 속도 성분 및 상기 입자 분포 함수의 공분산(covariance)을 더 포함하는 것인, 방법.
실시예 31. 실시예 19 내지 실시예 30 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 LiDAR 데이터에 기초하여 상기 동적 점유 그래프를 통해 상기 복수의 입자들의 흐름을 모니터링하는 단계를 더 포함하는, 방법.
실시예 32. 실시예 19 내지 실시예 31 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 입자 분포 함수에 기초하여 상기 동적 점유 그래프의 각각의 노드의 상태를 결정하는 단계를 더 포함하는, 방법.
실시예 33. 실시예 19 내지 실시예 32 중 어느 한 실시예에 있어서, 상기 입자 분포 함수를 생성하는 단계는, 상기 하나 이상의 프로세서에 의해, 상기 입자 분포 함수의 파라미터에 의해 정의된 미분 방정식에 대한 해를 결정하는 단계를 포함하는 것인, 방법.
실시예 34. 실시예 19 내지 실시예 33 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 하나 이상의 LiDAR의 모델들에 기초하여 상기 입자 분포 함수를 업데이트하는 단계를 더 포함하는, 방법.
실시예 35. 실시예 19 내지 실시예 34 중 어느 한 실시예에 있어서, 상기 동적 점유 그래프를 생성하는 단계는, 상기 하나 이상의 프로세서에 의해, 상기 LiDAR 데이터의 일부분을 상기 적어도 2개의 노드들에 할당하는 단계 - 상기 LiDAR 데이터의 일부분은 상기 대상체에 대응함 - 를 포함하는 것인, 방법.
실시예 36. 실시예 19 내지 실시예 35 중 어느 한 실시예에 있어서, 상기 입자 분포 함수를 생성하는 단계는, 상기 하나 이상의 프로세서에 의해, 상기 운전가능 구역의 일부분이 상기 대상체에 의해 점유될 확률을 0보다 크도록 조정하는 단계를 포함하는 것인, 방법.
실시예 37. 실시예 19 내지 실시예 36 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 LiDAR 데이터에 대한 재귀적 베이지안 분석을 사용하여 상기 동적 점유 그래프를 업데이트하는 단계를 더 포함하는, 방법.
실시예 38. 방법으로서,
차량의 하나 이상의 프로세서에 의해, 상기 차량의 하나 이상의 센서로부터 센서 데이터를 수신하는 단계 - 상기 센서 데이터는 레이턴시(latency)를 가짐 - ;
상기 레이턴시가 문턱 레이턴시보다 작다고 결정한 것에 응답하여, 상기 하나 이상의 프로세서에 의해, 상기 센서 데이터에 대해 순환 중복 검사를 실행하는 단계;
상기 센서 데이터가 상기 순환 중복 검사를 통과했다고 결정한 것에 응답하여, 상기 하나 이상의 프로세서에 의해, 상기 센서 데이터에 기초하여 상기 하나 이상의 센서의 역 센서 모델(inverse sensor model)을 사용하여 동적 점유 격자(DOG)의 각각의 격자 셀에 대한 이산 이진 점유 확률을 결정하는 단계 - 상기 점유 확률은 상기 차량이 동작하고 있는 환경의 일부분이 대상체에 의해 점유되는지 여부를 표현함 - ;
상기 하나 이상의 프로세서에 의해, 운동 함수(kinetic function)를 사용하여 상기 점유 확률에 기초하여 입자 밀도 함수를 결정하는 단계; 및
상기 차량과 상기 대상체 사이의 충돌 소요 시간(TTC)이 문턱 TTC보다 작다는 것을 상기 입자 밀도 함수가 표현한다고 결정한 것에 응답하여, 상기 하나 이상의 프로세서에 의해, 상기 차량의 제어 회로에 감속 요청을 송신하는 단계
를 포함하는, 방법.
실시예 39. 실시예 38에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 동적 점유 격자의 각각의 격자 셀에 대한 상기 점유 확률에 대응하는 점유 신뢰도(occupancy confidence)를 결정하는 단계를 더 포함하는, 방법.
실시예 40. 실시예 38 또는 실시예 39에 있어서, 상기 점유 신뢰도는, 상기 센서 데이터의 성숙도(maturity), 플리커(flicker), LiDAR 리턴 강도, 또는 융합 메트릭(fusion metric)들 중 적어도 하나에 기초하여 결정되는 것인, 방법.
실시예 41. 실시예 38 내지 실시예 40 중 어느 한 실시예에 있어서, 상기 감속 요청을 송신하는 단계는 또한, 상기 점유 신뢰도가 문턱 점유 신뢰도보다 큰 것에 응답하는 것인, 방법.
실시예 42. 실시예 38 내지 실시예 41 중 어느 한 실시예에 있어서, 상기 TTC가 감소함에 따라 상기 감속 요청의 감속이 증가하는 것인, 방법.
실시예 43. 실시예 38 내지 실시예 42 중 어느 한 실시예에 있어서, 상기 차량의 속력이 증가함에 따라 상기 감속 요청의 감속이 증가하는 것인, 방법.
실시예 44. 실시예 38 내지 실시예 43 중 어느 한 실시예에 있어서, 상기 차량의 속력이 증가함에 따라 상기 감속 요청의 감속이 증가하는 것인, 방법.
실시예 45. 실시예 38 내지 실시예 44 중 어느 한 실시예에 있어서, 상기 DOG는 복수의 입자들을 포함하고, 각각의 입자는 상태를 갖는 것인, 방법.
실시예 46. 실시예 38 내지 실시예 45 중 어느 한 실시예에 있어서, 상기 상태는 X 방향에서의 각각의 입자의 제1 속도, Y 방향에서의 각각의 입자의 제2 속도, 및 Z 방향에서의 각각의 입자의 제3 속도를 포함하는 것인, 방법.
실시예 47. 실시예 38 내지 실시예 46 중 어느 한 실시예에 있어서, 상기 상태는 상기 제1 속도, 상기 제2 속도, 및 상기 제3 속도와 연관된 공분산을 더 포함하는 것인, 방법.
실시예 48. 실시예 38 내지 실시예 47 중 어느 한 실시예에 있어서, 상기 상태는 상기 입자에 작용하는 힘을 더 포함하는 것인, 방법.
실시예 49. 실시예 38 내지 실시예 48 중 어느 한 실시예에 있어서, 상기 힘은 곡선 도로를 따른 상기 차량의 움직임을 표현하는 것인, 방법.
실시예 50. 실시예 38 내지 실시예 49 중 어느 한 실시예에 있어서, 상기 힘은 상기 차량의 가속도를 표현하는 것인, 방법.
실시예 51. 실시예 38 내지 실시예 50 중 어느 한 실시예에 있어서, 상기 입자 밀도 함수는 다차원 위상 공간에 걸쳐 결정되는 것인, 방법.
실시예 52. 실시예 38 내지 실시예 51 중 어느 한 실시예에 있어서, 상기 입자 밀도 함수는 시간-공간-속도 좌표 프레임에서 결정되는 것인, 방법.
실시예 53. 실시예 38 내지 실시예 52 중 어느 한 실시예에 있어서,
각각의 격자 셀의 상기 점유 확률을 결정한 것에 응답하여, 상기 점유 확률에서의 변화에 기초하여 상기 대상체의 움직임을 결정하는 단계(큐브가 점유되면, 상기 큐브는 상기 큐브와 연관된 많은 신호들을 가질 것이고, 상기 큐브가 점유되지 않으면, 상기 큐브는 잡음일뿐인, 더 적은 신호들을 가질 것임)
를 더 포함하는, 방법.
실시예 54. 실시예 38 내지 실시예 53 중 어느 한 실시예에 있어서, 각각의 격자 셀은 2차원 다각형 또는 3차원 다면체 중 하나인 것인, 방법.
실시예 55. 실시예 38 내지 실시예 54 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 센서 데이터에 대한 재귀적 베이지안 분석을 사용하여 상기 동적 점유 격자를 업데이트하는 단계를 더 포함하는, 방법.
실시예 56. 방법으로서,
환경에서 동작하는 차량의 하나 이상의 프로세서에 의해, 상기 차량의 LiDAR로부터 수신된 제1 LiDAR 데이터에 기초하여 동적 점유 격자(DOG)를 생성하는 단계;
상기 하나 이상의 프로세서에 의해 실행되는 입자 필터에 의해, 상기 DOG로부터 파형을 추출하는 단계 - 상기 파형은 상기 LiDAR의 광의 위상으로의 상기 LiDAR 데이터의 강도의 변동(variation)을 포함함 - ;
상기 하나 이상의 프로세서에 의해, 상기 제1 LiDAR 데이터가 하나 이상의 대상체 중 특정 대상체로부터 반사되었는지 식별하기 위해 상기 파형을 상기 하나 이상의 대상체로부터 반사된 이력적 LiDAR 데이터로부터 추출된 파형들의 라이브러리와 매칭하는 단계;
상기 하나 이상의 프로세서에 의해, 상기 제1 LiDAR 데이터가 수신된 후에 상기 차량의 LiDAR로부터 수신된 제2 LiDAR 데이터에 기초하여 상기 파형을 업데이트하는 단계;
상기 하나 이상의 프로세서에 의해, 상기 파형에 기초하여 상기 차량과 상기 특정 대상체의 거리 변화율(range rate)을 결정하는 단계; 및
상기 차량의 제어 회로에 의해, 상기 차량과 상기 특정 대상체의 거리 변화율에 기초하여 상기 특정 대상체와의 충돌을 피하도록 상기 차량을 동작시키는 단계
를 포함하는, 방법.
실시예 57. 실시예 56에 있어서, 상기 DOG를 생성하는 단계는, 상기 하나 이상의 프로세서에 의해, 상기 동적 점유 격자의 복수의 큐브들에 걸쳐 상기 특정 대상체를 표한하기 위한 베이지안 필터링을 사용하여 상기 차량의 센서로부터 수신된 센서 데이터를 상기 제1 LiDAR 데이터와 융합하는 단계를 포함하는 것인, 방법.
실시예 58. 실시예 56 또는 실시예 57에 있어서, 상기 DOG의 복수의 큐브들 중 각각의 큐브는 상기 특정 대상체의 확률적 점유 추정치 및 속도 추정치를 포함하는 것인, 방법.
실시예 59. 실시예 56 내지 실시예 58 중 어느 한 실시예에 있어서, 상기 DOG는 상기 환경의 경계 내의 구역을 표현하고, 상기 복수의 큐브들 중 각각의 큐브는 폭을 갖는 것인, 방법.
실시예 60. 실시예 56 내지 실시예 59 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 특정 대상체의 표현이 상기 동적 점유 격자 내에 위치되도록, 상기 DOG 내의 상기 환경의 경계의 표현을 상기 폭만큼 조정하는 단계를 더 포함하는, 방법.
실시예 61. 실시예 56 내지 실시예 60 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 복수의 큐브들 사이의 상기 LiDAR 데이터의 상호작용을 무시하고 상기 DOG에 걸친 확률적 점유 분포 및 속도 분포를 결정하는 단계를 더 포함하는, 방법.
실시예 62. 실시예 56 내지 실시예 61 중 어느 한 실시예에 있어서, 상기 LiDAR는 위상 어레이(phased array)를 포함하고, 상기 제1 LiDAR 데이터는 시간, 주파수, 및 위상 정보를 포함하는 것인, 방법.
실시예 63. 실시예 56 내지 실시예 62 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 LiDAR 데이터의 위상 시프트를 결정하는 단계 - 상기 LiDAR 데이터는 위상 변조된 신호임 - 를 더 포함하는, 방법.
실시예 64. 실시예 56 내지 실시예 63 중 어느 한 실시예에 있어서, 상기 입자 필터에 의해, 상기 DOG로부터 제2 파형을 추출하는 단계 - 상기 제2 파형은 상기 차량으로부터의 상기 특정 대상체의 거리로의 상기 LiDAR 데이터의 강도의 변동을 포함함 - 를 더 포함하는, 방법.
실시예 65. 실시예 56 내지 실시예 64 중 어느 한 실시예에 있어서, 상기 입자 필터에 의해, 상기 DOG로부터 제2 파형을 추출하는 단계 - 상기 제2 파형은 상기 차량으로부터의 상기 특정 대상체의 거리로의 상기 확률적 점유 추정치의 변동을 포함함 - 를 더 포함하는, 방법.
실시예 66. 실시예 56 내지 실시예 65 중 어느 한 실시예에 있어서, 상기 입자 필터에 의해, 상기 DOG로부터 제2 파형을 추출하는 단계 - 상기 제2 파형은 상기 LiDAR의 광의 위상으로의 상기 확률적 점유 추정치의 변동을 포함함 - 를 더 포함하는, 방법.
실시예 67. 실시예 56 내지 실시예 66 중 어느 한 실시예에 있어서, 상기 파형은 제2 대상체와 상호작용하는 상기 특정 대상체를 표현하는 것인, 방법.
실시예 68. 실시예 56 내지 실시예 67 중 어느 한 실시예에 있어서, 상기 파형을 상기 파형들의 라이브러리와 매칭하는 단계는,
상기 하나 이상의 프로세서에 의해, 상기 파형으로부터 특성 벡터(feature vector)를 추출하는 단계; 및
상기 하나 이상의 프로세서에 의해, 머신 러닝 모델을 사용하여 상기 하나 이상의 대상체로부터 상기 특정 대상체를 식별하는 단계를 포함하는 것인, 방법.
실시예 69. 실시예 56 내지 실시예 68 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 이력적 LiDAR 데이터로부터 추출된 특성 벡터에 기초하여 상기 머신 러닝 모델을 트레이닝하는 단계를 더 포함하는, 방법.
실시예 70. 실시예 56 또는 실시예 69 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 특정 큐브에 의해 표현된 상기 환경의 일부분이 상기 특정 대상체에 의해 점유될 때 상기 동적 점유 격자의 복수의 큐브들 중 특정 큐브에 대응하는 특정 LiDAR 데이터의 강도가 문턱 강도보다 클 제1 조건부 확률을 결정하는 단계를 더 포함하는, 방법.
실시예 71. 실시예 56 내지 실시예 70 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 특정 큐브에 의해 표현된 상기 환경의 일부분에 상기 특정 대상체가 없을 때 상기 DOG의 복수의 큐브들 중 특정 큐브에 대응하는 특정 LiDAR 데이터의 강도가 문턱 강도보다 클 제2 조건부 확률을 결정하는 단계를 더 포함하는, 방법.
실시예 72. 실시예 56 내지 실시예 71 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 제1 조건부 확률 및 상기 제2 조건부 확률에 기초하여 상기 특정 큐브에 의해 표현된 상기 환경의 일부분이 상기 특정 대상체에 의해 점유된다고 결정하는 단계를 더 포함하는, 방법.
실시예 73. 실시예 58 내지 실시예 72 중 어느 한 실시예에 있어서, 상기 DOG는 또한, 상기 환경의 시맨틱 맵의 불규칙적인 샘플링에 기초하여 생성되는 것인, 방법.
실시예 74. 자율주행 차량으로서,
하나 이상의 컴퓨터 프로세서; 및
상기 하나 이상의 컴퓨터 프로세서에 의해 실행될 때, 실시예 1 내지 실시예 73 중 어느 한 실시예에 기재된 방법들을 수행하게 하는 명령어들을 저장하는 하나 이상의 비일시적 저장 매체
를 포함하는, 자율주행 차량.
실시예 75. 하나 이상의 컴퓨팅 디바이스에 의해 실행될 때, 실시예 1 내지 실시예 73 중 어느 한 실시예에 기재된 방법들을 수행하게 하는 명령어들을 저장하는 하나 이상의 비일시적 저장 매체.
실시예 76. 하나 이상의 컴퓨팅 디바이스에 의해 실행될 때, 실시예 1 내지 실시예 73 중 어느 한 실시예에 기재된 방법들을 수행하게 하는 명령어들을 수반하는 머신 실행 동작을 수행하는 단계를 포함하는 방법으로서,
상기 머신 실행 동작은, 상기 명령어들을 전송하는 동작, 상기 명령어들을 수신하는 동작, 상기 명령어들을 저장하는 동작, 또는 상기 명령어들을 실행하는 동작 중 적어도 하나인 것인, 방법.
실시예들
실시예 1. 방법으로서,
환경에서 동작하는 차량의 하나 이상의 프로세서에 의해, 상기 차량의 하나 이상의 LiDAR(light detection and ranging)로부터 LiDAR 데이터를 수신하는 단계 - 상기 LiDAR 데이터는 상기 환경에 위치된 하나 이상의 대상체(object)를 표현함 - ;
상기 하나 이상의 프로세서에 의해, 상기 환경의 시맨틱 맵(semantic map)에 기초하여 동적 점유 격자(dynamic occupancy grid, DOG)를 생성하는 단계 - 상기 DOG는 복수의 격자 셀들을 포함하고, 상기 복수의 격자 셀들 중 각각의 격자 셀은 상기 환경의 일부분을 표현함 - ;
상기 복수의 격자 셀들 중 각각의 격자 셀에 대해, 상기 하나 이상의 프로세서에 의해, 상기 LiDAR 데이터에 기초하여 확률 밀도 함수를 생성하는 단계 - 상기 확률 밀도 함수는 상기 격자 셀에 의해 표현된 상기 환경의 일부분이 상기 하나 이상의 대상체 중 한 대상체에 의해 점유될 확률을 표현함 - ;
상기 하나 이상의 프로세서에 의해, 상기 확률 밀도 함수에 기초하여 상기 차량과 상기 대상체의 충돌 소요 시간(time-to-collision, TTC)이 문턱 시간보다 작다고 결정하는 단계; 및
상기 TTC가 상기 문턱 시간보다 작다고 결정한 것에 응답하여, 상기 하나 이상의 프로세서에 의해, 상기 차량과 상기 대상체의 충돌을 피하도록 상기 차량을 동작시키는 단계
를 포함하는, 방법.
실시예 2. 실시예 1에 있어서, 상기 복수의 격자 셀들 중 각각의 격자 셀은 2차원 다각형 또는 3차원 다면체 중 하나인 것인, 방법.
실시예 3. 실시예 1 또는 실시예 2에 있어서, 상기 동적 점유 격자를 생성하는 단계는, 상기 하나 이상의 프로세서에 의해, 상기 LiDAR 데이터의 일부분을 상기 복수의 격자 셀들 중 하나보다 많은 격자 셀에 할당하는 단계 - 상기 LiDAR 데이터의 일부분은 상기 대상체에 대응함 - 를 포함하는 것인, 방법.
실시예 4. 실시예 1 내지 실시예 3 중 어느 한 실시예에 있어서, 상기 확률 밀도 함수를 생성하는 단계는,
상기 하나 이상의 프로세서에 의해, 상기 대상체에 대응하는 상기 LiDAR 데이터의 일부분의 강도(intensity)가 문턱 강도보다 크다고 결정한 것에 응답하여, 상기 하나 이상의 프로세서에 의해, 상기 환경의 일부분을 표현하는 상기 격자 셀을 식별하는 단계를 포함하는 것인, 방법.
실시예 5. 실시예 1 내지 실시예 4 중 어느 한 실시예에 있어서, 상기 확률 밀도 함수를 생성하는 단계는, 상기 하나 이상의 프로세서에 의해, 상기 환경의 일부분이 상기 대상체에 의해 점유될 확률을 0보다 크도록 조정하는 단계를 더 포함하는 것인, 방법.
실시예 6. 실시예 1 내지 실시예 5 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 LiDAR 데이터에 대한 재귀적 베이지안 분석(recursive Bayesian analysis)을 사용하여 상기 동적 점유 격자를 업데이트하는 단계를 더 포함하는, 방법.
실시예 7. 실시예 1 내지 실시예 6 중 어느 한 실시예에 있어서, 상기 확률 밀도 함수는 또한, 상기 격자 셀에 의해 표현된 상기 환경의 일부분이 상기 대상체에 의해 점유된 경우, 상기 격자 셀에 의해 표현된 상기 환경의 일부분이 상기 대상체에 의해 점유된 채로 남아 있을 제1 조건부 확률을 표현하는 것인, 방법.
실시예 8. 실시예 1 내지 실시예 7 중 어느 한 실시예에 있어서, 상기 확률 밀도 함수는 또한, 상기 격자 셀에 의해 표현된 상기 환경의 일부분에 상기 대상체가 없는 경우, 상기 격자 셀에 의해 표현된 상기 환경의 일부분에 상기 대상체가 없는 채로 남아 있을 제2 조건부 확률을 표현하는 것인, 방법.
실시예 9. 실시예 1 내지 실시예 8 중 어느 한 실시예에 있어서, 상기 격자 셀의 각각의 에지의 길이는 1 cm 내지 1 m 범위 내인 것인, 방법.
실시예 10. 실시예 1 내지 실시예 9 중 어느 한 실시예에 있어서, 상기 대상체는 차량이고, 상기 방법은, 상기 하나 이상의 프로세서에 의해, 상기 LiDAR 데이터에 기초하여 제2 확률 밀도 함수를 생성하는 단계 - 상기 제2 확률 밀도 함수는, 상기 격자 셀에 의해 표현된 상기 환경의 일부분이 보행자에 의해 점유될 제2 확률을 표현하고, 상기 하나 이상의 대상체는 상기 보행자를 포함함 - 를 더 포함하는 것인, 방법.
실시예 11. 실시예 1 내지 실시예 10 중 어느 한 실시예에 있어서, 상기 LiDAR 데이터는 잡음을 포함하고, 상기 방법은,
상기 하나 이상의 프로세서에 의해, 상기 복수의 격자 셀들 중 특정 격자 셀에 대한 확률이 0보다 크다고 결정하는 단계; 및
상기 하나 이상의 프로세서에 의해, 상기 특정 격자 셀의 이웃하는 격자 셀들에 대한 확률이 0이라고 결정하는 단계
를 더 포함하는 것인, 방법.
실시예 12. 실시예 1 내지 실시예 11 중 어느 한 실시예에 있어서, 상기 LiDAR 데이터는 잡음을 포함하고, 상기 방법은, 상기 하나 이상의 프로세서에 의해, 상기 특정 격자 셀에 대한 제1 확률을 0으로 조정하는 단계를 더 포함하는 것인, 방법.
실시예 13. 실시예 1 내지 실시예 12 중 어느 한 실시예에 있어서, 상기 확률 밀도 함수를 생성하는 단계는, 상기 하나 이상의 프로세서에 의해, 상기 LiDAR 데이터를 푸리에 변환을 사용하여 상기 격자 셀에 의해 표현된 상기 환경의 일부분이 상기 대상체에 의해 점유될 확률로 변환하는 단계 - 상기 LiDAR 데이터는 시간 도메인에서 측정되고 상기 복수의 격자 셀들은 공간 도메인에서 생성됨 - 를 포함하는 것인, 방법.
실시예 14. 실시예 1 내지 실시예 13 중 어느 한 실시예에 있어서, 상기 확률 밀도 함수를 생성하는 단계는, 상기 하나 이상의 프로세서에 의해, 상기 LiDAR 데이터를 베이지안 필터를 사용하여 상기 격자 셀에 의해 표현된 상기 환경의 일부분이 상기 대상체에 의해 점유될 사후 확률(posterior probability)과 재귀적으로 결합시키는 단계를 포함하는 것인, 방법.
실시예 15. 실시예 1 내지 실시예 14 중 어느 한 실시예에 있어서, 상기 동적 점유 격자를 생성하는 단계는, 상기 환경의 시맨틱 맵을 카테시안 좌표(Cartesian coordinates)를 사용하여 상기 복수의 격자 셀들로 분리하는 단계를 포함하는 것인, 방법.
실시예 16. 실시예 1 내지 실시예 15 중 어느 한 실시예에 있어서, 상기 동적 점유 격자를 생성하는 단계는, 상기 환경의 시맨틱 맵을 극좌표에 기초하여 상기 복수의 격자 셀들로 분리하는 단계를 포함하는 것인, 방법.
실시예 17. 실시예 1 내지 실시예 16 중 어느 한 실시예에 있어서, 상기 동적 점유 격자는, 상기 환경의 시맨틱 맵의 규칙적인 샘플링(regular sampling)에 기초하여 생성되는 것인, 방법.
실시예 18. 실시예 1 내지 실시예 17 중 어느 한 실시예에 있어서, 상기 동적 점유 격자는, 상기 환경의 시맨틱 맵의 불규칙적인 샘플링에 기초하여 생성되는 것인, 방법.
실시예 19. 방법으로서,
차량의 하나 이상의 프로세서에 의해, 상기 차량의 궤적을 따라 운전가능 구역을 표현하는 동적 점유 그래프를 생성하는 단계 - 상기 동적 점유 그래프는 적어도 2개의 노드들 및 상기 2개의 노드들을 연결하는 에지를 포함하고, 상기 2개의 노드들은 상기 운전가능 구역의 2개의 인접한 시공간적 위치들을 표현함 - ;
상기 하나 이상의 프로세서에 의해, 상기 차량의 하나 이상의 LiDAR로부터 수신된 LiDAR 데이터에 기초하여 복수의 입자들의 입자 분포 함수를 생성하는 단계 - 상기 복수의 입자들은 상기 운전가능 구역 내의 적어도 하나의 대상체를 표현하고, 상기 동적 점유 그래프의 에지는 상기 운전가능 구역의 2개의 인접한 시공간적 위치들 사이에서의 상기 적어도 하나의 대상체의 움직임(motion)을 표현함 - ;
상기 하나 이상의 프로세서에 의해, 상기 입자 분포 함수에 기초하여 상기 차량에 상대적인 상기 대상체의 속도를 생성하는 단계;
상기 하나 이상의 프로세서에 의해, 상기 입자 분포 함수에 기초하여 상기 차량과 상기 적어도 하나의 대상체의 충돌 소요 시간을 결정하는 단계; 및
상기 충돌 소요 시간이 문턱 시간보다 작다고 결정한 것에 응답하여, 상기 하나 이상의 프로세서에 의해, 상기 차량과 상기 적어도 하나의 대상체의 충돌을 피하기 위해 상기 차량의 제어 회로에 충돌 경고를 송신하는 단계
를 포함하는, 방법.
실시예 20. 실시예 19에 있어서, 상기 동적 점유 그래프는 상기 차량의 좌표 프레임에 따라 생성되는 것인, 방법.
실시예 21. 실시예 19 또는 실시예 20에 있어서, 상기 입자 분포 함수를 생성하는 단계는, 상기 하나 이상의 프로세서에 의해, 상기 적어도 하나의 대상체가 상기 운전가능 구역의 2개의 인접한 시공간적 위치들 중 적어도 하나를 점유할 확률을 결정하는 단계를 포함하는 것인, 방법.
실시예 22. 실시예 19 내지 실시예 21 중 어느 한 실시예에 있어서, 상기 입자 분포 함수를 생성하는 단계는, 상기 하나 이상의 프로세서에 의해, 상기 운전가능 구역의 2개의 인접한 시공간적 위치들 중 적어도 하나에서의 단위 체적 당 상기 복수의 입자들의 수를 결정하는 단계를 포함하는 것인, 방법.
실시예 23. 실시예 19 내지 실시예 22 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서는 상기 충돌 경고를 상기 차량의 아비터 회로(arbiter circuit)를 통해 상기 제어 회로에 송신하고, 상기 방법은, 상기 하나 이상의 프로세서에 의해, 심장박동 신호를 상기 아비터 회로에 주기적으로 송신하는 단계를 더 포함하는 것인, 방법.
실시예 24. 실시예 19 내지 실시예 23 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 차량의 하나 이상의 RADAR를 사용하여 수신된 RADAR 데이터와 대조하여(against) 상기 차량에 상대적인 상기 대상체의 속도를 검증하는 단계를 더 포함하는, 방법.
실시예 25. 실시예 19 내지 실시예 24 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 입자 분포 함수에 기초하여 상기 차량 및 상기 적어도 하나의 대상체의 최소 충돌 소요 시간(TTC) 및 평균 TTC를 결정하는 단계를 더 포함하는, 방법.
실시예 26. 실시예 19 내지 실시예 25 중 어느 한 실시예에 있어서,
상기 하나 이상의 프로세서에 의해, 상기 제어 회로로부터 제어 데이터를 수신하는 단계 - 상기 제어 데이터는 상기 차량의 조향 휠의 각도를 포함함 - ; 및
상기 하나 이상의 프로세서에 의해, 상기 운전가능 구역 내에서 상기 차량의 시공간적 위치를 결정하는 단계
를 더 포함하는, 방법.
실시예 27. 실시예 19 내지 실시예 26 중 어느 한 실시예에 있어서, 상기 제어 데이터는 상기 조향 휠의 각속도를 더 포함하는 것인, 방법.
실시예 28. 실시예 19 내지 실시예 27 중 어느 한 실시예에 있어서, 상기 동적 점유 그래프를 생성하는 단계는 상기 운전가능 구역 내에서의 상기 차량의 시공간적 위치에 기초하는 것인, 방법.
실시예 29. 실시예 19 내지 실시예 28 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 LiDAR 데이터에 기초하여 상기 적어도 2개의 노드들 중 한 노드에 대한 관측 벡터(observation vector)를 결정하는 단계 - 상기 관측 벡터는 상기 운전가능 구역의 2개의 인접한 시공간적 위치들 중 대응하는 시공간적 위치에서의 입자들의 밀도를 포함함 - 를 더 포함하는, 방법.
실시예 30. 실시예 19 내지 실시예 29 중 어느 한 실시예에 있어서, 상기 관측 벡터는, 상기 대응하는 시공간적 위치에서의 상기 입자들의 속도 성분 및 상기 입자 분포 함수의 공분산(covariance)을 더 포함하는 것인, 방법.
실시예 31. 실시예 19 내지 실시예 30 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 LiDAR 데이터에 기초하여 상기 동적 점유 그래프를 통해 상기 복수의 입자들의 흐름을 모니터링하는 단계를 더 포함하는, 방법.
실시예 32. 실시예 19 내지 실시예 31 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 입자 분포 함수에 기초하여 상기 동적 점유 그래프의 각각의 노드의 상태를 결정하는 단계를 더 포함하는, 방법.
실시예 33. 실시예 19 내지 실시예 32 중 어느 한 실시예에 있어서, 상기 입자 분포 함수를 생성하는 단계는, 상기 하나 이상의 프로세서에 의해, 상기 입자 분포 함수의 파라미터에 의해 정의된 미분 방정식에 대한 해를 결정하는 단계를 포함하는 것인, 방법.
실시예 34. 실시예 19 내지 실시예 33 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 하나 이상의 LiDAR의 모델들에 기초하여 상기 입자 분포 함수를 업데이트하는 단계를 더 포함하는, 방법.
실시예 35. 실시예 19 내지 실시예 34 중 어느 한 실시예에 있어서, 상기 동적 점유 그래프를 생성하는 단계는, 상기 하나 이상의 프로세서에 의해, 상기 LiDAR 데이터의 일부분을 상기 적어도 2개의 노드들에 할당하는 단계 - 상기 LiDAR 데이터의 일부분은 상기 대상체에 대응함 - 를 포함하는 것인, 방법.
실시예 36. 실시예 19 내지 실시예 35 중 어느 한 실시예에 있어서, 상기 입자 분포 함수를 생성하는 단계는, 상기 하나 이상의 프로세서에 의해, 상기 운전가능 구역의 일부분이 상기 대상체에 의해 점유될 확률을 0보다 크도록 조정하는 단계를 포함하는 것인, 방법.
실시예 37. 실시예 19 내지 실시예 36 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 LiDAR 데이터에 대한 재귀적 베이지안 분석을 사용하여 상기 동적 점유 그래프를 업데이트하는 단계를 더 포함하는, 방법.
실시예 38. 방법으로서,
차량의 하나 이상의 프로세서에 의해, 상기 차량의 하나 이상의 센서로부터 센서 데이터를 수신하는 단계 - 상기 센서 데이터는 레이턴시(latency)를 가짐 - ;
상기 레이턴시가 문턱 레이턴시보다 작다고 결정한 것에 응답하여, 상기 하나 이상의 프로세서에 의해, 상기 센서 데이터에 대해 순환 중복 검사를 실행하는 단계;
상기 센서 데이터가 상기 순환 중복 검사를 통과했다고 결정한 것에 응답하여, 상기 하나 이상의 프로세서에 의해, 상기 센서 데이터에 기초하여 상기 하나 이상의 센서의 역 센서 모델(inverse sensor model)을 사용하여 동적 점유 격자(DOG)의 각각의 격자 셀에 대한 이산 이진 점유 확률을 결정하는 단계 - 상기 점유 확률은 상기 차량이 동작하고 있는 환경의 일부분이 대상체에 의해 점유되는지 여부를 표현함 - ;
상기 하나 이상의 프로세서에 의해, 운동 함수(kinetic function)를 사용하여 상기 점유 확률에 기초하여 입자 밀도 함수를 결정하는 단계; 및
상기 차량과 상기 대상체 사이의 충돌 소요 시간(TTC)이 문턱 TTC보다 작다는 것을 상기 입자 밀도 함수가 표현한다고 결정한 것에 응답하여, 상기 하나 이상의 프로세서에 의해, 상기 차량의 제어 회로에 감속 요청을 송신하는 단계
를 포함하는, 방법.
실시예 39. 실시예 38에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 동적 점유 격자의 각각의 격자 셀에 대한 상기 점유 확률에 대응하는 점유 신뢰도(occupancy confidence)를 결정하는 단계를 더 포함하는, 방법.
실시예 40. 실시예 38 또는 실시예 39에 있어서, 상기 점유 신뢰도는, 상기 센서 데이터의 성숙도(maturity), 플리커(flicker), LiDAR 리턴 강도, 또는 융합 메트릭(fusion metric)들 중 적어도 하나에 기초하여 결정되는 것인, 방법.
실시예 41. 실시예 38 내지 실시예 40 중 어느 한 실시예에 있어서, 상기 감속 요청을 송신하는 단계는 또한, 상기 점유 신뢰도가 문턱 점유 신뢰도보다 큰 것에 응답하는 것인, 방법.
실시예 42. 실시예 38 내지 실시예 41 중 어느 한 실시예에 있어서, 상기 TTC가 감소함에 따라 상기 감속 요청의 감속이 증가하는 것인, 방법.
실시예 43. 실시예 38 내지 실시예 42 중 어느 한 실시예에 있어서, 상기 차량의 속력이 증가함에 따라 상기 감속 요청의 감속이 증가하는 것인, 방법.
실시예 44. 실시예 38 내지 실시예 43 중 어느 한 실시예에 있어서, 상기 차량의 속력이 증가함에 따라 상기 감속 요청의 감속이 증가하는 것인, 방법.
실시예 45. 실시예 38 내지 실시예 44 중 어느 한 실시예에 있어서, 상기 DOG는 복수의 입자들을 포함하고, 각각의 입자는 상태를 갖는 것인, 방법.
실시예 46. 실시예 38 내지 실시예 45 중 어느 한 실시예에 있어서, 상기 상태는 X 방향에서의 각각의 입자의 제1 속도, Y 방향에서의 각각의 입자의 제2 속도, 및 Z 방향에서의 각각의 입자의 제3 속도를 포함하는 것인, 방법.
실시예 47. 실시예 38 내지 실시예 46 중 어느 한 실시예에 있어서, 상기 상태는 상기 제1 속도, 상기 제2 속도, 및 상기 제3 속도와 연관된 공분산을 더 포함하는 것인, 방법.
실시예 48. 실시예 38 내지 실시예 47 중 어느 한 실시예에 있어서, 상기 상태는 상기 입자에 작용하는 힘을 더 포함하는 것인, 방법.
실시예 49. 실시예 38 내지 실시예 48 중 어느 한 실시예에 있어서, 상기 힘은 곡선 도로를 따른 상기 차량의 움직임을 표현하는 것인, 방법.
실시예 50. 실시예 38 내지 실시예 49 중 어느 한 실시예에 있어서, 상기 힘은 상기 차량의 가속도를 표현하는 것인, 방법.
실시예 51. 실시예 38 내지 실시예 50 중 어느 한 실시예에 있어서, 상기 입자 밀도 함수는 다차원 위상 공간에 걸쳐 결정되는 것인, 방법.
실시예 52. 실시예 38 내지 실시예 51 중 어느 한 실시예에 있어서, 상기 입자 밀도 함수는 시간-공간-속도 좌표 프레임에서 결정되는 것인, 방법.
실시예 53. 실시예 38 내지 실시예 52 중 어느 한 실시예에 있어서,
각각의 격자 셀의 상기 점유 확률을 결정한 것에 응답하여, 상기 점유 확률에서의 변화에 기초하여 상기 대상체의 움직임을 결정하는 단계(큐브가 점유되면, 상기 큐브는 상기 큐브와 연관된 많은 신호들을 가질 것이고, 상기 큐브가 점유되지 않으면, 상기 큐브는 잡음일뿐인, 더 적은 신호들을 가질 것임)
를 더 포함하는, 방법.
실시예 54. 실시예 38 내지 실시예 53 중 어느 한 실시예에 있어서, 각각의 격자 셀은 2차원 다각형 또는 3차원 다면체 중 하나인 것인, 방법.
실시예 55. 실시예 38 내지 실시예 54 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 센서 데이터에 대한 재귀적 베이지안 분석을 사용하여 상기 동적 점유 격자를 업데이트하는 단계를 더 포함하는, 방법.
실시예 56. 방법으로서,
환경에서 동작하는 차량의 하나 이상의 프로세서에 의해, 상기 차량의 LiDAR로부터 수신된 제1 LiDAR 데이터에 기초하여 동적 점유 격자(DOG)를 생성하는 단계;
상기 하나 이상의 프로세서에 의해 실행되는 입자 필터에 의해, 상기 DOG로부터 파형을 추출하는 단계 - 상기 파형은 상기 LiDAR의 광의 위상으로의 상기 LiDAR 데이터의 강도의 변동(variation)을 포함함 - ;
상기 하나 이상의 프로세서에 의해, 상기 제1 LiDAR 데이터가 하나 이상의 대상체 중 특정 대상체로부터 반사되었는지 식별하기 위해 상기 파형을 상기 하나 이상의 대상체로부터 반사된 이력적 LiDAR 데이터로부터 추출된 파형들의 라이브러리와 매칭하는 단계;
상기 하나 이상의 프로세서에 의해, 상기 제1 LiDAR 데이터가 수신된 후에 상기 차량의 LiDAR로부터 수신된 제2 LiDAR 데이터에 기초하여 상기 파형을 업데이트하는 단계;
상기 하나 이상의 프로세서에 의해, 상기 파형에 기초하여 상기 차량과 상기 특정 대상체의 거리 변화율(range rate)을 결정하는 단계; 및
상기 차량의 제어 회로에 의해, 상기 차량과 상기 특정 대상체의 거리 변화율에 기초하여 상기 특정 대상체와의 충돌을 피하도록 상기 차량을 동작시키는 단계
를 포함하는, 방법.
실시예 57. 실시예 56에 있어서, 상기 DOG를 생성하는 단계는, 상기 하나 이상의 프로세서에 의해, 상기 동적 점유 격자의 복수의 큐브들에 걸쳐 상기 특정 대상체를 표한하기 위한 베이지안 필터링을 사용하여 상기 차량의 센서로부터 수신된 센서 데이터를 상기 제1 LiDAR 데이터와 융합하는 단계를 포함하는 것인, 방법.
실시예 58. 실시예 56 또는 실시예 57에 있어서, 상기 DOG의 복수의 큐브들 중 각각의 큐브는 상기 특정 대상체의 확률적 점유 추정치 및 속도 추정치를 포함하는 것인, 방법.
실시예 59. 실시예 56 내지 실시예 58 중 어느 한 실시예에 있어서, 상기 DOG는 상기 환경의 경계 내의 구역을 표현하고, 상기 복수의 큐브들 중 각각의 큐브는 폭을 갖는 것인, 방법.
실시예 60. 실시예 56 내지 실시예 59 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 특정 대상체의 표현이 상기 동적 점유 격자 내에 위치되도록, 상기 DOG 내의 상기 환경의 경계의 표현을 상기 폭만큼 조정하는 단계를 더 포함하는, 방법.
실시예 61. 실시예 56 내지 실시예 60 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 복수의 큐브들 사이의 상기 LiDAR 데이터의 상호작용을 무시하고 상기 DOG에 걸친 확률적 점유 분포 및 속도 분포를 결정하는 단계를 더 포함하는, 방법.
실시예 62. 실시예 56 내지 실시예 61 중 어느 한 실시예에 있어서, 상기 LiDAR는 위상 어레이(phased array)를 포함하고, 상기 제1 LiDAR 데이터는 시간, 주파수, 및 위상 정보를 포함하는 것인, 방법.
실시예 63. 실시예 56 내지 실시예 62 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 LiDAR 데이터의 위상 시프트를 결정하는 단계 - 상기 LiDAR 데이터는 위상 변조된 신호임 - 를 더 포함하는, 방법.
실시예 64. 실시예 56 내지 실시예 63 중 어느 한 실시예에 있어서, 상기 입자 필터에 의해, 상기 DOG로부터 제2 파형을 추출하는 단계 - 상기 제2 파형은 상기 차량으로부터의 상기 특정 대상체의 거리로의 상기 LiDAR 데이터의 강도의 변동을 포함함 - 를 더 포함하는, 방법.
실시예 65. 실시예 56 내지 실시예 64 중 어느 한 실시예에 있어서, 상기 입자 필터에 의해, 상기 DOG로부터 제2 파형을 추출하는 단계 - 상기 제2 파형은 상기 차량으로부터의 상기 특정 대상체의 거리로의 상기 확률적 점유 추정치의 변동을 포함함 - 를 더 포함하는, 방법.
실시예 66. 실시예 56 내지 실시예 65 중 어느 한 실시예에 있어서, 상기 입자 필터에 의해, 상기 DOG로부터 제2 파형을 추출하는 단계 - 상기 제2 파형은 상기 LiDAR의 광의 위상으로의 상기 확률적 점유 추정치의 변동을 포함함 - 를 더 포함하는, 방법.
실시예 67. 실시예 56 내지 실시예 66 중 어느 한 실시예에 있어서, 상기 파형은 제2 대상체와 상호작용하는 상기 특정 대상체를 표현하는 것인, 방법.
실시예 68. 실시예 56 내지 실시예 67 중 어느 한 실시예에 있어서, 상기 파형을 상기 파형들의 라이브러리와 매칭하는 단계는,
상기 하나 이상의 프로세서에 의해, 상기 파형으로부터 특성 벡터(feature vector)를 추출하는 단계; 및
상기 하나 이상의 프로세서에 의해, 머신 러닝 모델을 사용하여 상기 하나 이상의 대상체로부터 상기 특정 대상체를 식별하는 단계를 포함하는 것인, 방법.
실시예 69. 실시예 56 내지 실시예 68 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 이력적 LiDAR 데이터로부터 추출된 특성 벡터에 기초하여 상기 머신 러닝 모델을 트레이닝하는 단계를 더 포함하는, 방법.
실시예 70. 실시예 56 또는 실시예 69 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 특정 큐브에 의해 표현된 상기 환경의 일부분이 상기 특정 대상체에 의해 점유될 때 상기 동적 점유 격자의 복수의 큐브들 중 특정 큐브에 대응하는 특정 LiDAR 데이터의 강도가 문턱 강도보다 클 제1 조건부 확률을 결정하는 단계를 더 포함하는, 방법.
실시예 71. 실시예 56 내지 실시예 70 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 특정 큐브에 의해 표현된 상기 환경의 일부분에 상기 특정 대상체가 없을 때 상기 DOG의 복수의 큐브들 중 특정 큐브에 대응하는 특정 LiDAR 데이터의 강도가 문턱 강도보다 클 제2 조건부 확률을 결정하는 단계를 더 포함하는, 방법.
실시예 72. 실시예 56 내지 실시예 71 중 어느 한 실시예에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 제1 조건부 확률 및 상기 제2 조건부 확률에 기초하여 상기 특정 큐브에 의해 표현된 상기 환경의 일부분이 상기 특정 대상체에 의해 점유된다고 결정하는 단계를 더 포함하는, 방법.
실시예 73. 실시예 58 내지 실시예 72 중 어느 한 실시예에 있어서, 상기 DOG는 또한, 상기 환경의 시맨틱 맵의 불규칙적인 샘플링에 기초하여 생성되는 것인, 방법.
실시예 74. 자율주행 차량으로서,
하나 이상의 컴퓨터 프로세서; 및
상기 하나 이상의 컴퓨터 프로세서에 의해 실행될 때, 실시예 1 내지 실시예 73 중 어느 한 실시예에 기재된 방법들을 수행하게 하는 명령어들을 저장하는 하나 이상의 비일시적 저장 매체
를 포함하는, 자율주행 차량.
실시예 75. 하나 이상의 컴퓨팅 디바이스에 의해 실행될 때, 실시예 1 내지 실시예 73 중 어느 한 실시예에 기재된 방법들을 수행하게 하는 명령어들을 저장하는 하나 이상의 비일시적 저장 매체.
실시예 76. 하나 이상의 컴퓨팅 디바이스에 의해 실행될 때, 실시예 1 내지 실시예 73 중 어느 한 실시예에 기재된 방법들을 수행하게 하는 명령어들을 수반하는 머신 실행 동작을 수행하는 단계를 포함하는 방법으로서,
상기 머신 실행 동작은, 상기 명령어들을 전송하는 동작, 상기 명령어들을 수신하는 동작, 상기 명령어들을 저장하는 동작, 또는 상기 명령어들을 실행하는 동작 중 적어도 하나인 것인, 방법.
삭제
Claims (76)
- 방법으로서,
환경에서 동작하는 차량의 하나 이상의 프로세서에 의해, 상기 차량의 하나 이상의 LiDAR(light detection and ranging)로부터 LiDAR 데이터를 수신하는 단계 - 상기 LiDAR 데이터는 상기 환경에 위치된 하나 이상의 대상체(object)를 표현함 - ;
상기 하나 이상의 프로세서에 의해, 상기 환경의 시맨틱 맵(semantic map)을 분리함으로써 동적 점유 격자(dynamic occupancy grid, DOG)를 생성하는 단계 - 상기 DOG는 복수의 격자 셀들을 포함하고, 상기 복수의 격자 셀들 중 각각의 격자 셀은 상기 환경의 일부분을 표현함 - ;
상기 복수의 격자 셀들 중 각각의 격자 셀에 대해, 상기 하나 이상의 프로세서에 의해, 시간-공간-속도 좌표 프레임에서 상기 LiDAR 데이터에 기초하여 확률 밀도 함수를 생성하는 단계 - 상기 확률 밀도 함수는 상기 격자 셀에 의해 표현된 상기 환경의 일부분이 상기 하나 이상의 대상체 중 한 대상체에 의해 점유될 확률을 표현하고, 상기 확률 밀도 함수는 시간 t, 위치 x, 및 속도 v에서 각각의 격자 셀에서 입자를 발견할 확률 밀도이며, 상기 입자는 상기 대상체를 표현함 - ;
상기 하나 이상의 프로세서에 의해, 상기 확률 밀도 함수의 시간 t에 기초하여 상기 차량과 상기 대상체의 충돌 소요 시간(time-to-collision, TTC)이 문턱 시간보다 작다고 결정하는 단계; 및
상기 TTC가 상기 문턱 시간보다 작다고 결정한 것에 응답하여, 상기 하나 이상의 프로세서에 의해, 상기 차량과 상기 대상체의 충돌을 피하도록 상기 차량을 동작시키는 단계
를 포함하는, 방법. - 제1항에 있어서, 상기 복수의 격자 셀들 중 각각의 격자 셀은 2차원 다각형 또는 3차원 다면체 중 하나인 것인, 방법.
- 제1항 또는 제2항에 있어서, 상기 동적 점유 격자를 생성하는 단계는, 상기 하나 이상의 프로세서에 의해, 상기 LiDAR 데이터의 일부분을 상기 복수의 격자 셀들 중 하나보다 많은 격자 셀에 할당하는 단계 - 상기 LiDAR 데이터의 일부분은 상기 대상체에 대응함 - 를 포함하는 것인, 방법.
- 제1항 또는 제2항에 있어서, 상기 확률 밀도 함수를 생성하는 단계는,
상기 하나 이상의 프로세서에 의해, 상기 대상체에 대응하는 상기 LiDAR 데이터의 일부분의 강도(intensity)가 문턱 강도보다 크다고 결정한 것에 응답하여, 상기 하나 이상의 프로세서에 의해, 상기 환경의 일부분을 표현하는 상기 격자 셀을 식별하는 단계를 포함하는 것인, 방법. - 제1항 또는 제2항에 있어서, 상기 확률 밀도 함수를 생성하는 단계는, 상기 하나 이상의 프로세서에 의해, 상기 환경의 일부분이 상기 대상체에 의해 점유될 확률을 0보다 크도록 조정하는 단계를 더 포함하는 것인, 방법.
- 제1항 또는 제2항에 있어서, 상기 하나 이상의 프로세서에 의해, 상기 LiDAR 데이터에 대한 재귀적 베이지안 분석(recursive Bayesian analysis)을 사용하여 상기 동적 점유 격자를 업데이트하는 단계를 더 포함하는, 방법.
- 제1항 또는 제2항에 있어서, 상기 확률 밀도 함수는 또한, 상기 격자 셀에 의해 표현된 상기 환경의 일부분이 상기 대상체에 의해 점유된 경우, 상기 격자 셀에 의해 표현된 상기 환경의 일부분이 상기 대상체에 의해 점유된 채로 남아 있을 제1 조건부 확률을 표현하는 것인, 방법.
- 제1항 또는 제2항에 있어서, 상기 확률 밀도 함수는 또한, 상기 격자 셀에 의해 표현된 상기 환경의 일부분에 상기 대상체가 없는 경우, 상기 격자 셀에 의해 표현된 상기 환경의 일부분에 상기 대상체가 없는 채로 남아 있을 제2 조건부 확률을 표현하는 것인, 방법.
- 제1항 또는 제2항에 있어서, 상기 격자 셀의 각각의 에지의 길이는 1 cm 내지 1 m 범위 내인 것인, 방법.
- 제1항 또는 제2항에 있어서, 상기 대상체는 차량이고, 상기 방법은, 상기 하나 이상의 프로세서에 의해, 상기 LiDAR 데이터에 기초하여 제2 확률 밀도 함수를 생성하는 단계 - 상기 제2 확률 밀도 함수는, 상기 격자 셀에 의해 표현된 상기 환경의 일부분이 보행자에 의해 점유될 제2 확률을 표현하고, 상기 하나 이상의 대상체는 상기 보행자를 포함함 - 를 더 포함하는 것인, 방법.
- 제1항 또는 제2항에 있어서, 상기 LiDAR 데이터는 잡음을 포함하고, 상기 방법은,
상기 하나 이상의 프로세서에 의해, 상기 복수의 격자 셀들 중 특정 격자 셀에 대한 확률이 0보다 크다고 결정하는 단계; 및
상기 하나 이상의 프로세서에 의해, 상기 특정 격자 셀의 이웃하는 격자 셀들에 대한 확률이 0이라고 결정하는 단계
를 더 포함하는 것인, 방법. - 제1항 또는 제2항에 있어서, 상기 LiDAR 데이터는 잡음을 포함하고, 상기 방법은, 상기 하나 이상의 프로세서에 의해, 상기 복수의 격자 셀들 중 특정 격자 셀에 대한 확률을 0으로 조정하는 단계를 더 포함하는 것인, 방법.
- 제1항 또는 제2항에 있어서, 상기 확률 밀도 함수를 생성하는 단계는, 상기 하나 이상의 프로세서에 의해, 상기 LiDAR 데이터를, 푸리에 변환을 사용하여, 상기 격자 셀에 의해 표현된 상기 환경의 일부분이 상기 대상체에 의해 점유될 확률로 변환하는 단계 - 상기 LiDAR 데이터는 시간 도메인에서 측정되고 상기 복수의 격자 셀들은 공간 도메인에서 생성됨 - 를 포함하는 것인, 방법.
- 제1항 또는 제2항에 있어서, 상기 확률 밀도 함수를 생성하는 단계는, 상기 하나 이상의 프로세서에 의해, 상기 LiDAR 데이터를, 베이지안 필터를 사용하여, 상기 격자 셀에 의해 표현된 상기 환경의 일부분이 상기 대상체에 의해 점유될 사후 확률(posterior probability)과 재귀적으로 결합시키는 단계를 포함하는 것인, 방법.
- 제1항 또는 제2항에 있어서, 상기 동적 점유 격자를 생성하는 단계는, 상기 환경의 시맨틱 맵을, 카테시안 좌표(Cartesian coordinates)를 사용하여, 상기 복수의 격자 셀들로 분리하는 단계를 포함하는 것인, 방법.
- 제1항 또는 제2항에 있어서, 상기 동적 점유 격자를 생성하는 단계는, 상기 환경의 시맨틱 맵을 극좌표에 기초하여 상기 복수의 격자 셀들로 분리하는 단계를 포함하는 것인, 방법.
- 제1항 또는 제2항에 있어서, 상기 동적 점유 격자는, 상기 환경의 시맨틱 맵의 규칙적인 샘플링(regular sampling)에 기초하여 생성되는 것인, 방법.
- 제1항 또는 제2항에 있어서, 상기 동적 점유 격자는, 상기 환경의 시맨틱 맵의 불규칙적인 샘플링에 기초하여 생성되는 것인, 방법.
- 시스템으로서,
적어도 하나의 프로세서, 및
명령어들을 저장하는 적어도 하나의 비일시적 저장 매체를 포함하고, 상기 명령어들은 상기 적어도 하나의 프로세서에 의해 실행될 때, 상기 적어도 하나의 프로세서들로 하여금,
차량의 하나 이상의 LiDAR(light detection and ranging)로부터 LiDAR 데이터를 수신하게 하고 - 상기 LiDAR 데이터는 환경에 위치된 하나 이상의 대상체(object)를 표현함 - ;
상기 환경의 시맨틱 맵(semantic map)을 분리함으로써 동적 점유 격자(dynamic occupancy grid, DOG)를 생성하게 하고 - 상기 DOG는 복수의 격자 셀들을 포함하고, 상기 복수의 격자 셀들 중 각각의 격자 셀은 상기 환경의 일부분을 표현함 - ;
상기 복수의 격자 셀들 중 각각의 격자 셀에 대해, 시간-공간-속도 좌표 프레임에서 상기 LiDAR 데이터에 기초하여 확률 밀도 함수를 생성하게 하고 - 상기 확률 밀도 함수는 상기 격자 셀에 의해 표현된 상기 환경의 일부분이 상기 하나 이상의 대상체 중 한 대상체에 의해 점유될 확률을 표현하고, 상기 확률 밀도 함수는 시간 t, 위치 x, 및 속도 v에서 각각의 격자 셀에서 입자를 발견할 확률 밀도이며, 상기 입자는 상기 대상체를 표현함 - ;
상기 확률 밀도 함수의 시간 t에 기초하여 상기 차량과 상기 대상체의 충돌 소요 시간(time-to-collision, TTC)이 문턱 시간보다 작다고 결정하게 하고;
상기 TTC가 상기 문턱 시간보다 작다고 결정한 것에 따라, 상기 차량과 상기 대상체의 충돌을 피하도록 상기 차량을 동작시키게 하는 것인,
시스템. - 제19항에 있어서, 상기 복수의 격자 셀들 중 각각의 격자 셀은 2차원 다각형 또는 3차원 다면체 중 하나인 것인, 시스템.
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063023337P | 2020-05-12 | 2020-05-12 | |
US63/023,337 | 2020-05-12 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210139181A KR20210139181A (ko) | 2021-11-22 |
KR102617604B1 true KR102617604B1 (ko) | 2023-12-26 |
Family
ID=77126858
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210061305A KR102617604B1 (ko) | 2020-05-12 | 2021-05-12 | 동적 점유 격자를 사용하는 차량 동작 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11814039B2 (ko) |
KR (1) | KR102617604B1 (ko) |
CN (1) | CN113654564A (ko) |
DE (1) | DE102021112349A1 (ko) |
GB (2) | GB2600196B (ko) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11449705B2 (en) | 2019-01-08 | 2022-09-20 | Motional Ad Llc | Field theory based perception for autonomous vehicles |
US11499838B2 (en) * | 2019-10-25 | 2022-11-15 | Here Global B.V. | Method, system, and computer program product for providing traffic data |
US20220105955A1 (en) * | 2020-10-01 | 2022-04-07 | Uatc, Llc | Metrics for Evaluating Autonomous Vehicle Performance |
US11673581B2 (en) | 2020-12-11 | 2023-06-13 | Waymo Llc | Puddle occupancy grid for autonomous vehicles |
EP4012347A1 (en) * | 2020-12-14 | 2022-06-15 | Aptiv Technologies Limited | System and method for mapping a vehicle environment |
US20220381905A1 (en) * | 2021-05-26 | 2022-12-01 | Jonathan Archibold Bondzie | Ultrasonic Navigation System |
US20230041716A1 (en) * | 2021-08-04 | 2023-02-09 | Motional Ad Llc | Sensor object detection monitoring |
US11834077B2 (en) * | 2021-09-14 | 2023-12-05 | Barry Gilhuly | Systems, methods, and media for occlusion-aware motion planning |
US11675362B1 (en) * | 2021-12-17 | 2023-06-13 | Motional Ad Llc | Methods and systems for agent prioritization |
US20220146667A1 (en) * | 2022-01-25 | 2022-05-12 | Intel Corporation | Apparatus, system and method of radar tracking |
CN115268423A (zh) * | 2022-05-05 | 2022-11-01 | 安徽理工大学 | 基于改进蚁群算法的列车送餐机器人路径规划方法 |
US20240059313A1 (en) * | 2022-08-22 | 2024-02-22 | Gm Cruise Holdings Llc | Automated inference of a customer support request in an autonomous vehicle |
DE102022132345A1 (de) | 2022-12-06 | 2024-06-06 | Connaught Electronics Ltd. | Objektmodellierung auf der Basis einer Belegungsgitterkarte |
GB2625732A (en) * | 2022-12-22 | 2024-07-03 | Jaguar Land Rover Ltd | Apparatus and method for tracking objects |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012230604A (ja) * | 2011-04-27 | 2012-11-22 | Toyota Motor Corp | データ処理装置 |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7283977B1 (en) | 2000-02-25 | 2007-10-16 | Kathleen Tyson-Quah | System for reducing risk payment-based transactions wherein a risk filter routine returns instructions authorizing payment to a payment queue for later re-evaluation |
US20040133509A1 (en) | 2002-11-01 | 2004-07-08 | Mccoy Randal A. | Technique for making payments for a non-subscriber payor |
US20050234679A1 (en) | 2004-02-13 | 2005-10-20 | Evolution Robotics, Inc. | Sequential selective integration of sensor data |
US8577538B2 (en) | 2006-07-14 | 2013-11-05 | Irobot Corporation | Method and system for controlling a remote vehicle |
KR101225644B1 (ko) * | 2010-07-16 | 2013-01-24 | 성균관대학교산학협력단 | 로봇의 물체 인식 및 자세 추정 방법 |
JP5206752B2 (ja) | 2010-08-30 | 2013-06-12 | 株式会社デンソー | 走行環境認識装置 |
JP5978747B2 (ja) | 2012-05-09 | 2016-08-24 | 富士通株式会社 | 測位システム、測位方法、及びプログラム |
JP6284151B2 (ja) | 2014-04-03 | 2018-02-28 | 日本電信電話株式会社 | 位置推定装置、方法、及びプログラム |
FR3022049B1 (fr) | 2014-06-06 | 2016-07-22 | Inria Inst Nat De Rech En Informatique Et En Automatique | Procede d'analyse d'une scene dynamique, module d'analyse et programme d'ordinateur associes |
FR3041451B1 (fr) | 2015-09-22 | 2018-02-16 | Commissariat A L'energie Atomique Et Aux Energies Alternatives | Procede et systeme de perception de corps materiels |
US9734455B2 (en) * | 2015-11-04 | 2017-08-15 | Zoox, Inc. | Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles |
US20170161946A1 (en) | 2015-12-03 | 2017-06-08 | Qualcomm Incorporated | Stochastic map generation and bayesian update based on stereo vision |
US20180113209A1 (en) | 2016-10-21 | 2018-04-26 | Waymo Llc | Radar generated occupancy grid for autonomous vehicle perception and planning |
KR102529903B1 (ko) | 2016-12-14 | 2023-05-08 | 현대자동차주식회사 | 차량의 위치 추정 장치 및 방법 |
US20180307245A1 (en) | 2017-05-31 | 2018-10-25 | Muhammad Zain Khawaja | Autonomous Vehicle Corridor |
US11269346B2 (en) | 2017-06-22 | 2022-03-08 | Agjunction Llc | 3-d image system for vehicle control |
CN107180146B (zh) | 2017-06-28 | 2020-07-14 | 崔曼 | 一种基于新型交通仿真模型的无网格交通仿真方法 |
US11815602B2 (en) | 2017-10-03 | 2023-11-14 | Intel Corporation | Grid occupancy mapping using error range distribution |
US11644834B2 (en) * | 2017-11-10 | 2023-05-09 | Nvidia Corporation | Systems and methods for safe and reliable autonomous vehicles |
US10303178B1 (en) * | 2017-12-15 | 2019-05-28 | Waymo Llc | Collision mitigation static occupancy grid |
US10724854B2 (en) | 2017-12-27 | 2020-07-28 | Intel IP Corporation | Occupancy grid object determining devices |
DE102018200683A1 (de) | 2018-01-17 | 2019-07-18 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zur Detektion eines Objektes |
EP3514648B1 (en) | 2018-01-22 | 2023-09-06 | Continental Autonomous Mobility Germany GmbH | Method and apparatus for detecting a boundary in an envi-ronment of an object |
IT201800006594A1 (it) * | 2018-06-22 | 2019-12-22 | "Procedimento per la mappatura dell’ambiente di un veicolo, corrispondenti sistema, veicolo e prodotto informatico" | |
US11682129B2 (en) * | 2018-09-12 | 2023-06-20 | Toyota Motor Europe | Electronic device, system and method for determining a semantic grid of an environment of a vehicle |
US11001256B2 (en) | 2018-09-19 | 2021-05-11 | Zoox, Inc. | Collision prediction and avoidance for vehicles |
US11449705B2 (en) | 2019-01-08 | 2022-09-20 | Motional Ad Llc | Field theory based perception for autonomous vehicles |
CN109782763B (zh) * | 2019-01-18 | 2021-11-23 | 中国电子科技集团公司信息科学研究院 | 一种动态环境下的移动机器人路径规划方法 |
US20230095384A1 (en) * | 2020-03-25 | 2023-03-30 | Intel Corporation | Dynamic contextual road occupancy map perception for vulnerable road user safety in intelligent transportation systems |
CN114659530A (zh) * | 2022-03-11 | 2022-06-24 | 浙江工商大学 | 用于智能机器人路径规划的网格模型地图构建方法 |
-
2021
- 2021-05-11 DE DE102021112349.6A patent/DE102021112349A1/de active Pending
- 2021-05-12 GB GB2106773.1A patent/GB2600196B/en active Active
- 2021-05-12 GB GB2301715.5A patent/GB2619377A/en active Pending
- 2021-05-12 US US17/318,433 patent/US11814039B2/en active Active
- 2021-05-12 KR KR1020210061305A patent/KR102617604B1/ko active IP Right Grant
- 2021-05-12 CN CN202110519247.4A patent/CN113654564A/zh active Pending
-
2023
- 2023-10-19 US US18/381,689 patent/US20240042995A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012230604A (ja) * | 2011-04-27 | 2012-11-22 | Toyota Motor Corp | データ処理装置 |
Also Published As
Publication number | Publication date |
---|---|
US11814039B2 (en) | 2023-11-14 |
GB2600196A (en) | 2022-04-27 |
CN113654564A (zh) | 2021-11-16 |
US20210354690A1 (en) | 2021-11-18 |
KR20210139181A (ko) | 2021-11-22 |
DE102021112349A1 (de) | 2021-11-18 |
GB2619377A (en) | 2023-12-06 |
GB2600196B (en) | 2023-03-22 |
US20240042995A1 (en) | 2024-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102617604B1 (ko) | 동적 점유 격자를 사용하는 차량 동작 | |
US11320826B2 (en) | Operation of a vehicle using motion planning with machine learning | |
KR102593948B1 (ko) | 주석 달기를 위한 데이터 샘플의 자동 선택 | |
KR102616561B1 (ko) | 복수의 모션 제약을 사용하는 차량의 동작 | |
KR20210055617A (ko) | 미리 계산되거나 동적으로 생성된 궤적 뱅크로부터의 궤적 예측 | |
US11449705B2 (en) | Field theory based perception for autonomous vehicles | |
US11577754B2 (en) | Autonomous vehicle operation using linear temporal logic | |
KR102639008B1 (ko) | 도로 특징부에 대한 폐색 표현을 구현하기 위한 시스템 및 방법 | |
KR20230004212A (ko) | 대상체 검출을 위한 교차 모달리티 능동 학습 | |
KR102699396B1 (ko) | 자율 주행 차량을 위한 적응형 포인트 클라우드 생성 | |
KR102419526B1 (ko) | 자율 주행 차량에 대한 필드 이론 기반 인지 | |
KR102719202B1 (ko) | 기동 생성을 사용한 차량 작동 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |