KR20220159249A - 자동화된 이동 플랫폼 - Google Patents

자동화된 이동 플랫폼 Download PDF

Info

Publication number
KR20220159249A
KR20220159249A KR1020210183051A KR20210183051A KR20220159249A KR 20220159249 A KR20220159249 A KR 20220159249A KR 1020210183051 A KR1020210183051 A KR 1020210183051A KR 20210183051 A KR20210183051 A KR 20210183051A KR 20220159249 A KR20220159249 A KR 20220159249A
Authority
KR
South Korea
Prior art keywords
self
platform
propelled platform
propelled
sensor
Prior art date
Application number
KR1020210183051A
Other languages
English (en)
Inventor
루카스 구와에
알레한드로 바라간
탄 티안 후
Original Assignee
모셔널 에이디 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 모셔널 에이디 엘엘씨 filed Critical 모셔널 에이디 엘엘씨
Publication of KR20220159249A publication Critical patent/KR20220159249A/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/3415Dynamic re-routing, e.g. recalculating the route when the user deviates from calculated route or after detecting real-time traffic data or accidents
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60GVEHICLE SUSPENSION ARRANGEMENTS
    • B60G13/00Resilient suspensions characterised by arrangement, location or type of vibration dampers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K1/00Arrangement or mounting of electrical propulsion units
    • B60K1/02Arrangement or mounting of electrical propulsion units comprising more than one electric motor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T7/00Brake-action initiating means
    • B60T7/12Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger
    • B60T7/22Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger initiated by contact of vehicle, e.g. bumper, with an external object, e.g. another vehicle, or by means of contactless obstacle detectors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18159Traversing an intersection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M17/00Testing of vehicles
    • G01M17/007Wheeled or endless-tracked vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0027Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement involving a plurality of vehicles, e.g. fleet or convoy travelling
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0042Arrangements for holding or mounting articles, not otherwise provided for characterised by mounting means
    • B60R2011/008Adjustable or movable supports
    • B60R2011/0084Adjustable or movable supports with adjustment by linear movement in their operational position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0042Arrangements for holding or mounting articles, not otherwise provided for characterised by mounting means
    • B60R2011/008Adjustable or movable supports
    • B60R2011/0092Adjustable or movable supports with motorization
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

본 개시는 센서들로 대상체들을 추적할 수 있는 자율 주행 차량의 능력의 개발 및 검증에서 사용되는 시스템들 및 방법들을 기술한다. 본 출원은 하나 이상의 테스트 실행 동안 미리 결정된 패턴으로 보행자, 자전거 타는 사람 또는 차량 유형 타깃을 운반하기 위한 자체 추진 자율 주행 플랫폼 및 방법을 기술한다. 자체 추진 자율 주행 플랫폼은 테스트 실행 동안 운전될 때 자체 추진 자율 주행 플랫폼의 플랫폼 하우징 내에 수납되도록 구성된 센서를 포함한다.

Description

자동화된 이동 플랫폼{AUTOMATED MOVING PLATFORM}
이 설명은 자체 추진 자율 주행 플랫폼(self-propelled autonomous platform)에 관한 것으로, 일부 실시예들에서, 적어도 하나의 자율 주행 차량(autonomous vehicle)의 성능을 테스트하기 위해 타깃을 운반하도록 구성된 자체 추진 자율 주행 플랫폼에 관한 것이다.
자율 주행 차량들은 사람 및/또는 화물(예를 들면, 포장물들, 물건들, 또는 다른 물품들)을 한 장소로부터 다른 장소로 운송하는 데 사용될 수 있다. 예를 들어, 자율 주행 차량은 사람의 위치로 운행하고, 사람이 자율 주행 차량을 탑승하기를 기다리며, 지정된 목적지(예를 들면, 사람에 의해 선택된 위치)로 운행할 수 있다. 환경에서 운행하기 위해, 이러한 자율 주행 차량들은 주변에 있는 대상체들을 검출하기 위한 다양한 유형들의 센서들을 장비하고 있다.
자율 주행 차량의 센서들을 사용하여 대상체들의 거동을 예상하는 것은 어려울 수 있다. 본 개시는 센서들로 대상체들을 추적할 수 있는 자율 주행 차량의 능력을 개발하고 검증하기 위한 시스템들, 방법들, 및 컴퓨터 프로그램 제품들에 관한 것이다. 본 출원은 하나 이상의 테스트 실행 동안 보행자, 자전거 타는 사람 또는 차량을 나타내는 대상체를 운반하기 위한 자체 추진 자율 주행 플랫폼 및 방법을 기술한다.
일부 실시예들에서, 하나 이상의 테스트 실행은 미리 결정된 패턴으로 대상체를 운반(예를 들면, 이동)하는 것을 포함할 수 있다. 미리 결정된 패턴 또는 패턴들로 이러한 타깃들을 운반하는 것은 센서들이 자율 주행 차량을 둘러싼 환경에 있는 대상체들의 거동을 얼마나 정확하게 검출하고 예측할 수 있는지를 결정하기 위해 자율 주행 차량이 테스트들을 수행할 수 있게 한다. 일반적으로, 컴퓨터 시스템은 차량의 하나 이상의 센서로부터 입력을 수신하고, 수신된 입력에 기초하여 차량을 둘러싼 환경에 있는 하나 이상의 대상체를 검출하며, 대상체들의 예측된 거동에 기초하여 차량을 작동시키도록 구성된다.
일부 실시예들에서, 자체 추진 플랫폼은 복수의 바퀴들; 복수의 바퀴들 중 적어도 하나를 구동하도록 구성된 모터; 적어도 하나의 타깃을 운반하도록 구성된 지지 표면 및 플랫폼 하우징 위로 자율 주행 차량이 지나가는 것을 수용하도록 구성된 경사진 주변부를 포함하는 플랫폼 하우징; 및 복수의 바퀴들을 플랫폼 하우징에 커플링시키는 복수의 스프링들을 포함하는 서스펜션 - 복수의 스프링들은 임계량의 중량이 플랫폼 하우징에 가해지는 것에 응답하여 플랫폼을 제1 상태로부터 제2 상태로 전환시키도록 구성되고, 플랫폼 하우징은 제1 상태에서보다 제2 상태에서 더 낮음 - 을 포함한다.
일부 실시예들에서, 자체 추진 플랫폼이 제공되며, 자체 추진 플랫폼은 센서; 적어도 하나의 프로세싱 회로; 무선 통신 모듈; 및 적어도 하나의 프로세싱 회로에 의해 실행될 때, 동작들을 수행하게 하는 명령어들을 저장하는 적어도 하나의 비일시적 저장 매체를 포함하며, 동작들은: 사용자 입력에 따라 제1 이동 루트를 따라가는 동작; 제1 이동 루트를 따라가면서 센서에 의해 수집되는 데이터에 기초하여 자체 추진 플랫폼의 복수의 위치들을 기록하는 동작; 및 자율 주행 차량이 미리 결정된 위치에 도착하는 것에 응답하여 복수의 위치들에 기초하여 제2 이동 루트를 따라가는 동작을 포함한다.
이들 및 다른 양태들, 특징들, 및 구현들은 기능을 수행하기 위한 방법들, 장치들, 시스템들, 컴포넌트들, 프로그램 제품들, 수단들 또는 단계들로서, 그리고 다른 방식들로 표현될 수 있다.
이들 및 다른 양태들, 특징들, 및 구현들은, 청구항들을 포함하여, 이하의 설명으로부터 명백해질 것이다.
도 1은 자율 주행 능력(autonomous capability)을 갖는 자율 주행 차량의 예를 도시한다.
도 2는 예시적인 "클라우드" 컴퓨팅 환경을 예시한다.
도 3은 컴퓨터 시스템을 예시한다.
도 4는 자율 주행 차량에 대한 예시적인 아키텍처를 도시한다.
도 5는 인지 모듈에 의해 사용될 수 있는 입력들 및 출력들의 예를 도시한다.
도 6은 LiDAR 시스템의 예를 도시한다. 도 7은 작동 중인 LiDAR 시스템을 도시한다.
도 8은 LiDAR 시스템의 작동을 추가적으로 상세하게 도시한다.
도 9는 제어 모듈의 입력들 및 출력들의 블록 다이어그램을 도시한다.
도 10은 제어기의 입력들, 출력들, 및 컴포넌트들의 블록 다이어그램을 도시한다.
도 11a 내지 도 11c는 자율 주행 차량의 자율 주행 운행 시스템을 테스트하는 데 유용한 자체 추진 자율 주행 플랫폼의 다양한 뷰들을 도시한다.
도 12는 도 11a 내지 도 11c에 묘사된 플랫폼의 후방 사시도를 도시한다.
도 13은 도 11a 내지 도 12에 도시된 플랫폼의 하방 표면의 사시도를 도시한다.
도 14a 및 도 14b는, 제각기, 제1 상태 및 제2 상태에서의 센서 수납 메커니즘(sensor retraction mechanism)의 상세도를 도시한다.
도 15a 내지 도 15c는 도 11a 내지 도 14b에 묘사된 서스펜션에 대한 대안적인 플랫폼 서스펜션을 도시한다.
도 16은 도 15에 묘사된 대안적인 서스펜션을 포함하는, 플랫폼의 하부 표면의 사시도를 도시한다.
도 17a는 보행자 타깃이 위에 장착되어 있는 자율 주행 플랫폼이 횡단보도의 입구에 위치되어 있는 예시적인 테스트 셋업을 도시한다.
도 17b는 자율 주행 차량이 미리 결정된 위치에 도달한 때를 결정하기 위해 레이저 송신기 및 레이저 수신기가 이용되는 다른 테스트 셋업의 사시도를 도시한다.
도 18a 및 도 18b는 상이한 움직임 패턴들을 실행하도록 구성된 다수의 자율 주행 플랫폼들을 갖는 자율 주행 차량에 대한 예시적인 교차로 테스트 셋업의 평면도들을 도시한다.
도 19는 자체 추진 플랫폼이 사용자 입력에 따라 제1 이동 루트를 따라가게 하기 위한 예시적인 프로세스의 플로차트이다.
이하의 기술에서는, 설명을 위해, 본 개시에 대한 완전한 이해를 제공하기 위해 다수의 특정 세부 사항들이 기재된다. 그렇지만, 본 개시가 이러한 특정 세부 사항들이 없더라도 실시될 수 있음이 명백할 것이다. 다른 경우에, 잘 알려진 구조들 및 디바이스들은 본 발명을 불필요하게 모호하게 하는 것을 피하기 위하여 블록 다이어그램 형태로 도시되어 있다.
도면들에, 설명의 용이성을 위해, 디바이스들, 모듈들, 명령어 블록들 및 데이터 요소들을 나타내는 것들과 같은, 개략적인 요소들의 특정 배열들 또는 순서들이 도시되어 있다. 그렇지만, 본 기술 분야의 통상의 기술자라면, 도면들에서의 개략적인 요소들의 특정 순서 또는 배열이 프로세싱의 특정 순서 또는 시퀀스, 또는 프로세스들의 분리가 요구됨을 암시하는 것으로 의미되지 않는다는 점을 이해할 것이다. 게다가, 도면에 개략적인 요소를 포함시키는 것은, 그러한 요소가 모든 실시예들에서 요구됨을 암시하는 것으로 의미되지 않거나, 또는 그러한 요소에 의해 표현되는 특징들이 일부 실시예들에서 포함되지 않을 수 있거나 다른 요소들과 조합되지 않을 수 있음을 암시하는 것으로 의미되지 않는다.
게다가, 도면들에서, 2 개 이상의 다른 개략적인 요소 사이의 연결, 관계 또는 연관을 예시하기 위해 실선 또는 파선 또는 화살표와 같은 연결 요소들이 사용되는 경우에, 임의의 그러한 연결 요소들의 부재는 연결, 관계 또는 연관이 존재하지 않을 수 있음을 암시하는 것으로 의미되지 않는다. 환언하면, 요소들 사이의 일부 연결들, 관계들 또는 연관들은 본 개시를 모호하게 하지 않기 위해 도면들에 도시되어 있지 않다. 추가적으로, 예시의 용이성을 위해, 요소들 사이의 다수의 연결들, 관계들 또는 연관들을 나타내기 위해 단일의 연결 요소가 사용된다. 예를 들어, 연결 요소가 신호들, 데이터 또는 명령어들의 통신을 나타내는 경우에, 본 기술 분야의 통상의 기술자라면 그러한 요소가, 통신을 수행하기 위해 필요로 할 수 있는, 하나 또는 다수의 신호 경로(예를 들면, 버스)를 나타낸다는 것을 이해할 것이다.
그 예가 첨부 도면들에 예시되어 있는 실시예들이 이제 상세하게 언급될 것이다. 이하의 상세한 설명에서, 다양한 기술된 실시예들에 대한 완전한 이해를 제공하기 위해 수많은 특정 세부 사항들이 기재된다. 그렇지만, 다양한 기술된 실시예들이 이러한 특정 세부 사항들이 없더라도 실시될 수 있다는 것이 본 기술 분야의 통상의 기술자에게 명백할 것이다. 다른 경우에, 실시예들의 양태들을 불필요하게 모호하게 하지 않기 위해 잘 알려진 방법들, 절차들, 컴포넌트들, 회로들, 및 네트워크들은 상세히 기술되지 않았다.
각각이 서로 독립적으로 또는 다른 특징들의 임의의 조합과 함께 사용될 수 있는 여러 특징들이 이하에서 기술된다. 그렇지만, 임의의 개별 특징은 위에서 논의된 문제들 중 어떤 것도 해결할 수 없거나 또는 위에서 논의된 문제들 중 하나만을 해결할 수 있다. 위에서 논의된 문제들 중 일부가 본원에 기술된 특징들 중 임의의 것에 의해 완전히 해결되지는 않을 수 있다. 비록 여러 표제들이 제공되어 있더라도, 특정 표제에 관련되지만 해당 표제를 갖는 섹션에서 발견되지는 않는 정보가 본 설명의 다른 곳에서 발견될 수도 있다. 실시예들은 이하의 개요에 따라 본원에 기술된다:
1. 일반적 개관
2. 하드웨어 개관
3. 자율 주행 차량 아키텍처
4. 자율 주행 차량 입력들
5. 자율 주행 차량 계획
6. 자율 주행 차량 제어
7. 필라들(Pillars)을 사용한 대상체 검출을 위한 컴퓨팅 시스템
8. 예시적인 포인트 클라우드들 및 필라들
9. 대상체들을 검출하고 대상체들의 검출에 기초하여 차량을 작동시키기 위한 예시적인 프로세스
일반적 개관
자율 주행 차량들이 복잡한 환경들(예를 들어, 도시 환경)에서 운전하는 것은 큰 기술적 도전 과제를 제기한다. 자율 주행 차량들이 이러한 환경들을 운행하기 위해, 차량들은 LiDAR, 광학 이미저리(optical imagery) 및/또는 RADAR와 같은 센서들을 사용하여 실시간으로 차량들, 보행자들, 및 자전거들과 같은 다양한 유형들의 대상체들을 검출한다. 이러한 센서들은 대상체들을 식별하고 추적할 수 있지만, 대상체들의 거동을 예측하는 것은 어려울 수 있으며 추적된 대상체들을 너무 보수적으로 처리하는 것은 자율 주행 차량들이 기능할 수 없는 것을 결과할 수 있다. 개시된 실시예들은 하나 이상의 자율 주행 차량을 테스트하는 동안 보행자, 자전거 타는 사람 및/또는 차량 유형 타깃들을 운반하고 기동시킬 수 있는 로우 프로파일 자체 추진 자율 주행 플랫폼을 포함한다.
상세하게는, 본원에 기술된 시스템 및 기술은 테스터들이 도로 또는 교차로를 안전하게 운행할 수 있는 자율 주행 차량의 자율 주행 운행 시스템의 능력을 종합적으로 검증할 수 있는 능력을 향상시킨다. 기술된 플랫폼은 하나 이상의 테스트 실행 동안 플랫폼이 인근의 대상체들 및 자율 주행 차량을 추적할 수 있게 하는 수납식 센서(retractable sensor)를 포함한다. 센서의 수납식 특성은 플랫폼이 자율 주행 차량과 접촉하는 경우에 센서가 손상될 위험을 최소화하면서 가시성이 좋은 위치에 센서가 위치되는 것을 가능하게 한다. 온보드 센서는 또한 플랫폼이 항상 동일한 경로를 따라가지는 않을 수 있는 동적 대상체들에 대해 기동할 수 있게 한다. 이러한 방식으로, 플랫폼은 보다 많은 유연성을 가지며 시나리오가 조정될 때마다 재프로그래밍되거나 방향 전환될 필요가 없다.
하드웨어 개관
도 1은 자율 주행 능력을 갖는 자율 주행 차량(100)의 예를 도시한다.
본원에서 사용되는 바와 같이, "자율 주행 능력"이라는 용어는, 완전 자율 주행 차량, 고도 자율 주행 차량, 및 조건부 자율 주행 차량을 제한 없이 포함하는, 실시간 인간 개입이 없어도 차량이 부분적으로 또는 완전하게 작동될 수 있게 하는 기능, 특징, 또는 설비를 지칭한다.
본원에서 사용되는 바와 같이, 자율 주행 차량(AV)은 자율 주행 능력을 갖는 차량이다.
본원에서 사용되는 바와 같이, "차량"은 상품 또는 사람의 운송 수단을 포함한다. 예를 들어, 자동차, 버스, 기차, 비행기, 드론, 트럭, 보트, 선박, 잠수함, 비행선 등. 무인 자동차는 차량의 예이다.
본원에서 사용되는 바와 같이, "궤적"은 AV를 제1 시공간적 위치로부터 제2 시공간적 위치로 운행시키는 경로 또는 루트를 지칭한다. 일 실시예에서, 제1 시공간적 위치는 초기 또는 시작 위치라고 지칭되고 제2 시공간적 위치는 목적지, 최종 위치, 목표, 목표 위치, 또는 목표 장소라고 지칭된다. 일부 예들에서, 궤적은 하나 이상의 세그먼트(예를 들면, 도로 섹션)로 구성되고, 각각의 세그먼트는 하나 이상의 블록(예를 들면, 차선 또는 교차로의 부분)으로 구성된다. 일 실시예에서, 시공간적 위치들은 현실 세계 위치들에 대응한다. 예를 들어, 시공간적 위치들은 사람을 태우거나 내려주고 또는 상품을 싣거나 내리는 픽업(pick up) 위치 또는 하차(drop-off) 위치이다.
본원에서 사용되는 바와 같이, "센서(들)"는 센서를 둘러싸는 환경에 관한 정보를 검출하는 하나 이상의 하드웨어 컴포넌트를 포함한다. 하드웨어 컴포넌트들 중 일부는 감지 컴포넌트들(예를 들면, 이미지 센서들, 생체 측정 센서들), 송신 및/또는 수신 컴포넌트들(예를 들면, 레이저 또는 무선 주파수 파 송신기들 및 수신기들), 아날로그 대 디지털 변환기들과 같은 전자 컴포넌트들, 데이터 저장 디바이스(예컨대, RAM 및/또는 비휘발성 스토리지), 소프트웨어 또는 펌웨어 컴포넌트들, 및 ASIC(application-specific integrated circuit), 마이크로프로세서 및/또는 마이크로컨트롤러와 같은 데이터 프로세싱 컴포넌트들을 포함할 수 있다.
본원에서 사용되는 바와 같이, "장면 묘사(scene description)"는 AV 차량 상의 하나 이상의 센서에 의해 검출되거나 AV 외부의 소스에 의해 제공되는 하나 이상의 분류된 또는 라벨링된 대상체를 포함하는 데이터 구조(예를 들면, 리스트) 또는 데이터 스트림이다.
본원에서 사용되는 바와 같이, "도로"는 차량에 의해 횡단될 수 있는 물리적 영역이고, 명명된 주요 도로(예를 들면, 도시 거리, 주간 프리웨이(interstate freeway) 등)에 대응할 수 있거나, 또는 명명되지 않은 주요 도로(예를 들면, 주택 또는 사무실 건물에서의 사유 도로(driveway), 주차장의 섹션, 공터의 섹션, 시골 지역에서의 비포장 경로 등)에 대응할 수 있다. 일부 차량들(예를 들면, 4륜 구동 픽업 트럭들, 스포츠 유틸리티 차량들 등)은 차량 주행에 특히 적합하지 않은 다양한 물리적 영역들을 횡단할 수 있기 때문에, "도로"는 임의의 지자체 또는 다른 정부 또는 행정처에 의해 주요 도로로서 공식적으로 규정되지 않은 물리적 영역일 수 있다.
본원에서 사용되는 바와 같이, "차선"은 차량에 의해 횡단될 수 있는 도로의 한 부분이고, 차선 마킹들 사이의 공간의 대부분 또는 전부에 대응할 수 있거나, 또는 차선 마킹들 사이의 공간의 단지 일부(예를 들면, 50% 미만)에 대응할 수 있다. 예를 들어, 멀리 이격된 차선 마킹들을 갖는 도로는 차선 마킹들 사이에 둘 이상의 차량을 수용할 수 있음으로써, 하나의 차량이 차선 마킹들을 횡단하지 않으면서 다른 차량을 추월할 수 있고, 따라서 차선 마킹들 사이의 공간보다 더 좁은 차선을 갖거나 차선 마킹들 사이에 2 개의 차선을 갖는 것으로 해석될 수 있다. 차선은 차선 마킹들의 부재 시에도 해석될 수 있다. 예를 들어, 차선은 환경의 물리적 특징들, 예를 들면, 시골 지역에서의 주요 도로를 따라 있는 바위들 및 나무들에 기초하여 규정될 수 있다.
"하나 이상"은 하나의 요소에 의해 수행되는 기능, 둘 이상의 요소에 의해, 예를 들어, 분산 방식으로, 수행되는 기능, 하나의 요소에 의해 수행되는 여러 기능들, 여러 요소들에 의해 수행되는 여러 기능들, 또는 이들의 임의의 조합을 포함한다.
제1, 제2 등의 용어들이, 일부 경우에, 다양한 요소들을 기술하기 위해 본원에서 사용되고 있지만, 이러한 요소들이 이러한 용어들에 의해 제한되지 않아야 한다는 것이 또한 이해될 것이다. 이러한 용어들은 하나의 요소를 다른 요소와 구별하는 데만 사용된다. 예를 들어, 다양한 기술된 실시예들의 범위를 벗어나지 않으면서, 제1 접촉은 제2 접촉이라고 지칭될 수 있고, 유사하게 제2 접촉은 제1 접촉이라고 지칭될 수 있다. 제1 접촉과 제2 접촉은 둘 모두 접촉이지만, 달리 명시되지 않는 한, 동일한 접촉은 아니다.
본원에 기술된 다양한 실시예들에 대한 설명에서 사용되는 전문용어는 단지 특정한 실시예들을 기술하기 위한 것이며, 제한하는 것으로 의도되지 않는다. 다양한 기술된 실시예들에 대한 설명 및 첨부된 청구항들에서 사용되는 바와 같이, 단수 형태들("a", "an" 및 "the")은, 문맥이 달리 명확히 나타내지 않는 한, 복수 형태들도 포함하는 것으로 의도된다. "및/또는"이라는 용어가, 본원에서 사용되는 바와 같이, 연관된 열거된 항목들 중 하나 이상의 항목의 임의의 및 모든 가능한 조합들을 지칭하고 포괄한다는 것이 또한 이해될 것이다. 게다가, "포함한다(includes, comprises)" 및/또는 "포함하는(including, comprising)"이라는 용어가, 본 설명에서 사용될 때, 언급된 특징들, 정수들, 단계들, 동작들, 요소들, 및/또는 컴포넌트들의 존재를 명시하지만, 하나 이상의 다른 특징, 정수, 단계, 동작, 요소, 컴포넌트, 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는다는 것이 이해될 것이다.
본원에서 사용되는 바와 같이, "~ 경우"라는 용어는, 선택적으로, 문맥에 따라 "~할 때", 또는 "~시에" 또는 "~라고 결정하는 것에 응답하여" 또는 "~을 검출하는 것에 응답하여"를 의미하는 것으로 해석된다. 마찬가지로, 문구 "~라고 결정되는 경우" 또는 "[언급된 조건 또는 이벤트]가 검출되는 경우"는, 선택적으로, 문맥에 따라, "~라고 결정할 시에" 또는 "~라고 결정하는 것에 응답하여" 또는 "[언급된 조건 또는 이벤트]를 검출할 시에" 또는 "[언급된 조건 또는 이벤트]를 검출하는 것에 응답하여"를 의미하는 것으로 해석된다.
본원에서 사용되는 바와 같이, AV 시스템은 AV의 작동을 지원하는 하드웨어, 소프트웨어, 저장된 데이터 및 실시간으로 생성되는 데이터의 어레이와 함께 AV를 지칭한다. 일 실시예에서, AV 시스템은 AV 내에 포함된다. 일 실시예에서, AV 시스템은 여러 위치들에 걸쳐 확산되어 있다. 예를 들어, AV 시스템의 소프트웨어 중 일부는 도 2과 관련하여 아래에서 기술되는 클라우드 컴퓨팅 환경(200)과 유사한 클라우드 컴퓨팅 환경에 구현된다.
일반적으로, 본원은 완전 자율 주행 차량, 고도 자율 주행 차량, 및 조건부 자율 주행 차량, 예컨대, 제각기, 소위 레벨 5 차량, 레벨 4 차량 및 레벨 3 차량을 포함하는 하나 이상의 자율 주행 능력을 갖는 임의의 차량에 적용 가능한 기술들을 개시한다(차량의 자율성의 레벨 분류에 대한 세부 사항은 그 전체가 참고로 포함된, SAE 국제 표준 J3016: 온로드 자동차 자동 운전 시스템에 관한 용어의 분류 및 정의(Taxonomy and Definitions for Terms Related to On-128-172020-02-28 Road Motor Vehicle Automated Driving Systems) 참조). 본 문서에서 설명된 기술들은 또한 부분적 자율 주행 차량 및 운전자 보조 차량, 예컨대, 소위 레벨 2 차량 및 레벨 1 차량에도 적용 가능하다(SAE 국제 표준 J3016: 온로드 자동차 자동 운전 시스템에 관한 용어의 분류 및 정의 참조). 일 실시예에서, 레벨 1, 레벨 2, 레벨 3, 레벨 4 및 레벨 5 차량 시스템들 중 하나 이상은 센서 입력들의 프로세싱에 기초하여 특정 작동 조건들 하에서 특정 차량 작동들(예를 들면, 조향, 제동, 및 맵 사용)을 자동화할 수 있다. 본 문서에서 설명된 기술들은, 완전 자율 주행 차량으로부터 인간 운전 차량에 이르는, 임의의 레벨들에 있는 차량들에 혜택을 줄 수 있다.
도 1을 참조하면, AV 시스템(120)은, 대상체들(예를 들면, 자연 장애물들(191), 차량들(193), 보행자들(192), 자전거 타는 사람들, 및 다른 장애물들)을 피하고 도로 규칙들(예를 들면, 운영 규칙들 또는 운전 선호사항들)을 준수하면서, AV(100)를 궤적(198)을 따라 환경(190)을 통해 목적지(199)(때때로 최종 위치라고 지칭됨)로 작동시킨다.
일 실시예에서, AV 시스템(120)은 컴퓨터 프로세서들(146)로부터 작동 커맨드들을 수신하고 이에 따라 작동하도록 설비된 디바이스들(101)을 포함한다. 일 실시예에서, 컴퓨팅 프로세서들(146)은 도 3을 참조하여 아래에서 기술되는 프로세서(304)와 유사하다. 디바이스들(101)의 예들은 조향 컨트롤(102), 브레이크(103), 기어, 액셀러레이터 페달 또는 다른 가속 제어 메커니즘, 윈드실드 와이퍼, 사이드 도어 록, 윈도 컨트롤, 및 방향 지시등을 포함한다.
일 실시예에서, AV 시스템(120)은, AV의 위치, 선속도와 각속도 및 선가속도와 각가속도, 및 헤딩(heading)(예를 들면, AV(100)의 선단(leading end)의 배향)과 같은, AV(100)의 상태 또는 조건의 특성들을 측정 또는 추론하기 위한 센서들(121)을 포함한다. 센서들(121)의 예는 GPS, 차량 선가속도 및 각도 변화율(angular rate) 둘 모두를 측정하는 IMU(inertial measurement unit), 휠 슬립률(wheel slip ratio)을 측정 또는 추정하기 위한 휠 속력 센서, 휠 브레이크 압력 또는 제동 토크 센서, 엔진 토크 또는 휠 토크 센서, 그리고 조향각 및 각도 변화율 센서이다.
일 실시예에서, 센서들(121)은 AV의 환경의 속성들을 감지 또는 측정하기 위한 센서들을 또한 포함한다. 예를 들어, 가시 광, 적외선 또는 열(또는 둘 모두) 스펙트럼의 단안 또는 스테레오 비디오 카메라들(122), LiDAR(123), RADAR, 초음파 센서들, 비행 시간(time-of-flight, TOF) 깊이 센서들, 속력 센서들, 온도 센서들, 습도 센서들, 및 강수 센서들.
일 실시예에서, AV 시스템(120)은 컴퓨터 프로세서들(146)과 연관된 머신 명령어들 또는 센서들(121)에 의해 수집되는 데이터를 저장하기 위한 데이터 저장 유닛(142) 및 메모리(144)를 포함한다. 일 실시예에서, 데이터 저장 유닛(142)은 도 3과 관련하여 아래에서 기술되는 ROM(308) 또는 저장 디바이스(310)와 유사하다. 일 실시예에서, 메모리(144)는 아래에서 기술되는 메인 메모리(306)와 유사하다. 일 실시예에서, 데이터 저장 유닛(142) 및 메모리(144)는 환경(190)에 관한 과거 정보, 실시간 정보, 및/또는 예측 정보를 저장한다. 일 실시예에서, 저장된 정보는 맵들, 운전 수행, 교통 혼잡 업데이트들 또는 기상 조건들을 포함한다. 일 실시예에서, 환경(190)에 관련된 데이터는 원격에 위치하는 데이터베이스(134)로부터 통신 채널을 통해 AV(100)로 송신된다.
일 실시예에서, AV 시스템(120)은 다른 차량의 상태들 및 조건들, 예컨대, 위치, 선속도와 각속도, 선가속도와 각가속도, 및 AV(100)를 향한 선형 헤딩(linear heading)과 각도 헤딩(angular heading)의 측정된 또는 추론된 속성들을 통신하기 위한 통신 디바이스들(140)을 포함한다. 이러한 디바이스들은 V2V(Vehicle-to-Vehicle) 및 V2I(Vehicle-to-Infrastructure) 통신 디바이스들 및 포인트 투 포인트(point-to-point) 또는 애드혹(ad hoc) 네트워크들 또는 둘 모두를 통한 무선 통신을 위한 디바이스들을 포함한다. 일 실시예에서, 통신 디바이스들(140)은 (무선 및 광학 통신을 포함하는) 전자기 스펙트럼 또는 다른 매체(예를 들면, 공기 및 음향 매체)를 통해 통신한다. V2V(Vehicle-to-Vehicle), V2I(Vehicle-to-Infrastructure) 통신(및 일부 실시예들에서, 하나 이상의 다른 유형의 통신)의 조합이 때때로 V2X(Vehicle-to-Everything) 통신이라고 지칭된다. V2X 통신은 전형적으로, 자율 주행 차량들과의 통신 및 자율 주행 차량들 간의 통신을 위한 하나 이상의 통신 표준을 준수한다.
일 실시예에서, 통신 디바이스들(140)은 통신 인터페이스들을 포함한다. 예를 들어, 유선, 무선, WiMAX, WiFi, 블루투스, 위성, 셀룰러, 광학, 근거리(near field), 적외선, 또는 무선(radio) 인터페이스들. 통신 인터페이스들은 원격에 위치하는 데이터베이스(134)로부터 AV 시스템(120)으로 데이터를 송신한다. 일 실시예에서, 원격에 위치하는 데이터베이스(134)는 도 2에 기술된 바와 같은 클라우드 컴퓨팅 환경(200)에 내장된다. 통신 인터페이스들(140)은 센서들(121)로부터 수집되는 데이터 또는 AV(100)의 작동에 관련된 다른 데이터를 원격에 위치하는 데이터베이스(134)로 송신한다. 일 실시예에서, 통신 인터페이스들(140)은 원격 작동(teleoperation)에 관련되는 정보를 AV(100)로 송신한다. 일부 실시예들에서, AV(100)는 다른 원격(예를 들면, "클라우드") 서버들(136)과 통신한다.
일 실시예에서, 원격에 위치하는 데이터베이스(134)는 또한 디지털 데이터를 저장 및 송신한다(예를 들면, 도로 및 거리 위치들과 같은 데이터를 저장함). 그러한 데이터는 AV(100) 상의 메모리(144)에 저장되거나, 원격에 위치하는 데이터베이스(134)로부터 통신 채널을 통해 AV(100)로 송신된다.
일 실시예에서, 원격에 위치하는 데이터베이스(134)는 유사한 하루 중 시간(time of day)에 궤적(198)을 따라 이전에 주행했던 차량들의 운전 속성들(예를 들면, 속력 프로파일 및 가속도 프로파일)에 관한 과거 정보를 저장 및 송신한다. 일 구현예에서, 그러한 데이터는 AV(100) 상의 메모리(144)에 저장될 수 있거나, 또는 원격에 위치하는 데이터베이스(134)로부터 통신 채널을 통해 AV(100)로 송신될 수 있다.
AV(100) 상에 위치하는 컴퓨팅 디바이스들(146)은 실시간 센서 데이터 및 사전 정보(prior information) 둘 모두에 기초하여 제어 액션들을 알고리즘적으로 생성하여, AV 시스템(120)이 그의 자율 주행 운전 능력을 실행할 수 있게 한다.
일 실시예에서, AV 시스템(120)은 AV(100)의 사용자(예를 들면, 탑승자 또는 원격 사용자)에게 정보 및 경고들을 제공하고 그로부터 입력을 수신하기 위한, 컴퓨팅 디바이스들(146)에 커플링된 컴퓨터 주변기기들(132)을 포함한다. 일 실시예에서, 주변기기들(132)은 도 3을 참조하여 아래에서 논의되는 디스플레이(312), 입력 디바이스(314), 및 커서 컨트롤러(316)와 유사하다. 커플링은 무선 또는 유선이다. 인터페이스 디바이스들 중 임의의 둘 이상이 단일 디바이스에 통합될 수 있다.
일 실시예에서, AV 시스템(120)은 AV(100)의 센서들의 성능을 테스트하기에 적합한 타깃을 운반하도록 구성되고 아래에서 도 11a 내지 도 16에 보다 상세히 기술되고 묘사된 자율 주행 플랫폼에 통합될 수 있다. 자율 주행 플랫폼은 조향 컨트롤러(102), 브레이크들(103), 통신 디바이스들(140) 및 로컬 또는 원격 컴퓨터 스토리지에 저장된 컴퓨터 코드 형태의 명령어들을 수신하고 프로세싱하기 위한 하나 이상의 프로세서로 구성될 수 있다. 자율 주행 플랫폼은 LiDAR 센서, 비디오 카메라, GPS 수신기 등을 포함할 수 있는 하나 이상의 센서(121)를 또한 포함할 수 있다. 일부 실시예들에서, 센서들(121) 중 하나 이상은 자율 주행 플랫폼의 환경 및/또는 자율 주행 플랫폼이 테스트하는 데 사용되고 있는 AV(100)에 대해 자율 주행 플랫폼에 의해 취해지는 원하는 위치 또는 경로를 개선하기 위해 자율 주행 플랫폼에 의해 사용될 수 있다.
도 2는 예시적인 "클라우드" 컴퓨팅 환경을 예시한다. 클라우드 컴퓨팅은 구성 가능한 컴퓨팅 리소스들(예를 들면, 네트워크들, 네트워크 대역폭, 서버들, 프로세싱, 메모리, 스토리지, 애플리케이션들, 가상 머신들, 및 서비스들)의 공유 풀에 대한 편리한 온 디맨드 네트워크 액세스를 가능하게 하기 위한 서비스 전달(service delivery)의 일 모델이다. 전형적인 클라우드 컴퓨팅 시스템들에서는, 하나 이상의 대규모 클라우드 데이터 센터가 클라우드에 의해 제공되는 서비스들을 전달하는 데 사용되는 머신들을 수용한다. 이제 도 2를 참조하면, 클라우드 컴퓨팅 환경(200)은 클라우드(202)를 통해 상호연결되는 클라우드 데이터 센터들(204a, 204b 및 204c)을 포함한다. 데이터 센터들(204a, 204b 및 204c)은 클라우드 컴퓨팅 서비스들을 클라우드(202)에 연결된 컴퓨터 시스템들(206a, 206b, 206c, 206d, 206e 및 206f)에 제공한다.
클라우드 컴퓨팅 환경(200)은 하나 이상의 클라우드 데이터 센터를 포함한다. 일반적으로, 클라우드 데이터 센터, 예를 들어, 도 2에 도시된 클라우드 데이터 센터(204a)는 클라우드, 예를 들어, 도 2에 도시된 클라우드(202) 또는 클라우드의 특정 부분을 구성하는 서버들의 물리적 배열을 지칭한다. 예를 들어, 서버들은 클라우드 데이터 센터 내에 룸, 그룹, 로우(row), 및 랙(rack)으로 물리적으로 배열된다. 클라우드 데이터 센터는 하나 이상의 서버 룸을 포함하는 하나 이상의 구역(zone)을 갖는다. 각각의 룸은 하나 이상의 서버 로우를 가지며, 각각의 로우는 하나 이상의 랙을 포함한다. 각각의 랙은 하나 이상의 개별 서버 노드를 포함한다. 어떤 구현예에서, 구역, 룸, 랙, 및/또는 로우 내의 서버들은, 전력 요구사항, 에너지 요구사항, 열적 요구사항, 가열 요구사항, 및/또는 다른 요구사항들을 포함하는, 데이터 센터 설비의 물리적 인프라스트럭처 요구사항들에 기초하여 그룹들로 배열된다. 일 실시예에서, 서버 노드들은 도 3에서 기술된 컴퓨터 시스템과 유사하다. 데이터 센터(204a)는 많은 랙들을 통해 분산된 많은 컴퓨팅 시스템들을 갖는다.
클라우드(202)는 클라우드 데이터 센터들(204a, 204b, 및 204c)을 상호연결시키고 클라우드 컴퓨팅 서비스들에 대한 컴퓨팅 시스템들(206a 내지 206f)의 액세스를 용이하게 하는 것을 돕는 네트워크 및 네트워킹 리소스들(예를 들어, 네트워킹 장비, 노드들, 라우터들, 스위치들, 및 네트워킹 케이블들)과 함께 클라우드 데이터 센터들(204a, 204b 및 204c)을 포함한다. 일 실시예에서, 네트워크는 지상 또는 위성 연결들을 사용하여 배포된 유선 또는 무선 링크들을 사용하여 커플링되는 하나 이상의 로컬 네트워크, 광역 네트워크, 또는 인터네트워크의 임의의 조합을 나타낸다. 네트워크를 통해 교환되는 데이터는, IP(Internet Protocol), MPLS(Multiprotocol Label Switching), ATM(Asynchronous Transfer Mode), 및 프레임 릴레이 등과 같은, 임의의 수의 네트워크 계층 프로토콜들을 사용하여 전송된다. 게다가, 네트워크가 다수의 서브 네트워크들의 조합을 나타내는 실시예들에서, 기저 서브 네트워크들(underlying sub-networks) 각각에서 상이한 네트워크 계층 프로토콜들이 사용된다. 일부 실시예들에서, 네트워크는, 공중 인터넷과 같은, 하나 이상의 상호연결된 인터네트워크를 나타낸다.
컴퓨팅 시스템들(206a 내지 206f) 또는 클라우드 컴퓨팅 서비스 소비자들은 네트워크 링크들 및 네트워크 어댑터들을 통해 클라우드(202)에 연결된다. 일 실시예에서, 컴퓨팅 시스템들(206a 내지 206f)은 다양한 컴퓨팅 디바이스들, 예를 들어, 서버, 데스크톱, 랩톱, 태블릿, 스마트폰, IoT(Internet of Things) 디바이스, 자율 주행 차량(자동차, 드론, 셔틀, 기차, 버스 등을 포함함) 및 소비자 전자기기로서 구현된다. 일 실시예에서, 컴퓨팅 시스템들(206a 내지 206f)은 다른 시스템들 내에 또는 그 일부로서 구현된다.
도 3은 컴퓨터 시스템(300)을 예시한다. 일 구현예에서, 컴퓨터 시스템(300)은 특수 목적 컴퓨팅 디바이스이다. 특수 목적 컴퓨팅 디바이스는 기술들을 수행하도록 고정 배선(hard-wired)되거나, 또는 기술들을 수행하도록 영속적으로 프로그래밍되어 있는 하나 이상의 ASIC(application-specific integrated circuit) 또는 FPGA(field programmable gate array)와 같은 디지털 전자 디바이스들을 포함하거나, 또는 펌웨어, 메모리, 다른 스토리지 또는 그 조합 내의 프로그램 명령어들에 따라 기술들을 수행하도록 프로그래밍되어 있는 하나 이상의 범용 하드웨어 프로세서를 포함할 수 있다. 그러한 특수 목적 컴퓨팅 디바이스들은 또한 커스텀 고정 배선 로직, ASIC들, 또는 FPGA들을 커스텀 프로그래밍과 조합하여 기술들을 달성할 수 있다. 다양한 실시예들에서, 특수 목적 컴퓨팅 디바이스들은 기술들을 구현하기 위한 고정 배선 및/또는 프로그램 로직을 포함하는 데스크톱 컴퓨터 시스템들, 휴대용 컴퓨터 시스템들, 핸드헬드 디바이스들, 네트워크 디바이스들, 또는 임의의 다른 디바이스이다.
일 실시예에서, 컴퓨터 시스템(300)은 정보를 통신하기 위한 버스(302) 또는 다른 통신 메커니즘, 및 정보를 프로세싱하기 위한, 버스(302)와 커플링된 하드웨어 프로세서(304)를 포함한다. 하드웨어 프로세서(304)는, 예를 들어, 범용 마이크로프로세서이다. 컴퓨터 시스템(300)은 프로세서(304)에 의해 실행될 명령어들 및 정보를 저장하기 위한, 버스(302)에 커플링된 메인 메모리(306), 예컨대, RAM(random access memory) 또는 다른 동적 저장 디바이스를 또한 포함한다. 일 구현예에서, 메인 메모리(306)는 프로세서(304)에 의해 실행될 명령어들의 실행 동안 임시 변수들 또는 다른 중간 정보를 저장하는 데 사용된다. 그러한 명령어들은, 프로세서(304)에 의해 액세스 가능한 비일시적 저장 매체에 저장되어 있을 때, 컴퓨터 시스템(300)을 명령어들에 명시된 동작들을 수행하도록 커스터마이징되는 특수 목적 머신으로 만든다.
일 실시예에서, 컴퓨터 시스템(300)은, 프로세서(304)에 대한 명령어들 및 정적 정보를 저장하기 위한, 버스(302)에 커플링된 ROM(read only memory)(308) 또는 다른 정적 저장 디바이스를 더 포함한다. 정보 및 명령어들을 저장하기 위한, 자기 디스크, 광학 디스크, 솔리드 스테이트 드라이브, 또는 3차원 크로스 포인트 메모리와 같은, 저장 디바이스(310)가 제공되고 버스(302)에 커플링된다.
일 실시예에서, 컴퓨터 시스템(300)은 정보를 컴퓨터 사용자에게 디스플레이하기 위한 CRT(cathode ray tube), LCD(liquid crystal display), 플라스마 디스플레이, LED(light emitting diode) 디스플레이, 또는 OLED(organic light emitting diode) 디스플레이와 같은 디스플레이(312)에 버스(302)를 통해 커플링된다. 정보 및 커맨드 선택들을 프로세서(304)로 전달하기 위한 문자 숫자식 키 및 다른 키를 포함하는 입력 디바이스(314)가 버스(302)에 커플링된다. 다른 유형의 사용자 입력 디바이스는 방향 정보 및 커맨드 선택들을 프로세서(304)에 전달하고 디스플레이(312) 상에서의 커서 움직임을 제어하기 위한, 마우스, 트랙볼, 터치식 디스플레이, 또는 커서 방향 키들과 같은, 커서 컨트롤러(316)이다. 이러한 입력 디바이스는 전형적으로, 디바이스가 평면에서의 위치들을 명시할 수 있게 하는 2 개의 축, 즉 제1 축(예를 들면, x 축) 및 제2 축(예를 들면, y 축)에서의 2 자유도를 갖는다.
일 실시예에 따르면, 본원에서의 기술들은 프로세서(304)가 메인 메모리(306)에 포함된 하나 이상의 명령어의 하나 이상의 시퀀스를 실행하는 것에 대한 응답으로 컴퓨터 시스템(300)에 의해 수행된다. 그러한 명령어들은, 저장 디바이스(310)와 같은, 다른 저장 매체로부터 메인 메모리(306) 내로 판독된다. 메인 메모리(306)에 포함된 명령어 시퀀스들의 실행은 프로세서(304)로 하여금 본원에 기술된 프로세스 단계들을 수행하게 한다. 대안적인 실시예들에서, 소프트웨어 명령어들 대신에 또는 소프트웨어 명령어들과 조합하여 고정 배선 회로가 사용된다.
"저장 매체"라는 용어는, 본원에서 사용되는 바와 같이, 머신으로 하여금 특정 방식으로 작동하게 하는 명령어들 및/또는 데이터를 저장하는 임의의 비일시적 매체를 지칭한다. 그러한 저장 매체는 비휘발성 매체 및/또는 휘발성 매체를 포함한다. 비휘발성 매체는, 예를 들어, 광학 디스크, 자기 디스크, 솔리드 스테이트 드라이브, 또는 3차원 크로스 포인트 메모리, 예컨대, 저장 디바이스(310)를 포함한다. 휘발성 매체는 동적 메모리, 예컨대, 메인 메모리(306)를 포함한다. 통상적인 형태의 저장 매체는, 예를 들어, 플로피 디스크, 플렉서블 디스크, 하드 디스크, 솔리드 스테이트 드라이브, 자기 테이프, 또는 임의의 다른 자기 데이터 저장 매체, CD-ROM, 임의의 다른 광학 데이터 저장 매체, 홀 패턴들을 갖는 임의의 물리적 매체, RAM, PROM, 및 EPROM, FLASH-EPROM, NV-RAM, 또는 임의의 다른 메모리 칩, 또는 카트리지를 포함한다.
저장 매체는 송신 매체와 별개이지만 송신 매체와 함께 사용될 수 있다. 송신 매체는 저장 매체들 사이에서 정보를 전달하는 데 참여한다. 예를 들어, 송신 매체는 버스(302)를 구성하는 와이어들을 포함한, 동축 케이블, 구리 와이어 및 광섬유를 포함한다. 송신 매체는 또한, 전파(radio-wave) 및 적외선 데이터 통신 동안 생성되는 것과 같은, 음향파 또는 광파의 형태를 취할 수 있다.
일 실시예에서, 실행을 위해 하나 이상의 명령어의 하나 이상의 시퀀스를 프로세서(304)로 반송하는 데 다양한 형태의 매체가 관여된다. 예를 들어, 명령어들은 초기에 원격 컴퓨터의 자기 디스크 또는 솔리드 스테이트 드라이브에 보유된다. 원격 컴퓨터는 자신의 동적 메모리에 명령어들을 로딩하고 모뎀을 사용하여 전화선을 통해 명령어들을 전송한다. 컴퓨터 시스템(300)에 로컬인 모뎀은 전화선을 통해 데이터를 수신하고 적외선 송신기를 사용하여 데이터를 적외선 신호로 변환한다. 적외선 검출기는 적외선 신호로 반송되는 데이터를 수신하고 적절한 회로는 데이터를 버스(302)에 배치한다. 버스(302)는 데이터를 메인 메모리(306)로 반송하고, 프로세서(304)는 메인 메모리로부터 명령어들을 검색하여 실행한다. 메인 메모리(306)에 의해 수신되는 명령어들은 프로세서(304)에 의해 실행되기 전이나 실행된 후에 선택적으로 저장 디바이스(310)에 저장될 수 있다.
컴퓨터 시스템(300)은 버스(302)에 커플링된 통신 인터페이스(318)를 또한 포함한다. 통신 인터페이스(318)는 로컬 네트워크(322)에 연결되는 네트워크 링크(320)에 대한 양방향 데이터 통신(two-way data communication) 커플링을 제공한다. 예를 들어, 통신 인터페이스(318)는 ISDN(integrated service digital network) 카드, 케이블 모뎀, 위성 모뎀, 또는 대응하는 유형의 전화선에 대한 데이터 통신 연결을 제공하는 모뎀이다. 다른 예로서, 통신 인터페이스(318)는 호환 가능한 LAN(local area network)에 대한 데이터 통신 연결을 제공하기 위한 LAN 카드이다. 일부 구현예들에서, 무선 링크들이 또한 구현된다. 임의의 그러한 구현예에서, 통신 인터페이스(318)는 다양한 유형의 정보를 나타내는 디지털 데이터 스트림을 반송하는 전기 신호, 전자기 신호, 또는 광학 신호를 전송 및 수신한다.
네트워크 링크(320)는 전형적으로 하나 이상의 네트워크를 통한 다른 데이터 디바이스들로의 데이터 통신을 제공한다. 예를 들어, 네트워크 링크(320)는 로컬 네트워크(322)를 통해 호스트 컴퓨터(324)에 대한 연결 또는 ISP(Internet Service Provider)(326)에 의해 운영되는 클라우드 데이터 센터 또는 장비에 대한 연결을 제공한다. ISP(326)는 차례로 지금은 "인터넷(328)"이라고 통상적으로 지칭되는 월드 와이드 패킷 데이터 통신 네트워크(world-wide packet data communication network)를 통해 데이터 통신 서비스들을 제공한다. 로컬 네트워크(322) 및 인터넷(328) 둘 모두는 디지털 데이터 스트림을 반송하는 전기 신호, 전자기 신호, 또는 광학 신호를 사용한다. 컴퓨터 시스템(300)으로 그리고 컴퓨터 시스템(300)으로부터 디지털 데이터를 반송하는, 다양한 네트워크들을 통한 신호들 및 통신 인터페이스(318)를 통한 네트워크 링크(320) 상의 신호들은 송신 매체의 예시적인 형태들이다. 일 실시예에서, 네트워크(320)는 위에서 기술된 클라우드(202) 또는 클라우드(202)의 일부를 포함한다.
컴퓨터 시스템(300)은 네트워크(들), 네트워크 링크(320), 및 통신 인터페이스(318)를 통해 메시지들을 전송하고, 프로그램 코드를 포함한, 데이터를 수신한다. 일 실시예에서, 컴퓨터 시스템(300)은 프로세싱하기 위한 코드를 수신한다. 수신된 코드는 수신될 때 프로세서(304)에 의해 실행되고/되거나 추후 실행을 위해 저장 디바이스(310) 또는 다른 비휘발성 스토리지에 저장된다.
자율 주행 차량 아키텍처
도 4는 자율 주행 차량(예를 들면, 도 1에 도시된 AV(100))에 대한 예시적인 아키텍처(400)를 도시한다. 아키텍처(400)는 인지 모듈(402)(때때로 인지 회로라고 지칭됨), 계획 모듈(404)(때때로 계획 회로라고 지칭됨), 제어 모듈(406)(때때로 제어 회로라고 지칭됨), 로컬화 모듈(408)(때때로 로컬화 회로라고 지칭됨), 및 데이터베이스 모듈(410)(때때로 데이터베이스 회로라고 지칭됨)을 포함한다. 각각의 모듈은 AV(100)의 작동에서 소정의 역할을 한다. 다함께, 모듈들(402, 404, 406, 408 및 410)은 도 1에 도시된 AV 시스템(120)의 일부일 수 있다. 일부 실시예들에서, 모듈들(402, 404, 406, 408, 및 410) 중 임의의 것은 컴퓨터 소프트웨어(예를 들면, 컴퓨터 판독 가능 매체에 저장된 실행 가능 코드) 및 컴퓨터 하드웨어(예를 들면, 하나 이상의 마이크로프로세서, 마이크로컨트롤러, ASIC(application-specific integrated circuit), 하드웨어 메모리 디바이스, 다른 유형의 집적 회로, 다른 유형의 컴퓨터 하드웨어, 또는 이러한 것들 중 임의의 것 또는 전부의 조합)의 조합이다.
사용 중에, 계획 모듈(404)은 목적지(412)를 나타내는 데이터를 수신하고 목적지(412)에 도달(예를 들면, 도착)하기 위해 AV(100)에 의해 주행될 수 있는 궤적(414)(때때로 루트라고 지칭됨)을 나타내는 데이터를 결정한다. 계획 모듈(404)이 궤적(414)을 나타내는 데이터를 결정하기 위해, 계획 모듈(404)은 인지 모듈(402), 로컬화 모듈(408), 및 데이터베이스 모듈(410)로부터 데이터를 수신한다.
인지 모듈(402)은, 예를 들면, 도 1에 또한 도시된 바와 같이, 하나 이상의 센서(121)를 사용하여 인근의 물리적 대상체들을 식별한다. 대상체들은 분류되고(예를 들면, 보행자, 자전거, 자동차, 교통 표지판 등과 같은 유형들로 그룹화되고), 분류된 대상체들(416)을 포함하는 장면 묘사가 계획 모듈(404)에 제공된다.
계획 모듈(404)은 또한 AV 위치(418)를 나타내는 데이터를 로컬화 모듈(408)로부터 수신한다. 로컬화 모듈(408)은 위치를 계산하기 위해 센서들(121)로부터의 데이터 및 데이터베이스 모듈(410)로부터의 데이터(예를 들면, 지리적 데이터)를 사용하여 AV 위치를 결정한다. 예를 들어, 로컬화 모듈(408)은 GNSS(Global Navigation Satellite System) 센서로부터의 데이터 및 지리적 데이터를 사용하여 AV의 경도와 위도를 계산한다. 일 실시예에서, 로컬화 모듈(408)에 의해 사용되는 데이터는 도로 기하학적 속성들의 고정밀 맵, 도로망 연결 속성들을 기술하는 맵, 도로 물리적 속성들(예컨대, 교통 속력, 교통량, 차량 교통 차선과 자전거 타는 사람 교통 차선의 수, 차선 폭, 차선 교통 방향, 또는 차선 마커 유형 및 위치, 또는 이들의 조합)을 기술하는 맵, 및 도로 특징부, 예컨대, 횡단보도, 교통 표지판 또는 다양한 유형의 다른 주행 신호들의 공간적 위치들을 기술하는 맵을 포함한다.
제어 모듈(406)은 궤적(414)을 나타내는 데이터 및 AV 위치(418)를 나타내는 데이터를 수신하고, AV(100)로 하여금 목적지(412)로 궤적(414)을 주행하게 할 방식으로 AV의 제어 기능들(420a 내지 420c)(예를 들면, 조향, 스로틀링, 제동, 점화)을 작동시킨다. 예를 들어, 궤적(414)이 좌회전을 포함하는 경우, 제어 모듈(406)은, 조향 기능의 조향각이 AV(100)로 하여금 좌회전하게 하고 스로틀링 및 제동이 AV(100)로 하여금 이러한 회전이 이루어지기 전에 지나가는 보행자들 또는 차량들을 위해 일시정지 및 대기하게 하는 방식으로, 제어 기능들(420a 내지 420c)을 작동시킬 것이다.
자율 주행 차량 입력들
도 5는 인지 모듈(402)(도 4)에 의해 사용되는 입력들(502a 내지 502d)(예를 들면, 도 1에 도시된 센서들(121)) 및 출력들(504a 내지 504d)(예를 들면, 센서 데이터)의 예를 도시한다. 하나의 입력(502a)은 LiDAR(Light Detection and Ranging) 시스템(예를 들면, 도 1에 도시된 LiDAR(123))이다. LiDAR는 그의 가시선에 있는 물리적 대상체들에 관한 데이터를 획득하기 위해 광(예를 들면, 적외선 광과 같은 광 버스트)을 사용하는 기술이다. LiDAR 시스템은 출력(504a)으로서 LiDAR 데이터를 생성한다. 예를 들어, LiDAR 데이터는 환경(190)의 표현을 구성하는 데 사용되는 3D 또는 2D 포인트들(포인트 클라우드들이라도 알려져 있음)의 집합체이다.
다른 입력(502b)은 RADAR 시스템이다. RADAR는 인근의 물리적 대상체들에 관한 데이터를 획득하기 위해 전파를 사용하는 기술이다. RADAR는 LiDAR 시스템의 가시선 내에 있지 않은 대상체들에 관한 데이터를 획득할 수 있다. RADAR 시스템(502b)은 출력(504b)으로서 RADAR 데이터를 생성한다. 예를 들어, RADAR 데이터는 환경(190)의 표현을 구성하는 데 사용되는 하나 이상의 무선 주파수 전자기 신호이다.
다른 입력(502c)은 카메라 시스템이다. 카메라 시스템은 인근의 물리적 대상체들에 관한 정보를 획득하기 위해 하나 이상의 카메라(예를 들면, CCD(charge-coupled device)와 같은 광 센서를 사용하는 디지털 카메라들)를 사용한다. 카메라 시스템은 출력(504c)으로서 카메라 데이터를 생성한다. 카메라 데이터는 종종 이미지 데이터(예를 들면, RAW, JPEG, PNG 등과 같은 이미지 데이터 포맷의 데이터)의 형태를 취한다. 일부 예들에서, 카메라 시스템은, 카메라 시스템이 깊이를 인지하는 것을 가능하게 하는, 예를 들면, 입체시(stereopsis)(스테레오 비전)를 위한, 다수의 독립적인 카메라들을 갖는다. 비록 카메라 시스템에 의해 인지되는 대상체들이 여기서 "인근"으로 기술되지만, 이것은 AV를 기준으로 한 것이다. 사용 중에, 카메라 시스템은 멀리 있는, 예를 들어, AV 전방으로 최대 1 킬로미터 이상에 있는 대상체들을 "보도록" 구성될 수 있다. 그에 따라, 카메라 시스템은 멀리 떨어져 있는 대상체들을 인지하도록 최적화되어 있는 센서들 및 렌즈들과 같은 특징부들을 가질 수 있다.
다른 입력(502d)은 TLD(traffic light detection) 시스템이다. TLD 시스템은 하나 이상의 카메라를 사용하여, 시각적 운행 정보를 제공하는 교통 신호등, 거리 표지판, 및 다른 물리적 대상체들에 관한 정보를 획득한다. TLD 시스템은 출력(504d)으로서 TLD 데이터를 생성한다. TLD 데이터는 종종 이미지 데이터(예를 들면, RAW, JPEG, PNG 등과 같은 이미지 데이터 형식의 데이터)의 형태를 취한다. TLD 시스템은, 시각적 운행 정보를 제공하는 가능한 한 많은 물리적 대상체들에 관한 정보를 획득하기 위해 TLD 시스템이 넓은 시야를 가진 카메라(예를 들면, 광각 렌즈 또는 어안 렌즈를 사용함)를 사용함으로써, AV(100)가 이러한 대상체들에 의해 제공되는 모든 관련 운행 정보에 액세스하도록 한다는 점에서, 카메라를 포함하는 시스템과 상이하다. 예를 들어, TLD 시스템의 시야각은 약 120도 이상일 수 있다.
일부 실시예들에서, 출력들(504a 내지 504d)은 센서 융합 기술을 사용하여 결합된다. 따라서, 개별 출력들(504a 내지 504d) 중 어느 하나가 AV(100)의 다른 시스템들에 제공되거나(예를 들면, 도 4에 도시된 바와 같은 계획 모듈(404)에 제공되거나), 또는 결합된 출력이 동일한 유형의 단일 결합 출력 또는 다수의 결합 출력들의 형태(동일한 결합 기술을 사용하는 것 또는 동일한 출력들을 결합시키는 것 또는 둘 모두) 또는 상이한 유형의 단일 결합 출력 또는 다수의 결합 출력들의 형태(예를 들면, 상이한 각자의 결합 기술들을 사용하는 것 또는 상이한 각자의 출력들을 결합시키는 것 또는 둘 모두) 중 어느 하나로 다른 시스템들에 제공될 수 있다. 일부 실시예들에서, 조기 융합(early fusion) 기술이 사용된다. 조기 융합 기술은 하나 이상의 데이터 프로세싱 단계가 결합된 출력에 적용되기 전에 출력들을 결합하는 것을 특징으로 한다. 일부 실시예들에서, 늦은 융합(late fusion) 기술이 사용된다. 늦은 융합 기술은 하나 이상의 데이터 프로세싱 단계가 개별 출력들에 적용된 후에 출력들을 결합하는 것을 특징으로 한다.
도 6은 LiDAR 시스템(602)(예를 들면, 도 5에 도시된 입력(502a))의 예를 도시한다. LiDAR 시스템(602)은 광 방출기(606)(예를 들면, 레이저 송신기)로부터 광(604a 내지 604c)을 방출한다. LiDAR 시스템에 의해 방출되는 광은 전형적으로 가시 스펙트럼에 있지 않으며; 예를 들어, 적외선 광이 종종 사용된다. 방출되는 광(604b)의 일부는 물리적 대상체(608)(예를 들면, 차량)와 조우하고, LiDAR 시스템(602)으로 다시 반사된다. (LiDAR 시스템으로부터 방출되는 광은 전형적으로 물리적 대상체, 예를 들면, 고체 형태의 물리적 대상체들을 투과하지 않는다). LiDAR 시스템(602)은 또한 반사 광을 검출하는 하나 이상의 광 검출기(610)를 갖는다. 일 실시예에서, LiDAR 시스템과 연관된 하나 이상의 데이터 프로세싱 시스템은 LiDAR 시스템의 시야(614)를 나타내는 이미지(612)를 생성한다. 이미지(612)는 물리적 대상체(608)의 경계들(616)을 나타내는 정보를 포함한다. 이러한 방식으로, 이미지(612)는 AV 인근의 하나 이상의 물리적 대상체의 경계들(616)을 결정하는 데 사용된다.
도 7은 작동 중인 LiDAR 시스템(602)을 도시한다. 이 도면에 도시된 시나리오에서, AV(100)는 이미지(702) 형태의 카메라 시스템 출력(504c) 및 LiDAR 데이터 포인트들(704) 형태의 LiDAR 시스템 출력(504a) 둘 모두를 수신한다. 사용 중에, AV(100)의 데이터 프로세싱 시스템들은 이미지(702)를 데이터 포인트들(704)과 비교한다. 상세하게는, 이미지(702)에서 식별된 물리적 대상체(706)가 데이터 포인트들(704) 중에서도 식별된다. 이러한 방식으로, AV(100)는 데이터 포인트들(704)의 윤곽 및 밀도에 기초하여 물리적 대상체의 경계들을 인지한다.
도 8은 LiDAR 시스템(602)의 작동을 추가적으로 상세하게 도시한다. 위에서 기술된 바와 같이, AV(100)는 LiDAR 시스템(602)에 의해 검출되는 데이터 포인트들의 특성들에 기초하여 물리적 대상체의 경계를 검출한다. 도 8에 도시된 바와 같이, 지면(802)과 같은 평평한 대상체는 LiDAR 시스템(602)으로부터 방출되는 광(804a 내지 804d)을 일관된 방식으로 반사할 것이다. 달리 말하면, LiDAR 시스템(602)이 일관된 간격을 사용하여 광을 방출하기 때문에, 지면(802)은 광을 동일한 일관된 간격으로 LiDAR 시스템(602)으로 다시 반사할 것이다. AV(100)가 지면(802) 위를 주행함에 따라, LiDAR 시스템(602)은 도로를 방해하는 것이 아무 것도 없는 경우 다음 유효 지면 포인트(806)에 의해 반사되는 광을 계속 검출할 것이다. 그렇지만, 대상체(808)가 도로를 방해하는 경우, LiDAR 시스템(602)에 의해 방출되는 광(804e 및 804f)은 예상되는 일관된 방식과 부합하지 않는 방식으로 포인트들(810a 및 810b)로부터 반사될 것이다. 이 정보로부터, AV(100)는 대상체(808)가 존재한다고 결정할 수 있다.
자율 주행 차량 제어
도 9는 (예를 들면, 도 4에 도시된 바와 같은) 제어 모듈(406)의 입력들 및 출력들의 블록 다이어그램(900)을 도시한다. 제어 모듈은, 예를 들어, 프로세서(304)와 유사한 하나 이상의 프로세서(예를 들면, 마이크로프로세서 또는 마이크로컨트롤러 또는 둘 모두와 같은 하나 이상의 컴퓨터 프로세서), 메인 메모리(306)와 유사한 단기 및/또는 장기 데이터 스토리지(예를 들면, 메모리 랜덤 액세스 메모리 또는 플래시 메모리 또는 둘 모두), ROM(308), 및 저장 디바이스(310)를 포함하는 제어기(902), 및 메모리에 저장된 명령어들에 따라 작동하는데, 상기 명령어들은 명령어들이 (예를 들면, 하나 이상의 프로세서에 의해) 실행될 때 제어기(902)의 동작들을 수행한다.
일 실시예에서, 제어기(902)는 원하는 출력(904)을 나타내는 데이터를 수신한다. 원하는 출력(904)은 전형적으로 속도, 예를 들면, 속력 및 헤딩을 포함한다. 원하는 출력(904)은, 예를 들어, (예를 들면, 도 4에 도시된 바와 같은) 계획 모듈(404)로부터 수신되는 데이터에 기초할 수 있다. 원하는 출력(904)에 따라, 제어기(902)는 스로틀 입력(906) 및 조향 입력(908)으로서 사용 가능한 데이터를 생성한다. 스로틀 입력(906)은 원하는 출력(904)을 달성하기 위해, 예를 들면, 조향 페달에 관여하거나 또는 다른 스로틀 제어에 관여하는 것에 의해, AV(100)의 스로틀(예를 들면, 가속 제어)에 관여하는 정도를 나타낸다. 일부 예들에서, 스로틀 입력(906)은 AV(100)의 브레이크(예를 들면, 감속 제어)에 관여하는 데 사용 가능한 데이터를 또한 포함한다. 조향 입력(908)은 조향각, 예를 들면, AV의 조향 컨트롤(예를 들면, 조향 휠, 조향각 액추에이터, 또는 조향각을 제어하기 위한 다른 기능성)이 원하는 출력(904)을 달성하도록 위치결정되어야 하는 각도를 나타낸다.
일 실시예에서, 제어기(902)는 스로틀 및 조향에 제공되는 입력들을 조정하는 데 사용되는 피드백을 수신한다. 예를 들어, AV(100)가 언덕과 같은 방해물(910)과 조우하면, AV(100)의 측정된 속력(912)은 원하는 출력 속력 아래로 낮아진다. 일 실시예에서, 예를 들면, 측정된 속력과 원하는 출력 사이의 차분(913)에 기초하여, 필요한 조정이 수행되도록 임의의 측정된 출력(914)이 제어기(902)에 제공된다. 측정된 출력(914)은 측정된 위치(916), 측정된 속도(918)(속력 및 헤딩을 포함함), 측정된 가속도(920), 및 AV(100)의 센서들에 의해 측정 가능한 다른 출력들을 포함한다.
일 실시예에서, 방해물(910)에 관한 정보는, 예를 들면, 카메라 또는 LiDAR 센서와 같은 센서에 의해 미리 검출되고, 예측 피드백 모듈(922)에 제공된다. 예측 피드백 모듈(922)은 이어서 정보를 제어기(902)에 제공하며, 제어기(902)는 이 정보를 사용하여 그에 따라 조정할 수 있다. 예를 들어, AV(100)의 센서들이 언덕을 검출한("본") 경우, 이 정보는 상당한 감속을 방지하도록 적절한 시간에 스로틀에 관여할 준비를 하기 위해 제어기(902)에 의해 사용될 수 있다.
도 10은 제어기(902)의 입력들, 출력들, 및 컴포넌트들의 블록 다이어그램(1000)을 도시한다. 제어기(902)는 스로틀/브레이크 제어기(1004)의 작동에 영향을 미치는 속력 프로파일러(1002)를 갖는다. 예를 들어, 속력 프로파일러(1002)는, 예를 들면, 제어기(902)에 의해 수신되고 속력 프로파일러(1002)에 의해 프로세싱되는 피드백에 따라 스로틀/브레이크(1006)를 사용하여 가속에 관여하거나 감속에 관여하도록 스로틀/브레이크 제어기(1004)에 지시한다.
제어기(902)는 또한 조향 제어기(1010)의 작동에 영향을 미치는 횡방향 추적 제어기(1008)를 갖는다. 예를 들어, 횡방향 추적 제어기(1008)는, 예를 들면, 제어기(902)에 의해 수신되고 횡방향 추적 제어기(1008)에 의해 프로세싱되는 피드백에 따라 조향각 액추에이터(1012)의 위치를 조정하도록 조향 제어기(1010)에 지시한다.
제어기(902)는 스로틀/브레이크(1006) 및 조향각 액추에이터(1012)를 제어하는 방법을 결정하는 데 사용되는 여러 입력들을 수신한다. 계획 모듈(404)은, 예를 들어, AV(100)가 작동을 시작할 때 헤딩을 선택하기 위해 그리고 AV(100)가 교차로에 도달할 때 어느 도로 세그먼트를 횡단할지를 결정하기 위해, 제어기(902)에 의해 사용되는 정보를 제공한다. 로컬화 모듈(408)은, 예를 들어, 스로틀/브레이크(1006) 및 조향각 액추에이터(1012)가 제어되고 있는 방식에 기초하여 예상되는 위치에 AV(100)가 있는지를 제어기(902)가 결정할 수 있도록, AV(100)의 현재 위치를 기술하는 정보를 제어기(902)에 제공한다. 일 실시예에서, 제어기(902)는 다른 입력들(1014)로부터의 정보, 예를 들면, 데이터베이스들, 컴퓨터 네트워크들 등으로부터 수신되는 정보를 수신한다.
자체 추진 자율 주행 테스트 플랫폼의 설계
도 11a 내지 도 11c는 AV(100)와 유사한 자율 주행 차량의 자율 주행 운행 시스템을 테스트하는 데 유용한 자체 추진 자율 주행 플랫폼(1100)의 다양한 뷰들을 도시한다. 도 11a는 플랫폼(1100)의 평면도를 도시한다. 플랫폼(1100)은 플랫폼 하우징(1102)을 포함하는데, 플랫폼 하우징(1102)은 차량들 또는 플랫폼(1100)을 손상시키지 않고 차량들이 플랫폼(1100) 위를 운전할 수 있게 하는 경사진 주변부(1104)를 갖는 강성 구조물의 형태를 취할 수 있다. 일부 실시예들에서, 경사진 주변부는 선형 경사를 가질 수 있고, 일부 실시예들에서, 경사진 주변부(1104)는 비선형 경사(예를 들면, 오목하거나 볼록한 원호형 경사 등)를 가질 수 있다. 플랫폼 하우징(1102)의 중앙 영역은 AV(100)의 하나 이상의 센서에 의해 검출할 수 있는 적어도 하나의 타깃을 지지하도록 구성된 평평하거나 경사진 지지 표면(1106)을 포함할 수 있다. 플랫폼(1100)이 광학 센서를 포함할 때, 지지 표면(1106)은 차량이 플랫폼(1100) 위로 운전할 때 지지 표면(1106)의 일 부분을 형성하는 센서 커버(1108)를 포함할 수 있다. 지지 표면(1106)은 타깃 지지 구조물에 부착하도록 구성되는 자기 부착 지점들(1110)을 또한 포함한다. 타깃 지지 구조물은 자기적으로 상호작용하고 자기 부착 지점들(1110)에 부착될 수 있는 자석 또는 자기적으로 끌릴 수 있는 재료를 갖는 베이스를 포함한다. 일부 실시예들에서, 자기 부착 지점들(1110)은 타깃 지지 구조물의 베이스에 통합되는 자석에 자기적으로 커플링되는 자기적으로 끌릴 수 있는 재료의 형태를 취할 수 있다. 일단 자기 부착 지점들(1110) 중 하나 또는 둘 모두에 견고하게 부착되면, 타깃 지지 구조물은 플랫폼(1100)이 이리저리 이동하는 동안 타깃을 똑바로 세우고 안정되게 유지하는 데 사용될 수 있다.
도 11b는 단면 라인 A-A에 따른 제1 상태에 있는 플랫폼(1100)의 단면도를 도시한다. 제1 상태는 또한 플랫폼 하우징(1102)이 임계량의 힘을 받을 때까지 플랫폼(1100)이 유지되는 정상 작동 상태라고 지칭될 수 있다. 이 제1 상태에서, 센서 커버(1108)는 지지 표면(1106)보다 위로 상승되며, 이는 센서(1112)에 플랫폼 하우징(1102) 외부의 방해받지 않는 시야를 허용한다. 일부 실시예들에서, 센서(1112)는 플랫폼(1100)이 센서(1112)에 의해 생성되는 데이터에 기초하여 테스트 동안 다른 플랫폼 또는 차량에 대한 그의 속력을 조정할 수 있게 한다. 묘사된 바와 같이, 바퀴들(1114)은 플랫폼 하우징(1102)의 하방 표면으로부터 돌출한다. 바퀴들(1114)은 플랫폼 하우징(1102) 내에 배치된 하나 이상의 모터에 의해 구동될 수 있다. 도 11b는 또한 센서 수납 메커니즘(1118)과 연관된 바퀴(1116)를 도시한다.
도 11c는 단면 라인 A-A에 따른 제2 상태에 있는 플랫폼(1100)의 단면도를 도시한다. 이 상태에서는 플랫폼(1100)이 스스로 추진할 수 없기 때문에, 제2 상태는 정지 상태라고도 지칭될 수 있다. 이 제2 상태에서, 센서 커버(1108)는 지지 표면(1106)과 동일 평면(flush)이거나 실질적으로 동일 평면이다. 센서(1112)의 이러한 수납된 위치는 AV(100)의 바퀴가 공교롭게도 센서 커버(1108) 바로 위를 지나가는 경우에 센서(1112)가 손상을 입는 것을 방지한다. 도 11c는 또한 바퀴들(1114) 및 바퀴(1116)가 제2 상태에서 플랫폼 하우징(1102) 내로 어떻게 수납되는지를 도시한다. 바퀴들(1114) 및 바퀴(1116)는 플랫폼 하우징(1102)에 임계량의 힘이 가해지면 압축 또는 연장되도록 구성된 견고한 스프링들에 의해 제1 상태로 유지된다. 이러한 개시된 구조는 플랫폼(1100)이 높이가 약 80 mm 미만인 로우 프로파일을 가질 수 있게 하며, 이는 플랫폼을 보다 공기역학적으로 만들고 플랫폼이 운반하는 타깃들의 높이를 실질적으로 증가시키지 않는다. 이러한 방식으로, 타깃의 높이를 조정할 필요 없이 일반 사람 또는 차량의 높이와 일치하는 비율을 가진 타깃이 사용될 수 있다.
도 12는 플랫폼(1100)의 후방 사시도를 도시한다. 상세하게는, 원통형 빔의 형태를 취하는 타깃 지지 구조물(1202)은 플랫폼 하우징(1102)의 후방 자기 부착 지점에 부착된 것으로 도시되어 있다. 플랫폼 하우징(1102)에 자기적으로 커플링되는 타깃 지지 구조물(1202)과의 커플링으로 인해, 타깃 지지 구조물(1402)에 부착된 타깃이 AV(100)에 의해 타격을 받는 경우에, 타깃 및 타깃 지지 구조물(1202) 둘 모두가 플랫폼(1100) 또는 AV(100)에 상당한 손상을 입히지 않고 플랫폼 하우징(1102)으로부터 쉽게 분리될 수 있다. 타깃 지지 구조물(1402)이 상이한 형태들을 취할 수 있음을 이해해야 한다. 예를 들어, 타깃 지지 구조물(1402)은 타깃 지지 구조물이 타깃에 견고하게 부착될 수 있게 하여, 이에 의해 플랫폼(1100)으로부터의 타깃의 우발적 분리를 방지하는 타깃 부착 특징부들을 가질 수 있다.
도 13은 플랫폼(1100)의 하방 표면의 사시도를 도시한다. 타깃(1302)은 플랫폼(1100)의 상방 표면에 부착된 것으로 도시되어 있다. 일부 실시예들에서, 타깃(1302)은 플랫폼 하우징(1102)의 자기 부착 지점들 중 하나에 직접 부착될 수 있다. 타깃(1302)이 도 13에서 보행자로 묘사되어 있지만, 플랫폼(1100)은, 자전거를 탄 사람 또는 다른 플랫폼들과 협력하여 팽창식 차량 형상의 타깃들을 운반하는 것과 같은, 다른 유형들의 타깃들을 운반할 수 있다는 점에 유의해야 한다.
도 13은 또한 플랫폼(1100)의 하방 표면의 확대도(1304)를 도시하며 여기서 플랫폼(1100)은 제2 상태에 있다. 묘사된 바와 같이, 플랫폼 하우징(1102)의 내부는 실질적으로 비어 있어서, 바퀴들(1104, 1106)이 구조적 리브들(1306) 사이에서 수납되기 위한 공간을 제공한다. 구조적 리브들(1306)은 AV(100)가 플랫폼 하우징(1102) 위를 지나가는 것을 구조적으로 지지하기에 충분히 강성이도록 플랫폼 하우징(1102)을 유지하는 데 도움을 준다. 플랫폼 하우징(1102)에 바퀴들(1114)을 부착시키는 바퀴 어셈블리들은 핀들에 의해 구조적 리브들(1304) 중 하나 이상에 부착된다. 도 13은 또한 바퀴들(1104-1 및 1104-2)과 축 정렬되어 있는 모터들(1308)을 도시한다. 일부 실시예들에서, 모터들(1308)은 모터들(1308)과 바퀴들(1104)의 정렬을 유지하기 위해 플랫폼(1100)이 제2 상태로부터 제1 상태로 변경될 때 바퀴들(1104)과 함께 이동하도록 구성될 수 있다. 2 개의 모터(1308)를 갖는 것은 플랫폼(1100)이 모터들(1308)에 차동 입력들을 인가하는 것에 의해 회전을 수행하게 할 수 있어, 이에 의해 플랫폼(1100)이 좌회전 및 우회전을 할 수 있게 한다. 차동 입력들은 차동 전력, 제어 신호들, 전류 등을 포함한 많은 형태들을 취할 수 있다.
도 14a 및 도 14b는, 제각기, 제1 상태 및 제2 상태에 있는 센서 수납 메커니즘(1118)의 상세도를 도시한다. 도 14a는 센서(1112)가 지지 표면(1106)보다 위로 돌출한 것을 도시한다. 센서(1112)는 링크부(linkage)(1402), 바퀴 지지부(1404) 및 차축(1406)을 통해 바퀴(1116)에 기계적으로 커플링된다. 바퀴 지지부(1404)와 링크부(1402)가 2 개의 상이한 부품으로 도시되어 있지만, 일부 실시예들에서, 이들 2 개의 부품은 단일 부품으로 결합될 수 있다. 바퀴(1116)는 스프링(1408)에 의해 도 14a에 묘사된 위치에 유지된다. 스프링(1408)의 제1 단부는 센서 수납 메커니즘 본체(1410)에 고정되고 스프링(1408)의 제2 단부는 핀(1412)에서 링크부(1402)에 고정된다. 스프링(1408)은 임계량의 힘이 플랫폼 하우징(1102)에 가해질 때까지 링크부(1402)가 핀(1414)에 의해 정의되는 축을 중심으로 회전하는 것을 방지하도록 구성되며, 힘이 가해지는 시점에서 스프링(1408)은 늘어나도록 구성되어, 이에 의해 링크부(1402)가 회전할 수 있게 한다.
도 14b는 플랫폼(1100)이 제2 상태에 있을 때 센서 수납 메커니즘(1118)의 위치를 도시한다. 링크부(1402)는 스프링(1408)이 링크부(1402)의 회전을 수용하도록 늘어난 후의 새로운 위치에 도시되어 있다. 링크부(1402)의 회전은 바퀴(1116)를 플랫폼 하우징(1102) 내로 수납하는 것(도시되지 않음) 및 센서(1112)를 플랫폼 하우징(1102) 내로 수납하는 것을 결과한다. 센서(1112)는 링크부(1402)의 원위 단부가 핀(1416)을 아래쪽으로 미는 것으로 인해 플랫폼 하우징(1102) 및 센서 수납 본체(1410) 내로 수납된다. 핀(1416)이 센서(1112)에 커플링되기 때문에, 센서(1112)는 묘사된 바와 같이 플랫폼 하우징(1112) 내로 수납된다.
도 15a 내지 도 15c는 대안적인 플랫폼 서스펜션을 도시한다. 도 15a는 플랫폼 서스펜션(1500)의 사시도를 도시한다. 플랫폼(1100)이 각각의 바퀴의 움직임을 제어하기 위한 개별 스프링들을 포함하는 서스펜션을 갖는 반면, 서스펜션(1500)은 플랫폼 하우징에 휠들(1504) 각각을 부착시키는 강성 재료로 만들어진 단일 섀시(1502)를 포함한다. 이러한 방식으로, 플랫폼이 정상 작동 상태와 정지 상태 사이에서 이동할 때, 바퀴들(1504)은 모두 섀시(1502)와 함께 이동한다. 도 15a는 또한 모터들(1506)이 섀시(1502)에 어떻게 커플링되는지를 도시한다. 모터들(1506)과 바퀴들(1504) 둘 모두가 섀시(1502)에 부착되기 때문에, 모터들(1506)과 바퀴들(1504) 사이의 정렬은 상태에 관계없이 일정하게 유지된다. 모터들(1506)은 베벨 기어(1508)를 통해 바퀴들(1504)과 맞물린다. 대안적으로, 서스펜션(1500)은 확장될 수 있고, 모터들(1506)의 구동 샤프트들은 도 13에 도시된 구성과 유사하게 바퀴들의 회전 축들과 직접 정렬될 수 있다.
섀시(1502)는 또한 다수의 스프링들(1512) 및 링크부들(1514)에 의해 하우징 브래킷들(1510)에 커플링된다. 스프링들(1512)은 임계량의 힘이 각자의 플랫폼 하우징을 통해 스프링들에 가해질 때까지 하우징 브래킷들(1510)에 대한 섀시(1502)의 움직임을 방지한다. 일단 스프링들(1512)이 가해진 힘 하에서 신장되기 시작하면, 링크부들(1514)은 하우징 브래킷들(1510)에 대한 섀시(1502)의 움직임을 제어하도록 구성된다. 하우징 브래킷들(1510)이 둘 모두 각자의 플랫폼 하우징에 견고하게 커플링되기 때문에, 링크부들(1514)은 또한 각자의 플랫폼 하우징에 대한 섀시(1502)의 움직임을 제어한다.
도 15b 및 도 15c는 정상 상태 및 정지 상태에 있는 서스펜션(1500)의 측면도들을 도시한다. 도면들은 스프링들(1512)이 연장됨에 따라 섀시(1502)가 각자의 플랫폼 하우징 내로 수납되는 것을 용이하게 하기 위해 섀시(1502)가 하우징 브래킷들(1510)에 대해 위쪽으로 및 측방향으로 어떻게 이동하는지를 보여준다. 도 15c는 또한 바퀴들(1504)이 하우징 브래킷(1510)의 베이스와 동평면(even)으로 될 정도로 어떻게 수납되는지를 도시한다. 일부 실시예들에서, 링크부들(1514)은 바퀴들(1504)이 하우징 브래킷(1510)의 베이스보다 위로 수납되도록 구성될 수 있다.
도 16은 도 15a 내지 도 15c에 묘사된 대안적인 서스펜션(1500)을 포함하는 플랫폼(1600)의 하부 표면의 사시도를 도시한다. 묘사된 바와 같이, 플랫폼(1600)은 플랫폼 하우징(1602)의 주변부에 걸쳐 있는 일련의 구조적 리브들(1604)을 규정하는 플랫폼 하우징(1602)을 포함한다. 주변 영역에서, 구조적 리브들(1604)은 격자 패턴으로 배열된다. 플랫폼 하우징(1602)의 중앙 영역에서, 구조적 리브들(1606)은 단일 방향으로만 뻗어 있고 중앙 영역 내에 서스펜션(1500)을 부착할 공간을 제공하기 위해 분할되어 있다.
도 17a는 보행자 타깃이 위에 장착되어 있는 자율 주행 플랫폼(1702)이 횡단보도(1704)의 입구에 위치되어 있는 예시적인 테스트 셋업을 도시한다. AV(100)가 미리 결정된 위치(1706)에 도달할 때, 자율 주행 플랫폼(1702)은 횡단보도(1704)를 횡단하도록 구성될 수 있다. AV(100)가 위치(1706)에 도착하는 것은 다양한 방식들로 결정될 수 있다. 예를 들어, 센서는 위치(1706)에서 도로 내에 매립될 수 있고 AV(100)의 통과를 식별하도록 구성될 수 있다. 일부 실시예들에서, 센서는 AV(100)의 전방 부분에 고정된 RFID 태그의 통과를 감지하기 위해 전자기장을 방출하도록 구성된 RFID 판독기일 수 있다. RFID 판독기는 이어서 AV(100)가 위치(1706)에 도착했음을 중계하는 신호를 자율 주행 플랫폼(1702)으로 송신할 수 있다. 일부 실시예들에서, AV(100)가 위치(1706)에 도착한 때를 결정하기 위해 온보드 광학 센서가 사용될 수 있다. 광학 센서는 AV(100)의 외부 표면에 위치된 타깃 또는 특징부의 크기를 측정하도록 구성될 수 있어, 거리 정보를 제공하기 위해 이미저리의 분석을 가능하게 한다. 광학 센서는 또한 알려진 거리만큼 떨어져 있는 특징부들 사이의 거리를 측정하는 것에 의해 AV(100)로부터의 거리를 결정하도록 구성될 수 있다.
자율 주행 플랫폼(1702)에 의해 취해지는 경로는 일정 속력의 직선 경로일 수 있거나, 또는 실질적으로 달라질 수 있다. 일부 실시예들에서, 자율 주행 플랫폼(1702)에 의해 취해지는 경로는 수동 또는 프로그램 기반 입력에 기초할 수 있다. 예를 들어, 테스트 관리자는 자율 주행 플랫폼(1702)으로 하여금 횡단보도(1704)를 가로질러 직선 횡단을 하게 하거나 또는 횡단보도(1704)의 경계 내에 머무르면서 방향과 속력이 변할 수 있는 보다 구불구불한 경로를 따라가게 하는 방향 커맨드들을 수동으로 입력할 수 있다.
자율 주행 플랫폼(1702)에 제공되는 입력의 유형에 관계없이, AV(100)가 특정 시나리오에서 고전하고 있는 경우에 AV(100)의 자율 주행 관리에 대한 개선들이 추적될 수 있도록 자율 주행 플랫폼(1702)이 동일한 세트의 움직임들을 반복할 수 있는 것이 중요하다. 자율 주행 플랫폼(1702)은 특정 테스트 실행 동안 자신이 점유하는 일련의 위치들 및/또는 지시들을 기록하는 것에 의해 움직임들을 여러 번 수행할 수 있다. 이는 움직임들이 정밀하게 반복될 수 있게 할 수 있다. 자율 주행 플랫폼(1702)이 이전 세트의 입력 커맨드들을 조정 또는 수정할 수 있는 능력을 갖는 것이 또한 바람직할 수 있다. 이것은 AV(100)가 자율 주행 플랫폼(1702)이 횡단보도(1704)를 가로질러 횡단하는 것에 대해 완벽하게 작동하는 경우에 도움이 될 수 있는데, 그 이유는 이는 테스터들이 횡단보도(1704)를 가로지르는 자율 주행 플랫폼(1702)의 움직임에 대한 특정 변경들이 AV(100)의 작동의 실패를 야기하는지를 알아볼 수 있게 하기 때문이다. 예를 들어, 자율 주행 플랫폼은 AV(100)가 매우 다양한 시나리오들에 대해 그에 따라 반응할 수 있도록 보장하기 위해 속력 및/또는 방향에서 제어된 조정을 하도록 구성될 수 있다. 다수의 제어된 시나리오 변동들을 제공하는 것 외에도, 이러한 자율 주행 조정은 또한 모든 자율 주행 플랫폼(1702)을 운전하는 전담 작업자가 있을 필요가 없기 때문에 개인들이 시나리오들을 셋업하는 데 필요한 시간 양을 줄이는 데 도움이 된다.
도 17b는 AV(100)가 미리 결정된 위치에 도달한 때를 결정하기 위해 레이저 송신기(1710) 및 레이저 수신기(1712)가 이용되는 다른 테스트 셋업의 사시도를 도시한다. AV(100)가 레이저 수신기(1712)가 레이저 송신기(1710)에 의해 송신되는 레이저를 수신하는 것을 방해하자마자 신호가 송신될 수 있기 때문에 레이저 검출 시스템의 사용은 RFID 판독기보다 더 빠른 응답을 제공할 수 있다. 일부 실시예들에서, 레이저 검출 시스템은 또한 레이저가 얼마나 오랫동안 차단되는지를 측정하는 것에 의해 미리 결정된 위치에서의 AV(100)의 속력을 송신하도록 구성될 수 있다. 미리 결정된 위치에서의 AV(100)의 속력은 또한 자율 주행 플랫폼(1702)이 언제 움직임을 시작하는지 및/또는 그 움직임이 어떤 속력으로 수행되는지를 결정하는 데 사용될 수 있다. 이것은 운전자가 상이한 속력들로 AV(100)를 기동시키고 충돌 방지 시스템의 성능이 AV(100)의 전면과의 충돌의 경우 자율 주행 플랫폼(1702)이 위치되는 것을 필요로 하는 경우에 유용할 수 있다. 일부 실시예들에서, 자율 주행 플랫폼(1702)의 온보드 센서는 접촉 시에 AV(100)에 대한 특정 위치에 자율 주행 플랫폼(1702)을 위치시키는 것을 돕기 위해 사용될 수 있다. 예를 들어, 자율 주행 플랫폼(1702)의 초기 움직임 및 방향은 미리 결정된 위치에서의 AV(100)의 검출에 따라 이루어질 수 있지만, LiDAR, RADAR 또는 이미저리 센서와 같은 하나 이상의 센서는 자율 주행 플랫폼(1702)에 큐잉(cuing)을 제공하는 데 사용될 수 있으며, 따라서 자율 주행 플랫폼(1702)은 AV(100)에 가장 가까운 접근 지점 이전에 의도한 대로 위치된다.
도 18a는 상이한 움직임 패턴들을 실행하도록 구성된 다수의 자율 주행 플랫폼들(1802 내지 1808)을 갖는 AV(100)에 대한 예시적인 교차로 테스트 셋업(1800)의 평면도를 도시한다. 자율 주행 플랫폼들(1802 내지 1808)은 AV(100)가 단일의 미리 결정된 위치에 도착하는 것에 응답하여 그들의 움직임 패턴들을 실행하도록 구성될 수 있거나 또는 자율 주행 플랫폼들(1802)은 AV(100)가 상이한 미리 결정된 위치들에 도착하는 것에 응답하여 움직임 패턴들을 실행하도록 구성될 수 있다. 예를 들어, AV(100)가 위치(1810)에 도착할 때, 자율 주행 플랫폼들(1804 및 1806)은 횡단보도(1812)를 횡단하도록 구성될 수 있고, AV(100)가 위치(1814)에 도달할 때, 자율 주행 플랫폼들(1802 및 1808)은, 제각기, 횡단보도들(1816 및 1818)을 횡단하도록 구성될 수 있다. 일부 실시예들에서, AV(100)의 하나 이상의 센서에 의해 검출되는 횡단보도(1816) 내의 플랫폼(1802)의 위치 및/또는 속력에 기초하여, AV(100)는 횡단보도(1816)를 횡단하는 우회전을 하기 전에 속력을 낮추거나 정지하기로 결정할 수 있다. 일부 실시예들에서, 자율 주행 플랫폼들(1802 내지 1808)은 위치를 결정하기 위해 온보드 센서를 사용하는 것에 의해 자신의 위치 센서 또는 센서들로부터의 판독치들을 보강하도록 구성될 수 있다.
도 18b는 팽창식 차량 타깃의 형태를 취할 수 있는 차량 타깃(1850)을 운반하기 위해 협력하는 자율 주행 플랫폼들(1802 내지 1808)을 갖는 테스트 셋업(1800)의 평면도를 도시한다. 자율 주행 플랫폼들(1802 내지 1808)은 차량 타깃(1850)과 같은 큰 타깃을 운반하기 위한 대형(formation)을 유지하도록 구성될 수 있다. 자율 주행 플랫폼들(1802 내지 1808)에 탑재된 센서들은 자율 주행 플랫폼들(1802 내지 1808)의 상대 위치를 유지하는 것을 돕도록 구성될 수 있다. 일부 실시예들에서, 자율 주행 플랫폼들(1802 내지 1808) 중 하나는 차량 타깃(1850)의 모션을 안내하도록 구성될 수 있고, 다른 자율 주행 플랫폼들은 온보드 센서들로부터의 피드백에만 기초하여 하나의 자율 주행 플랫폼의 방향 및 속력의 변화를 따르도록 구성되거나 대안적으로 제어하는 자율 주행 플랫폼으로부터 무선 제어 신호들을 수신하고/하거나 온보드 센서들로부터 큐잉을 수신하도록 구성된다. 일부 실시예들에서, 차량 타깃(1850)은 자율 주행 플랫폼들(1802 내지 1808) 중 하나에만 자기적으로 커플링될 수 있다. 이 구성은 충돌의 경우에 자율 주행 플랫폼들로부터의 차량 타깃의 보다 용이한 분리를 가능하게 한다.
자율 주행 플랫폼들(1802 내지 1808)은 AV(100)가 위치들(1810 및 1814)에 도착하는 것에 응답하여 그들의 동작을 조정하도록 더 구성될 수 있다. 예를 들어, 자율 주행 플랫폼들(1802 내지 1808)은 AV(100)가 위치(1810)에 도착하는 것에 응답하여 속력을 낮추고 AV(100)가 위치(1814)에 도착할 때 완전히 정지하도록 구성될 수 있다.
자체 추진 플랫폼을 제어하기 위한 예시적인 프로세스
도 19는 자체 추진 플랫폼을 제어하기 위한 예시적인 프로세스(1900)의 플로차트이다. 1902에서, 자체 추진 플랫폼의 프로세서는 자체 추진 플랫폼으로 하여금 사용자 입력(예를 들면, 프로세서에 의해 수신되는 사용자 입력)에 따라 제1 이동 루트에 기초하여 이동하게 한다. 일부 실시예들에서, 프로세서는 제1 이동 루트에 기초하여 자체 추진 플랫폼의 이동 및 기동을 달성하기 위해 자체 추진 플랫폼에 동력을 공급하는 모터들에 입력들을 공급하도록 구성될 수 있다. 자체 추진 플랫폼은 도 11a 내지 도 16에 나와 있는 설명들 중 임의의 것에 따라 구성될 수 있다. 일부 실시예들에서, 사용자 입력은 이동의 실행 이전에 자체 추진 플랫폼에 의해 수신될 수 있고 자체 추진 플랫폼의 원하는 방향 및 이동 속도(rate of movement)를 포함하는 서브루틴으로서 로컬 또는 클라우드 기반 컴퓨터 스토리지에 저장될 수 있다. 사용자 입력은 대안적으로 원격 입력 제어에 의해 입력될 수 있어, 원격 입력 제어로 자체 추진 플랫폼을 제어하는 개인이 실시간으로 자체 추진 플랫폼의 주변에 대한 특정 경로를 지정할 수 있게 한다.
1904에서, 자체 추진 플랫폼의 이동 동안, 특정 시간들 또는 특정 속도들에서의 자체 추진 플랫폼의 위치들이 이동 루트로서 컴퓨터 메모리에 기록된다. 위치 정보는 다수의 상이한 기준 프레임들에 기록될 수 있다. 예를 들어, 자체 추진 플랫폼이 테스트 셋업의 동일한 부분을 항상 횡단하는 것이 바람직할 수 있다. 대안적으로, 이동이 테스트를 받고 있는 자체 추진 차량에 대한 자체 추진 플랫폼의 이동에 전체적으로 또는 적어도 부분적으로 기초하는 것이 보다 유리할 수 있다. 위치 데이터는, 예를 들면, 위성 항법 시스템 및 광학 또는 RADAR 센서를 포함한 자체 추진 플랫폼에 탑재된 하나 이상의 시스템으로부터 획득될 수 있다. 자체 추진 플랫폼 주변의 대상체들에 관한 데이터를 제공할 수 있는 온보드 센서들은 하나 이상의 다른 자체 추진 차량에 대한 제1 이동 루트를 기록하는 데 유용하다.
1906에서, 자체 추진 차량은 제1 이동 루트 동안 자체 추진 차량의 기록된 위치들에 기초하여 제2 이동 루트를 따라가도록 구성될 수 있다. 일부 실시예들에서, 제2 이동 루트는 기록된 위치들의 정확도가 주어지면 가능한 한 제1 이동 루트와 정확히 동일하거나 거의 정확히 동일할 수 있다.
전술한 설명에서, 본 발명의 실시예들은 구현마다 달라질 수 있는 다수의 특정 세부 사항들을 참조하여 기술되었다. 따라서, 상세한 설명 및 도면들은 제한적인 의미보다는 예시적인 의미로 간주되어야 한다. 본 발명의 범위의 유일한 독점적인 지표, 및 출원인이 본 발명의 범위이도록 의도한 것은, 본 출원에서 특정 형태로 나오는 일련의 청구항의 문언적 등가 범위이며, 그러한 청구항이 나오는 특정 형태는 임의의 후속 보정을 포함한다. 그러한 청구항들에 포함된 용어들에 대한 본원에서 명시적으로 기재된 임의의 정의들은 청구항들에서 사용되는 그러한 용어들의 의미를 결정한다. 추가적으로, 전술한 설명 및 이하의 청구항들에서 "더 포함하는"이라는 용어가 사용될 때, 이 문구에 뒤따르는 것은 추가적인 단계 또는 엔티티, 또는 이전에 언급된 단계 또는 엔티티의 서브단계/서브엔티티일 수 있다.

Claims (39)

  1. 자체 추진 플랫폼으로서,
    복수의 바퀴;
    상기 복수의 바퀴 중 적어도 하나를 구동하도록 구성된 모터;
    플랫폼 하우징 - 상기 플랫폼 하우징은, 적어도 하나의 타깃을 운반하도록 구성된 지지 표면, 및 상기 플랫폼 하우징 위로 자율 주행 차량이 지나가는 것을 수용하도록 구성된 경사진 주변부를 포함함 - ; 및
    상기 복수의 바퀴를 상기 플랫폼 하우징에 커플링시키는 복수의 스프링을 포함하는 서스펜션 - 상기 복수의 스프링은, 임계량의 중량이 상기 플랫폼 하우징에 가해지는 데 응답하여 상기 플랫폼을 제1 상태로부터 제2 상태로 전환시키도록 구성되고, 상기 플랫폼 하우징은 상기 제1 상태에서보다 상기 제2 상태에서 더 낮음 -
    을 포함하는, 자체 추진 플랫폼.
  2. 제1항에 있어서, 수납식 센서를 더 포함하며, 상기 수납식 센서는 상기 서스펜션이 상기 제1 상태에 있을 때 상기 플랫폼 하우징으로부터 돌출하고 상기 서스펜션이 상기 제2 상태에 있을 때 상기 플랫폼 하우징 내에 수납되는, 자체 추진 플랫폼.
  3. 제2항에 있어서, 상기 수납식 센서는 스프링 및 적어도 하나의 링크부에 의해 상기 복수의 바퀴 중 하나에 기계적으로 커플링되는, 자체 추진 플랫폼.
  4. 제2항 또는 제3항에 있어서, 상기 수납식 센서는 광학 센서를 포함하는, 자체 추진 플랫폼.
  5. 제2항 또는 제3항에 있어서, 상기 수납식 센서는 LiDAR 센서를 포함하는, 자체 추진 플랫폼.
  6. 제2항에 있어서, 상기 수납식 센서는 제1 수납식 센서이고, 상기 자체 추진 플랫폼은, 상기 제1 수납식 센서와는 상이한 방향으로 향하고 있는 제2 수납식 센서를 더 포함하는, 자체 추진 플랫폼.
  7. 제2항 내지 제6항 중 어느 한 항에 있어서, 상기 자체 추진 플랫폼에 대한 상기 자율 주행 차량의 결정된 근접성에 기초하여 상기 돌출한 위치와 상기 수납된 위치 사이에서 상기 수납식 센서를 전환시키도록 구성된 모터를 더 포함하는, 자체 추진 플랫폼.
  8. 제1항 내지 제7항 중 어느 한 항에 있어서, 상기 플랫폼 하우징의 경사진 주변부 및 상기 복수의 바퀴는, 상기 자체 추진 플랫폼이 상기 제2 상태에 있을 때 상기 자체 추진 플랫폼이 안착되는 표면과 직접 접촉하는, 자체 추진 플랫폼.
  9. 제1항 내지 제8항 중 어느 한 항에 있어서, 상기 서스펜션은, 상기 복수의 바퀴의 각 바퀴에 커플링된 강성 섀시를 포함하고, 상기 섀시는 상기 복수의 스프링에 의해 상기 플랫폼 하우징에 커플링되는, 자체 추진 플랫폼.
  10. 제1항 내지 제8항 중 어느 한 항에 있어서, 상기 복수의 바퀴 중 제1 바퀴는 상기 복수의 스프링 중 제1 스프링에 의해 상기 플랫폼 하우징에 커플링되고, 상기 복수의 바퀴 중 제2 바퀴는 상기 복수의 스프링 중 제2 스프링에 의해 상기 플랫폼 하우징에 커플링되는, 자체 추진 플랫폼.
  11. 제1항 내지 제10항 중 어느 한 항에 있어서, 상기 임계량의 중량은 25kg과 75kg 사이인, 자체 추진 플랫폼.
  12. 제1항에 있어서, 상기 제1 상태와 상기 제2 상태를 구별하도록 구성된 바퀴 상의 중량 센서(weight on wheels sensor)를 더 포함하며, 상기 모터는, 상기 자체 추진 플랫폼이 상기 제2 상태에 있음을 나타내는 상기 바퀴 상의 중량 센서로부터의 센서 데이터에 응답하여 동작을 중지하도록 구성되는, 자체 추진 플랫폼.
  13. 제1항 내지 제12항 중 어느 한 항에 있어서, 상기 모터는 제1 모터이고, 상기 자체 추진 플랫폼은, 상기 복수의 바퀴 중 제2 바퀴를 구동하도록 구성된 제2 모터를 더 포함하며, 상기 제1 모터는, 상기 제2 모터와는 독립적으로 상기 복수의 바퀴 중 제1 바퀴를 구동하도록 구성되는, 자체 추진 플랫폼.
  14. 제13항에 있어서, 상기 제1 모터의 구동축은 상기 복수의 바퀴 중 제1 바퀴의 회전축과 정렬되는, 자체 추진 플랫폼.
  15. 제1항 내지 제14항 중 어느 한 항에 있어서, 상기 제1 상태에서 상기 자체 추진 플랫폼은 8cm 미만의 전체 높이를 갖는, 자체 추진 플랫폼.
  16. 제1항 내지 제15항 중 어느 한 항에 있어서, 상기 플랫폼 하우징의 외부 표면은, 자기적으로 끌릴 수 있는 플레이트 또는 자석을 갖는 타깃을 상기 플랫폼 하우징에 고정시키도록 구성된 적어도 하나의 영구 자석을 포함하는, 자체 추진 플랫폼.
  17. 제16항에 있어서, 상기 타깃은, 보행자 또는 자전거 타는 사람을 모의하도록 형상화되는, 자체 추진 플랫폼.
  18. 제1항 내지 제17항 중 어느 한 항에 있어서, 상기 자체 추진 플랫폼의 이동 루트를 변경하는 커맨드를 수신하도록 구성된 무선 통신 모듈을 더 포함하는, 자체 추진 플랫폼.
  19. 제1항에 있어서,
    수납식 센서 - 상기 수납식 센서는 상기 서스펜션이 상기 제1 상태에 있을 때 상기 플랫폼 하우징으로부터 돌출하고 상기 서스펜션이 상기 제2 상태에 있을 때 상기 플랫폼 하우징 내에 수납됨 - ;
    상기 돌출한 위치와 상기 수납된 위치 사이에서 상기 수납식 센서를 전환시키도록 구성된 모터; 및
    상기 돌출한 위치와 상기 수납된 위치 사이에서 상기 수납식 센서를 전환시킬 것을 상기 모터에 지시하는 커맨드를 수신하도록 구성된 무선 통신 모듈
    을 더 포함하는, 자체 추진 플랫폼.
  20. 자체 추진 플랫폼으로서,
    센서;
    적어도 하나의 프로세싱 회로;
    무선 통신 모듈; 및
    상기 적어도 하나의 프로세싱 회로에 의해 실행될 때 동작들을 수행하게 하는 명령어를 저장한 적어도 하나의 비일시적 저장 매체
    를 포함하며, 상기 동작들은,
    사용자 입력에 따라 제1 이동 루트를 따라가는 동작;
    상기 제1 이동 루트를 따라가면서 상기 센서에 의해 수집되는 데이터에 기초하여 상기 자체 추진 플랫폼의 복수의 위치를 기록하는 동작; 및
    자율 주행 차량이 미리 결정된 위치에 도착하는 데 응답하여 상기 복수의 위치에 기초하여 제2 이동 루트를 따라가는 동작
    을 포함하는, 자체 추진 플랫폼.
  21. 제20항에 있어서, 상기 명령어는, 상기 적어도 하나의 프로세싱 회로에 의해 실행될 때, 적어도 하나의 다른 자체 추진 플랫폼과 동기적으로 이동하는 동작을 포함하는 동작들을 수행하게 하는, 자체 추진 플랫폼.
  22. 제20항 또는 제21항에 있어서, 상기 자체 추진 플랫폼은, 상기 무선 통신 모듈을 사용하여 상기 적어도 하나의 다른 자체 추진 플랫폼과 직접 통신함으로써 상기 적어도 하나의 다른 자체 추진 플랫폼과 동기적으로 이동하고, 상기 자체 추진 플랫폼은, 상기 적어도 하나의 다른 자체 추진 플랫폼과 협력하여 타깃을 운반하도록 구성되는, 자체 추진 플랫폼.
  23. 제20항에 있어서, 상기 무선 통신 모듈은, 상기 자율 주행 차량이 상기 미리 결정된 위치에 도착했음을 상기 자체 추진 플랫폼에 통지하는 데이터를 수신하도록 구성되는, 자체 추진 플랫폼.
  24. 제23항에 있어서, 상기 자율 주행 차량 상에 위치된 RFID 태그가 상기 미리 결정된 위치에서 검출되었음을 나타내는 상기 무선 통신 모듈에 의해 수신되는 통신에 기초하여, 상기 자율 주행 차량이 상기 미리 결정된 위치에 도착한 것으로 결정되는, 자체 추진 플랫폼.
  25. 제20항 내지 제24항 중 어느 한 항에 있어서, 상기 복수의 위치는, 상기 센서에 의해 수집되는 광학 이미저리(optical imagery)에 적어도 부분적으로 기초하는, 자체 추진 플랫폼.
  26. 제20항 내지 제25항 중 어느 한 항에 있어서, 상기 복수의 위치는 상기 자율 주행 차량에 대한 상기 자체 추진 플랫폼의 위치에 기초하여 정의되는, 자체 추진 플랫폼.
  27. 제20항에 있어서, 상기 명령어는, 상기 적어도 하나의 프로세싱 회로에 의해 실행될 때, 상기 자율 주행 차량 상에 위치하는 적어도 하나의 기준점을 포함하는 상기 센서에 의해 생성되는 광학 이미저리를 사용하여, 상기 자율 주행 차량에 대한 상기 자체 추진 플랫폼의 위치를 결정하는 동작을 포함하는 동작들을 수행하게 하는, 자체 추진 플랫폼.
  28. 제20항에 있어서, 상기 센서는, 상기 자체 추진 플랫폼에 대한 상기 자율 주행 차량의 위치를 결정하도록 구성된 LiDAR 센서를 포함하는, 자체 추진 플랫폼.
  29. 제28항에 있어서, 상기 LiDAR 센서는, 상기 자체 추진 플랫폼의 위치에 기초하여 상기 미리 결정된 위치에 대한 상기 자율 주행 차량의 위치를 결정하도록 구성되는, 자체 추진 플랫폼.
  30. 제29항에 있어서, 상기 LiDAR 센서는, 적어도 하나의 정지된 대상체의 위치를 나타내는 상기 LiDAR 센서에 의해 생성되는 센서 데이터에 기초하여 상기 자체 추진 플랫폼의 위치를 결정하도록 구성되는, 자체 추진 플랫폼.
  31. 제20항에 있어서, 상기 센서는 광학 센서를 포함하고, 상기 자체 추진 플랫폼은, 상기 광학 센서에 의해 생성되는 이미저리로부터 도출되는 위치 정보를 검증하도록 구성된 위성 항법 시스템을 더 포함하는, 자체 추진 플랫폼.
  32. 제20항 내지 제31항 중 어느 한 항에 있어서, 상기 명령어는, 상기 적어도 하나의 프로세싱 회로에 의해 실행될 때, 상기 자체 추진 플랫폼의 라우팅의 변화에 대한 상기 자율 주행 차량의 응답을 검증하기 위해 상기 복수의 위치로부터 상기 제2 이동 루트를 오프셋시키는 동작을 포함하는 동작들을 수행하게 하는, 자체 추진 플랫폼.
  33. 제20항에 있어서, 상기 명령어는, 상기 적어도 하나의 프로세싱 회로에 의해 실행될 때, 상기 제1 이동 루트 동안 상기 센서에 의해 수집되는 데이터에 기초하여 상기 복수의 위치를 결정하는 동작을 포함하는 동작들을 수행하게 하는, 자체 추진 플랫폼.
  34. 제32항에 있어서, 상기 적어도 하나의 프로세싱 회로는, 상기 제1 이동 루트 및 상기 제2 이동 루트를 따라갈 것을 상기 자체 추진 플랫폼에 지시하도록 구성된 제어 회로를 포함하는, 자체 추진 플랫폼.
  35. 제20항에 있어서, 상기 자율 주행 차량이 레이저 빔 송신기를 트리거할 때 상기 자율 주행 차량이 상기 미리 결정된 위치에 도착한 것으로 결정되는, 자체 추진 플랫폼.
  36. 제20항에 있어서, 상기 센서는, 상기 자율 주행 차량의 계획된 이동 경로 상에서 상기 자율 주행 차량의 위치를 결정하도록 구성되는, 자체 추진 플랫폼.
  37. 제36항에 있어서, 상기 제2 이동 루트는 상기 계획된 이동 경로와 교차하고, 상기 적어도 하나의 프로세싱 회로는, 상기 자체 추진 플랫폼이 상기 자율 주행 차량으로부터 미리 정의된 거리 전방에서 상기 계획된 이동 경로를 횡단하도록 하기 위해 상기 제2 이동 루트를 따라가는 것을 개시하도록 구성된 제어 회로를 포함하는, 자체 추진 플랫폼.
  38. 자체 추진 플랫폼에 의해 수행되는 방법으로서,
    사용자 입력에 따라 제1 이동 루트를 따라가는 단계;
    상기 제1 이동 루트를 따라가면서 상기 자체 추진 플랫폼의 센서에 의해 수집되는 데이터에 기초하여 상기 자체 추진 플랫폼의 복수의 위치를 기록하는 단계; 및
    자율 주행 차량이 미리 결정된 위치에 도착하는 데 응답하여 상기 복수의 위치에 기초하여 제2 이동 루트를 따라가는 단계
    를 포함하는, 자체 추진 플랫폼에 의해 수행되는 방법.
  39. 자체 추진 플랫폼의 적어도 하나의 회로에 의해 실행되도록 구성된 명령어를 저장한 비일시적 컴퓨터 판독 가능 저장 매체로서, 상기 명령어는 상기 자체 추진 플랫폼으로 하여금 단계들을 수행하게 하고, 상기 단계들은,
    사용자 입력에 따라 제1 이동 루트를 따라가는 단계;
    상기 제1 이동 루트를 따라가면서 상기 자체 추진 플랫폼의 센서에 의해 수집되는 데이터에 기초하여 상기 자체 추진 플랫폼의 복수의 위치를 기록하는 단계; 및
    자율 주행 차량이 미리 결정된 위치에 도착하는 데 응답하여 상기 복수의 위치에 기초하여 제2 이동 루트를 따라가는 단계
    를 포함하는, 비일시적 컴퓨터 판독 가능 저장 매체.
KR1020210183051A 2021-05-25 2021-12-20 자동화된 이동 플랫폼 KR20220159249A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/330,112 US11505134B1 (en) 2021-05-25 2021-05-25 Automated moving platform
US17/330,112 2021-05-25

Publications (1)

Publication Number Publication Date
KR20220159249A true KR20220159249A (ko) 2022-12-02

Family

ID=79163532

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210183051A KR20220159249A (ko) 2021-05-25 2021-12-20 자동화된 이동 플랫폼

Country Status (5)

Country Link
US (2) US11505134B1 (ko)
KR (1) KR20220159249A (ko)
CN (1) CN115388904A (ko)
DE (1) DE102021133741A1 (ko)
GB (1) GB2607130A (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112292590B (zh) * 2018-06-22 2023-08-29 安东尼百思特动力有限公司 软目标移动平台

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8583358B2 (en) 2011-07-13 2013-11-12 Dynamic Research, Inc. Devices, systems, and methods for testing crash avoidance technologies
US10063815B1 (en) * 2011-09-26 2018-08-28 Jenesia1, Inc. Mobile communication platform
DE102014206086A1 (de) 2014-03-31 2015-10-01 Robert Bosch Gmbh Verfahren zum Betreiben einer selbstbeweglichen mobilen Plattform
WO2018027191A1 (en) * 2016-08-05 2018-02-08 MotoCrane, LLC Releasable vehicular camera mount
GB2569774A (en) 2017-10-20 2019-07-03 Kompetenzzentrum Das Virtuelle Fahrzeug Method for virtual testing of real environments with pedestrian interaction and drones
US11084456B2 (en) * 2019-09-10 2021-08-10 Toyota Research Institute, Inc. Ramp structures for a mobile platform
US20220075030A1 (en) * 2020-09-09 2022-03-10 Motional Ad Llc Vehicle Sensor Mounting System

Also Published As

Publication number Publication date
US20230085010A1 (en) 2023-03-16
US11505134B1 (en) 2022-11-22
GB2607130A (en) 2022-11-30
GB202116241D0 (en) 2021-12-29
US20220379820A1 (en) 2022-12-01
CN115388904A (zh) 2022-11-25
GB2607130A9 (en) 2023-06-28
DE102021133741A1 (de) 2022-12-01

Similar Documents

Publication Publication Date Title
KR102506647B1 (ko) 조향각 캘리브레이션
GB2586302A (en) Systems and methods for implementing an autonomous vehicle response to sensor failure
KR102584831B1 (ko) 자율주행 차량으로의 다방향 정지 교차로 내비게이팅
US11803184B2 (en) Methods for generating maps using hyper-graph data structures
KR20210013594A (ko) 이동식 센서를 사용하여 차량 동작을 개선시키기 위한 시스템 및 방법
KR102548079B1 (ko) 내비게이션 정보의 이용 가능성에 기반한 자율 주행 차량의 동작
KR20220147006A (ko) 동적 상태를 사용한 자율 주행 차량의 궤적의 계획
KR102410182B1 (ko) 환경의 미리 정의된 특징부에 기초한 로컬화
GB2599972A (en) Ground plane estimation using lidar semantic network
GB2619166A (en) Controlling an autonomous vehicle using a proximity rule
EP3648021A1 (en) Generation of optimal trajectories for navigation of vehicles
US20230085010A1 (en) Automated moving platform
WO2020157722A1 (en) Merging data from multiple lidar devices
GB2605858A (en) Techniques for navigating an autonomous vehicle based on perceived risk
US20220258761A1 (en) Controlling an autonomous vehicle using variable time periods

Legal Events

Date Code Title Description
E902 Notification of reason for refusal