KR20190003800A - 센서 필드 선택 - Google Patents

센서 필드 선택 Download PDF

Info

Publication number
KR20190003800A
KR20190003800A KR1020187037284A KR20187037284A KR20190003800A KR 20190003800 A KR20190003800 A KR 20190003800A KR 1020187037284 A KR1020187037284 A KR 1020187037284A KR 20187037284 A KR20187037284 A KR 20187037284A KR 20190003800 A KR20190003800 A KR 20190003800A
Authority
KR
South Korea
Prior art keywords
vehicle
sensor
computer
sensor field
control strategy
Prior art date
Application number
KR1020187037284A
Other languages
English (en)
Other versions
KR102219593B1 (ko
Inventor
나다니엘 페어필드
지아준 즈후
드미트리 에이. 돌고브
Original Assignee
웨이모 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 웨이모 엘엘씨 filed Critical 웨이모 엘엘씨
Publication of KR20190003800A publication Critical patent/KR20190003800A/ko
Application granted granted Critical
Publication of KR102219593B1 publication Critical patent/KR102219593B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0055Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements
    • G05D1/0061Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements for transition from automatic pilot to manual pilot and vice versa
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • G05D1/0282Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal generated in a local control room

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 개시내용의 실시형태들은 일반적으로 자율주행 차량들의 안전한 사용 및 효과적인 사용에 관한 것이다. 더 구체적으로, 자율주행 차량(301, 501)은 센서 필드들(410, 411, 430, 431, 420A-423A, 420B-423B, 570-75, 580) 내에 있는 물체를 그 주변환경에서 검출할 수 있다. 물체의 검출에 응답하여, 컴퓨터(110)는 자율주행 차량의 속도를 조정할 수 있거나 혹은 방향을 변경시킬 수 있다. 그러나, 일부 예들에서, 센서 필드들은 차량의 주변환경에서의 물체들 혹은 다른 특징들에 따라 변경될 수 있거나 혹은 덜 신뢰가능하게 될 수 있다. 결과적으로, 차량의 컴퓨터(110)는 센서의 영역의 크기 및 형상 감소(620, 720)를 계산할 수 있고, 이러한 영역 감소에 근거하여 새로운 센서 필드를 계산할 수 있다. 센서의 영역 감소 혹은 새로운 센서 필드를 식별하는 것에 응답하여, 차량의 컴퓨터는 차량의 제어 전략을 변경시킬 수 있다.

Description

센서 필드 선택{SENSOR FIELD SELECTION}
관련 출원에 대한 상호 참조
본 출원은 미국 특허출원 번호 제13/150,385호(발명의 명칭: "Sensor Field Selection", 2011년 6월 1일 출원)의 우선권 혜택을 주장하며, 이 특허문헌의 전체 개시내용은 참조로 본 명세서에 통합된다.
자율주행 차량들은 승객들을 일 위치에서 또 다른 위치로 운송하는데 도움을 주기 위해 다양한 컴퓨팅 시스템들을 사용한다. 일부 자율주행 차량들은, 파일럿(pilot), 운전자(driver), 혹은 승객과 같은 조작자로부터의 어떤 초기 입력 또는 연속적인 입력을 요구할 수 있다. 다른 시스템들, 예를 들어, 자동운행 시스템들(autopilot systems)은 그 시스템이 관여된 경우에만 사용될 수 있는바, 이 시스템은 조작자로 하여금 수동 모드(이러한 수동 모드에서 조작자는 차량의 움직임에 대해 고도의 제어를 수행함)로부터 자율주행 모드(이러한 자율주행 모드에서 차량은 본질적으로 스스로 구동됨)로 스위칭을 행하도록 하여 이들 사이의 어느 모드에 있게 해준다.
이러한 차량은 주변환경에서의 물체를 검출하기 위해 다양한 타입의 센서를 구비하고 있다. 예를 들어, 자율주행 차량은 레이저, 소나(sonar), 레이더, 카메라, 그리고 차량의 주변환경으로부터 데이터를 스캔(scan) 및 기록(record)하는 다른 디바이스를 포함할 수 있다. 이러한 디바이스들은 결합되어(그리고 일부 경우에 있어서는 단독으로) 차량의 주변환경에서 검출된 물체의 3D 모델을 구축하기 위해 사용될 수 있다.
본 개시내용의 일 실시형태는 자율주행 동작 모드(autonomous operation mode)를 갖는 차량을 제어하기 위한 방법을 제공한다. 이 방법은, 제 1 제어 전략에 근거하여 차량의 동작을 프로세서에 의해 제어하는 단계와; 차량의 하나 이상의 센서들의 시야각(field of view)에 근거하여 센서 필드(sensor field)를 식별(identifying)하는 단계와; 하나 이상의 센서들 중 선택된 센서들로부터 센서 데이터를 수신하는 단계와; 센서 데이터에 근거하여 하나 이상의 센서들의 센서 감지력에서의 변화를 식별하는 단계와(여기서 센서 감지력에서의 변화는 센서 필드 내에서 물체들을 검출하는 능력의 감소를 포함함); 상기 변화에 근거하여 제 2 제어 전략을 결정하는 단계와; 그리고 제 2 제어 전략에 근거하여 차량의 동작을 프로세서에 의해 제어하는 단계를 포함한다.
일 예에서, 본 방법은 또한, 수신된 센서 데이터에 근거하여 센서 필드 내에서 물체 및 물체의 위치를 검출하는 단계를 포함하고, 상기 변화를 식별하는 단계는 물체의 위치에 근거한다. 또 다른 예에서, 센서 감지력에서의 변화를 식별하는 단계는 센서 필드 내의 물체의 위치에 근거하여 센서 감지력이 감소된 영역을 계산하는 것을 포함하고, 그리고 제 2 제어 전략을 결정하는 단계는 센서 감지력이 감소된 영역에 근거한다. 또 다른 예에서, 센서 감지력에서의 변화를 식별하는 단계는 센서 필드 내의 물체의 위치에 근거하여 현재 센서 필드를 계산하는 것을 포함하고, 그리고 제 2 제어 전략을 결정하는 단계는 현재 센서 필드에 근거한다. 또 다른 예에서, 물체는 또 하나의 다른 차량이다. 또 다른 예에서, 본 방법은 또한 센서 데이터가 하나 이상의 센서들 중 소정의 하나의 센서가 신뢰할 수 없는 정보(unreliable information)를 제공하고 있음을 표시하는지를 결정하는 단계를 포함하고, 상기 변화를 식별하는 단계는 결정되는 상기 표시에 근거한다. 또 다른 예에서, 상기 신뢰할 수 없는 정보는 하나 이상의 카메라 영상들을 포함한다. 또 다른 예에서, 본 방법은 또한, 센서 데이터에 근거하여 하나 이상의 센서들의 센서 감지력에서의 변화가 이제 더 이상 없는지를 결정하는 단계를 포함하고, 차량의 동작을 제어하는 단계는 또한, 변화가 이제 더 이상 없다는 결정에 근거하여 제 1 제어 전략에 따라 수행된다. 또 다른 예에서, 제 1 제어 전략에 근거하여 차량의 동작을 제어하는 단계는 차량을 제 1 방향으로 조종하는 것을 포함하고, 그리고 제 2 제어 전략에 근거하여 차량의 동작을 제어하는 단계는 제 1 방향과는 다른 제 2 방향으로 차량을 조정하는 것을 포함한다. 또 다른 예에서, 제 1 제어 전략에 근거하여 차량의 동작을 제어하는 단계는 차량을 제 1 속도로 조종하는 것을 포함하고, 그리고 제 2 제어 전략에 근거하여 차량의 동작을 제어하는 단계는 제 1 속도와는 다른 제 2 속도로 차량을 조정하는 것을 포함한다.
본 개시내용의 또 다른 실시형태는 자율주행 동작 모드를 갖는 차량을 제어하기 위한 디바이스를 제공한다. 본 디바이스는 차량의 주변환경에서 물체들을 검출하기 위한 하나 이상의 센서들과 그리고 이러한 하나 이상의 센서들에 결합된 프로세서를 포함한다. 프로세서는, 제 1 제어 전략에 근거하여 차량의 동작을 제어하고; 차량의 하나 이상의 센서들의 시야각에 근거하여 센서 필드를 식별하고; 하나 이상의 센서들 중 선택된 센서들로부터 센서 데이터를 수신하고; 센서 데이터에 근거하여 하나 이상의 센서들의 센서 감지력에서의 변화를 식별하고(여기서 센서 감지력에서의 변화는 센서 필드 내에서 물체들을 검출하는 능력의 감소를 포함함); 상기 변화에 근거하여 제 2 제어 전략을 결정하고; 그리고 제 2 제어 전략에 근거하여 차량의 동작을 제어하도록 동작가능하다.
일 예에서, 프로세서는 또한, 수신된 센서 데이터에 근거하여 센서 필드 내에서 물체 및 물체의 위치를 검출하도록 동작가능하며, 프로세서는 물체의 위치에 근거하여 상기 변화를 식별한다. 또 다른 예에서, 프로세서는 센서 필드 내의 물체의 위치에 근거하여 센서 감지력이 감소된 영역을 계산함으로써 센서 감지력에서의 변화를 식별하도록 동작가능하며, 제 2 제어 전략을 결정하는 것은 센서 감지력이 감소된 영역에 근거한다. 또 다른 예에서, 프로세서는 센서 필드 내의 물체의 위치에 근거하여 현재 센서 필드를 계산함으로써 센서 감지력에서의 변화를 식별하도록 동작가능하며, 제 2 제어 전략을 결정하는 것은 현재 센서 필드에 근거한다. 또 다른 예에서, 프로세서는 또한, 물체를 또 하나의 다른 차량으로서 식별하도록 동작가능하다. 또 다른 예에서, 프로세서는 또한 센서 데이터가 하나 이상의 센서들 중 소정의 하나의 센서가 신뢰할 수 없는 정보를 제공하고 있음을 표시하는지를 결정하도록 동작가능하며, 프로세서는 결정되는 상기 표시에 근거하여 상기 변화를 식별한다. 또 다른 예에서, 상기 신뢰할 수 없는 정보는 하나 이상의 카메라 영상들을 포함한다. 또 다른 예에서, 프로세서는 또한, 센서 데이터에 근거하여 하나 이상의 센서들의 센서 감지력에서의 변화가 이제 더 이상 없는지를 결정하고, 그리고 변화가 이제 더 이상 없다는 결정에 근거하여 제 1 제어 전략에 따라 차량의 동작을 제어하도록 동작가능하다. 또 다른 예에서, 프로세서는 또한, 차량을 제 1 방향으로 조종함으로써 제 1 제어 전략에 근거하여 차량의 동작을 제어하고 그리고 제 1 방향과는 다른 제 2 방향으로 차량을 조정함으로써 제 2 제어 전략에 근거하여 차량의 동작을 제어하도록 동작가능하다. 또 다른 예에서, 프로세서는 또한, 차량을 제 1 속도로 조종함으로써 제 1 제어 전략에 근거하여 차량의 동작을 제어하고 그리고 제 1 속도와는 다른 제 2 속도로 차량을 조정함으로써 제 2 제어 전략에 근거하여 차량의 동작을 제어하도록 동작가능하다.
본 개시내용의 또 다른 실시형태는 프로그램의 컴퓨터 판독가능 명령들이 저장되어 있는 유형의 컴퓨터 판독가능 저장 매체를 제공하며, 여기서 명령들은 프로세서에 의해 실행될 때 프로세서로 하여금 자율주행 동작 모드를 갖는 차량을 제어하는 방법을 수행하도록 한다. 이 방법은, 제 1 제어 전략에 근거하여 차량의 동작을 프로세서에 의해 제어하는 것과; 차량의 하나 이상의 센서들의 시야각에 근거하여 센서 필드를 식별하는 것과; 하나 이상의 센서들 중 선택된 센서들로부터 센서 데이터를 수신하는 것과; 센서 데이터에 근거하여 하나 이상의 센서들의 센서 감지력에서의 변화를 식별하는 것과(여기서 센서 감지력에서의 변화는 센서 필드 내에서 물체들을 검출하는 능력의 감소를 포함함); 상기 변화에 근거하여 제 2 제어 전략을 결정하는 것과; 그리고 제 2 제어 전략에 근거하여 차량의 동작을 프로세서에 의해 제어하는 것을 포함한다.
일 예에서, 본 방법은 또한, 수신된 센서 데이터에 근거하여 센서 필드 내에서 물체 및 물체의 위치를 검출하는 것을 포함하고, 상기 변화를 식별하는 것은 물체의 위치에 근거한다. 또 다른 예에서, 센서 감지력에서의 변화를 식별하는 것은 센서 필드 내의 물체의 위치에 근거하여 센서 감지력이 감소된 영역을 계산하는 것을 포함하고, 그리고 제 2 제어 전략을 결정하는 것은 센서 감지력이 감소된 영역에 근거한다. 또 다른 예에서, 센서 감지력에서의 변화를 식별하는 것은 센서 필드 내의 물체의 위치에 근거하여 현재 센서 필드를 계산하는 것을 포함하고, 그리고 제 2 제어 전략을 결정하는 것은 현재 센서 필드에 근거한다. 또 다른 예에서, 물체는 또 하나의 다른 차량이다. 또 다른 예에서, 이 방법은 또한 센서 데이터가 하나 이상의 센서들 중 소정의 하나의 센서가 신뢰할 수 없는 정보를 제공하고 있음을 표시하는지를 결정하는 것을 포함하고, 상기 변화를 식별하는 것은 결정되는 상기 표시에 근거한다. 또 다른 예에서, 상기 신뢰할 수 없는 정보는 하나 이상의 카메라 영상들을 포함한다. 또 다른 예에서, 이 방법은 또한, 센서 데이터에 근거하여 하나 이상의 센서들의 센서 감지력에서의 변화가 이제 더 이상 없는지를 결정하는 것을 포함하고, 차량의 동작을 제어하는 것은 또한, 변화가 이제 더 이상 없다는 결정에 근거하여 제 1 제어 전략에 따라 수행된다. 또 다른 예에서, 제 1 제어 전략에 근거하여 차량의 동작을 제어하는 것은 차량을 제 1 방향으로 조종하는 것을 포함하고, 그리고 제 2 제어 전략에 근거하여 차량의 동작을 제어하는 것은 제 1 방향과는 다른 제 2 방향으로 차량을 조정하는 것을 포함한다. 또 다른 예에서, 제 1 제어 전략에 근거하여 차량의 동작을 제어하는 것은 차량을 제 1 속도로 조종하는 것을 포함하고, 그리고 제 2 제어 전략에 근거하여 차량의 동작을 제어하는 것은 제 1 속도와는 다른 제 2 속도로 차량을 조정하는 것을 포함한다.
도 1은 예시적 실시예에 따른 시스템의 기능 구성도이다.
도 2는 예시적 실시예에 따른 자율주행 차량의 내부이다.
도 3은 예시적 실시예에 따른 자율주행 차량의 외부이다.
도 4a 내지 도 4d는 예시적 실시예에 따른 자율주행 차량의 도면이다.
도 5a 및 도 5b는 예시적 실시예에 따른 자율주행 차량의 도면이다.
도 6a 및 도 6b는 예시적 실시예에 따른 자율주행 차량의 도면이다.
도 7a 및 도 7b는 예시적 실시예에 따른 자율주행 차량의 도면이다.
도 8a 및 도 8b는 예시적 실시예에 따른 자율주행 차량의 도면이다.
도 9는 예시적 실시예에 따른 흐름도이다.
도 10은 예시적 실시예에 따른 흐름도이다.
도 11은 예시적 실시예에 따른 흐름도이다.
도 1에 제시된 바와 같이, 본 개시내용의 일 실시형태에 따른 자율 운행 시스템(100)은 다양한 컴포넌트들을 구비한 차량(101)을 포함한다. 본 개시내용의 특정 실시형태들이 특정 타입의 차량들과 관련되어 특히 유용하지만, 차량은 임의 타입의 차량일 수 있는바, 여기에는 자동차, 트럭, 오토바이, 버스, 보트, 비행기, 헬리콥터, 잔디 깎는 기계, 레저 차량(recreational vehicles), 놀이 공원 차량(amusement park vehicles), 농장 장비(farm equipment), 건설 장비(construction equipment), 전차(trams), 골프 카트(golf carts), 기차, 및 트롤리(trolleys)가 포함되지만 이러한 것에만 한정되는 것은 아니다. 차량은 하나 이상의 컴퓨터(예를 들어, 프로세서(120), 메모리(130), 그리고 범용 컴퓨터에 전형적으로 존재하는 다른 컴포넌트들을 포함하는 컴퓨터(110))를 구비할 수 있다.
메모리(130)는 프로세서(120)에 의해 액세스가능한 정보(프로세서(120)에 의해 실행될 수 있거나 그렇지 않으면 사용될 수 있는 명령들(132) 및 데이터(134)를 포함함)를 저장한다. 메모리(130)는 프로세서에 의해 액세스가능한 정보를 저장할 수 있는 임의의 타입일 수 있는바, 여기에는 (하드-드라이브, 메모리 카드, ROM, RAM, DVD 혹은 다른 광학 디스크뿐만 아니라 다른 기입-가능 메모리 및 판독-전용 메모리와 같은 전자 디바이스를 통해 판독될 수 있는 데이터를 저장하는) 컴퓨터-판독가능 매체 혹은 다른 매체가 포함될 수 있다. 시스템 및 방법은 앞서 언급된 것의 서로 다른 조합을 포함할 수 있고, 그럼으로써 명령들 및 데이터의 서로 다른 부분들이 서로 다른 타입의 매체들에 저장되게 된다.
명령들(132)은 프로세서에 의해 (머신 코드(machine code)와 같이) 직접적으로 혹은 (스크립트들(scripts)과 같이) 간접적으로 실행될 임의 세트의 명령들일 수 있다. 예를 들어, 명령들은 컴퓨터-판독가능 매체에 컴퓨터 코드로서 저장될 수 있다. 이러한 점에서, 용어 "명령" 및 "프로그램"은 본 명세서에서 상호교환가능하게 사용될 수 있다. 명령들은 프로세서에 의한 직접 프로세싱을 위해 오브젝트 코드 포맷(object code format)으로 저장될 수 있거나, 혹은 (사전에 컴파일링(compiling)되거나 요구시 해석되는 독립형 소스 코드 모듈들(independent source code modules)의 스크립트들 혹은 컬렉션들(collections)을 포함하는) 임의의 다른 컴퓨터 언어로 저장될 수 있다. 명령들의 기능, 방법 및 루틴이 아래에서 더 상세히 설명된다.
데이터(134)는 명령들(132)에 따라 프로세서(120)에 의해 검색, 저장, 혹은 수정될 수 있다. 예를 들어, 비록 본 명세서에서 개시되는 주된 내용이 임의의 특정 데이터 구조로 한정되는 것은 아니지만, 데이터는 컴퓨터 레지스터들(computer registers)에 저장될 수 있거나, 복수의 상이한 필드들과 레코드들, XML 문서들 혹은 플랫 파일들(flat files)을 갖는 테이블로서 관계형 데이터베이스(relational database)에 저장될 수 있다. 데이터는 또한 임의의 컴퓨터-판독가능 포맷으로 포맷될 수 있다. 단지 예시적인 추가 예에서, 영상 데이터는 그래픽 도시를 위한 컴퓨터 명령들뿐만 아니라, 무손실(예를 들어, BMP) 혹은 손실(예를 들어, JPEG) 그리고 비트맵 혹은 벡터기반(예를 들어, SVG)으로 압축되거나 압축해제되는 포맷들에 따라 저장되는 픽셀들의 그리드(grid)들로 구성된 비트맵들로서 저장될 수 있다. 데이터는 숫자, 설명 텍스트, 소유권 코드(proprietary codes), 동일한 메모리 혹은 상이한 메모리들의 다른 영역들(다른 네트워크 위치들을 포함함)에 저장된 데이터에 대한 참조, 또는 관련 데이터를 계산하기 위해 임의의 기능에 의해 사용되는 정보와 같은 그러한 관련 정보를 식별하기에 충분한 임의의 정보를 포함할 수 있다.
프로세서(120)는 상업적으로 이용가능한 CPU들과 같은 임의의 종래 프로세서일 수 있다. 대안적으로, 프로세서는 ASIC 혹은 다른 하드웨어-기반 프로세서와 같은 전용 디바이스일 수 있다. 비록 도 1이 컴퓨터(110)의 프로세서, 메모리, 및 다른 요소들을 동일 블록 내에 있는 것으로서 기능적으로 나타내고 있지만, 본 발명의 기술분야에서 통상의 기술을 가진 자들은 이러한 프로세서, 컴퓨터 혹은 메모리가 동일한 물리적 하우징(housing) 내에 저장될 수도 있고 저장되지 않을 수도 있는 복수의 프로세서들, 컴퓨터들 혹은 메모리들을 실제로 포함할 수 있음을 이해할 것이다. 예를 들어, 메모리는 컴퓨터(110)와는 다른 하우징에 위치한 하드 드라이브 혹은 다른 저장 매체일 수 있다. 따라서, 프로세서 혹은 컴퓨터의 언급은 병렬로 동작할 수 있거나 동작하지 않을 수 있는 프로세서들 혹은 컴퓨터들 혹은 메모리들의 집합의 언급을 포함하고 있음을 이해해야 한다. 본 명세서에서 설명되는 단계들을 수행하기 위해 단일 프로세서를 사용하는 것이 아니라, 조향 컴포넌트 및 감속 컴포넌트와 같은 컴포넌트들 중 일부는, 컴포넌트별 기능과 관련된 계산만을 수행하는 자기 자신의 프로세서를 각각 가질 수 있다.
본 명세서에서 설명되는 다양한 실시형태에서, 프로세서는 차량으로부터 원격 위치에 있을 수 있고 무선으로 차량과 통신할 수 있다. 다른 실시형태에서, 본 명세서에 설명되는 프로세스들 중 일부는 차량 내에 배치된 프로세서 상에서 실행되며, 원격 프로세서에 의해 다른 것들이 실행되는바, 여기에는 단일 조종을 실행하기 위해 필요한 조치들을 취하는 것이 포함된다.
컴퓨터(110)는 컴퓨터와 관련하여 통상적으로 사용되는 컴포넌트 모두를 포함할 수 있는바, 예를 들어 중앙 처리 장치(CPU), 웹 브라우저와 같은 명령 및 데이터(134)를 저장하는 메모리(예를 들어, RAM 및 내부 하드 드라이브), 전자 디스플레이(142)(예를 들어, 스크린, 소형 LCD 터치-스크린 혹은 정보를 디스플레이하도록 동작가능한 임의의 다른 전기적 디바이스), 사용자 입력(140)(예를 들어, 마우스, 키보드, 터치스크린 및/또는 마이크로폰), 뿐만 아니라 사람의 상태 및 욕구에 대한 명시적 정보(예를 들어, 제스처(gesture)) 혹은 암묵적 정보(예를 들어, "사람이 졸고 있음")를 수집하기 위한 다양한 센서들(예를 들어, 비디오 카메라)을 포함할 수 있다.
일 예에서, 컴퓨터(110)는 차량(101)에 통합된 자율 운행 컴퓨팅 시스템일 수 있다. 도 2는 자율주행 차량의 내부의 예시적 디자인을 나타낸다. 자율주행 차량은 비-자율주행 차량(non-autonomous vehicle)의 특징 모두를 포함할 수 있는바, 예를 들어, 핸들(210)과 같은 조향 장치, 네비게이션 디스플레이(215)와 같은 운행 표시 장치, 그리고 기어 변속기(gear shifter)(220)와 같은 기어 선택기 장치를 포함할 수 있다. 차량은 또한, 하나 이상의 자율 운행 모드들을 활성화 혹은 비활성화시키기 위해, 그리고 운전자 혹은 승객(290)으로 하여금 네비게이션 목적지와 같은 정보를 자율 운행 컴퓨터(110)에게 제공할 수 있도록 하기 위해, 다양한 사용자 입력 디바이스들, 예를 들어, 기어 변속기(220), 터치 스크린(217), 혹은 버튼 입력들(219)을 구비할 수 있다.
차량(101)은 하나 이상의 추가적인 디스플레이들을 포함할 수 있다. 예를 들어, 차량은 자율주행 차량 혹은 자율주행 차량의 컴퓨팅의 상태에 관한 정보를 디스플레이하기 위한 디스플레이(225)를 포함할 수 있다. 또 다른 예에서, 차량은 또한, 차량(101)의 현재 상태를 표시하기 위해, 상태바(230)와 같은, 상태 표시 장치(138)(도 1 참조)를 포함할 수 있다. 도 2의 예에서, 상태바(230)는, 차량이 현재 운행 모드(drive mode)에 있고 시간당 2마일의 속도(2 miles per hour)로 움직이고 있음을 표시하는 "D" 및 "2 mph"를 디스플레이한다. 이와 관련하여, 차량은 전자 디스플레이 상에 텍스트를 디스플레이할 수 있거나, 차량(101)의 일부분(예를 들어, 핸들(210))을 조명할 수 있거나, 또는 다양한 다른 타입의 표시들을 제공할 수 있다.
자율 운행 컴퓨팅 시스템은 차량의 다양한 컴포넌트들과 통신할 수 있다. 예를 들어, 도 1을 다시 참조하면, 컴퓨터(110)는 차량의 중앙 프로세서(160)와 통신하고 있을 수 있으며, 차량(101)의 움직임, 속도 등을 제어하기 위해, 차량(101)의 다양한 시스템들(예를 들어, 제동 시스템(180), 가속 시스템(182), 신호 시스템(184), 및 운행 시스템(186))로부터의 정보를 전송 및 수신할 수 있다. 추가적으로, 컴퓨터(100)가 관여하는 경우, 컴퓨터(110)는 차량(101)의 이러한 기능들 중 일부 혹은 모두를 제어할 수 있고, 이에 따라 완전하게 자율적이거나 혹은 단지 부분적으로 자율적일 수 있다. 다양한 시스템들 및 컴퓨터(110)가 차량(101) 내에 제시되었지만, 이러한 요소들은 차량(101)의 외부에 있을 수 있거나 물리적으로 멀리 떨어져 분리될 수 있음을 이해해야 한다.
차량은 또한, 디바이스의 지리적 위치를 결정하기 위해 컴퓨터(110)와 통신하는 지리적 위치결정 컴포넌트(144)를 포함할 수 있다. 예를 들어, 위치결정 컴포넌트는 디바이스의 위도, 경도 및/또는 고도 위치를 결정하기 위한 GPS 수신기를 포함할 수 있다. 레이저-기반 국소화 시스템(laser-based localization systems), 관성-보조 GPS(inertial-aided GPS), 혹은 카메라-기반 국소화기(camera-based localization)와 같은 다른 위치결정 시스템이 또한, 차량의 위치를 식별하기 위해 사용될 수 있다. 차량의 위치는 절대적인 지리적 위치(예를 들어, 위도, 경도, 및 고도)를 포함할 수 있을 뿐만 아니라 상대적인 위치 정보(예를 들어, 바로 그 주변의 다른 자동차들에 대한 상대적 위치, 이것은 종종 절대적인 지리적 위치보다 더 적은 노이즈로 결정될 수 있음)도 포함할 수 있다.
차량은 또한 컴퓨터(110)와 통신하는 다른 디바이스들을 포함할 수 있는바, 예를 들어, 차량의 방향 및 속도 혹은 그 변화를 결정하기 위해 가속도계, 자이로스코프(gyroscope) 혹은 또 다른 방향/속도 검출 디바이스(146)와 같은 것을 포함할 수 있다. 단지 예를 들면, 가속 디바이스(146)는 중력 방향 혹은 그 수직인 평면에 대한 피치(pitch), 요(yaw) 또는 롤(roll)(혹은 그 변화)을 결정할 수 있다. 디바이스는 또한 속도에서의 증가 혹은 감소 그리고 이러한 변화의 방향을 추적할 수 있다. 본 명세서에서 설명되는 바와 같은 위치 및 방위 데이터의 디바이스 제공은, 사용자, 컴퓨터(110), 다른 컴퓨터 및 이들의 조합에 자동으로 제공될 수 있다.
컴퓨터(110)는 다양한 컴포넌트들을 제어함으로써 차량의 방향 및 속도를 제어할 수 있다. 예를 들어, 만약 차량이 완전히 자율주행 모드에서 동작한다면, 컴퓨터(110)는 차량이 (예를 들어, 연료 또는 엔진에 제공되는 다른 에너지를 증가시킴으로써) 가속되도록 할 수 있고, (예를 들어, 엔진에 공급되는 연료를 감소시킴으로써 또는 브레이크를 적용시킴으로써) 감속되도록 할 수 있으며, (예를 들어, 두 개의 앞바퀴를 좌우로 돌림으로써) 방향을 변경하도록 할 수 있다.
차량은, 다른 차량들, 도로에서의 장애물, 교통 신호, 표지판, 나무 등과 같은 차량의 외부에 있는 물체들을 검출하기 위한 컴포넌트들을 포함할 수 있다. 검출 시스템은 레이저, 소나, 레이더, 카메라, 또는 (컴퓨터(110)에 의해 프로세싱될 수 있는 데이터를 기록하는) 임의의 다른 검출 디바이스들을 포함할 수 있다. 예를 들어, 만약 차량이 소형 승용차라면, 자동차는 지붕 혹은 다른 편리한 위치에 장착되는 레이저를 포함할 수 있다.
도 3에 제시된 바와 같이, 소형 승용차(301)는 차량의 전면 및 상부에 각각 장착된, 레이저(310) 및 레이저(311)를 포함할 수 있다. 레이저(310)는 대략 150미터의 도달거리, 30도의 수직 시야각, 그리고 대략 30도의 수평 시야각을 가질 수 있다. 레이저(311)는 대략 50-80미터의 도달거리, 30도의 수직 시야각, 그리고 360도의 수평 시야각을 가질 수 있다. 레이저들은 다양한 물체들의 위치 및 거리를 식별하기 위해 컴퓨터가 사용할 수 있는 도달거리 및 강도 정보를 차량에 제공할 수 있다. 일 실시형태에서, 레이저는 축을 중심으로 회전하며 피치를 변경시킴으로써 차량과 (이러한 차량과 대면하고 있는) 물체 표면 간의 거리를 측정할 수 있다.
차량은 또한 적응형 순항 제어 시스템들을 위해 사용되는 것들과 같은 다양한 레이더 검출 유닛들을 포함할 수 있다. 레이더 검출 유닛들은 자동차의 전면 및 후면뿐만 아니라 전면 범퍼의 양측에 위치할 수 있다. 도 3의 예에서 제시된 바와 같이, 차량(301)은, 차량의 측면(도면에서는 단지 일 측면만 도시됨), 전면 및 후면 상에 위치하는 레이더 검출 유닛들(320-323)을 포함한다. 이러한 레이더 검출 유닛들 각각은 대략 18도의 시야각에 대해 대략 200미터의 도달거리를 가질 수 있을 뿐만 아니라 대략 56도의 시야각에 대해 대략 60미터의 도달거리를 가질 수 있다.
또 다른 예에서, 다양한 카메라들이 차량에 장착될 수 있다. 카메라들은 소정의 거리에 장착될 수 있고, 이에 따라 둘 이상의 카메라들의 영상들로부터의 시차(parallax)가 다양한 물체까지의 거리를 컴퓨팅하기 위해 사용될 수 있게 된다. 도 3에 제시된 바와 같이, 차량(301)은 백미러(rear view mirror)(미도시) 가까이에서 바람막이창(340) 아래에 장착되는 2개의 카메라들(330-331)을 포함할 수 있다. 카메라(330)는 대략 200미터의 도달거리 및 대략 30도의 수평 시야각을 포함할 수 있고, 반면 카메라(331)는 대략 100미터의 도달거리 및 대략 60도의 수평 시야각을 포함할 수 있다.
각각의 센서는, 물체를 검출하기 위해 센서가 사용될 수 있는 특정의 센서 필드와 관련될 수 있다. 도 4a는 다양한 센서들의 근사적 센서 필드를 위에서 내려다본 도면이다. 도 4b는 이러한 센서들에 대한 시야각에 근거하여 레이저들(310 및 311)에 대한 근사적 센서 필드(410 및 411)를 각각 나타낸 것이다. 예를 들어, 센서 필드(410)는 대략 150미터에 대해 대략 30도의 수평 시야각을 포함하고, 센서 필드(411)는 대략 80미터에 대해 360도의 수평 시야각을 포함한다.
도 4c는 이러한 센서들에 대한 시야각에 근거하여, 레이더 검출 유닛들(320-323)에 대한 근사적 센서 필드(420A-423B)를 각각 도시한다. 예를 들어, 레이더 검출 유닛(320)은 센서 필드(420A 및 420B)를 포함한다. 센서 필드(420A)는 대략 200미터에 대해 대략 18도의 수평 시야각을 포함하고, 센서 필드(420B)는 대략 80미터에 대해 대략 56도의 수평 시야각을 포함한다. 유사하게, 레이더 검출 유닛(321-323)은 센서 필드(421A-423A 및 421B-423B)를 포함한다. 센서 필드(421A-423A)는 대략 200미터에 대해 대략 18도의 수평 시야각을 포함하고, 센서 필드(421B-423B)는 대략 80미터에 대해 대략 56도의 수평 시야각을 포함한다. 센서 필드(421A 및 422A)는 도 4a 및 도 4c의 가장자리를 넘어 확장된다.
도 4d는 이러한 센서들에 대한 시야각에 근거하여, 카메라들(330-331)에 대한 근사적 센서 필드(430-431)를 각각 도시한다. 예를 들어, 카메라(330)의 센서 필드(430)는 대략 200미터에 대해 대략 30도의 시야각을 포함하고, 카메라(430)의 센서 필드(431)는 대략 100미터에 대해 대략 60도의 시야각을 포함한다.
또 다른 예에서, 자율주행 차량은 소나 디바이스, 스테레오 카메라(stereo cameras), 국소 카메라(localization camera), 레이저 및 레이더 검출 유닛을 포함할 수 있고, 각각은 서로 다른 시야각을 갖는다. 소나는 대략 6미터의 최대 거리에 대해 대략 60도의 수평 시야각을 가질 수 있다. 스테레오 카메라는, 대략 50도의 수평 시야각, 대략 10도의 수직 시야각 및 대략 30미터의 최대 거리를 갖는 중첩 영역을 가질 수 있다. 국소 카메라는, 대략 75도의 수평 시야각, 대략 90도의 수직 시야각 및 대략 10미터의 최대 거리를 가질 수 있다. 레이저는, 대략 360도의 수평 시야각, 대략 30도의 수직 시야각 및 100미터의 최대 거리를 가질 수 있다. 레이더는, 근거리 빔(near beam)에 대해 60도의 수평 시야각, 원거리 빔(far beam)에 대해 30도의 수평 시야각, 그리고 200미터의 최대 거리를 가질 수 있다.
일 예에서, 차량(101)은 골프 카트와 같은 소형 카트일 수 있다. 도 5a 및 도 5b는 소형 카트(501)의 측면 도면 그리고 위에서 아래를 본 도면인바, 카트의 센서 필드를 형성하는 일 세트의 예시적인 시야각이다. 소형 카트(501)는 소나, 스테레오 카메라들 및 국소 카메라와 같은 센서들을 포함할 수 있다. 국소 카메라는 맵 정보를 갖는 맵 상에 센티미터 정확도로 차량을 국소화시키기 위해 사용될 수 있다. 이러한 센서들 각각은 결과적으로, 어떤 거리에 대해 어떤 수평 및 수직 각도에서의 시야각 확장이 일어나게 할 수 있다. 예를 들어, 카트(501)는 카트의 전방에 장착되는 국소 카메라를 포함할 수 있고, 이것은 결과적으로 카트 전방으로 대략 1.5 내지 7 미터 범위에 이르는 약 35도의 수평 시야각을 갖는 센서 필드(560)가 생성되게 한다. 카트는 또한, 카트의 전방에 걸쳐 장착되는 복수의 소나 검출 디바이스들을 구비할 수 있다. 이러한 소나 디바이스들은 일정 범위의 주파수들 중 특정 주파수에서 음파를 전송 및 수신함으로써 물체를 검출하는데 사용될 수 있다. 이러한 디바이스들 각각은 센서 필드들(570-575)과 같은 센서 필드가 생성되게 할 수 있는바, 이들 각각은 카트의 전방 약 3 미터에 이르는 대략 35도의 수평 시야각을 갖는다. 카트(501)는 또한 차량의 전방에 장착되는 스테레오 카메라를 포함할 수 있다. 스테레오 카메라들은 카트의 전방으로부터 대략 10 미터에 이르는 약 30도의 수평 시야각을 갖는 센서 필드(580)가 생성되게 할 수 있다.
카트가 국소 카메라, 스테레오 카메라 및 하나 이상의 소나 검출 디바이스들을 포함하는 또 다른 예에서, 카트의 국소 카메라는 대략 75도의 수평 시야각, 대략 90도의 수직 시야각, 그리고 대략 10미터의 도달거리를 포함할 수 있다. 스테레오 카메라들의 중첩 영역은 대략 50도에 대한 수평 시야각, 대략 10도에 대한 수직 시야각, 그리고 대략 30미터의 도달거리를 포함할 수 있다. 소나 검출 디바이스들 각각은 대략 60도의 수평 시야각 및 대략 6미터의 도달거리를 가질 수 있다.
앞서 언급된 센서들은, 승객들뿐만 아니라 환경 내의 물체들 혹은 사람들에 대한 안전을 최대화시키기 위해, 차량으로 하여금 환경을 평가할 수 있게 하고 가능하게는 이러한 환경에 대응할 수 있게 할 수 있다. 차량 타입, 센서의 개수 및 타입, 센서 위치, 센서 시야각, 및 센서의 센서 필드는 단지 예시적인 것임을 이해해야 한다. 다양한 다른 구성이 또한 사용될 수 있다.
앞서 설명된 센서들에 추가하여, 컴퓨터는 또한 전형적인 비-자율주행 차량의 센서들로부터의 입력을 사용할 수 있다. 예를 들어, 이러한 센서들은, 타이어 공기압 센서, 엔진 온도 센서, 브레이크 열 센서, 브레이크 패드 상태 센서, 타이어 트레드 센서, 연료 센서, 오일 레벨 및 품질 센서, (공기의 온도, 습도, 혹은 공기 내의 분진을 검출하기 위한) 공기 품질 센서 등을 포함할 수 있다.
이러한 센서들 중 많은 센서들은 컴퓨터에 의해 프로세싱되는 데이터를 실시간으로 제공하는바, 즉, 센서들은 일정 범위의 시간에 혹은 일정 범위의 시간에 걸쳐 감지되는 환경을 반영하기 위해 자신의 출력을 계속 업데이트할 수 있고, 그리고 계속적으로 혹은 요구가 있는 경우 그 업데이트된 출력을 컴퓨터에 제공하여 차량의 과거-현재 방향 또는 속도가 그 감지된 환경에 응답하여 수정돼야하는지를 컴퓨터가 결정할 수 있게 할 수 있다.
다양한 센서들에 의해 제공되는 데이터를 프로세싱하는 것에 추가하여, 컴퓨터는, 이전 시점에서 획득된 환경 데이터 그리고 그 환경 내에 차량이 존재하는지 여부에 상관없이 존속할 것으로 예상되는 환경 데이터에 의존할 수 있다. 예를 들어, 도 1을 참조하면, 데이터(134)는 상세한 맵 정보(136), 예를 들어, 도로의 형상 및 입면도, 차선 라인, 교차로, 횡단보도, 제한 속도, 교통 신호, 빌딩, 표지판, 실시간 교통 정보, 혹은 다른 이러한 물체 및 정보를 식별시키는 매우 상세한 맵을 포함할 수 있다. 예를 들어, 맵 정보는 다양한 도로 구간들과 관련된 명시적 제한 속도 정보를 포함할 수 있다. 제한 속도 데이터는, 예를 들어, 광학적-문자 인식을 사용하여, 제한 속도 표지판의 이전에 촬영된 영상들로부터 수작업으로 입력될 수 있거나 혹은 스캔될 수 있다. 맵 정보는 앞서 나열된 하나 이상의 물체들을 포함하는 삼차원 지형 맵을 포함할 수 있다. 예를 들어, 차량은 실시간 데이터에 근거하여(예를 들어, 다른 자동차의 현재 GPS 위치를 결정하기 위해 자신의 센서들을 사용하여) 그리고 다른 데이터에 근거하여(예를 들어, 다른 자동차가 방향전환 차선 내에 있는지 여부를 결정하기 위해 GPS 위치를 이전에 저장된 차선별 맵 데이터와 비교하여) 다른 자동차의 방향전환이 예상되는지를 결정할 수 있다.
다시 언급하면, 비록 본 명세서에서 맵 정보는 영상-기반 맵으로서 제시되지만, 맵 정보가 전체적으로 영상 기반일 필요는 없다(예컨대, 래스터(raster)). 예를 들어, 맵 정보는 하나 이상의 로드그래프(roadgraphs)를 포함할 수 있거나, 혹은 도로, 차선, 교차로, 및 이러한 특징들 간의 연결과 같은 정보의 그래프 네트워크(graph networks)를 포함할 수 있다. 각각의 특징은 그래프 데이터로서 저장될 수 있고 지리적 위치와 같은 정보와 관련될 수 있으며, 이것이 다른 관련 특징들에 링크(link)되든 혹은 안되든 상관없는 바, 예를 들어, 정지 표지판은 도로 및 교차로 등에 링크될 수 있다. 일부 예들에서, 관련 데이터는 특정 로드그래프 특징의 효율적인 참조가 가능하도록 로드그래프의 그리드 기반 인덱스(grid-based index)들을 포함할 수 있다.
도면에서 예시되고 앞서 설명된 동작들에 추가하여, 다양한 동작들이 이제 고려된다. 다음의 동작들이 아래에 설명되는 순서로 정확히 수행될 필요가 없음을 이해해야 한다. 오히려, 다양한 단계들이 서로 다른 순서로 혹은 동시에 다루어 질 수 있으며, 이러한 단계들은 또한 부가될 수 있거나 생략될 수 있다.
자율주행 차량은 경로를 따름으로써 두 개의 위치 간에 자신, 승객들, 및/또는 화물을 운송할 수 있다. 예를 들어, 운전자는 목적지를 입력할 수 있고, 차량의 자율주행 모드를 활성화시킬 수 있다. 이에 응답하여, 차량의 컴퓨터는 로드그래프, 현재 위치 및 목적지에 근거하여 경로를 계산할 수 있다. 이러한 경로에 근거하여(혹은 경로 발생의 일부로서), 차량은 경로를 따라 목적지까지 차량을 제어하기 위한 제어 전략을 결정할 수 있다. 예를 들어, 제어 전략은, 어디서 방향전환을 할지, 어떤 속도로 주행할지, 어디서 교통 신호를 찾을지, 교차로 혹은 정지 표지판에 대해 어디서 정지할지 등을 포함할 수 있다.
앞서 설명된 바와 같이, 경로를 따르는 동안 차량은 센서 필드들 내에 존재하는 물체를 그 주변환경에서 검출할 수 있다. 물체를 검출하는 것에 응답하여, 컴퓨터는 자율주행 차량의 속도를 조정할 수 있거나 혹은 방향을 변경시킬 수 있다. 그러나, 일부 예들에서, 센서 필드들은 차량의 주변환경에서의 물체들 혹은 다른 특징들에 따라 변경될 수 있거나 혹은 덜 신뢰가능하게 될 수 있다.
임의의 물체가 차량의 센서 필드의 일부분을 점유할 수 있다. 예를 들어, 도 6a에 제시된 바와 같이, 차량(301)은 트렉터-트레일러(tractor-trailer)(610)와 같은 또 다른 커다란 움직이는 물체의 측면을 따라 운행하고 있을 수 있다. 도 6b에 제시되는 바와 같이, 트렉터-트레일러(610)는 차량(301)의 센서 필드 내의 영역(620)을 점유한다. 도 7a에 제시되는 또 다른 예에서, 차량(301)은 빌딩들(710) 옆을 따라 운행하고 있으며 도로에서 굽어진 곳(bend)에 접근하고 있다. 이러한 빌딩들은 차량(301)의 센서 필드 내의 영역(720)을 점유한다.
임의의 물체가 차량의 센서 필드의 일부분을 점유하는 경우, 이러한 물체의 존재는 하나 이상의 센서들의 감지력(perception)을 변경시킬 수 있다(예를 들어, 다른 물체들에 관한 지각력을 제한함으로써). 차량의 컴퓨터는 센서의 검출 라인 내에 있지 않거나 혹은 물체의 뒤에 있는 영역에 존재하는 다른 물체들을 이제 더 이상 정확하게 검출할 수 없다. 일부 예들에서, 만약 물체가 반투명 혹은 투명한 경우(예를 들어, 유리), 센서들은 "관통하여(though)" 어떤 물체들을 검출할 수는 있지만, 중간에 물체가 존재하지 않는 경우보다는 훨씬 더 낮은 정확도로 검출하게 된다. 따라서, 차량의 센서 필드의 크기 및 정확도는 감소될 수 있다. 결과적으로, 차량의 컴퓨터는 센서의 영역의 크기 및 형상 감소를 계산할 수 있고, 이러한 영역 감소에 근거하여 새로운 혹은 현재의 센서 필드를 계산할 수 있다.
예를 들어, 도 6b를 참조하면, 컴퓨터는 트렉터-트레일러(610)를 물체로서 식별할 수 있고, 영역(620)의 크기 및 형상, 영역(620) 내의 센서 필드의 크기 및 형상, 그리고/또는 영역(620) 내에 있지 않은 센서 필드의 크기 및 형상을 계산할 수 있다. 영역(620) 내의 임의의 물체들은 이제 더 이상 차량(301)의 센서들에 의해 검출가능하지 않다. 이러한 영역은 "무분별(blindness)"의 근접 영역(approximate area)을 나타낸다. 컴퓨터는, 로드그래프로부터의 정보에 근거하여, 혹은 예를 들어, 만약 컴퓨터가 이 영역에 최근에 들어온 물체를 추적하고 있는 경우, 물체들의 위치를 추정할 수 있다. 트렉터-트레일러는 불투명하기 때문에, 예를 들어, 소나, 레이저 혹은 카메라 센서들은 영역(620) 내에 있는 데이터를 수집할 수 없다. 이러한 불투명성은 센서들이 트럭을 "관통하여" 정보를 수집하지 못하게 한다.
도 7의 예를 참조하면, 차량의 센서 필드는 빌딩에 의해 영향을 받는다. 차량의 컴퓨터는 빌딩을 물체로서 식별할 수 있고, 영역(720)의 크기 및 형상, 영역(720) 내의 센서 필드의 크기 및 형상, 그리고/또는 영역(720) 내에 있지 않은 센서 필드의 크기 및 형상을 계산할 수 있다. 이러한 예에서, 차량은 빌딩(710) 옆에 주차되어 있는 영역(720) 내의 트럭(730)을 검출할 수 없다. 예를 들어, 차량(730)의 위치는 또한 도 7b에서 영역(720) 내에 있는 것으로 제시된다.
물체에 추가하여, 다른 상황들이 차량의 주변환경에 대한 하나 이상의 센서들의 감지력을 감소시킴으로써 혹은 방해함으로써 자율주행 차량의 센서 필드에 영향을 미칠 수 있다. 예를 들어, 밝은 태양 빛에서, 카메라 영상은 포화(saturate)될 수 있고 신뢰성이 떨어질 수 있다. 따라서, 이러한 밝은 빛은 카메라의 유효동작에 영향을 미치기 때문에 카트(501)의 센서 필드는 감소한다. 이에 따라, 도 8a에 제시된 바와 같이, 카메라 센서들의 시야각(560 및 580)에서는 밝은 빛(880)으로 인해 이제 더 이상 물체를 검출할 수 없다. 이에 따라, 이러한 시야각은 점선으로 도시되었다. 앞서 설명된 물체의 예에서, 카트의 센서 필드의 크기 및 정확도는 감소될 수 있다. 이후, 카트의 컴퓨터는 예를 들어 오로지 소나 검출 디바이스(570-576)에만 근거하여 새로운 센서 필드를 계산할 수 있거나, 또는 카트가 오로지 소나 디바이스의 시야각으로부터 센서 필드에만 의존할 수 있음을 단순히 결정할 수 있다.
또 다른 예에서, 도 8b의 사운드(890)는 카트의 소나 디바이스에 의해 사용되는 일정 범위의 주파수들을 갖거나, 또는 소나 디바이스에 의해 사용되는 주파수 혹은 이에 가까운 주파수를 갖는다. 예를 들어, 사운드는 다른 소나 디바이스에 의해 발생될 수 있거나 혹은 차량 가까이의 노이즈에 의해 발생될 수 있다. 이러한 사운드는 결과적으로, 물체의 검출에 있어 소나 데이터의 신뢰성을 떨어뜨리는 피드백을 만들 수 있다. 따라서, 소나 검출 디바이스의 시야각(570-575)에서는 이제 더 이상 물체를 검출할 수 없다. 이에 따라, 이러한 시야각은 점선으로 도시되었다. 카트의 컴퓨터는 예를 들어 카메라 디바이스(560 및 580)에만 근거하여 새로운 센서 필드를 계산할 수 있거나, 또는 카트가 오로지 카메라의 시야각으로부터 센서 필드에만 의존할 수 있음을 단순히 결정할 수 있다.
센서 필드에서의 변화를 식별하는 것에 응답하여, 차량의 컴퓨터는 차량의 제어 전략을 변경시킬 수 있다. 예를 들어, 차량의 속도 및 방향을 유지하는 것이 아니라, 차량의 컴퓨터는 차량의 속도를 줄일 수 있거나, 차선을 유지하게 할 수 있으며, 혹은 (제한 속도를 고려하여) 속도를 증가시킬 수 있거나 다른 응답 동작을 취할 수 있다. 또 다른 예에서는, 방향 전환과 같이 경로에 대해 요구된 동작을 취하기 위해 제 1 속도로 속도를 줄이는 대신에, 컴퓨터는 훨씬 더 낮은 제 2 속도로 차량의 속도를 줄일 수 있다. 일부 예들에서, 차량은 임의의 특정 동작을 취할 필요가 없을 수 있고 자신의 현재 속도 및 방향을 유지할 수 있다.
일 예에서, 도 6a를 참조하면, 차량(301)은 하나 이상의 차선으로부터 (트렉터-트레일러(610)를 향하는) 좌측으로 움직일 필요가 있는 경로를 따르고 있을 수 있다. 보통의 경우, 만약 차량이 트렉터-트레일러보다 더 빠르게 주행하고 있다면, 차량(301)은 차선을 변경시키기 위해 트렉터-트레일러(610)를 지나칠 때까지 기다릴 수 있다. 그러나, 차량의 컴퓨터가 센서의 영역 감소 혹은 현재 센서 필드의 감소가 있음을 결정한 이후에는, 컴퓨터는 차량의 속도를 낮출 수 있고, 이에 따라 차량은 센서 필드를 증가시키기 위해 트렉터-트레일러 뒤로 처지게 되어 차량(301)은 트렉터-트레일러(610)의 좌측에 있는 물체를 검출할 수 있게 된다.
도 7a를 참조하면, 또 다른 예에서, 차량(301)은 빌딩 둘레의 도로를 따라 주행할 필요가 있는 경로를 따르고 있을 수 있다. 보통의 경우, 만약 차량이 굽어진 도로를 따라 주행하고 있다면, 컴퓨터는 차량을 속도를 유지시킬 수 있다. 그러나, 차량의 컴퓨터가 센서의 영역 감소 혹은 현재 센서 필드의 감소가 있음을 결정한 이후에는, 컴퓨터는 차량의 속도를 급격히 낮출 수 있고, 이에 따라 차량의 센서 필드가 트럭(730) 가까이 위치한 물체를 검출할 수 있을 때 차량은 그 물체를 피하기 위해 임의의 필요한 동작을 취할 충분한 시간을 가질 수 있게 된다.
유사하게, 도 8a의 예에서, 만약 카트가 이제 더 이상 카메라 센서에 의존할 수 없는 경우, 카트는 속도를 급격히 낮출 수 있고, 이에 따라 물체가 소나 시야각의 대략 3미터 범위 내에서 검출되는 경우 카트(501)는 물체를 우회하여 움직이거나 멈출 충분한 시간을 갖게 된다. 도 8b에 제시된 바와 같이, 만약 카트의 센서 필드가 카메라 시야각으로만 한정된다면, 카트(501)는 방향 회전을 하기 전에 속도를 다시 급격히 낮출 수 있다. 이러한 예에서, 만약 카트가 소나 검출 디바이스의 유효성이 감소하기 전에 자신의 속도를 유지한다면, 카트(501)는 자신의 속도를 계속 유지할 수 있거나 또는 속도를 약간 줄일 수 있거나 심지어 자신의 속도를 증가시킬 수 있다.
자율주행 차량의 컴퓨터는 계속 혹은 주기적으로, 센서 필드가 변경되었는지 여부, 조치를 취해야 하는지 여부, 혹은 이에 따라 제어 전략을 변경해야 하는지 여부를 결정할 수 있다. 예를 들어, 도 7a를 참조하면, 만약 차량(301)이 도로에서 굽어진 곳을 따라 주행하고 있고 트럭(710)을 지나치고 있다면, 차량의 컴퓨터는 본래의 제어 전략으로 복귀할 있고 자신의 속도를 다시 증가시킬 수 있다. 유사하게, 만약 (도 8a의) 카트(501)가 (밝은 빛(880)이 이제 더 이상 카메라 센서에 동일한 영향을 미치지 않는) 그늘진 영역으로 움직인다면, 카트의 컴퓨터는 물체를 검출하기 위해 다시 카메라에 의존할 수 있고, 본래의 제어 전략으로 복귀할 있으며 자신의 속도를 증가시킬 수 있다. 속도 및 주행에 대한 조정 그리고 제어 전략을 변경하는 이러한 순환은 차량의 센서 필드의 영역 감소 혹은 현재 센서 필드에 근거하여 계속 일어날 수 있다.
도 9의 흐름도(900)는 앞서 설명된 자율주행 차량을 제어하는 또 다른 예이다. 블록(910)에서, 차량의 컴퓨터는 제어 전략에 근거하여 자율주행 차량을 제어한다. 블록(920)에서, 자율주행 차량의 센서들 중 하나 이상 센서의 시야각 혹은 시야에 근거하여 센서 필드가 식별된다. 블록(930)에서, 센서 필드에서의 물체 혹은 그 위치가 검출된다. 예를 들어, 물체 및 그 위치를 식별하기 위해 하나 이상의 센서로부터의 데이터가 차량의 컴퓨터에 의해 수신 및 처리될 수 있다. 블록(940)에서, 센서 필드에 대한 물체의 위치에 근거하여, 센서 감지력이 감소된 영역이 계산된다. 그 다음에, 블록(950)에서, 현재 센서 필드에 근거하여 새로운 제어 전략이 식별된다. 그 다음에, 블록(960)에서, 컴퓨터는 센서 감지력이 감소된 영역에 근거하여 차량의 방향 및 속도를 제어할 수 있다. 그 다음에, 블록(970)에서, 컴퓨터는 센서 필드가 계속 감소되고 있는지 여부를 결정한다. 만약 센서 필드가 계속 감소되고 있다면, 컴퓨터는 블록(980)에서 새로운 제어 전략을 유지할 수 있거나 혹은 필요에 따라 제어 전략을 조정할 수 있고 그 다음에 블록(970)으로 되돌아 갈 수 있다. 차량의 센서 필드가 이제 더 이상 감소되고 있지 않음이 결정된다면, 컴퓨터는 블록(990)에서 본래의 제어 전략에 근거하여 자율주행 차량을 다시 제어하고 새로운 물체가 식별되는 경우 블록(930)으로 되돌아 간다.
도 10의 흐름도(1000)는 앞서 설명된 자율주행 차량을 제어하는 또 다른 예이다. 블록(1010)에서, 차량의 컴퓨터는 제어 전략에 근거하여 자율주행 차량을 제어한다. 블록(1020)에서, 자율주행 차량의 센서들 중 하나 이상의 센서의 시야각 혹은 시야에 근거하여 센서 필드가 식별된다. 블록(1030)에서, 센서 필드에서의 물체 혹은 그 위치가 검출된다. 예를 들어, 물체 및 그 위치를 식별하기 위해 하나 이상의 센서로부터의 데이터가 차량의 컴퓨터에 의해 수신 및 처리될 수 있다. 블록(1040)에서, 센서 필드에 대한 물체의 위치에 근거하여, 현재 센서 필드가 계산된다. 그 다음에, 블록(1050)에서, 현재 센서 필드에 근거하여 새로운 제어 전략이 식별된다. 그 다음에, 블록(1060)에서, 컴퓨터는 새로운 제어 전략에 근거하여 차량의 방향 및 속도를 제어할 수 있다. 그 다음에, 블록(1070)에서, 컴퓨터는 센서 필드가 계속 감소되고 있는지 여부를 결정한다. 만약 센서 필드가 계속 감소되고 있다면, 컴퓨터는 블록(1080)에서 새로운 제어 전략을 유지할 수 있거나 혹은 필요에 따라 제어 전략을 조정할 수 있고 그 다음에 블록(1070)으로 되돌아 갈 수 있다. 차량의 센서 필드가 이제 더 이상 감소되고 있지 않음이 결정된다면, 컴퓨터는 블록(1090)에서 본래의 제어 전략에 근거하여 자율주행 차량을 다시 제어하고 새로운 물체가 식별되는 경우 블록(1030)으로 되돌아 간다.
도 11의 흐름도(1100)는 앞서 설명된 자율주행 차량을 제어하는 또 다른 예이다. 블록(1110)에서, 차량의 컴퓨터는 제어 전략에 근거하여 자율주행 차량을 제어한다. 블록(1120)에서, 자율주행 차량의 센서들 중 하나 이상의 센서의 시야각 혹은 시야에 근거하여 센서 필드가 식별된다. 블록(1130)에서, 하나 이상의 센서들의 감지력에서의 변화가 식별된다. 예를 들어, 하나 이상의 센서로부터의 데이터가 신뢰할 수 없음을 표시하는지 결정하기 위해 하나 이상의 센서로부터의 데이터는 차량의 컴퓨터에 의해 수신 및 처리될 수 있다. 그 다음에, 블록(1140)에서, 상기 변화에 근거하여, 새로운 제어 전략이 식별된다. 그 다음에, 블록(1150)에서, 컴퓨터는 새로운 제어 전략에 근거하여 차량의 방향 및 속도를 제어할 수 있다. 그 다음에, 블록(1160)에서, 컴퓨터는 예를 들어 센서로부터 추가적인 데이터를 수신함으로써 상기 변화가 여전히 유효한지 여부를 결정한다. 만약 상기 변화가 지속되고 있다면, 컴퓨터는 블록(1170)에서 새로운 제어 전략을 유지할 수 있거나 혹은 필요에 따라 제어 전략을 조정할 수 있고 그 다음에 블록(1160)으로 되돌아 갈 수 있다. 컴퓨터가 이제 더 이상 변화가 존재하지 않는다고 결정하는 경우, 컴퓨터는 블록(1180)에서 본래의 제어 전략에 근거하여 자율주행 차량을 다시 제어하고 새로운 물체가 식별되는 경우 블록(1130)으로 되돌아 간다.
앞서 논의된 특징들의 이러한 변형 및 결합 그리고 다른 변형 및 결합은 본 특허청구범위에 의해 정의되는 바와 같은 본 발명의 주된 내용으로부터 벗어남이 없이 활용될 수 있기 때문에, 예시적 실시예에 관한 앞서의 설명은 특허청구범위에 의해 정의되는 바와 같은 본 발명의 주된 내용의 한정적 의미가 아닌 예시적 의미로 고려돼야만 한다. 본 명세서에서 설명되는 예들(뿐만 아니라 "와 같은", "예를 들어", "포함하는" 등과 같은 문구로 제시된 표현들)의 제공이 본 발명의 청구되는 주된 내용을 이러한 특정 예로만 한정시키려는 것으로서 해석돼서는 안 되며, 오히려 이러한 예는 가능한 많은 실시형태들 중 단지 일부만을 예시하려는 의도로 제공되는 것임을 또한 이해해야 한다.
본 발명은 상업상 이용가능성이 매우 넓으며, 자율주행 동작 모드를 갖는 차량의 사용을 포함하지만 이러한 것에만 한정되지 않는다.

Claims (1)

  1. 제1항에 있어서, 장치.
KR1020187037284A 2011-06-01 2011-09-30 센서 필드 선택 KR102219593B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/150,385 US8589014B2 (en) 2011-06-01 2011-06-01 Sensor field selection
US13/150,385 2011-06-01
PCT/US2011/054157 WO2012166170A1 (en) 2011-06-01 2011-09-30 Sensor field selection

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020137034980A Division KR20140039243A (ko) 2011-06-01 2011-09-30 센서 필드 선택

Publications (2)

Publication Number Publication Date
KR20190003800A true KR20190003800A (ko) 2019-01-09
KR102219593B1 KR102219593B1 (ko) 2021-02-25

Family

ID=47259698

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020137034980A KR20140039243A (ko) 2011-06-01 2011-09-30 센서 필드 선택
KR1020187037284A KR102219593B1 (ko) 2011-06-01 2011-09-30 센서 필드 선택

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020137034980A KR20140039243A (ko) 2011-06-01 2011-09-30 센서 필드 선택

Country Status (6)

Country Link
US (1) US8589014B2 (ko)
EP (1) EP2771751B1 (ko)
JP (1) JP6468839B2 (ko)
KR (2) KR20140039243A (ko)
CN (1) CN103718124B (ko)
WO (1) WO2012166170A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200126935A (ko) * 2019-04-29 2020-11-09 모셔널 에이디 엘엘씨 센서 고장에 대한 자율 주행 차량 대응방안을 구현하기 위한 시스템 및 방법
WO2021010517A1 (ko) * 2019-07-16 2021-01-21 엘지전자 주식회사 차량용 전자 장치 및 그의 동작 방법
KR20220071631A (ko) 2020-11-24 2022-05-31 (주)유엠로직스 다차원 함수를 이용한 화상회의에서의 보안자료 공유 시스템 및 그 방법
KR20230003060A (ko) * 2020-04-28 2023-01-05 로베르트 보쉬 게엠베하 동적 교통 시나리오들에서의 교통-법-준수 의사 결정

Families Citing this family (90)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT508634B1 (de) * 2009-08-28 2011-05-15 Riegl Laser Measurement Sys Laserscanvorrichtung zur montage am dachträger eines fahrzeugs
JP5503419B2 (ja) * 2010-06-03 2014-05-28 株式会社日立製作所 無人搬送車および走行制御方法
US9381916B1 (en) 2012-02-06 2016-07-05 Google Inc. System and method for predicting behaviors of detected objects through environment representation
US9760092B2 (en) 2012-03-16 2017-09-12 Waymo Llc Actively modifying a field of view of an autonomous vehicle in view of constraints
US8942881B2 (en) * 2012-04-02 2015-01-27 Google Inc. Gesture-based automotive controls
US8700251B1 (en) * 2012-04-13 2014-04-15 Google Inc. System and method for automatically detecting key behaviors by vehicles
US9062979B1 (en) 2013-07-08 2015-06-23 Google Inc. Pose estimation using long range features
US9719801B1 (en) 2013-07-23 2017-08-01 Waymo Llc Methods and systems for calibrating sensors using road map data
GB2516629B (en) * 2013-07-26 2020-04-08 Randoll Electrical Ltd Interactive vehicles
US10318823B2 (en) * 2013-10-14 2019-06-11 Mobileye Vision Technologies Ltd. Forward-facing multi-imaging system for navigating a vehicle
KR101491622B1 (ko) * 2014-02-17 2015-02-11 연세대학교 산학협력단 자율 주행형 차량의 주행 제어 장치 및 방법
EP2921363A1 (en) * 2014-03-18 2015-09-23 Volvo Car Corporation Vehicle, vehicle system and method for increasing safety and/or comfort during autonomous driving
EP2921362B1 (en) 2014-03-18 2020-08-12 Volvo Car Corporation Vehicle, vehicle system and method for increasing safety and/or comfort during autonomous driving
TWI630130B (zh) * 2014-07-30 2018-07-21 鴻海精密工業股份有限公司 智能尋車系統及交通工具之控制方法
JP6260544B2 (ja) 2015-01-19 2018-01-17 トヨタ自動車株式会社 自動運転装置
US9493157B2 (en) 2015-01-29 2016-11-15 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle operation in obstructed occupant view and sensor detection environments
US9649979B2 (en) 2015-01-29 2017-05-16 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle operation in view-obstructed environments
US9139199B2 (en) 2015-02-01 2015-09-22 Thomas Danaher Harvey Methods for dense parking of remotely controlled or autonomous vehicles
US10216196B2 (en) 2015-02-01 2019-02-26 Prosper Technology, Llc Methods to operate autonomous vehicles to pilot vehicles in groups or convoys
US10678261B2 (en) 2015-02-06 2020-06-09 Aptiv Technologies Limited Method and apparatus for controlling an autonomous vehicle
US20180012492A1 (en) 2015-02-06 2018-01-11 Delphi Technologies, Inc. Method of automatically controlling an autonomous vehicle based on electronic messages from roadside infrastructure or other vehicles
JP6222137B2 (ja) 2015-03-02 2017-11-01 トヨタ自動車株式会社 車両制御装置
US9963155B2 (en) * 2015-05-29 2018-05-08 Clearpath Robotics, Inc. Method, system and apparatus for path control in unmanned vehicles
US9594378B2 (en) 2015-07-31 2017-03-14 Delphi Technologies, Inc. Variable object detection field-of-focus for automated vehicle control
US10183667B2 (en) * 2015-09-15 2019-01-22 Deere & Company Human presence detection on a mobile machine
US10267908B2 (en) * 2015-10-21 2019-04-23 Waymo Llc Methods and systems for clearing sensor occlusions
US9720415B2 (en) * 2015-11-04 2017-08-01 Zoox, Inc. Sensor-based object-detection optimization for autonomous vehicles
DE102015224553A1 (de) * 2015-12-08 2017-06-08 Robert Bosch Gmbh Verfahren, Computerprogramm, Speichermedium und Elektronische Steuereinheit zum Betreiben eines Fahrzeugs
US10101747B2 (en) 2015-12-11 2018-10-16 Uber Technologies, Inc. Formatting sensor data for use in autonomous vehicle communications platform
US9537956B1 (en) 2015-12-11 2017-01-03 Uber Technologies, Inc. System for acquiring time-synchronized sensor data
US9596666B1 (en) 2015-12-11 2017-03-14 Uber Technologies, Inc. System for processing asynchronous sensor data
US9785150B2 (en) * 2015-12-11 2017-10-10 Uber Technologies, Inc. Formatting sensor data for use in autonomous vehicle communications platform
JP2017114155A (ja) * 2015-12-21 2017-06-29 三菱自動車工業株式会社 運転支援装置
US9915951B2 (en) 2015-12-27 2018-03-13 Toyota Motor Engineering & Manufacturing North America, Inc. Detection of overhanging objects
US10029682B2 (en) 2016-01-22 2018-07-24 Toyota Motor Engineering & Manufacturing North America, Inc. Surrounding vehicle classification and path prediction
US10328949B2 (en) * 2016-01-28 2019-06-25 Toyota Motor Engineering & Manufacturing North America, Inc. Sensor blind spot indication for vehicles
US10114103B2 (en) * 2016-03-31 2018-10-30 Uber Technologies, Inc. System and method for sensor triggering for synchronized operation
US9817403B2 (en) * 2016-03-31 2017-11-14 Intel Corporation Enabling dynamic sensor discovery in autonomous devices
US9672446B1 (en) * 2016-05-06 2017-06-06 Uber Technologies, Inc. Object detection for an autonomous vehicle
US10245730B2 (en) * 2016-05-24 2019-04-02 Asustek Computer Inc. Autonomous mobile robot and control method thereof
JP6712906B2 (ja) * 2016-05-31 2020-06-24 株式会社小松製作所 作業機械の管理装置、作業機械、及び作業機械の管理システム
US9910442B2 (en) 2016-06-28 2018-03-06 Toyota Motor Engineering & Manufacturing North America, Inc. Occluded area detection with static obstacle maps
US10137890B2 (en) 2016-06-28 2018-11-27 Toyota Motor Engineering & Manufacturing North America, Inc. Occluded obstacle classification for vehicles
US10078335B2 (en) 2016-06-28 2018-09-18 Toyota Motor Engineering & Manufacturing North America, Inc. Ray tracing for hidden obstacle detection
CN106323288A (zh) * 2016-08-01 2017-01-11 杰发科技(合肥)有限公司 一种交通工具的定位和搜寻方法、装置以及移动终端
US10471904B2 (en) 2016-08-08 2019-11-12 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for adjusting the position of sensors of an automated vehicle
US10712746B2 (en) * 2016-08-29 2020-07-14 Baidu Usa Llc Method and system to construct surrounding environment for autonomous vehicles to make driving decisions
US10933887B2 (en) * 2016-09-04 2021-03-02 Otonomo Technologies Ltd. Method and system for implementing a policy based central orchestration for autonomous vehicles to meet local regulations and requirements
CN109715442A (zh) * 2016-09-15 2019-05-03 株式会社小糸制作所 照明系统
FR3058514B1 (fr) * 2016-10-26 2019-08-09 Valeo Schalter Und Sensoren Gmbh Procede d'evaluation d'un risque d'eblouissement d'un capteur d'image et unite electronique associee
US10482559B2 (en) 2016-11-11 2019-11-19 Uatc, Llc Personalizing ride experience based on contextual ride usage data
US10802484B2 (en) 2016-11-14 2020-10-13 Baidu Usa Llc Planning feedback based decision improvement system for autonomous driving vehicle
US10377380B2 (en) 2017-01-09 2019-08-13 Denso International America, Inc. Vehicle safety system
US10585440B1 (en) 2017-01-23 2020-03-10 Clearpath Robotics Inc. Systems and methods for using human-operated material-transport vehicles with fleet-management systems
US10286906B2 (en) 2017-01-24 2019-05-14 Denso International America, Inc. Vehicle safety system
US11097736B2 (en) 2017-02-28 2021-08-24 Clearpath Robotics Inc. Systems and methods for traction detection and control in a self-driving vehicle
US10338594B2 (en) * 2017-03-13 2019-07-02 Nio Usa, Inc. Navigation of autonomous vehicles to enhance safety under one or more fault conditions
US10423162B2 (en) 2017-05-08 2019-09-24 Nio Usa, Inc. Autonomous vehicle logic to identify permissioned parking relative to multiple classes of restricted parking
US10377377B2 (en) * 2017-06-08 2019-08-13 GM Global Technology Operations LLC Active lane positioning for blind zone mitigation
US10386856B2 (en) * 2017-06-29 2019-08-20 Uber Technologies, Inc. Autonomous vehicle collision mitigation systems and methods
US10710633B2 (en) 2017-07-14 2020-07-14 Nio Usa, Inc. Control of complex parking maneuvers and autonomous fuel replenishment of driverless vehicles
US10369974B2 (en) 2017-07-14 2019-08-06 Nio Usa, Inc. Control and coordination of driverless fuel replenishment for autonomous vehicles
US10065638B1 (en) 2017-08-03 2018-09-04 Uber Technologies, Inc. Multi-model switching on a collision mitigation system
US20190041859A1 (en) * 2017-08-04 2019-02-07 Aptiv Technologies Limited Sensor failure compensation system for an automated vehicle
JP6747405B2 (ja) 2017-08-25 2020-08-26 トヨタ自動車株式会社 自車位置自信度演算装置
KR102400555B1 (ko) 2017-09-04 2022-05-20 삼성전자주식회사 주행 차량을 제어하는 방법 및 장치
JP2019099035A (ja) * 2017-12-06 2019-06-24 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh モータサイクルの挙動を制御する制御装置及び制御方法
JP2019099034A (ja) * 2017-12-06 2019-06-24 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh モータサイクルの挙動を制御する制御装置及び制御方法
JP6791106B2 (ja) * 2017-12-06 2020-11-25 株式会社デンソー 周辺認識装置及び周辺認識方法
US10338223B1 (en) 2017-12-13 2019-07-02 Luminar Technologies, Inc. Processing point clouds of vehicle sensors having variable scan line distributions using two-dimensional interpolation and distance thresholding
JP7067067B2 (ja) 2018-01-11 2022-05-16 トヨタ自動車株式会社 信号機認識装置、及び自動運転システム
US11022971B2 (en) 2018-01-16 2021-06-01 Nio Usa, Inc. Event data recordation to identify and resolve anomalies associated with control of driverless vehicles
TWI645242B (zh) * 2018-03-29 2018-12-21 鴻海精密工業股份有限公司 拍攝裝置
US10915159B2 (en) * 2018-04-03 2021-02-09 GM Global Technology Operations LLC Method of controlling a vehicle to adjust perception system energy usage
US11454970B2 (en) 2018-05-21 2022-09-27 Cummins Inc. Adjustment of autonomous vehicle control authority
US11326888B2 (en) * 2018-07-25 2022-05-10 Uatc, Llc Generation of polar occlusion maps for autonomous vehicles
US10877473B2 (en) * 2018-08-09 2020-12-29 Here Global B.V. Method, apparatus and computer program product for differential policy enforcement for roadways
US11390277B2 (en) * 2018-11-30 2022-07-19 Clearpath Robotics Inc. Systems and methods for self-driving vehicle collision prevention
US11016489B2 (en) * 2019-01-18 2021-05-25 Baidu Usa Llc Method to dynamically determine vehicle effective sensor coverage for autonomous driving application
JP7151000B2 (ja) * 2019-03-05 2022-10-11 ウェイモ エルエルシー 劣化したlidar範囲測定精度を検出するための方法およびシステム
US11280897B2 (en) * 2019-03-31 2022-03-22 Waymo Llc Radar field of view extensions
US11585934B2 (en) * 2019-04-30 2023-02-21 Lg Electronics Inc. Cart robot having auto-follow function
US20200348669A1 (en) * 2019-05-02 2020-11-05 Hyundai Motor Company Autonomous driving control apparatus, vehicle including autonomous driving control apparatus, and method of controlling vehicle
US11649147B2 (en) 2019-09-20 2023-05-16 Clearpath Robotics Inc. Autonomous material transport vehicles, and systems and methods of operating thereof
DE102019129263A1 (de) * 2019-10-30 2021-05-06 Wabco Europe Bvba Verfahren zur Überwachung einer momentanen Fahrzeugumgebung eines Fahrzeuges sowie Überwachungssystem
KR20210051601A (ko) * 2019-10-31 2021-05-10 엘지전자 주식회사 인공지능 무빙 에이전트
US20210191399A1 (en) * 2019-12-23 2021-06-24 Waymo Llc Real-Time Adjustment Of Vehicle Sensor Field Of View Volume
KR20220074494A (ko) * 2020-11-27 2022-06-03 주식회사 넥스트칩 초음파 센서를 이용하여 다채널 영상들을 효율적으로 저장하는 전자 장치 및 그 동작방법
DE102021005311A1 (de) 2021-10-26 2023-04-27 Mercedes-Benz Group AG Verfahren zur automatischen Regelung einer Längsbewegung eines Fahrzeuges
US20240124028A1 (en) * 2022-10-14 2024-04-18 Aurora Operations, Inc Autonomous vehicle blind spot management

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034898A (ja) * 1999-07-21 2001-02-09 Toyota Central Res & Dev Lab Inc 探査不能領域推定装置及び運転支援システム
JP2004525814A (ja) * 2001-03-23 2004-08-26 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング 自動車追い越し動作支援方法,自動車追い越し動作支援装置
JP2010134829A (ja) * 2008-12-08 2010-06-17 Toyota Motor Corp 進路評価装置

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2583641B2 (ja) 1990-05-18 1997-02-19 日産自動車株式会社 走行制御方法
JPH1031799A (ja) 1996-07-15 1998-02-03 Toyota Motor Corp 自動走行制御装置
EP0913751B1 (de) 1997-11-03 2003-09-03 Volkswagen Aktiengesellschaft Autonomes Fahrzeug und Verfahren zur Steuerung eines autonomen Fahrzeuges
DE19945268A1 (de) * 1999-09-21 2001-03-22 Bosch Gmbh Robert Verfahren und Vorrichtung zur Zustandserkennung bei einem System zur automatischen Längs- und/oder Querregelung bei einem Kraftfahrzeug
DE19947766A1 (de) 1999-10-02 2001-05-10 Bosch Gmbh Robert Einrichtung zur Überwachung der Umgebung eines einparkenden Fahrzeugs
DE19948252C2 (de) * 1999-10-07 2002-06-13 Bayerische Motoren Werke Ag Verfahren zur Erkennung einer Verschmutzung und/oder Blindheit bei einem nach dem Radar- oder Lidarprinzip arbeitenden Sensor
DE19948254C2 (de) * 1999-10-07 2002-07-11 Bayerische Motoren Werke Ag Verfahren zur Erkennung einer Verschmutzung und/oder Blindheit bei einem nach dem Radar- oder Lidarprinzip arbeitenden Sensor
KR100398529B1 (ko) * 2001-06-15 2003-09-19 현대자동차주식회사 타이밍벨트의 교환시기 감지장치와 그 제어방법
US6771208B2 (en) 2002-04-24 2004-08-03 Medius, Inc. Multi-sensor system
JP2003329773A (ja) * 2002-05-10 2003-11-19 Hitachi Ltd 複数の距離検知センサを設置した車両制御装置
JP3636184B2 (ja) * 2002-07-31 2005-04-06 株式会社デンソー タイヤ空気圧センサのid登録方法及びid登録システムと、タイヤ空気圧監視システム、タイヤ空気圧センサ及びスマート制御システム
CN1416033A (zh) * 2002-10-30 2003-05-07 徐州重型机械厂 高空消防车支腿控制装置
DE10258287A1 (de) 2002-12-13 2004-06-24 Robert Bosch Gmbh Verfahren und Einrichtung zur Objektdetekrierung
DE10318500A1 (de) * 2003-04-24 2004-11-25 Robert Bosch Gmbh Vorrichtung und Verfahren zur Kalibrierung eines Bildsensors
US20060100783A1 (en) 2004-10-21 2006-05-11 Sick Ag Monitoring the surroundings of a vehicle
US7499804B2 (en) 2004-10-22 2009-03-03 Irobot Corporation System and method for multi-modal control of an autonomous vehicle
GB2419430B (en) * 2004-10-22 2008-05-21 Irobot Corp Systems and Methods for Control of a Vehicle
US7233683B2 (en) * 2005-01-04 2007-06-19 Deere & Company Method and system for guiding a vehicle with vision-based adjustment
US7610123B2 (en) * 2005-01-04 2009-10-27 Deere & Company Vision-aided system and method for guiding a vehicle
US8150574B2 (en) * 2005-01-04 2012-04-03 Deere & Company Method and system for guiding a vehicle with vision-based adjustment
JP4517393B2 (ja) * 2005-02-16 2010-08-04 株式会社デンソー 運転支援装置
JP2006260217A (ja) * 2005-03-17 2006-09-28 Advics:Kk 車両用走行支援装置
CN100447001C (zh) * 2005-04-06 2008-12-31 肖国 利用车轮与车身之间振动提供动力的汽车避震方法及系统
CN100470411C (zh) * 2005-08-25 2009-03-18 比亚迪股份有限公司 一种纯电动汽车四轮驱动控制系统
JP4400584B2 (ja) * 2006-03-01 2010-01-20 トヨタ自動車株式会社 障害物検出方法及び障害物検出装置
DE102006030560A1 (de) * 2006-07-03 2008-01-10 Robert Bosch Gmbh Verfahren zur Unterstützung eines Einparkvorgangs eines Fahrzeugs
US9302678B2 (en) * 2006-12-29 2016-04-05 Robotic Research, Llc Robotic driving system
JP2008293099A (ja) * 2007-05-22 2008-12-04 Mazda Motor Corp 車両の運転支援装置
CN201096539Y (zh) * 2007-08-09 2008-08-06 苏州工业园区美尔冷却系统有限公司 车用温度传感器
JP2009086788A (ja) * 2007-09-28 2009-04-23 Hitachi Ltd 車両周辺監視装置
JP2009093431A (ja) * 2007-10-09 2009-04-30 Toyota Motor Corp 速度規制システム
US8090489B2 (en) 2007-11-09 2012-01-03 Bruno Delean Computerized driverless vehicles and traffic control system
US8160811B2 (en) * 2008-06-26 2012-04-17 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system to estimate driving risk based on a hierarchical index of driving
US8126642B2 (en) * 2008-10-24 2012-02-28 Gray & Company, Inc. Control and systems for autonomously driven vehicles
JP5319255B2 (ja) * 2008-12-03 2013-10-16 綜合警備保障株式会社 自律移動体および速度制御方法
US20100194593A1 (en) * 2009-02-05 2010-08-05 Paccar Inc Neural network for intelligent transportation systems
JP5613398B2 (ja) * 2009-10-29 2014-10-22 富士重工業株式会社 交差点運転支援装置
US8761990B2 (en) * 2011-03-30 2014-06-24 Microsoft Corporation Semi-autonomous mobile device driving with obstacle avoidance

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034898A (ja) * 1999-07-21 2001-02-09 Toyota Central Res & Dev Lab Inc 探査不能領域推定装置及び運転支援システム
JP2004525814A (ja) * 2001-03-23 2004-08-26 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング 自動車追い越し動作支援方法,自動車追い越し動作支援装置
JP2010134829A (ja) * 2008-12-08 2010-06-17 Toyota Motor Corp 進路評価装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200126935A (ko) * 2019-04-29 2020-11-09 모셔널 에이디 엘엘씨 센서 고장에 대한 자율 주행 차량 대응방안을 구현하기 위한 시스템 및 방법
US11548526B2 (en) 2019-04-29 2023-01-10 Motional Ad Llc Systems and methods for implementing an autonomous vehicle response to sensor failure
WO2021010517A1 (ko) * 2019-07-16 2021-01-21 엘지전자 주식회사 차량용 전자 장치 및 그의 동작 방법
KR20230003060A (ko) * 2020-04-28 2023-01-05 로베르트 보쉬 게엠베하 동적 교통 시나리오들에서의 교통-법-준수 의사 결정
US11926341B2 (en) 2020-04-28 2024-03-12 Mercedes-Benz Group AG Traffic-rule-compliant decision-making in dynamic traffic scenarios
KR20220071631A (ko) 2020-11-24 2022-05-31 (주)유엠로직스 다차원 함수를 이용한 화상회의에서의 보안자료 공유 시스템 및 그 방법

Also Published As

Publication number Publication date
US20120310466A1 (en) 2012-12-06
WO2012166170A1 (en) 2012-12-06
KR20140039243A (ko) 2014-04-01
EP2771751B1 (en) 2019-08-21
US8589014B2 (en) 2013-11-19
CN103718124B (zh) 2016-07-13
KR102219593B1 (ko) 2021-02-25
EP2771751A4 (en) 2015-09-16
JP6468839B2 (ja) 2019-02-13
WO2012166170A8 (en) 2014-01-03
CN103718124A (zh) 2014-04-09
EP2771751A1 (en) 2014-09-03
JP2014515527A (ja) 2014-06-30

Similar Documents

Publication Publication Date Title
KR102219593B1 (ko) 센서 필드 선택
US11726493B2 (en) Modifying behavior of autonomous vehicles based on sensor blind spots and limitations
US12001217B1 (en) Detecting sensor degradation by actively controlling an autonomous vehicle
US11868133B1 (en) Avoiding blind spots of other vehicles
US9646497B1 (en) System and method for determining position and distance of objects using road fiducials
US9255805B1 (en) Pose estimation using long range features
KR101817822B1 (ko) 구역 운행
US8935034B1 (en) System and method for automatically detecting key behaviors by vehicles
US20130197736A1 (en) Vehicle control based on perception uncertainty

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)