KR20150016381A - 대용 데이터에 기초하여 교통 신호의 상태 및 차량의 환경의 다른 양상들을 추론하기 - Google Patents

대용 데이터에 기초하여 교통 신호의 상태 및 차량의 환경의 다른 양상들을 추론하기 Download PDF

Info

Publication number
KR20150016381A
KR20150016381A KR1020147036772A KR20147036772A KR20150016381A KR 20150016381 A KR20150016381 A KR 20150016381A KR 1020147036772 A KR1020147036772 A KR 1020147036772A KR 20147036772 A KR20147036772 A KR 20147036772A KR 20150016381 A KR20150016381 A KR 20150016381A
Authority
KR
South Korea
Prior art keywords
vehicle
environment
sensors
sensor data
controlling
Prior art date
Application number
KR1020147036772A
Other languages
English (en)
Other versions
KR101705961B1 (ko
Inventor
피터 롬브로조
에릭 텔러
브래들리 템플레턴
Original Assignee
구글 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 구글 인코포레이티드 filed Critical 구글 인코포레이티드
Publication of KR20150016381A publication Critical patent/KR20150016381A/ko
Application granted granted Critical
Publication of KR101705961B1 publication Critical patent/KR101705961B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18159Traversing an intersection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/107Longitudinal acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0017Planning or execution of driving tasks specially adapted for safety of other traffic participants
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/50Barriers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/406Traffic density
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • B60W2720/106Longitudinal acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/18Propelling the vehicle
    • B60Y2300/18008Propelling the vehicle related to particular drive situations
    • B60Y2300/18166Overtaking, changing lanes

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Electromagnetism (AREA)
  • Mathematical Physics (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

자율 모드에서 동작하도록 구성되는 차량은 차량의 환경의 하나 이상의 양상들을 관측하는 하나 이상의 센서들로부터 센서 데이터를 획득할 수 있다. 하나 이상의 센서들에 의해 관측되지 않은 차량의 환경의 적어도 하나의 양상은 센서 데이터에 기초하여 추론될 수 있다. 차량은 차량의 환경의 적어도 하나의 추론된 양상에 기초하여 자율 모드에서 제어될 수 있다.

Description

대용 데이터에 기초하여 교통 신호의 상태 및 차량의 환경의 다른 양상들을 추론하기{INFERRING STATE OF TRAFFIC SIGNAL AND OTHER ASPECTS OF A VEHICLE'S ENVIRONMENT BASED ON SURROGATE DATA}
본 명세서에서 달리 지적되지 않는 한, 이 부문에서 기술되는 내용은 본 출원의 청구항들에 대한 종래 기술이 아니며, 이 부문에 포함된 것에 의해 종래 기술로 인정하는 것도 아니다.
몇몇 차량들은 차량이 운전자로부터의 입력이 거의 없거나 또는 전혀 없는 환경을 통하여 네비게이팅하는 자율 모드(autonomous mode)에서 동작하도록 구성된다. 이러한 차량은 환경에 대한 정보를 감지하도록 구성되는 하나 이상의 센서들을 전형적으로 포함할 수 있다. 차량은 감지된 정보를 이용하여 환경을 통하여 네비게이팅할 수 있다. 예를 들어, 센서들이 차량이 장애물에 접근하고 있는 것을 감지하면, 차량은 장애물을 우회하여 네비게이팅할 수 있다.
제1 양태에서 방법이 제공된다. 방법은 차량의 환경의 하나 이상의 양상(aspect)들을 관측(observe)하는 하나 이상의 센서들로부터 센서 데이터를 획득하는 단계를 포함한다. 하나 이상의 센서들은 차량과 운용 가능하게(operationally) 연관된다. 차량은 자율 모드에서 동작하도록 구성된다. 방법은 추가로, 센서 데이터에 기초하여, 하나 이상의 센서들에 의해 관측되지 않은 차량의 환경의 적어도 하나의 양상을 추론하기 위해 추론 시스템을 이용하는 단계를 포함한다. 방법은 또한, 차량의 환경의 적어도 하나의 추론된 양상에 기초하여 자율 모드에서 차량을 제어하는 단계를 포함한다.
제2 양태에서 차량이 제공된다. 차량은 하나 이상의 센서들, 추론 시스템, 및 제어 시스템을 포함한다. 하나 이상의 센서들은 센서 데이터를 획득하기 위해 구성된다. 센서 데이터는 하나 이상의 센서들에 의해 관측되는 차량의 환경의 하나 이상의 양상들과 관계된다. 차량은 자율 모드에서 동작하도록 구성된다. 추론 시스템은, 센서 데이터에 기초하여, 하나 이상의 센서들에 의해 관측되지 않은 차량의 환경의 적어도 하나의 양상을 추론하기 위해 구성된다. 제어 시스템은 차량의 환경의 적어도 하나의 추론된 양상에 기초하여 자율 모드에서 차량을 제어하기 위해 구성된다.
제3 양태에서, 명령어들을 저장한 비일시적 컴퓨터 판독 가능 매체가 제공된다. 명령어들은, 컴퓨터 시스템에 의해 실행되어 컴퓨터 시스템으로 하여금 기능들을 수행하게끔 야기할 수 있다. 기능들은 차량의 환경의 하나 이상의 양상들을 관측하는 하나 이상의 센서들로부터 센서 데이터를 획득하는 단계를 포함한다. 하나 이상의 센서들은 차량과 운용 가능하게 연관된다. 차량은 자율 모드에서 동작하도록 구성된다. 기능들은 추가로, 센서 데이터에 기초하여, 하나 이상의 센서들에 의해 관측되지 않은 차량의 환경의 적어도 하나의 양상을 추론하는 단계를 포함한다. 기능들은 또한, 차량의 환경의 적어도 하나의 추론된 양상에 기초하여 자율 모드에서 차량을 제어하는 단계를 포함한다.
제4 양태에서 방법이 제공된다. 방법은 차량의 환경에서 적어도 하나의 광원을 관측하는 하나 이상의 센서들로부터 센서 데이터를 획득하는 단계를 포함한다. 하나 이상의 센서들은 차량과 운용 가능하게 연관되고, 교통 통제 신호(controlling traffic signal)의 상태는 하나 이상의 센서들을 이용하여 직접적으로 관측하는 것이 가능하지 않다. 차량은 자율 모드에서 동작하도록 구성된다. 방법은 추가로, 센서 데이터에 기초하여, 교통 통제 신호의 추론 상태를 추론하기 위해 추론 시스템을 이용하는 단계를 포함한다. 방법은 또한, 교통 통제 신호의 추론 상태에 기초하여 자율 모드에서 차량을 제어하는 단계를 포함한다.
앞서의 요약은 예시적일 뿐이며, 결코 한정하는 것을 의도하지 않는다. 상술한 예시적인 양태들, 실시예들, 및 특징들에 더하여, 추가적 양태들, 실시예들, 및 특징들이 도면 및 하기 상세한 설명을 참조함으로써 명백해질 것이다.
도 1은 예시적 실시예에 따른 차량을 도해하는 기능 블록도이다.
도 2는 예시적 실시예에 따른 차량을 도시한다.
도 3a는 예시적 실시예에 따른 자율적 차량 동작 시나리오의 평면도이다.
도 3b는 예시적 실시예에 따른, 도 3a의 자율적 차량 동작 시나리오의 배면도이다.
도 3c는 예시적 실시예에 따른 자율적 차량 동작 시나리오의 평면도이다.
도 3d는 예시적 실시예에 따른 자율적 차량 동작 시나리오의 평면도이다.
도 4a는 예시적 실시예에 따른 방법을 도시한다.
도 4b는 예시적 실시예에 따른 방법을 도시한다.
도 5는 예시적 실시예에 따른 컴퓨터 프로그램 제품의 구성도이다.
예시적 방법들 및 시스템들이 본 명세서에서 기술된다. 본 명세서에서 기술되는 임의의 예시적 실시예 또는 특징은 다른 실시예들 또는 특징들보다 더 바람직하거나 유리한 것으로 반드시 해석할 필요는 없다. 본 명세서에서 기술되는 예시적 실시예들은 제한하기 위한 것으로 의도되지 않았다. 개시된 시스템들 및 방법들의 어떤 양태들이 다양한 상이한 구성들로 배열되고 조합될 수 있다는 것을 쉽게 이해할 것이며, 이들 모두는 본 명세서에서 상정된다.
더구나, 도면에 도시되는 특정 배열들은 제한하기 위한 것으로 보지 말아야 한다. 다른 실시예들은 주어진 도면에 도시된 각각의 요소보다 많은 것을 또는 적은 것을 포함할 수 있다는 점을 이해해야 한다. 또한, 도해된 요소들 중 일부는 조합되거나 생략될 수 있다. 더욱이, 예시적 실시예는 도면에 도해되지 않은 요소들을 포함할 수 있다.
1. 개관
본 명세서에 개시된 예시적 실시예들은, 차량의 환경의 하나 이상의 양상들을 관측하는 하나 이상의 센서들로부터 센서 데이터를 획득하고, 센서 데이터에 기초하여, 하나 이상의 센서들에 의해 관측되지 않은 차량의 환경의 적어도 하나의 양상을 추론하기 위해 추론 시스템을 이용하고, 및 차량의 환경의 적어도 하나의 추론된 양상에 기초하여 차량을 제어하는 것과 관계된다.
본 개시의 맥락 내에서, 차량은 다양한 동작 모드에서 동작 가능할 수 있다. 몇몇 실시예에 따라, 그러한 동작 모드들은 수동, 반 자율, 및 자율 모드들을 포함할 수 있다. 자율 모드에서, 차량은 사용자 상호 작용이 거의 없이 또는 전혀 없이 운전될 수 있다. 수동 및 반 자율 모드들에서, 차량은 사용자에 의해 제각기 완전히 및 부분적으로 운전될 수 있다.
본 명세서에서 개시되는 몇몇 방법들은 (예를 들어, 차량의 사용자로부터의 것과 같은) 외부 상호 작용과 함께 또는 외부 상호 작용 없이 자율 모드에서 동작하도록 구성되는 차량에 의해 부분적으로 또는 전체적으로 수행될 수 있다. 하나의 그러한 예에서, 차량은 자신과 운용 가능하게 연관된 하나 이상의 센서들로부터 센서 데이터를 획득할 수 있다. 센서들은 차량에 탑재되어 위치할 수 있거나 또는 센서들은 다른 곳에 있을 수 있다. 추론 시스템 - 이것은 차량에 전체적으로 또는 부분적으로 탑재되어 위치할 수 있음 - 은 센서 데이터에 기초하여, 하나 이상의 센서들에 의해 관측되지 않은 차량의 환경의 적어도 하나의 양상을 추론하는데 사용될 수 있다. 예시적 실시예에서, 하나 이상의 센서들에 의해 관측되지 않은 차량의 환경의 적어도 하나의 양상은 교통 흐름(예를 들어, 앞쪽에서 발생한 관측 불가능한 사고) 및/또는 교통 규제(예를 들어, 관측 불가능한 교통 신호등의 상태, 교차로 일단 정지 지점에서 진행하고 있는 차량들의 순서, 기타 등등)와 관계될 수 있다. 하나 이상의 센서들에 의해 관측되지 않은 차량들의 환경의 다른 양상들도 가능하다. 추론 시스템은, 예를 들어, 컴퓨터 시스템(예를 들어, 프로세서 및 메모리)을 포함할 수 있다. 차량은 차량의 환경의 적어도 하나의 추론된 양상에 기초하여 제어될 수 있다.
본 명세서에서 개시되는 다른 방법들은 서버에 의해 부분적으로 또는 전체적으로 수행될 수 있다. 예시적 실시예에서, 서버는 차량의 환경의 하나 이상의 양상들을 관측하는 하나 이상의 센서들로부터 센서 데이터를 수신할 수 있다. 몇몇 실시예들에서, 센서 데이터는 무선 통신 시스템을 이용하여 서버에게 전송될 수 있다. 서버는 추론 시스템을 포함할 수 있다. 추론 시스템은, 센서 데이터에 기초하여, 하나 이상의 센서들에 의해 관측되지 않은 차량의 환경의 적어도 하나의 양상을 추론하는데 사용될 수 있다. 예시적 실시예에서, 서버는 미리 정해진 시나리오들의 데이터 저장 장치를 포함할 수 있다. 센서 데이터가 실질적으로 미리 정해진 시나리오들 중 적어도 하나와 일치하면, 추론 시스템은 하나 이상의 센서들에 의해 관측되지 않은 차량의 환경의 적어도 하나의 양상을 추론할 수 있다. 자율 모드에서 동작하는 차량과 서버 간의 다른 상호 작용들도 본 발명의 맥락 내에서 가능하다.
차량이 본 개시에서 또한 기술된다. 차량은 하나 이상의 센서들, 추론 시스템, 및 제어 시스템과 같은 요소들을 포함할 수 있다. 하나 이상의 센서들은 센서 데이터를 획득하기 위해 구성된다. 센서 데이터는 하나 이상의 센서들에 의해 관측되는 차량의 환경의 하나 이상의 양상들과 관계된다.
하나 이상의 센서들은, 카메라, 레이더 시스템, 라이다 시스템(LIDAR system), 음향 센서, 레인지 파인더(rangefinder), 또는 또 다른 유형의 센서 중 하나 또는 이것들의 조합을 포함할 수 있다.
추론 시스템은, 센서 데이터에 기초하여, 하나 이상의 센서들에 의해 관측되지 않은 차량의 환경의 적어도 하나의 양상을 추론하기 위해 구성될 수 있다. 추론 시스템은 추론을 결정하기 위해서 하나 이상의 알고리즘들을 사용하기 위해 구성될 수 있다. 알고리즘들은, 예를 들어, 베이지안 네트워크(Bayesian network), 은닉 마르코프 모델(hidden Markov model), 및 판단 트리(decision tree) 중 하나 이상을 포함할 수 있다. 다른 유형의 추론 시스템들도 본 발명의 맥락 내에서 가능하다.
제어 시스템은 차량의 환경의 적어도 하나의 추론된 양상에 기초하여 자율 모드에서 차량을 제어하기 위해 구성될 수 있다. 제어 시스템은 차량이, 여러 가능성 중에서도, 속도를 내고, 속도를 늦추고, 진행 방향(heading)을 조정하고, 경로 재설정하고, 회피 액션을 취하도록 제어하기 위해 동작 가능할 수 있다.
몇몇 실시예들에서, 추론 시스템 및 제어 시스템은 차량 내의 컴퓨터 시스템에 의해 제공될 수 있다. 다른 실시예들에서, 추론 시스템 및/또는 제어 시스템은 차량 외부의 하나 이상의 서버들 또는 다른 컴퓨터 시스템들에 의해 제공될 수 있다.
본 명세서에는 저장된 명령어들을 갖는 비일시적 컴퓨터 판독 가능 매체도 개시된다. 명령어들은 컴퓨팅 장치에 의해 실행되어 컴퓨팅 장치로 하여금 상술한 방법들에서 기술된 것들과 유사한 기능들을 수행하게끔 야기할 수 있다.
차량의 환경의 하나 이상의 양상들을 관측하는 하나 이상의 센서들로부터 센서 데이터를 획득하기 위해 이용될 수 있는 많은 상이한 특정 방법들 및 시스템들이 있다. 추론 시스템은, 센서 데이터에 기초하여, 하나 이상의 센서들에 의해 관측되지 않은 차량의 환경의 적어도 하나의 양상을 추론하는데 사용될 수 있다. 차량은 차량의 환경의 적어도 하나의 추론된 양상에 기초하여 제어될 수 있다. 이러한 특정 방법들 및 시스템들 각각은 본 명세서에서 상정되며, 몇 개의 예시적 실시예들이 하기에서 기술된다.
2. 예시적 시스템들
이제, 본 개시의 범위 내의 예시적 시스템들이 더 상세히 기술된다. 일반적으로, 예시적 시스템은 차량 내에서 구현될 수 있거나, 차량 형태를 취할 수 있다. 그러나, 예시적 시스템은 또한 승용차, 트럭, 오토바이, 버스, 보트, 비행기, 헬리콥터, 벌초기, 땅 파는 장비, 보트, 설상차, 항공기, 레저 차량, 놀이 공원 차량, 농업용 장비, 건설 장비, 전차, 골프 카트, 기차, 및 노면 전차와 같은 다른 차량들 내에 구현될 수 있거나 이들의 형태를 취할 수 있다. 다른 차량들도 마찬가지로 가능하다.
도 1은 예시적 실시예에 따른 차량(100)을 도해하는 기능 블록도이다. 차량(100)은 완전히 또는 부분적으로 자율 모드에서 동작하도록 구성될 수 있다. 예를 들어, 차량(100)은 자율 모드에 있는 동안 그 자신을 제어할 수 있으며, 또한 차량과 그 환경의 상태를 결정하고, 환경 내의 적어도 하나의 다른 차량의 예측된 거동을 결정하고, 적어도 하나의 다른 차량이 예측된 거동을 수행할 공산에 대응할 수 있는 신뢰도(confidence level)를 결정하고, 그리고 결정된 정보에 기초하여 차량(100)을 제어하도록 동작할 수 있다. 자율 모드에 있는 동안, 차량(100)은 인간의 상호 작용 없이 동작하도록 구성될 수 있다.
차량(100)은 추진 시스템(102), 센서 시스템(104), 제어 시스템(106), 하나 이상의 주변 장치들(108)뿐만 아니라, 전원(110), 컴퓨터 시스템(112), 및 사용자 인터페이스(116)와 같은 다양한 하위 시스템들을 포함할 수 있다. 차량(100)은 더 많거나 적은 하위 시스템들을 포함할 수 있으며, 각각의 하위 시스템은 여러 요소들을 포함할 수 있다. 또한, 차량(100)의 하위 시스템들 및 요소들 각각은 상호 접속될 수 있다. 따라서, 차량(100)의 기술되는 기능들 중 하나 이상은 추가의 기능적 또는 물리적 컴포넌트들이 되도록 분할되거나, 더 적은 기능적 또는 물리적 컴포넌트들이 되도록 조합될 수 있다. 몇몇 추가 예들에서는, 추가의 기능적 및/또는 물리적 컴포넌트들이 도 1에 도해된 예들에 추가될 수 있다.
추진 시스템(102)은 차량(100)에 대한 동력 운동(powered motion)을 제공하도록 동작할 수 있는 컴포넌트들을 포함할 수 있다. 예시적 실시예에 따라, 추진 시스템(102)은 엔진/모터(118), 에너지원(119), 변속기(120), 및 바퀴/타이어(121)를 포함할 수 있다. 엔진/모터(118)는 내연 엔진, 전기 모터, 증기 기관, 스털링 엔진, 또는 다른 유형의 엔진들 및/또는 모터들의 임의 조합일 수 있다. 몇몇 실시예들에서, 엔진/모터(118)는 에너지원(119)를 기계적 에너지로 변환하도록 구성될 수 있다. 몇몇 실시예들에서, 추진 시스템(102)은 여러 유형의 엔진들 및/또는 모터들을 포함할 수 있다. 예를 들어, 가스-전기 하이브리드 차는 가솔린 엔진 및 전기 모터를 포함할 수 있다. 다른 예들도 또한 가능하다.
에너지원(119)은 엔진/모터(118)에게 전체적으로 또는 부분적으로 동력을 공급할 수 있는 에너지의 소스를 나타낼 수 있다. 즉, 엔진/모터(118)는 에너지원(119)을 기계적 에너지로 변환하도록 구성될 수 있다. 에너지원들(119)의 예들은 가솔린, 디젤, 다른 석유 계열 연료, 프로판, 다른 압축 가스 계열 연료, 에탄올, 태양 전지판, 축전지 및 다른 전력 소스들을 포함한다. 에너지원(들)(119)은 추가로 또는 대안으로 연료 탱크, 축전지, 커패시터, 및/또는 플라이휠의 임의의 조합을 포함할 수 있다. 에너지원(119)은 차량(100)의 다른 시스템들에게도 에너지를 공급할 수 있다.
변속기(120)는 엔진/모터(118)로부터의 기계적 동력을 바퀴/타이어(121)에게 전달하도록 동작할 수 있는 요소들을 포함할 수 있다. 이를 위해, 변속기(120)는 기어박스, 클러치, 차동 장치 및 구동 샤프트들을 포함할 수 있다. 변속기(120)는 다른 요소들을 포함할 수 있다. 구동 샤프트들은 하나 이상의 바퀴들/타이어들(121)에 결합될 수 있는 하나 이상의 차축들을 포함할 수 있다.
차량(100)의 바퀴/타이어(121)는 외발 자전거(unicycle), 자전거/오토바이, 세발 자전거(tricycle), 또는 승용차/트럭의 네 바퀴 포맷을 포함하여 다양한 포맷으로 구성될 수 있다. 6개 이상의 바퀴를 포함하는 것들과 같이 다른 바퀴/타이어 기하학적 구조들이 가능하다. 차량(100)의 바퀴/타이어(121)의 임의 조합은 다른 바퀴/타이어(121)에 대해 차동적으로(differentially) 회전하도록 동작할 수 있다. 바퀴/타이어(121)는 변속기(120)에 고정적으로 부착된 적어도 하나의 바퀴 및 주행 표면과 접촉할 수 있는 바퀴의 외륜에 결합된 적어도 하나의 타이어를 나타낼 수 있다. 바퀴/타이어(121)는 금속 및 고무의 임의 조합, 또는 재료들의 또 다른 조합을 포함할 수 있다.
센서 시스템(104)은 차량(100)의 환경에 대한 정보를 감지하도록 구성되는 다수의 센서를 포함할 수 있다. 예를 들어, 센서 시스템(104)은 GPS(Global Positioning System)(122), IMU(inertial measurement unit)(124), 레이더 유닛(126), 레이저 레인지 파인더/라이다 유닛(128), 및 카메라(130)를 포함할 수 있다. 센서 시스템(104)은 차량(100)의 내부 시스템들(예를 들어, O2 모니터, 연료 게이지, 엔진 오일 온도)을 모니터링하도록 구성되는 센서들도 포함할 수 있다. 다른 센서들도 마찬가지로 가능하다.
센서 시스템(104) 내에 포함되는 센서들 중 하나 이상은 하나 이상의 센서들의 위치 및/또는 배향을 수정하기 위해 개별적으로 및/또는 집합적으로 작동되도록 구성될 수 있다.
GPS(122)는 차량(100)의 지리적 위치를 추정하도록 구성되는 임의의 센서일 수 있다. 이를 위해, GPS(122)는 지구에 대한 차량(100)의 위치에 관하여 정보를 제공하도록 동작할 수 있는 송수신기를 포함할 수 있다.
IMU(124)는 관성 가속도에 기초하여 차량(100)의 위치 및 배향 변화들을 감지하도록 구성되는 센서들(예로서, 가속도계 및 자이로스코프)의 임의 조합을 포함할 수 있다.
레이더 유닛(126)은 무선 신호들을 이용하여 차량(100)의 국지적 환경 내의 물체들을 감지하는 시스템을 나타낼 수 있다. 몇몇 실시예들에서, 물체들을 감지하는 것에 더하여, 레이더 유닛(126)은 물체들의 속도 및/또는 진행 방향을 감지하도록 추가로 구성될 수 있다.
유사하게, 레이저 레인지 파인더 또는 라이다 유닛(128)은 레이저를 이용하여 차량(100)이 위치해 있는 환경 내의 물체들을 감지하도록 구성되는 임의의 센서일 수 있다. 예시적 실시예에 따라, 레이저 레인지 파인더/라이다 유닛(128)은 여러 시스템 컴포넌트들 중에서도 특히 하나 이상의 레이저 소스들, 레이저 스캐너, 및 하나 이상의 검출기들을 포함할 수 있다. 레이저 레인지 파인더/라이다 유닛(128)은 (예를 들어, 헤테로다인 검파를 이용하는) 간섭성(coherent) 또는 비간섭성 검파 모드에서 동작하도록 구성될 수 있다.
카메라(130)는 차량(100)의 환경의 복수의 이미지를 포착(capture)하도록 구성되는 하나 이상의 장치들을 포함할 수 있다. 카메라(130)는 정지 카메라(still camera) 또는 비디오 카메라일 수 있다.
제어 시스템(106)은 차량(100) 및 이것의 컴포넌트들의 동작을 제어하기 위하여 구성될 수 있다. 그에 따라서, 제어 시스템(106)은 조향 유닛(steering unit)(132), 스로틀(throttle)(134), 브레이크 유닛(136), 센서 융합 알고리즘(sensor fusion algorithm)(138), 컴퓨터 비전 시스템(140), 네비게이션/경로 안내 시스템(navigation/pathing system)(142), 및 장애물 회피 시스템(144)을 포함하여 다양한 요소들을 포함할 수 있다.
조향 유닛(132)은 차량(100)의 진행 방향을 조정하도록 동작할 수 있는 메커니즘들의 임의 조합을 나타낼 수 있다.
스로틀(134)은, 예를 들어 엔진/모터(118)의 운전 속도를 제어하고, 이어서 차량(100)의 속도를 제어하도록 구성될 수 있다.
브레이크 유닛(136)은 차량(100)을 감속시키도록 구성되는 메커니즘들의 임의 조합을 포함할 수 있다. 브레이크 유닛(136)은 마찰을 이용하여 바퀴/타이어(121)를 느리게 할 수 있다. 다른 실시예들에서, 브레이크 유닛(136)은 바퀴/타이어(121)의 운동 에너지를 전류로 변환할 수 있다. 브레이크 유닛(136)은 다른 형태들도 마찬가지로 취할 수 있다.
센서 융합 알고리즘(138)은 센서 시스템(104)으로부터의 데이터를 입력으로서 받아들이도록 구성되는 알고리즘(또는 알고리즘을 저장하는 컴퓨터 프로그램 제품)일 수 있다. 데이터는, 예를 들어 센서 시스템(104)의 센서들에서 감지되는 정보를 나타내는 데이터를 포함할 수 있다. 센서 융합 알고리즘(138)은, 예를 들어 칼만 필터(Kalman filter), 베이지안 네트워크, 또는 다른 알고리즘을 포함할 수 있다. 센서 융합 알고리즘(138)은 센서 시스템(104)으로부터의 데이터에 기초하여 다양한 평가들을 추가로 제공할 수 있다. 예시적 실시예에 따라, 평가들은 차량(100)의 환경 내에서의 개별 물체들 및/또는 특징들의 평가들, 특정 상황의 평가, 및/또는 특정 상황에 기초한 가능한 영향들의 평가를 포함할 수 있다. 다른 평가들도 가능하다.
컴퓨터 비전 시스템(140)은 교통 신호, 도로 경계, 및 장애물을 포함할 수 있는 차량(100)의 환경 내의 물체들 및/또는 특징들을 식별하기 위해 카메라(130)에 의해 포착되는 이미지들을 처리하고 분석하도록 동작할 수 있는 임의의 시스템일 수 있다. 컴퓨터 비전 시스템(140)은 물체 인식 알고리즘, SFM(Structure From Motion) 알고리즘, 비디오 추적, 및 다른 컴퓨터 비전 기술들을 이용할 수 있다. 몇몇 실시예들에서, 컴퓨터 비전 시스템(140)은 환경을 지도로 만들고, 물체들을 추적하고, 물체들의 속도를 추정하고, 기타 등등을 수행하도록 추가로 구성될 수 있다.
네비게이션 및 경로 안내 시스템(142)은 차량(100)을 위한 운전 경로를 결정하도록 구성되는 임의의 시스템일 수 있다. 네비게이션 및 경로 안내 시스템(142)은 차량(100)이 동작하고 있는 동안 운전 경로를 동적으로 갱신하도록 추가로 구성될 수 있다. 몇몇 실시예들에서, 네비게이션 및 경로 안내 시스템(142)은 차량(100)을 위한 운전 경로를 결정하기 위해서 센서 융합 알고리즘(138), GPS(122), 및 하나 이상의 미리 정해진 지도들로부터의 데이터를 통합하도록 구성될 수 있다.
장애물 회피 시스템(144)은 차량(100)의 환경 내의 잠재적 장애물들을 식별하고, 평가하고, 회피하거나 다른 방식으로 피해 나가도록 구성되는 제어 시스템을 나타낼 수 있다.
제어 시스템(106)은 추가로 또는 대안으로서 도시되고 기술된 것들 이외의 컴포넌트들을 포함할 수 있다.
주변 장치들(108)은 차량(100)과, 외부 센서들, 다른 차량들, 다른 컴퓨터 시스템들, 및/또는 사용자 간의 상호 작용을 허용하도록 구성될 수 있다. 예를 들어, 주변 장치들(108)은 무선 통신 시스템(146), 터치스크린(148), 마이크로폰(150), 및/또는 스피커(152)를 포함할 수 있다.
예시적 실시예에서, 주변 장치들(108)은, 예를 들어 차량(100)의 사용자가 사용자 인터페이스(116)와 상호 작용하기 위한 수단을 제공할 수 있다. 이를 위해, 터치스크린(148)은 차량(100)의 사용자에게 정보를 제공할 수 있다. 사용자 인터페이스(116)는 또한 터치스크린(148)을 통해 사용자로부터 입력을 받아들이도록 동작할 수 있다. 터치스크린(148)은 여러 가능성 중에서 특히, 정전 용량식 감응(capacitive sensing), 저항식 감응(resistance sensing), 또는 표면 탄성파 프로세스를 통해 사용자 손가락의 위치 및 이동 중 적어도 하나를 감지하도록 구성될 수 있다. 터치스크린(148)은 터치스크린 표면에 평행한 또는 평면인 방향에서, 터치스크린 표면에 수직인 방향에서, 또는 이들 양 방향 모두에서 손가락 이동을 감지할 수 있으며, 또한 터치스크린 표면에 가해지는 압력 수준을 감지하는 능력을 가질 수 있다. 터치스크린(148)은 하나 이상의 반투명 또는 투명 절연층들 및 하나 이상의 반투명 또는 투명 도전층들로 형성될 수 있다. 터치스크린(148)은 다른 형태들도 취할 수 있다.
다른 예들에서, 주변 장치들(108)은 차량(100)이 그 환경 내의 장치들과 통신하기 위한 수단을 제공할 수 있다. 마이크로폰(150)은 차량(100)의 사용자로부터 오디오(예를 들어, 음성 명령 또는 다른 오디오 입력)를 수신하도록 구성될 수 있다. 유사하게, 스피커들(152)은 차량(100)의 사용자에게 오디오를 출력하도록 구성될 수 있다.
한 예에서, 무선 통신 시스템(146)은 직접적으로 또는 통신 네트워크를 경유하여 하나 이상의 장치들과 무선으로 통신하기 위해 구성될 수 있다. 예를 들어, 무선 통신 시스템(146)은 CDMA, EVDO, GSM/GPRS와 같은 3G 셀룰러 통신, 또는 WiMAX 또는 LTE와 같은 4G 셀룰러 통신을 이용할 수 있다. 대안으로서, 무선 통신 시스템(146)은, 예를 들어 와이파이를 이용하여 WLAN과 통신할 수 있다. 몇몇 실시예들에서, 무선 통신 시스템(146)은, 예를 들어 적외선 링크, 블루투스, 또는 지그비(ZigBee)를 이용하여 장치와 직접 통신할 수 있다. 다양한 차량 통신 시스템들과 같은 다른 무선 프로토콜들이 본 발명의 맥락 내에서 가능하다. 예를 들어, 무선 통신 시스템(146)은 차량들 및/또는 노변 기지국들(roadside stations) 간의 공공 및/또는 개인 데이터 통신을 포함할 수 있는 하나 이상의 DSRC(dedicated short range communications) 장치를 포함할 수 있다.
전원(110)은 차량(100)의 다양한 컴포넌트들에게 전력을 공급할 수 있으며, 예를 들어 재충전 가능 리튬-이온 또는 납산 축전지를 나타낼 수 있다. 몇몇 실시예들에서, 그러한 축전지들의 하나 이상의 뱅크들이 전력을 제공하도록 구성될 수 있다. 다른 전원 재료들 및 구성들이 가능하다. 몇몇 실시예들에서, 전원(110) 및 에너지원(119)은 몇몇 완전 전기 자동차에서와 같이 함께 구현될 수 있다.
차량(100)의 기능들 중 대부분 또는 전부가 컴퓨터 시스템(112)에 의해 제어될 수 있다. 컴퓨터 시스템(112)은 데이터 저장 장치(114)와 같은 비일시적 컴퓨터 판독 가능 매체 내에 저장된 명령어들(115)을 실행하는 (적어도 하나의 마이크로프로세서를 포함할 수 있는) 적어도 하나의 프로세서(113)를 포함할 수 있다. 컴퓨터 시스템(112)은 또한 차량(100)의 개별 컴포넌트들 또는 하위 시스템들을 분산 방식으로 제어하는 역할을 할 수 있는 복수의 컴퓨팅 장치를 나타낼 수 있다.
몇몇 실시예들에서, 데이터 저장 장치(114)는 도 1과 연계하여 상술한 것들을 포함하는, 차량(100)의 다양한 기능들을 실행하기 위해 프로세서(113)에 의해 실행될 수 있는 명령어들(115)(예로, 프로그램 로직)을 포함할 수 있다. 데이터 저장 장치(114)는 추진 시스템(102), 센서 시스템(104), 제어 시스템(106), 및 주변 장치들(108) 중 하나 이상에게 데이터를 전송하고, 이들로부터 데이터를 수신하고, 이들과 상호 작용하고, 및/또는 이들을 제어하기 위한 명령어들을 포함하여, 추가적 명령어들도 포함할 수 있다.
명령어들(115)에 더하여, 데이터 저장 장치(114)는 여러 정보 중에서도 특히, 도로 지도, 경로 정보와 같은 데이터를 저장할 수 있다. 그러한 정보는 자율, 반 자율, 및/또는 수동 모드들에서의 차량(100)의 동작 동안 차량(100) 및 컴퓨터 시스템(112)에 의해 이용될 수 있다.
차량(100)은 차량(100)의 사용자에게 정보를 제공하거나 그로부터 입력을 수신하기 위한 사용자 인터페이스(116)를 포함할 수 있다. 사용자 인터페이스(116)는 터치스크린(148) 상에 표시될 수 있는 대화형 이미지들의 콘텐츠 및/또는 레이아웃을 제어하거나 그 제어를 가능하게 할 수 있다. 또한, 사용자 인터페이스(116)는 무선 통신 시스템(146), 터치스크린(148), 마이크로폰(150), 및 스피커(152)와 같은, 주변 장치들(108)의 세트 내의 하나 이상의 입출력 장치들을 포함할 수 있다.
컴퓨터 시스템(112)은 다양한 하위 시스템들(예로서, 추진 시스템(102), 센서 시스템(104), 및 제어 시스템(106))으로부터뿐만 아니라, 사용자 인터페이스(116)로부터 수신되는 입력들에 기초하여 차량(100)의 기능을 제어할 수 있다. 예를 들어, 컴퓨터 시스템(112)은 조향 유닛(132)을 제어하여 센서 시스템(104) 및 장애물 회피 시스템(144)에 의해 검출되는 장애물을 회피하기 위해서 제어 시스템(106)으로부터의 입력을 활용할 수 있다. 예시적 실시예에 따라, 컴퓨터 시스템(112)은 차량(100) 및 그 하위 시스템들의 다수의 양상들에 대한 제어를 제공하도록 동작할 수 있다.
도 1이 차량(100)의 다양한 컴포넌트들, 즉 무선 통신 시스템(146), 컴퓨터 시스템(112), 데이터 저장 장치(114), 및 사용자 인터페이스(116)가 차량(100) 내에 통합된 것으로 도시하지만, 이러한 컴포넌트들 중 하나 이상은 차량(100)과 별개로 장착되거나 연관될 수 있다. 예를 들어, 데이터 저장 장치(114)는 부분적으로 또는 완전히 차량(100)과 분리하여 존재할 수 있다. 따라서, 차량(100)은 별개로 또는 함께 위치할 수 있는 장치 요소들의 형태로 제공될 수 있다. 차량(100)을 구성하는 장지 요소들은 유선 및/또는 무선 방식으로 함께 통신 가능하게 결합될 수 있다.
도 2는 도 1을 참조하여 기술된 차량(100)과 유사하거나 이것과 동일할 수 있는 차량(200)을 보여준다. 도 2에서는 차량(200)이 승용차로서 도시되지만, 다른 실시예들이 가능하다. 예를 들어, 차량(200)은, 여러 예들 중에서도 특히, 트럭, 밴, 세미-트레일러 트럭, 오토바이, 골프 카트, 오프-로드 차량, 또는 농업용 차량을 나타낼 수 있다.
몇몇 실시예들에서, 차량(200)은 센서 유닛(202), 무선 통신 시스템(204), 라이다 유닛(206), 레이저 레인지 파인더 유닛(208) 및 카메라(210)를 포함할 수 있다. 차량(200)의 요소들은 도 1에 대해 기술된 요소들의 일부 또는 전부를 포함할 수 있다.
센서 유닛(202)은 차량(200)의 환경에 대한 정보를 포착하도록 구성되는 하나 이상의 상이한 센서들을 포함할 수 있다. 예를 들어, 센서 유닛(202)은 카메라, 레이더, 라이다, 레인지 파인더, 및 음향 센서의 임의 조합을 포함할 수 있다. 다른 유형의 센서들이 가능하다. 예시적 실시예에 따라, 센서 유닛(202)은 센서 유닛(202) 내의 하나 이상의 센서들의 배향을 조정하도록 동작할 수 있는 하나 이상의 이동식 마운트(movable mount)들을 포함할 수 있다. 일 실시예에서, 이동식 마운트는 차량(200) 주위의 각각의 방향으로부터 정보를 획득하기 위해 센서들을 스캐닝할 수 있는 회전 플랫폼을 포함할 수 있다. 또 다른 실시예에서, 센서 유닛(202)의 이동식 마운트는 특정 범위의 각도들 및/또는 방위각들 내에서 스캐닝 방식으로 이동 가능할 수 있다. 센서 유닛(202)은 예를 들어 차의 지붕 위에 장착될 수 있지만, 다른 장착 위치들이 가능하다. 게다가, 센서 유닛(202)의 센서들은 상이한 위치들에 분산될 수 있으며, 단일 위치에 함께 위치할 필요는 없다. 몇몇 가능한 센서 유형들 및 장착 위치들은 라이다 유닛(206) 및 레이저 레인지 파인더 유닛(208)을 포함한다. 더구나, 센서 유닛(202)의 각각의 센서는 센서 유닛(202)의 다른 센서들과 독립적으로 이동되거나 또는 스캐닝되도록 구성될 수 있다.
무선 통신 시스템(204)은 도 2에 묘사된 바와 같이 차량(200)의 지붕 위에 위치할 수 있다. 대안으로서, 무선 통신 시스템(204)은 완전히 또는 부분적으로 다른 곳에 위치할 수 있다. 무선 통신 시스템(204)은 차량(200) 외부의 또는 내부의 장치들과 통신하도록 구성될 수 있는 무선 송신기들 및 수신기들을 포함할 수 있다. 구체적으로, 무선 통신 시스템(204)은, 예를 들어 차량 통신 시스템 또는 도로상 기지국(roadway station)에서 다른 차량들 및/또는 컴퓨팅 장치들과 통신하도록 구성되는 송수신기들을 포함할 수 있다. 그러한 차량 통신 시스템들의 예는 DSRC(dedicated short range communications), RFID(radio frequency identification), 및 지능형 전송 시스템들(intelligent transport systems)을 지향하는 다른 제안된 통신 표준들을 포함한다.
카메라(210)는 차량(200)의 환경의 복수의 이미지를 포착하도록 구성되는 임의의 카메라(예로서, 정지 카메라, 비디오 카메라 등)일 수 있다. 이를 위해, 카메라(210)는 가시광을 검출하도록 구성될 수 있거나, 또는 적외선이나 자외선과 같은 다른 스펙트럼 부분들로부터의 광을 검출하도록 구성될 수 있다. 다른 유형의 카메라들도 가능하다.
카메라(210)는 2차원 검출기일 수 있거나, 3차원 공간 범위를 가질 수 있다. 몇몇 실시예들에서, 카메라(210)는 예를 들어 카메라(210)로부터 환경 내의 복수의 지점까지의 거리를 나타내는 이차원 이미지를 생성하도록 구성되는 범위 검출기(range detector)일 수 있다. 이를 위해, 카메라(210)는 하나 이상의 범위 검출 기술들을 이용할 수 있다. 예를 들어, 카메라(210)는 구조화된 광 기술을 이용할 수 있는데, 이러한 기술에서는 차량(200)이 격자 또는 바둑판 무늬와 같은 미리 정해진 광 패턴으로 환경 내의 물체를 조명하고 또한 카메라(210)를 이용하여 물체로부터의 미리 정해진 광 패턴의 반사를 검출한다. 반사된 광 패턴에서의 왜곡들에 기초하여, 차량(200)은 물체상의 지점들까지의 거리를 결정할 수 있다. 미리 정해진 광 패턴은 적외선, 또는 다른 파장의 광을 포함할 수 있다. 다른 예로서, 카메라(210)는 레이저 스캐닝 기술을 이용할 수 있는데, 이러한 기술에서는 차량(200)은 레이저를 방출하고 환경 내의 물체상의 복수의 지점에 걸쳐서 스캐닝한다. 물체를 스캐닝하는 동안, 차량(200)은 카메라(210)를 이용하여 각각의 지점에 대한 물체로부터의 레이저 반사를 검출한다. 레이저가 각각의 지점에서 물체로부터 반사되는 데 걸리는 시간 길이에 기초하여, 차량(200)은 물체상의 지점까지의 거리를 결정할 수 있다. 또 다른 예로서, 카메라(210)는 TOF(time of flight) 기술을 이용할 수 있는데, 이러한 기술에서는 차량(200)은 광 펄스를 방출하고, 카메라(210)를 이용하여 물체상의 복수의 지점에서 물체로부터의 광 펄스의 반사를 검출한다. 상세하게는, 카메라(210)는 복수의 픽셀을 포함할 수 있고, 각각의 픽셀은 물체상의 한 지점으로부터의 광 펄스의 반사를 검출할 수 있다. 광 펄스가 각각의 지점에서 물체로부터 반사되는 데 걸리는 시간 길이에 기초하여, 차량(200)은 물체상의 지점들까지의 거리를 결정할 수 있다. 광 펄스는 레이저 펄스일 수 있다. 여러 기법들 중에서도 특히, 스테레오 삼각측량법(stereo triangulation), 광 시트(sheet-of-light) 삼각측량법, 간섭 법(interferometry), 및 코딩된 개구 기술들을 포함하는 다른 범위 검출 기술들도 가능하다. 카메라(210)는 다른 형태들도 취할 수 있다.
카메라(210)는 차량(200)의 전면 유리(front windshield) 안쪽에 장착될 수 있다. 구체적으로, 도시된 바와 같이, 카메라(210)는 차량(200)에 관하여 전면에 보이는 광경으로부터의 이미지들을 포착할 수 있다. 차량(200) 내부에서 또는 외부에서, 카메라(210)의 다른 장착 위치들 및 시야각들이 가능하다.
카메라(210)는 조정 가능한 시야를 제공하도록 동작할 수 있는 관련 광학 장치들을 가질 수 있다. 또한, 카메라(210)는 카메라(210)의 지시 각(pointing angle)을 변화시키도록 동작할 수 있는 이동식 마운트를 이용해 차량(200)에 장착될 수 있다.
본 개시의 맥락 내에서, 차량(100) 및/또는 차량(200)의 컴포넌트들은 그들 각자의 시스템들 내의 또는 그 외부의 다른 컴포넌트들과 상호 접속 방식으로 작업하도록 구성될 수 있다. 예를 들어, 예시적 실시예에서, 카메라(130)는 자율 모드에서 동작하는 차량(100)의 환경에 관계된 센서 데이터를 나타낼 수 있는 복수의 이미지를 포착할 수 있다. 환경은 차량(100)의 전방에 있는 알려진 교통 신호 위치를 가로막는 또 다른 차량을 포함할 수 있다. 복수의 이미지에 기초하여, 추론 시스템(이것은 컴퓨터 시스템(112), 센서 시스템(104), 및 제어 시스템(106)을 포함할 수 있음)은 환경의 다른 양상들(예컨대, 앞을 가로막은 차량의 브레이크 등이 켜진 것을 표시하는 이미지들)로부터의 센서 데이터에 기초하여 관측 불가능한 교통 신호가 적색임을 추론할 수 있다. 이 추론에 기초하여, 컴퓨터 시스템(112) 및 추진 시스템(102)은 차량(100)을 제어하기 위해 동작할 수 있다. 더 상세한 예시적 구현들이 하기에서 논의될 것이다.
3. 예시적 구현들
몇 가지 예시적 구현들이 본 명세서에서 지금 기술될 것이다. 본 명세서에 개시되는 장치들, 시스템들, 및 방법들을 구현하기 위한 많은 방식들이 있다는 것을 이해할 것이다. 따라서, 하기 예들은 본 개시의 범위를 제한하려는 의도를 갖지 않는다.
도 3a 및 도 3b는 자율적 차량 동작 시나리오(300)의 평면도 및 배면도를 각각 도해한다. 시나리오(300)에서, 자율 모드에서 동작할 수 있는 차량(306)이 대형 트럭(304) 뒤에 멈추어 있다. 차량(306)은 도 1과 도 2를 참조하여 기술된 바와 같은 차량(100) 및 차량(200)과 비슷하거나 동일할 수 있다. 차량(306)은 센서 시스템(310)을 포함할 수 있다. 대형 트럭(304)은 센서 시스템(310)이 직접적으로 교통 신호(302)의 상태를 감지할 수 없도록 교통 신호(302)를 가릴 수 있다. 다시 말하면, 시나리오(300)에서, 센서 시스템(310)의 센서들 중 어느 것도 대형 트럭(304)의 존재 때문에 교통 신호(302)의 상태를 관측하거나, 이미지화하거나, 변환(transduce)하거나, 또는 다른 식으로 검출하지 못할 수 있다.
이런 경우에, 센서 시스템(310)은 교통 신호(302)의 상태 또는 차량(306)의 환경의 임의의 다른 관련된 관측 가능하지 않은 양상을 결정하기 위한 노력으로 차량(306)의 환경의 다른 양상들에 관한 센서 데이터를 획득하도록 작동 가능할 수 있다. 예시적 실시예에서, 센서 시스템(310)과 연관된 카메라는 복수의 이미지를 포착할 수 있다. 복수의 이미지는 대형 트럭(304)의 하나 이상의 브레이크 등(308)에 대한 정보를 포함할 수 있다. 복수의 이미지는 추론 시스템에의 입력일 수 있다.
추론 시스템은 이미지들로부터 대형 트럭(304)의 하나 이상의 브레이크 등(308)이 켜져 있다는 것을 결정할 수 있다. 추론 시스템은 또한 대형 트럭(304)이 멈춰 있다는 것을 확인할 수 있는 다른 센서 데이터를 포함할 수 있다. 예를 들어, 추론 시스템은 레이더 및/또는 라이다 센서 시스템들로부터 차량(306)의 환경에 대한 정보를 획득할 수 있다.
추론 시스템은 현재 센서 데이터를 특정의 미리 정해진 시나리오와 일치시키기 위한 노력으로 센서 데이터를 미리 정해진 시나리오들의 세트와 비교할 수 있다. 미리 정해진 시나리오들은 차량에 탑재된 데이터 저장 장치에 저장될 수 있다. 대안적으로, 미리 정해진 시나리오들은 서버 네트워크에 저장되는 것과 같이 다른 곳에 저장될 수 있다.
특정의 미리 정해진 시나리오와 현재 센서 데이터 간에 실질적인 일치가 존재하면, 보이지 않는 교통 신호(302)의 가능한 상태에 관한 추론이 이루어질 수 있다. 예를 들어, 시나리오(300)에서, 추론은 (대형 트럭(304)이 교통 신호(302)를 준수함으로 인해 멈춰서 있기 때문에) 교통 신호(302)의 상태가 "적색"이라는 것일 수 있다.
개시의 맥락 내에서, 멈춰선 차량들의 비슷한 배치, 비슷한 도로, 비슷한 장소/교차로, 비슷한 경로, 비슷한 시간대, 또는 차량(306)의 환경의 임의의 다른 비슷한 양상 중 임의의 하나에 또는 이것들의 조합에 기초하여 실질적 일치가 이루어질 수 있다.
추론들은 다른 알고리즘들에 기초한 추론 시스템에 의해 이루어질 수 있다. 예를 들어, 추론은 베이지안 네트워크, 은닉 마르코프 모델, 및/또는 판단 트리에 기초하여 이루어질 수 있다. 환경의 양상에 대해 추론하기 위해 다른 알고리즘들이 개별적으로 또는 조합하여 이용될 수 있다.
차량(306)의 환경의 추론된 양상에 기초하여, 차량(306)은 액션들을 실행하도록 제어될 수 있다. 시나리오(300)에서, 액션은 대형 트럭(304)이 다시 이동하기 시작할 때까지 멈춤 상태로 남아 있는 것을 구성할 수 있다.
몇몇 시나리오들에서, 환경에서의 조건들이 변화한다면 또는 환경에서의 조건들이 동일하게 유지된다면, 하나 이상의 이어지는 추론들이 추론 시스템에 의해 이루어질 수 있다. 예를 들어, 시나리오(300)에서, 차량(306)이 예상 교통 신호 지연 시간보다 더 오랫동안 대형 트럭(304)의 뒤에서 멈춤 상태로 남아 있다면, 차량(306)은 대형 트럭(304)이 브레이크 고장 때문에 멈춰서 있고 교통 신호(302)를 준수하지 않고 있다는 이어지는 추론을 할 수 있다. 이어지는 추론에 응답하여, 차량(306)은, 예를 들어 대형 트럭(304)을 우회하여 움직이기 위해 인접 차선으로 이동하는 액션을 취할 수 있다. 이어지는 추론들은 계속 진행 방식으로, 특정의 미리 정해진 간격을 두고, 또는 시나리오 특정적 센서 데이터와 같은 특정 트리거링 이벤트들을 감지했을 시에 이루어질 수 있다. 다른 이어지는 추론들이 본 발명의 맥락 내에서 가능할 수 있다.
도 3c는 자율적 차량 동작 시나리오(320)의 평면도를 도해한다. 시나리오(300)와 유사하게, 대형 트럭(324)이 자율 모드에서 동작하고 있을 수 있는 차량(322)에 대한 북행(north-bound) 교통 신호(326)의 관측을 가로막고 있을 수 있다. 이에 따라 차량(322)의 센서 시스템(323)은 북행 교통 신호(326)의 상태를 직접적으로 관측하거나 다른 식으로 감지하는 것을 방해 받을 수 있다. 차량(322)은 도 1과 도 2를 참조하여 기술된 바와 같은 차량(100) 및 차량(200)과 비슷하거나 동일할 수 있다.
북행 교통 신호(326)의 상태를 추론하기 위한 노력으로, 차량(322)은 환경의 관측 가능 양상들로부터의 센서 데이터를 이용할 수 있다. 예를 들어, 센서 시스템(323)은 추론 시스템에의 입력들로서 이용될 수 있는 다른 교통 또는 비 교통 표시자들을 관측하기 위해 그 연관된 센서들(예를 들어, 카메라, 레이더, 라이다, 음향 센서, 초음파 센서, 기타 등등) 중 하나 또는 이것들의 조합을 이용할 수 있다.
시나리오(320)에서, 센서 시스템(323)과 연관된 하나 이상의 센서들은 자동차(328)가 남행 도로상으로 우회전하는 것과 트럭(332)이 서행 도로상에서 진행하는 것을 관측할 수 있다. 자동차(328) 및 트럭(332)의 액션들과 관계된 센서 데이터는 추론 시스템에의 입력으로서 이용될 수 있다. 센서 데이터에 기초하여, 추론 시스템은 교통 신호(326)의 상태가 북행 및 남행 교통 흐름에 대해 "적색"이고, 교통 신호(334)의 상태가 동행 및 서행 교통 흐름에 대해 "녹색"인 것을 추론할 수 있다. 상술한 바와 같이, 추론 시스템은 센서 데이터 및 다른 데이터를 미리 정해진 시나리오들의 세트와 비교할 수 있다. 센서 데이터/다른 데이터와 특정의 미리 정해진 시나리오 간에 실질적인 일치가 존재하면, 특정의 미리 정해진 시나리오의 맥락 내에서의 가장 가능성 있는 결과에 기초하여 추론이 이루어질 수 있다.
예를 들어, 북행 교통 신호(326)가 "적색"이라는 추론에 기초하여, 차량(322)은 대형 트럭(324)의 뒤에 멈춘 채 머물러 있는 형태의 액션을 취하도록 제어될 수 있다.
도 3d는 자율적 차량 동작 시나리오(340)의 평면도를 도해한다. 시나리오(340)에서, 차량(342)은 북행 정지 신호(344)를 준수하여, 교차로 일단 정지 지점(four-way stop intersection)에서 멈출 수 있다. 차량(342)은 자율 모드에서 동작할 수 있다. 차량(342)은 도 1 및 도 2를 참조하여 기술된 바와 같은 차량(100) 및 차량(200)과 비슷하거나 동일할 수 있다. 트럭(346)도 동행(east-bound) 정지 신호(348) 때문에 교차로에서 멈출 수 있다. 그러한 시나리오에서, 차량(342)은 교차로 일단 정지 지점의 교통 진행 상황을 결정하기를 원할 수 있다. 그러나, 그런 교통 진행 상황은 관측 가능하지 않을 수 있다. 다시 말하면, 차량(342)은 어느 차량이 교차로를 통해 다음으로 진행해야 하는지에 대해 확신하지 못할 수 있고 또한 진행 순서를 표시하는 어떤 직접적으로 관측 가능한 신호(예를 들어, 교통 신호)도 없을 수 있다.
센서 시스템(343)은 교차로 일단 정지 지점에서의 교통 진행 상황에 대한 정보를 제공할 수 있는 차량(343)의 환경의 다른 관측 가능한 부분들을 감지하도록 동작 가능할 수 있다. 예를 들어, 센서 시스템(343)은 하나 이상의 연관된 센서들을 이용하여 자동차(350)가 교차로를 통하여 남쪽으로 이동하는 것을 관측할 수 있다. 센서 데이터는 추론 시스템에 의해 획득될 수 있다.
센서 데이터에 기초하여, 추론 시스템은 교차로 일단 정지 지점에서의 교통 진행 상황에 대하여 추론할 수 있다. 이 경우에, 추론 시스템은 교차로를 통하여 북쪽 방향으로 진행하기에는 너무 늦다고 결정할 수 있고 또한 트럭(346)이 다음으로 교차로를 통하여 앞쪽으로 이동해야 한다고 추론할 수 있다.
추론에 기초하여, 차량(342)은 교차로를 통하여 진행하기 전에 트럭(346)이 교차로를 통과해 사라지는 것을 기다리도록 제어될 수 있다.
4. 예시적 방법들
차량의 환경의 하나 이상의 양상들을 관측하는 하나 이상의 센서들로부터 센서 데이터를 획득하기 위한 방법(400)이 제공된다. 하나 이상의 센서들은 차량과 운용 가능하게 연관된다. 방법은, 센서 데이터에 기초하여, 하나 이상의 센서들에 의해 관측되지 않은 차량의 환경의 적어도 하나의 양상을 추론하기 위해 추론 시스템을 이용하는 단계 및 차량의 환경의 적어도 하나의 추론된 양상에 기초하여 차량을 제어하는 단계를 더 포함한다. 방법은 도 1 및 2에 도시되고 상기 기술된 장치 중 임의의 것을 이용하여 실행될 수 있지만, 다른 구성들도 이용될 수 있다. 도 4a는 예시적인 방법에서의 단계들을 도시하지만, 다른 실시예들에서 단계들은 상이한 순서로 출현할 수 있고 단계들이 추가되거나 또는 제거될 수 있다는 것을 이해할 것이다.
단계 402는 차량의 환경의 하나 이상의 양상들을 관측하는 하나 이상의 센서들로부터 센서 데이터를 획득하는 것을 포함한다. 하나 이상의 센서들은 차량과 운용 가능하게 연관된다. 차량은 자율 모드에서 동작하도록 구성된다. 이 방법에서 기술되는 차량은 제각기 도 1 및 도 2를 참조하여 도시되고 기술된 바와 같은 차량(100) 및/또는 차량(200)일 수 있다.
센서 데이터를 획득하는 것은 카메라, 레이더 시스템, 라이다 시스템, 및 음향 감지 시스템 중 하나 이상을 이용하는 것을 포함할 수 있다. 다른 센서들 및 센서 시스템들도 개시의 맥락에서 가능하다. 센서 데이터는 상술한 센서들로부터의 유선 및/또는 무선 신호들에 의해 수신될 수 있다. 몇몇 실시예들에서, 센서 데이터는 서버 네트워크에 의해 획득될 수 있고 차량에게 통신될 수 있다. 대안적으로 또는 부가적으로, 센서 데이터는 차량에 통합된 컴퓨터 시스템에 의해 획득될 수 있다.
단계 404는, 센서 데이터에 기초하여, 하나 이상의 센서들에 의해 관측되지 않은 차량의 환경의 적어도 하나의 양상을 추론하기 위해 추론 시스템을 이용하는 것을 포함한다. 추론 시스템은 도 1을 참조하여 도시되고 기술된 컴퓨터 시스템(112)에 의해 제공될 수 있다. 다른 실시예들에서, 추론 시스템은 서버 네트워크와 같이, 차량 외부의 하나 이상의 컴퓨터 시스템들에 의해 부분적으로 또는 전체적으로 제공될 수 있다.
추론 시스템은 차량과 연관된 하나 이상의 센서들에 의해 직접적으로 관측되지 않은 차량의 환경의 임의 개수의 양상들에 대한 추론들을 하도록 동작 가능할 수 있다. 예를 들어, 추론 시스템은 보이지 않는 교통 신호 또는 교차로 일단 정지 지점의 상황에 대한 추론을 할 수 있다. 다른 실시예들에서, 추론 시스템은 도로상의 교통량, 제한 속도, 도로 상태, 또 다른 차량의 거동, 도로 경로, 및/또는 도로를 막고 있는 사고 또는 장애물에 대한 추론을 할 수 있다. 환경의 다른 양상들도 추론될 수 있다.
추론 시스템은 차량과 운용 가능하게 연관된 센서들 중 하나 또는 이들의 임의의 조합으로터의 센서 데이터에 기초하여 추론할 수 있다. 센서들은 차량에 탑재되어 위치할 수 있다. 대안적으로, 센서들 중 몇몇은 차량과 떨어져서 위치할 수 있다.
추론 시스템에 의해 이루어진 추론들은 센서들에게 관측 가능한 차량의 환경의 임의의 양상에 기초할 수 있다. 예시적 실시예에서, 추론들은 다른 차량들에 관한 센서 데이터로부터 이루어질 수 있다. 센서 데이터는, 예를 들어, 다른 차량들의 속도, 진행 방향, 및/또는 위치와 관계될 수 있다. 예를 들어, 추론들은 교통 신호가 가려진 교차로에 접근할 때 다른 차량들의 가속 및/또는 감속(브레이크 등 신호가 있거나 없음)에 기초하여 이루어질 수 있다. 다른 차량들의 감속은 '적색' 교통 신호를 의미할 수 있는 반면, 가속은 '녹색' 교통 신호를 의미할 수 있다. 다른 차량들에 기초한 센서 데이터를 이용하는 것에 관하여 다른 예들이 가능하다.
추론들은 또한 장애물들의 감지된 위치, 알려진 지도와 비교하여 관측된 도로의 변화들, 도로의 상태, 기타 등등에 기초하여 이루어질 수 있다. 또한, 추론을 하기 위해 추론 시스템에 의해 하나보다 많은 센서로부터의 센서 데이터가 이용될 수 있다.
추론 시스템은 인공 지능 및/또는 학습 알고리즘을 포함할 수 있다. 그와 같은 경우들에서, 추론 시스템은 획득된 센서 데이터에 기초하여 차량의 환경의 양상에 대하여 추론할 수 있다. 센서 데이터는 가능한 결과들의 세트를 가진 비슷한 시나리오들의 세트를 나타낼 수 있는 미리 정해진 시나리오들 또는 대표 센서 입력 시나리오들의 세트에 대하여 비교될 수 있다. 즉, 주어진 센서 입력들의 세트에 대해, 가능한 결과들의 세트가 주어진 센서 입력들의 세트와 연관될 수 있다. 주어진 센서 입력들의 세트와 연관된 각각의 가능한 결과가 확률과 연관될 수 있다. 확률은 실제로 일어나는 가능한 결과와 관계될 수 있다.
추론 시스템에 의해 이루어진 추론은 결과에 대한 '최상의 추측(best guess)'과 관계될 수 있는데, 이것은 가능한 결과들 중 하나를 포함할 수 있다. 추론이 확인되면(예를 들어, '최상의 추측'이 정확했다면), 대표 센서 입력 시나리오들의 세트 내의 가능한 결과는, 예를 들어 가능한 결과가 일어날 확률을 증가시킴으로써 강화될 수 있다. 추론이 부정확한 것으로 결정되면, 확률은 미리 정해진 시나리오들 또는 대표 센서 입력 시나리오들의 세트 중에서 주어진 가능한 결과에 대해 감소될 수 있다. 다른 유형의 학습 알고리즘들도 가능하다.
각각의 미리 정해진 시나리오 또는 추론은 추론 시스템이 예측된 결과에 대해 얼마나 신뢰할 수 있는지에 기초하는 연관된 신뢰도를 포함할 수 있다. 신뢰도는 각각의 미리 정해진 시나리오에서의 가장 공산이 큰 결과의 각자의 확률과 직접적으로 상관되거나 또는 그렇지 않을 수 있다. 신뢰도는, 예를 들어 하나 이상의 이전 추론들을 뒤따르는 하나 이상의 실제 결과들에 기초할 수 있다. 그러한 예에서, 이전 추론이 실제 결과를 부정확하게 예측했다면, 미리 정해진 시나리오의 신뢰도는 그 후 감소될 수 있다. 반대로, 이전 추론이 실제 결과를 바르게 예측했다면, 미리 정해진 시나리오의 신뢰도는 증가될 수 있다.
개시의 맥락 내에서, 추론들은 이중 안전장치 접근법(fail-safe approach)을 이용하여 이루어질 수 있다. 다시 말하면, 추론 시스템은 환경의 관측 가능하지 않은 양상의 정확하거나 부정확한 표현들일 수 있는 추론들을 할 수 있다. 이중 안전장치 접근법에서는, 위험한 동작을 회피하기 위해서 부정확한 추론들(예를 들어, 교통 신호등이 실제로는 "녹색"일 때 "적색"이라고 추론함)이 안전 차량 운용의 맥락에서 수행될 수 있다.
예를 들어, 이중 안전장치 운용을 제공하기 위한 노력으로 추론 시스템에 의해 다양한 교통 규칙들이 이용되거나 수정될 수 있다. 실제 교통 규칙은 하기와 같을 수 있다: '교통 신호가 녹색임을 알지 못한다면, 교차로를 통하여 진행하지 마시오.' 추론 시스템은 하기와 같은 수정된 규칙 버전을 사용할 수 있다: '교통 신호가 녹색인 것으로 직접적으로 관측하지 못한다면 또는 당신 차선에서의 다른 차량들이 교차로를 통하여 진행하고 있지 않다면, 교차로를 통하여 진행하지 마시오.' 추론 시스템은 또한 더 안전한 운용을 위해 다양한 액션들에 추가 제한들을 더할 수 있다. 그와 같은 추가적 제한들은 여분의 센서 데이터 검사들(따라서 차량은 센서 결함(glitch)에 기초하여 움직이지 않음), 이종 센서 검사들(예를 들어, 레이더 및 광학 센서 입력들이 일치해야 함), 추가의 대기 시간들, 기타 등등을 포함할 수 있다. 추가 제한들은 자율 모드에 있는 동안 차량의 더 신뢰성 있고 안전한 운용을 제공하기 위해 더해질 수 있다.
몇몇 시나리오들에서, 추론 시스템은 추론을 확인하거나 거절하기 위해 차량 운전자/점유자의 입력을 요청할 수 있다. 예를 들어, 교통 신호가 적색으로 점멸하는 교차로에 접근할 때, 추론 시스템은 교통 신호가 제대로 기능하지 않고 있다고 추론할 수 있고, 차량 점유자로부터의 입력을 요구할 수 있다. 추론 시스템은 "이 교통 신호등이 고장 난 것 같은데, 확인해 주실 수 있겠소?"라고 물을 것이다. 차량 점유자는 "예, 고장 난 것 같군요"라거나, "아뇨, 내 생각에는 그것이 정상적으로 적색으로 점멸하고 있네요"라고 대답할 수 있다. 차량 점유자로부터의 그와 같은 입력은, 환경 양상에 대한 추가적 추론들을 하기 위해 그리고/또는 차량을 제어하기 위해 단독으로 또는 센서 데이터와 조합하여 이용될 수 있다. 추론 시스템과 차량 점유자 사이의 상호 작용은 음성, 텍스트, 또는 다른 유형의 통신을 이용하여 수행될 수 있다.
또 다른 예시적 실시예에서, 교차로에 접근하는 동안, 교통 신호가 가려져 차량 센서 시스템에게 보이지 않을 수 있다. 차량은 교차로에서 멈추게 될 것이다. 교통 신호등의 적어도 한 주기를 기다리고 또한 교차로를 통해 진행하기 위해 다른 적합한 센서 데이터를 수신하는 데에 실패한 후에, 추론 시스템은 차량 점유자에게 "이 교차로를 통해서 진행하는 것이 안전한가요?"라고 물을 것이다. 차량 점유자는 "가시오" 또는 "가지 마시오"로 응답할 수 있다. 차량은 차량 점유자로부터의 응답에 기초하여 제어될 수 있다. 다른 실시예들에서, 차량 점유자는 교차로를 빠져나가기 위해서 차량의 수동 제어를 취할 수 있다. 추론 시스템과 차량 점유자 사이의 다른 상호 작용들도 가능하다.
몇몇 실시예들에서, 추론들은 자율 모드에서 동작하도록 구성되는 하나 이상의 다른 차량들에게 전송될 수 있다. 예를 들어, 교통 신호의 상태에 대한 추론은 급제동 또는 다른 긴급 상황들을 회피하기 위한 '조기 경보'로서 추론하는 차량의 뒤에 있는 차량들에게 전송될 수 있다.
추론들은 또한 추론을 지지하거나 반증하도록 동작 가능할 수 있는 인접한 자율 차량들에게 질의 형태로 전송될 수 있다. 예를 들어, 교통 신호를 차단하고 있을 수 있는 대형 트럭 뒤에 멈춰선 차량은 대형 트럭이 "적색"인 교통 신호 상태 때문에 멈추어 있다고 추론할 수 있다. 몇몇 실시예들에서, 이 차량은 교통 신호의 상태에 대한 추가적 정보를 획득하기 위한 노력으로 추론을 브로드캐스팅할 수 있다. 응답으로, 다른 차량들은 추론을 지지하거나 반증하기 위해 다른 정보로 응답할 수 있다.
추론 시스템에 의해 이루어진 추론에 기초하여, 제어 명령어 또는 제어 명령어들의 세트가 추론 시스템에 의해 생성될 수 있고 또한 차량에게 또는 차량 기능들의 일부 또는 모두를 제어하도록 동작 가능한 또 다른 컴퓨터 시스템에게 전송되거나 다른 식으로 통신될 수 있다.
단계 406은 차량의 환경의 적어도 하나의 추론된 양상에 기초하여 자율 모드에서 차량을 제어하는 것을 포함한다. 차량을 제어하는 것은 차량의 가속, 감속, 진행 방향 변경, 차선 변경, 차선 내에서의 위치 이동, 경보 통지(예를 들어, 차량 대 차량 통신 메시지, 경적 신호, 라이트 신호, 기타 등등)를 제공하는 것, 및 상이한 주행 모드(예를 들어, 반 자동 또는 수동 모드)로 변경하는 것 중 하나 이상을 실행하기 위해서 차량이 제어 명령어(들)를 추종하는 것을 나타낼 수 있다. 차량을 제어하는 것을 수반하는 다른 액션들도 본 개시의 맥락 내에서 가능하다.
차량은 추론 또는 미리 정해진 시나리오의 신뢰도에 적어도 부분적으로 기초하여 제어될 수 있다.
차량 및 임의의 탑재된 컴퓨터 시스템들은 자율 모드에서 차량을 제어할 수 있다. 대안적으로, 서버 네트워크와 같은 컴퓨터 시스템들이 자율 모드에서 차량의 기능들의 일부 또는 전부를 제어하는데 사용될 수 있다.
본 명세서에 개시된 방법들 및 장치는 자율 모드에서 동작하는 차량이 (예로, 고속도로 진입 차선에서) 고속도로 미터링 신호등(freeway metering light)에 접근하는 상황에 적용될 수 있다. 예시적 상황에서, 차량이 미터링 신호등 옆에 멈춰서지만, 카메라의 시야가 미터링 신호등을 직접적으로 관측하기에 충분하지 않을 수 있다. 차량은 특정의 미터링 신호등에 대한 (예를 들어, 고속도로 관리자 또는 다른 도로 정보 서비스로부터의) 정보를 수신할 수 있다. 수신된 정보는 미터링이 특정의 미터링 신호등에서 켜져 있는지 뿐만 아니라 현재 미터링 구간에서 켜져 있는지에 대한 정보를 포함할 수 있다. 정보는 무선 통신 인터페이스를 경유해 수신될 수 있다. 그러하므로, 차량이 직접적으로 미터링 신호등을 관측하지 못할 수 있는 상황들에서도, 차량이 미터링 신호등으로부터 진행하기 위해서 적절한 구간 시간 및/또는 미터링 신호등의 상태를 추론할 수 있는 여러 방법들이 있다.
예를 들어, 차량은 다른 자동차들을 관측하고 다른 차량들의 움직임들로부터 구간 시간을 추론할 수 있다. 그러한 예에서, 차량은 다른 차량들이 어떤 비율(예를 들어, 5초마다 대략 하나)로 전진하는 것을 관측할 수 있다. 다른 차량들에 대한 관측에 기초하여, 본 차량은 구간이 대략 5초인 것을 추론할 수 있고 또한 추론된 구간 시간만큼 기다린 후에 미터링 신호등으로부터 나아갈 수 있다.
구간 정보가 (예로, 이전의 이력 데이터 또는 수신된 정보에 기초하여) 알려지면, 차량은 해당 구간 정보에 기초하여 적절한 미터링 구간을 추론할 수 있다. 예를 들어, 고속도로 관리 기관은 미터링 구간 정보(예를 들어, 현재 미터링 신호등에서의 구간은 7초임)를 차량에게 제공할 수 있다. 구간 정보에 기초하여, 차량은 구간이 7초라고 추론할 수 있고 또한 이전의 차량 출발 후에 7초를 기다린 후 미터링 신호등으로부터 나아갈 수 있다. 그러나, 차량이 다른 차량들이 구간 정보가 표시하는 것보다 훨씬 긴 시간(또는 더 짧은 시간) 동안 기다린다는 것을 관측하면, 새로운 구간이 실시간 관측들에 기초하여 추론될 수 있다.
2차선 미터링 신호등을 포함하는 시나리오에서, 차량은 다른 차량들이 교호 방식(예를 들어, 우측 차선, 좌측 차선, 우측 차선...)으로 미터링 신호등으로부터 진행하는 것을 관측할 수 있다. 출발 구간에 기초하여, 차량은 미터링 신호등에서 기다려야 하는 적절한 시간을 추론할 수 있다. 또한, 출발 구간 및 차량의 현재 차선에 기초하여, 차량은 미터링 신호등으로부터 출발할 적절한 순서를 추론할 수 있다.
또 다른 예시적 실시예에서, 차량은 미터링 신호등의 이전 관측들에 기초하여 미터링 신호등의 상태에 대한 추론을 할 수 있다. 예를 들어, 차량이 미터링 신호등에 접근함에 따라, 이것은 미터링 신호등의 상태를 관측할 수 있다. 그러나, 미터링 신호등을 보는 것이 또 다른 차량에 의해 가려질 수 있거나 또는 미터링 신호등이 카메라 시야의 외부에 있을 수 있다. 그러한 상황에서, 차량은 미터링 신호등의 이전 관측 상태에 기초하여 미터링 신호등의 현재 상태를 추론할 수 있다. 특히, 차량은 미터링 신호등을 향하여 이동하는 동안 미터링 신호등의 전이(예를 들어, 적색으로부터 녹색으로 또는 녹색으로부터 적색으로의 전이)를 관측할 수 있고, 이 전이는 이후 관측 불가능하게 될 수 있다. 구간 정보가 차량에게 알려져 있다면, 차량은 구간 정보 및 이전에 관측된 전이 이후의 경과 시간에 기초하여 미터링 신호등의 현재 상태에 관한 추론을 할 수 있다.
차량이 미터링 신호등이 관측 불가능한 위치에 진입하기 전에 전체 미터링 주기(또는 적어도 하나의 미터링 신호등 전이)가 관측되는 것을 보장하기 위해 차량은 미터링이 켜져 있을 때 의도적으로 천천히 미터링 신호등에 접근할 수 있다. 그러므로, 차량은 미터링 신호등의 현재 상태에 대한 더 신뢰성 있는 추론을 할 수 있을 것이다.
또 다른 실시예에서, 차량은 어떤 다른 차량들도 미터링 신호등에서 기다리지 않거나 또는 이것을 통하여 진행하지 않는 상황에서 관측 불가능한 미터링 신호등에 접근할 수 있다. 차량이 미터링이 켜져 있다는 정보뿐만이 아니라 미터링 신호등을 위한 구간에 대한 정보를 갖는다면, 차량은 구간 지속 시간 동안 미터링 신호등에서 그저 기다릴 수 있다. 그러므로, 미터링 신호등을 직접적으로 관측하지 못함에도 불구하고, 차량은 미터링 신호등에 대한 추론들을 할 수 있고 또한 안전을 기하기 위해 그리고 또한 교통법과 규제의 정신에 따르기 위한 노력으로 차량을 제어할 수 있다.
교통 통제 신호의 상태를 직접적으로 관측할 수 없을 때 차량의 환경에서 적어도 하나의 광원을 관측하는 적어도 하나의 센서로부터 센서 데이터가 획득될 수 있는 방법(410)이 제공된다. 센서 데이터에 기초하여, 추론 시스템은 교통 통제 신호의 추론 상태를 추론할 수 있다. 차량은 교통 통제 신호의 추론된 상태에 기초하여 제어될 수 있다. 방법은 도 1 및 2에 도시되고 앞서 기술된 임의의 장치를 이용하여 실행될 수 있는데, 그러나 다른 구성들도 이용될 수 있다. 도 4b는 예시적 방법에서의 단계들을 도해하지만, 다른 실시예들에서 단계들은 상이한 순서로 출현할 수 있고 또한 단계들이 추가 또는 제거될 수 있다는 것을 이해할 것이다.
단계 412는 교통 통제 신호의 상태를 하나 이상의 센서들을 이용하여 직접적으로 관측하지 못하는 동안 차량의 환경에서 적어도 하나의 광원을 관측하는 하나 이상의 센서들로부터 센서 데이터를 획득하는 것을 포함한다. 차량은 자율 모드에서 동작하기 위해 구성될 수 있고 또한 하나 이상의 센서들은 차량과 운용 가능하게 연관될 수 있다.
하나 이상의 센서들은 본 개시에서 다른 곳에 기술된 임의 유형의 센서를 포함할 수 있다. 하나 이상의 센서들은 차량에 부착될 수 있거나 또는 다른 곳에 위치할 수 있다.
적어도 하나의 광원은 또 다른 차량의 하나 이상의 브레이크 등을 포함할 수 있다. 다른 광원들도 가능하다.
교통 통제 신호는 교통 신호등, 정지 신호, 또는 미터링 신호등과 같은 임의의 교통 규제 장치를 나타낼 수 있다. 예를 들어, 차량은 교차로에 접근할 수 있다. 이런 경우에, 교통 통제 신호는 교차로를 통한 교통 흐름을 규제하는 교통 신호등일 수 있다. 다른 유형의 교통 통제 신호들도 가능하다. 예시적 실시예에서, 교통 통제 신호는 또 다른 차량, 빌딩, 나무, 또는 임의의 다른 유형의 장애물에 의해 막힐 수 있고 따라서 교통 통제 신호를 차량의 하나 이상의 센서들을 이용하여 직접적으로 관측할 수 없게 된다. 다른 실시예들에서, 교통 통제 신호는 차량의 하나 이상의 센서들의 관측 가능 범위의 외부에 있을 수 있다.
단계 414는 센서 데이터에 기초하여 교통 통제 신호의 추론 상태를 추론하기 위해 추론 시스템을 이용하는 것을 포함한다. 예시적 실시예에서, 추론 시스템은 도 1을 참조하여 기술된 컴퓨터 시스템(112)과 같은, 차량과 연관된 컴퓨터 시스템일 수 있다. 다른 실시예들에서, 추론 시스템은 또 다른 컴퓨터 시스템(예를 들어, 서버 네트워크)와 전체적으로 또는 부분적으로 연관될 수 있다.
본 개시에서 다른 곳에서 기술된 것처럼, 추론 시스템은 센서 데이터에 기초하여 추론들을 하도록 동작 가능할 수 있다. 몇몇 실시예들에서, 추론 시스템은 교통 통제 신호의 관측 불가능한 상태에 대하여 추론할 수 있다. 예를 들어, 차량은 교통 통제 신호를 가진 교차로에 접근하고 있을 수 있다. 이런 경우에, 트럭이 차량과 연관된 하나 이상의 센서들이 교통 통제 신호의 상태를 직접적으로 관측하는 것을 방해할 수 있다. 차량은 다른 차량들의 브레이크 등과 같은, 차량의 환경에서의 하나 이상의 광원들과 관계된 센서 데이터를 획득할 수 있다. 다른 차량들의 브레이크 등이 켜져 있다면, 추론 시스템은 교통 통제 신호의 상태가 적색이거나 '정지'인 것으로 추론할 수 있다. 다른 차량들의 브레이크 등이 켜져 있지 않다면, 추론 시스템은 교통 통제 신호의 상태가 녹색이거나 '진행'이라고 추론할 수 있다. 다른 유형의 추론들도 가능하다.
단계 416은 교통 통제 신호의 추론된 상태에 기초하여 자율 모드에서 차량을 제어하는 것을 포함한다. 예시적 실시예에서, 교통 통제 신호의 추론된 상태가 녹색이거나 '진행'이라면, 차량은 '교차로를 통과해 나아가도록' 또는 '주의를 기울여 진행하도록' 제어될 수 있다. 교통 통제 신호의 추론된 상태가 적색이거나 '정지'라면, 차량은 정지하도록 제어될 수 있다. 몇몇 실시예들에서, 차량은 운전자에게 경보하도록 및/또는 반 자동 또는 수동 모드에 진입하도록 제어될 수 있다. 교통 통제 신호의 추론된 상태에 기초하여 자율 모드에서 차량을 제어하는 다른 방식들도 가능하다.
도 4a의 방법(400) 및 도 4b의 방법(410)과 같은 예시적 방법들은 차량 및 그 하위 시스템들에 의해 전체적으로 또는 부분적으로 수행될 수 있다. 따라서, 예시적 방법들은 본 명세서에서 예를 들어 차량에 의해 구현되는 것으로 기술될 수 있다. 그러나, 예시적 방법이 다른 컴퓨팅 디바이스들에 의해 전체적으로 또는 부분적으로 구현될 수 있다는 것을 이해해야 한다. 예를 들어, 예시적 방법은 서버 시스템에 의해 전체적으로 또는 부분적으로 구현될 수 있는데, 이 시스템은 차량과 연관된 것들과 같은 디바이스로부터 데이터를 수신한다. 예시적 방법을 구현할 수 있는 컴퓨팅 디바이스들 또는 컴퓨팅 디바이스들의 조합들의 다른 예들도 가능하다.
몇몇 실시예들에서, 개시된 방법들은 기계 판독 가능 포맷으로 비일시적 컴퓨터 판독 가능 저장 매체상에, 또는 그 외의 비일시적 매체들 또는 제조물들상에 인코딩되는 컴퓨터 프로그램 명령어들로서 구현될 수 있다. 도 5는 본 명세서에서 제시되는 적어도 몇몇 실시예들에 따라 배열된, 컴퓨팅 장치상에서 컴퓨터 프로세스를 실행하기 위한 컴퓨터 프로그램을 포함하는 예시적 컴퓨터 프로그램 제품의 개념 부분도를 도해하는 구성도이다.
일 실시예에서, 예시적 컴퓨터 프로그램 제품(500)은 신호 담지 매체(signal bearing medium)(502)를 이용하여 제공된다. 신호 담지 매체(502)는 하나 이상의 프로세서에 의해 실행될 때 도 1-4와 관련하여 상술한 기능 또는 기능의 부분들을 제공할 수 있는 하나 이상의 프로그래밍 명령어들(504)을 포함할 수 있다. 몇몇 예들에서, 신호 담지 매체(502)는 하드 디스크 드라이브, CD(Compact Disc), DVD(Digital Video Disk), 디지털 테이프, 메모리, 기타 등등과 같은 컴퓨터 판독 가능 매체(506)를 포괄할 수 있지만, 이것들에만 국한되는 것은 아니다. 몇몇 실시예들에서, 신호 담지 매체(502)는 메모리, R/W(read/write) CD, R/W DVD, 기타 등등과 같은 컴퓨터 기록 가능 매체(508)를 포괄할 수 있지만, 이것들에만 국한되는 것은 아니다. 몇몇 실시예들에서, 신호 담지 매체(502)는 디지털 및/또는 아날로그 통신 매체(예를 들어, 광 섬유 케이블, 도파관, 유선 통신 링크, 무선 통신 링크, 기타 등등)와 같은 통신 매체(510)를 포괄할 수 있지만, 이것들에만 국한되는 것은 아니다. 따라서, 예를 들어, 신호 담지 매체(502)는 통신 매체(510)의 무선 형태에 의해 전달될 수 있다.
하나 이상의 프로그래밍 명령어들(504)은, 예를 들어 컴퓨터 실행 가능 및/또는 로직 구현 명령어들일 수 있다. 몇몇 예들에서, 도 1의 컴퓨터 시스템(112)과 같은 컴퓨팅 장치는 컴퓨터 판독 가능 매체(506), 컴퓨터 기록 가능 매체(508), 및/또는 통신 매체(510) 중 하나 이상에 의해 컴퓨터 시스템(112)에게 전달되는 프로그래밍 명령어들(504)에 응답하여 다양한 동작들, 기능들 또는 액션들을 제공하도록 구성될 수 있다.
비일시적 컴퓨터 판독 가능 매체는 서로 원격으로 위치할 수 있는 복수의 데이터 저장 요소 중에 분산될 수도 있다. 저장된 명령어들 중 일부 또는 전부를 실행하는 컴퓨팅 장치는 도 2에 도시된 차량(200)과 같은 차량일 수 있다. 대안으로서, 저장된 명령어들 중 일부 또는 전부를 실행하는 컴퓨팅 장치는 서버와 같은 또 다른 컴퓨팅 장치일 수 있다.
위의 상세한 설명은 개시된 시스템들, 장치들, 및 방법들의 다양한 특징들 및 기능들을 첨부 도면들을 참조하여 기술하였다. 본 명세서에서 다양한 양태들 및 실시예들이 개시되었지만, 다른 양태들 및 실시예들도 가능하다. 본 명세서에 개시된 다양한 양태들 및 실시예들은 설명 목적을 위한 것이고, 한정하기 위한 것이 아니며, 본 발명의 진정한 범위 및 사상은 하기 청구항들에 의해 지시된다.

Claims (28)

  1. 방법으로서:
    차량의 환경의 하나 이상의 양상들을 관측하는 하나 이상의 센서들로부터 센서 데이터를 획득하는 단계 - 상기 하나 이상의 센서들은 상기 차량과 운용 가능하게 연관되고, 상기 차량은 자율 모드에서 동작하도록 구성됨 -;
    상기 센서 데이터에 기초하여, 상기 하나 이상의 센서들에 의해 관측되지 않은 상기 차량의 환경의 적어도 하나의 양상을 추론하기 위해 추론 시스템을 이용하는 단계; 및
    상기 차량의 환경의 적어도 하나의 추론된 양상에 기초하여 상기 자율 모드에서 상기 차량을 제어하는 단계
    를 포함하는 방법.
  2. 제1항에 있어서, 상기 하나 이상의 센서들은 적어도 2개의 센서를 포함하고, 상기 차량의 환경의 적어도 하나의 추론된 양상은 상기 적어도 2개의 센서로부터의 센서 데이터에 기초하는 방법.
  3. 제1항에 있어서, 상기 센서 데이터를 획득하는 단계는 카메라, 레이더 시스템, 음향 감지 시스템, 초음파 감지 시스템, 및 라이다(lidar) 시스템 중 적어도 하나를 이용하는 단계를 포함하는 방법.
  4. 제1항에 있어서, 상기 하나 이상의 센서들에 의해 관측되지 않은 상기 차량의 환경의 적어도 하나의 양상은 교통 신호등, 제한 속도, 도로 상태, 장애물, 또 다른 차량의 거동, 및 도로 경로 중 적어도 하나를 포함하는 방법.
  5. 제1항에 있어서, 신뢰도를 결정하는 단계 - 상기 신뢰도는 상기 차량의 환경의 적어도 하나의 추론된 양상, 적어도 하나의 이전 추론, 및 적어도 하나의 이전 결과에 기초함 - 를 더 포함하고, 및 상기 신뢰도에 추가로 기초하여 상기 자율 모드에서 상기 차량을 제어하는 단계를 더 포함하는 방법.
  6. 제5항에 있어서, 상기 차량의 환경의 적어도 하나의 추론된 양상 및 상기 신뢰도를 적어도 하나의 다른 차량에게 전송하는 단계를 더 포함하고, 상기 적어도 하나의 다른 차량은 자율 모드에서 동작하도록 구성되는 방법.
  7. 제1항에 있어서, 상기 추론 시스템을 이용하는 단계는 베이지안 네트워크, 은닉 마르코프 모델, 및 판단 트리 중 적어도 하나를 이용하는 단계를 포함하는 방법.
  8. 제1항에 있어서, 상기 차량을 제어하는 단계는 상기 차량이 가속하도록 제어하는 것, 상기 차량이 감속하도록 제어하는 것, 상기 차량이 진행 방향을 변경하도록 제어하는 것, 상기 차량이 차선을 변경하도록 제어하는 것, 상기 차량이 현재 차선 내에서 이동하도록 제어하는 것, 및 상기 차량이 경보 통지를 제공하도록 제어하는 것 중 적어도 하나를 포함하는 방법.
  9. 제8항에 있어서, 상기 경보 통지는 경적 신호, 라이트 신호, 및 차량 대 차량 통신 메시지 중 적어도 하나를 포함하는 방법.
  10. 차량으로서:
    하나 이상의 센서들 - 상기 하나 이상의 센서들은 센서 데이터를 획득하기 위해 구성되고, 상기 센서 데이터는 상기 하나 이상의 센서들에 의해 관측되는 차량의 환경의 하나 이상의 양상들과 관계되고, 상기 차량은 자율 모드에서 동작하도록 구성됨 -;
    추론 시스템 - 상기 추론 시스템은, 상기 센서 데이터에 기초하여, 상기 하나 이상의 센서들에 의해 관측되지 않은 상기 차량의 환경의 적어도 하나의 양상을 추론하기 위해 구성됨-; 및
    제어 시스템 - 상기 제어 시스템은 상기 차량의 환경의 적어도 하나의 추론된 양상에 기초하여 상기 자율 모드에서 상기 차량을 제어하도록 구성됨-
    을 포함하는 차량.
  11. 제10항에 있어서, 상기 하나 이상의 센서들은 카메라, 레이더 시스템, 음향 감지 시스템, 초음파 감지 시스템, 및 라이다 시스템 중 적어도 하나를 포함하는 차량.
  12. 제10항에 있어서, 상기 하나 이상의 센서들에 의해 관측되지 않은 상기 차량의 환경의 적어도 하나의 양상은 교통 신호등, 제한 속도, 도로 상태, 장애물, 또 다른 차량의 거동, 및 도로 경로 중 적어도 하나를 포함하는 차량.
  13. 제10항에 있어서, 상기 추론 시스템은 신뢰도를 결정하도록 추가로 구성되고, 상기 신뢰도는 상기 차량의 환경의 적어도 하나의 추론된 양상, 적어도 하나의 이전 추론, 및 적어도 하나의 이전 결과에 기초하고, 상기 컴퓨터 시스템은 상기 신뢰도에 추가로 기초하여 상기 자율 모드에서 상기 차량을 제어하도록 추가로 구성되는 차량.
  14. 제13항에 있어서, 상기 추론 시스템은 상기 차량의 환경의 적어도 하나의 추론된 양상 및 상기 신뢰도를 적어도 하나의 다른 차량에게 전송하도록 추가로 구성되고, 상기 적어도 하나의 다른 차량은 자율 모드에서 동작하도록 구성되는 차량.
  15. 제10항에 있어서, 상기 추론 시스템은 베이지안 네트워크, 은닉 마르코프 모델, 및 판단 트리 중 적어도 하나를 이용하도록 구성되는 차량.
  16. 제10항에 있어서, 상기 제어 시스템은 상기 차량이 가속하도록 제어하는 것, 상기 차량이 감속하도록 제어하는 것, 상기 차량이 진행 방향을 변경하도록 제어하는 것, 상기 차량이 차선을 변경하도록 제어하는 것, 상기 차량이 현재 차선 내에서 이동하도록 제어하는 것, 및 상기 차량이 경보 통지를 제공하도록 제어하는 것 중 적어도 하나를 실행하도록 추가로 구성되는 차량.
  17. 제16항에 있어서, 상기 경보 통지는 경적 신호, 라이트 신호, 및 차량 대 차량 통신 메시지 중 적어도 하나를 포함하는 차량.
  18. 컴퓨터 시스템에 의해 실행되어 상기 컴퓨터 시스템으로 하여금 기능들을 수행하게끔 야기할 수 있는 명령어들을 그 안에 저장한 비일시적 컴퓨터 판독 가능 매체로서:
    상기 기능들은,
    차량의 환경의 하나 이상의 양상들을 관측하는 하나 이상의 센서들로부터 센서 데이터를 획득하는 단계 - 상기 하나 이상의 센서들은 상기 차량과 운용 가능하게 연관되고, 상기 차량은 자율 모드에서 동작하도록 구성됨 -;
    상기 센서 데이터에 기초하여, 상기 하나 이상의 센서들에 의해 관측되지 않은 상기 차량의 환경의 적어도 하나의 양상을 추론하는 단계; 및
    상기 차량의 환경의 적어도 하나의 추론된 양상에 기초하여 상기 자율 모드에서 상기 차량을 제어하는 단계를 포함하는
    비일시적 컴퓨터 판독 가능 매체.
  19. 제18항에 있어서, 상기 센서 데이터를 획득하는 단계는 카메라, 레이더 시스템, 음향 감지 시스템, 초음파 감지 시스템, 및 라이다 시스템 중 적어도 하나를 이용하는 단계를 포함하는 비일시적 컴퓨터 판독가능 매체.
  20. 제18항에 있어서, 상기 하나 이상의 센서들에 의해 관측되지 않은 상기 차량의 환경의 적어도 하나의 양상은 교통 신호등, 제한 속도, 도로 상태, 장애물, 또 다른 차량의 거동, 및 도로 경로 중 적어도 하나를 포함하는 비일시적 컴퓨터 판독가능 매체.
  21. 제18항에 있어서, 상기 기능들은 신뢰도를 결정하는 단계 - 상기 신뢰도는 상기 차량의 환경의 적어도 하나의 추론된 양상, 적어도 하나의 이전 추론, 및 적어도 하나의 이전 결과에 기초함 - 를 더 포함하고, 또한 상기 신뢰도에 추가로 기초하여 상기 자율 모드에서 상기 차량을 제어하는 단계를 더 포함하는 비일시적 컴퓨터 판독가능 매체.
  22. 제21항에 있어서, 상기 기능들은 상기 차량의 환경의 적어도 하나의 추론된 양상 및 상기 신뢰도를 적어도 하나의 다른 차량에게 전송하는 단계를 더 포함하고, 상기 적어도 하나의 다른 차량은 자율 모드에서 동작하도록 구성되는 비일시적 컴퓨터 판독가능 매체.
  23. 제18항에 있어서, 상기 하나 이상의 센서들에 의해 관측되지 않은 상기 차량의 환경의 적어도 하나의 양상을 추론하는 단계는 베이지안 네트워크, 은닉 마르코프 모델, 및 판단 트리 중 적어도 하나를 이용하는 단계를 포함하는 비일시적 컴퓨터 판독가능 매체.
  24. 제18항에 있어서, 상기 차량을 제어하는 단계는 상기 차량이 가속하도록 제어하는 것, 상기 차량이 감속하도록 제어하는 것, 상기 차량이 진행 방향을 변경하도록 제어하는 것, 상기 차량이 차선을 변경하도록 제어하는 것, 상기 차량이 현재 차선 내에서 이동하도록 제어하는 것, 및 상기 차량이 경보 통지를 제공하도록 제어하는 것 중 적어도 하나를 포함하는 비일시적 컴퓨터 판독 가능 매체.
  25. 제24항에 있어서, 상기 경보 통지는 경적 신호, 라이트 신호, 및 차량 대 차량 통신 메시지 중 적어도 하나를 포함하는 비일시적 컴퓨터 판독 가능 매체.
  26. 방법으로서:
    차량의 환경에서 적어도 하나의 광원을 관측하는 하나 이상의 센서들로부터 센서 데이터를 획득하는 단계 - 상기 하나 이상의 센서들은 상기 차량과 운용 가능하게 연관되고, 교통 통제 신호의 상태를 상기 하나 이상의 센서들을 이용하여 직접적으로 관측하는 것이 가능하지 않고, 상기 차량은 자율 모드에서 동작하도록 구성됨 -;
    상기 센서 데이터에 기초하여, 상기 교통 통제 신호의 추론 상태를 추론하기 위해 추론 시스템을 이용하는 단계; 및
    상기 교통 통제 신호의 추론 상태에 기초하여 상기 자율 모드에서 상기 차량을 제어하는 단계
    를 포함하는 방법.
  27. 제26항에 있어서, 상기 적어도 하나의 광원은 또 다른 차량의 적어도 하나의 브레이크 등을 포함하는 방법.
  28. 제26항에 있어서, 상기 센서 데이터를 획득하는 단계는 카메라, 레이더 시스템, 음향 감지 시스템, 초음파 감지 시스템, 및 라이다 시스템 중 적어도 하나를 이용하는 단계를 포함하는 방법.
KR1020147036772A 2012-06-01 2013-03-11 대용 데이터에 기초하여 교통 신호의 상태 및 차량의 환경의 다른 양상들을 추론하기 KR101705961B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/486,886 US8793046B2 (en) 2012-06-01 2012-06-01 Inferring state of traffic signal and other aspects of a vehicle's environment based on surrogate data
US13/486,886 2012-06-01
PCT/US2013/030120 WO2013180787A1 (en) 2012-06-01 2013-03-11 Inferring state of traffic signal and other aspects of a vehicle's environment based on surrogate data

Publications (2)

Publication Number Publication Date
KR20150016381A true KR20150016381A (ko) 2015-02-11
KR101705961B1 KR101705961B1 (ko) 2017-02-10

Family

ID=49671236

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147036772A KR101705961B1 (ko) 2012-06-01 2013-03-11 대용 데이터에 기초하여 교통 신호의 상태 및 차량의 환경의 다른 양상들을 추론하기

Country Status (7)

Country Link
US (8) US8793046B2 (ko)
EP (2) EP3792126A1 (ko)
JP (1) JP6018705B2 (ko)
KR (1) KR101705961B1 (ko)
CN (2) CN104470781B (ko)
ES (1) ES2848868T3 (ko)
WO (1) WO2013180787A1 (ko)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017018852A1 (ko) * 2015-07-30 2017-02-02 삼성전자 주식회사 자율 주행 차량 및 자율 주행 차량 제어 방법
WO2017018842A1 (ko) * 2015-07-30 2017-02-02 삼성전자 주식회사 자율 주행 차량을 제어하는 장치 및 방법
KR20180019718A (ko) * 2015-07-21 2018-02-26 닛산 지도우샤 가부시키가이샤 씬 평가 장치, 주행 지원 장치, 씬 평가 방법
US9997074B2 (en) 2016-03-03 2018-06-12 Lg Electronics Inc. Display apparatus and vehicle having the same
KR20180117207A (ko) * 2016-03-22 2018-10-26 델피 테크놀로지스, 엘엘씨. 자동주행 차량을 위한 시나리오 인지 인식 시스템
US10235885B2 (en) 2016-01-29 2019-03-19 Electronics And Telecommunications Research Institute Autonomous vehicle driving system and method
WO2019190627A1 (en) * 2018-03-26 2019-10-03 Hrl Laboratories, Llc System and method for estimating uncertainty of the decisions made by a supervised machine learner
US10962378B2 (en) 2015-07-30 2021-03-30 Samsung Electronics Co., Ltd. Autonomous vehicle and method of controlling the autonomous vehicle
US20210248915A1 (en) * 2018-07-20 2021-08-12 Cybernet Systems Corp. Autonomous transportation system and methods
KR20220136006A (ko) * 2021-03-30 2022-10-07 모셔널 에이디 엘엘씨 자율 주행 차량의 성능을 평가하기 위한 테스트 시나리오의 선택
KR20230042393A (ko) * 2018-12-11 2023-03-28 웨이모 엘엘씨 자율 차량들을 위한 중복성 하드웨어 시스템

Families Citing this family (147)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0781697B1 (en) 1995-12-26 2002-06-12 Denso Corporation Brake control apparatus for vehicle
DE102011088130B4 (de) * 2011-12-09 2023-03-02 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erkennung einer Bremssituation
US9760092B2 (en) * 2012-03-16 2017-09-12 Waymo Llc Actively modifying a field of view of an autonomous vehicle in view of constraints
US9145140B2 (en) 2012-03-26 2015-09-29 Google Inc. Robust method for detecting traffic signals and their associated states
US8793046B2 (en) 2012-06-01 2014-07-29 Google Inc. Inferring state of traffic signal and other aspects of a vehicle's environment based on surrogate data
DE102012212065A1 (de) * 2012-07-11 2014-01-16 Robert Bosch Gmbh Verfahren zum Betreiben eines Fahrerassistenzsystems für ein Fahrzeug und Fahrerassistenzsystem für ein Fahrzeug
DE102012018212A1 (de) * 2012-09-14 2014-03-20 Audi Ag Erfassen von Verkehrs- und Unfalldaten an Knotenpunkten im Straßenverkehr
DE102013215098A1 (de) * 2013-08-01 2015-02-05 Bayerische Motoren Werke Aktiengesellschaft Umfeldmodelle für Fahrzeuge
US9685082B2 (en) * 2013-12-05 2017-06-20 United Safety Towers, Llc Traffic signaling apparatus
DE102013226267A1 (de) * 2013-12-17 2015-07-02 Bayerische Motoren Werke Aktiengesellschaft Kraftfahrzeug mit einer Schnittstelle und System zur Fernsteuerung eines Kraftfahrzeugs
US9406177B2 (en) * 2013-12-20 2016-08-02 Ford Global Technologies, Llc Fault handling in an autonomous vehicle
US9720410B2 (en) * 2014-03-03 2017-08-01 Waymo Llc Remote assistance for autonomous vehicles in predetermined situations
US9476730B2 (en) * 2014-03-18 2016-10-25 Sri International Real-time system for multi-modal 3D geospatial mapping, object recognition, scene annotation and analytics
US9550498B2 (en) 2014-05-13 2017-01-24 Ford Global Technologies, Llc Traffic light anticipation
CN103996312B (zh) * 2014-05-23 2015-12-09 北京理工大学 具有社会行为交互的无人驾驶汽车控制系统
US9365218B2 (en) * 2014-07-14 2016-06-14 Ford Global Technologies, Llc Selectable autonomous driving modes
US9707960B2 (en) * 2014-07-31 2017-07-18 Waymo Llc Traffic signal response for autonomous vehicles
US9187088B1 (en) 2014-08-15 2015-11-17 Google Inc. Distribution decision trees
US9168882B1 (en) * 2014-09-30 2015-10-27 Verizon Patent And Licensing Inc. Method and apparatus for providing vehicle sensor data access and storage
DE102014115292A1 (de) * 2014-10-21 2016-04-21 Connaught Electronics Ltd. Verfahren zum Bereitstellen von Bilddateien von einem Kamerasystem, Kamerasystem und Kraftfahrzeug
US9586585B2 (en) * 2014-11-20 2017-03-07 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle detection of and response to traffic officer presence
US9493157B2 (en) * 2015-01-29 2016-11-15 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle operation in obstructed occupant view and sensor detection environments
US9555736B2 (en) * 2015-04-03 2017-01-31 Magna Electronics Inc. Vehicle headlamp control using sensing and communication systems
JP6282246B2 (ja) * 2015-04-24 2018-02-21 オムロンオートモーティブエレクトロニクス株式会社 車載用距離計測装置
US9676386B2 (en) * 2015-06-03 2017-06-13 Ford Global Technologies, Llc System and method for controlling vehicle components based on camera-obtained image information
US10940868B2 (en) * 2015-07-10 2021-03-09 Honda Motor Co., Ltd. Vehicle control device, vehicle control method, and vehicle control program
MX2018000495A (es) * 2015-07-21 2018-04-30 Nissan Motor Dispositivo de plan de conduccion, dispositivo de apoyo de viaje, y metodo de plan de conduccion.
KR102004102B1 (ko) * 2015-07-21 2019-07-25 닛산 지도우샤 가부시키가이샤 씬 평가 장치, 주행 지원 장치, 씬 평가 방법
BR112018001073B1 (pt) * 2015-07-21 2023-02-14 Nissan Motor Co., Ltd. Dispositivo de planejamento de condução, aparelho de auxílio de deslocamento, e método para planejamento de condução
JP6443552B2 (ja) * 2015-07-21 2018-12-26 日産自動車株式会社 シーン評価装置、走行支援装置、シーン評価方法
US9869560B2 (en) 2015-07-31 2018-01-16 International Business Machines Corporation Self-driving vehicle's response to a proximate emergency vehicle
US9785145B2 (en) 2015-08-07 2017-10-10 International Business Machines Corporation Controlling driving modes of self-driving vehicles
US9483948B1 (en) 2015-08-07 2016-11-01 International Business Machines Corporation Automated control of interactions between self-driving vehicles and pedestrians
US9721397B2 (en) 2015-08-11 2017-08-01 International Business Machines Corporation Automatic toll booth interaction with self-driving vehicles
US9718471B2 (en) 2015-08-18 2017-08-01 International Business Machines Corporation Automated spatial separation of self-driving vehicles from manually operated vehicles
US9481366B1 (en) 2015-08-19 2016-11-01 International Business Machines Corporation Automated control of interactions between self-driving vehicles and animals
US9896100B2 (en) 2015-08-24 2018-02-20 International Business Machines Corporation Automated spatial separation of self-driving vehicles from other vehicles based on occupant preferences
MX2018002151A (es) * 2015-08-26 2018-06-06 Ford Global Tech Llc Un aparato que usa comunicacion vehículo a vehículo (v2v) sincronizada y equilibrada.
JP6686327B2 (ja) * 2015-08-26 2020-04-22 三菱自動車工業株式会社 運転支援装置
US9731726B2 (en) 2015-09-02 2017-08-15 International Business Machines Corporation Redirecting self-driving vehicles to a product provider based on physiological states of occupants of the self-driving vehicles
US9513632B1 (en) * 2015-09-16 2016-12-06 International Business Machines Corporation Driving mode alerts from self-driving vehicles
US9566986B1 (en) 2015-09-25 2017-02-14 International Business Machines Corporation Controlling driving modes of self-driving vehicles
US10817065B1 (en) * 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
US9481367B1 (en) 2015-10-14 2016-11-01 International Business Machines Corporation Automated control of interactions between self-driving vehicles and animals
US9834224B2 (en) 2015-10-15 2017-12-05 International Business Machines Corporation Controlling driving modes of self-driving vehicles
US9751532B2 (en) 2015-10-27 2017-09-05 International Business Machines Corporation Controlling spacing of self-driving vehicles based on social network relationships
US9944291B2 (en) 2015-10-27 2018-04-17 International Business Machines Corporation Controlling driving modes of self-driving vehicles
CN115113629A (zh) * 2015-11-04 2022-09-27 祖克斯有限公司 用于优化远程操作和/或规划器决策的机器学习系统和技术
EP3371772A4 (en) * 2015-11-04 2019-05-01 Zoox, Inc. SOFTWARE APPLICATION FOR REQUEST AND CONTROL OF A SERVICE OF AUTONOMOUS VEHICLES
US10176525B2 (en) 2015-11-09 2019-01-08 International Business Machines Corporation Dynamically adjusting insurance policy parameters for a self-driving vehicle
US9791861B2 (en) 2015-11-12 2017-10-17 International Business Machines Corporation Autonomously servicing self-driving vehicles
US10061326B2 (en) 2015-12-09 2018-08-28 International Business Machines Corporation Mishap amelioration based on second-order sensing by a self-driving vehicle
US10029682B2 (en) 2016-01-22 2018-07-24 Toyota Motor Engineering & Manufacturing North America, Inc. Surrounding vehicle classification and path prediction
US10938655B2 (en) * 2016-01-26 2021-03-02 International Business Machines Corporation Enterprise cloud garbage collector
US9836973B2 (en) 2016-01-27 2017-12-05 International Business Machines Corporation Selectively controlling a self-driving vehicle's access to a roadway
US10685247B2 (en) * 2016-03-29 2020-06-16 Aptiv Technologies Limited Infrastructure-device status-verification system for automated vehicles
EP3650091B1 (en) * 2016-03-30 2022-06-01 Oceaneering International, Inc. Rider-controlled trackless ride system
US10037696B2 (en) * 2016-03-31 2018-07-31 Delphi Technologies, Inc. Cooperative automated vehicle system
US10761195B2 (en) 2016-04-22 2020-09-01 OPSYS Tech Ltd. Multi-wavelength LIDAR system
CN107310550B (zh) * 2016-04-27 2019-09-17 腾讯科技(深圳)有限公司 道路交通工具行驶控制方法和装置
US10423292B2 (en) * 2016-05-17 2019-09-24 Google Llc Managing messages in vehicles
US10077050B2 (en) * 2016-05-24 2018-09-18 GM Global Technology Operations LLC Automated driving system for evaluating lane cut-out and method of using the same
US9891628B2 (en) * 2016-06-06 2018-02-13 GM Global Technology Operations LLC Sensor-based association of traffic control devices to traffic lanes for autonomous vehicle navigation
US10309792B2 (en) 2016-06-14 2019-06-04 nuTonomy Inc. Route planning for an autonomous vehicle
US10126136B2 (en) 2016-06-14 2018-11-13 nuTonomy Inc. Route planning for an autonomous vehicle
US11092446B2 (en) 2016-06-14 2021-08-17 Motional Ad Llc Route planning for an autonomous vehicle
CN107657821A (zh) * 2016-07-26 2018-02-02 奥迪股份公司 用于车辆的电子控制装置和方法
JP2018018389A (ja) * 2016-07-29 2018-02-01 パナソニックIpマネジメント株式会社 自動運転車輌の制御装置、及び制御プログラム
DE102016215501B4 (de) * 2016-08-18 2019-03-07 Robert Bosch Gmbh Verfahren und Vorrichtung zur Hinderniserkennung durch Landmarken
DE102016216520A1 (de) * 2016-09-01 2018-03-01 Robert Bosch Gmbh Verfahren und System zum Betrieb eines Fahrzeugs
KR102366723B1 (ko) * 2016-10-11 2022-02-23 삼성전자주식회사 운송 수단으로 시야 확보 영상을 제공하는 방법, 이를 위한 전자 장치 및 컴퓨터 판독 가능한 기록 매체
US10473470B2 (en) 2016-10-20 2019-11-12 nuTonomy Inc. Identifying a stopping place for an autonomous vehicle
US10681513B2 (en) 2016-10-20 2020-06-09 nuTonomy Inc. Identifying a stopping place for an autonomous vehicle
US10331129B2 (en) 2016-10-20 2019-06-25 nuTonomy Inc. Identifying a stopping place for an autonomous vehicle
US10857994B2 (en) 2016-10-20 2020-12-08 Motional Ad Llc Identifying a stopping place for an autonomous vehicle
US20180150083A1 (en) * 2016-11-29 2018-05-31 Waymo Llc Pod connection for Autonomous Vehicle Sensors
CN106681328B (zh) * 2017-01-13 2021-02-09 深圳市元征科技股份有限公司 基于智能穿戴设备的自动驾驶方法及智能穿戴设备
EP3580621A4 (en) * 2017-02-10 2020-04-22 Nissan North America, Inc. AUTONOMOUS VEHICLE MANAGEMENT
KR102592139B1 (ko) 2017-03-13 2023-10-23 옵시스 테크 엘티디 눈-안전 스캐닝 lidar 시스템
US10124804B2 (en) * 2017-04-12 2018-11-13 GM Global Technology Operations LLC Method and apparatus for traffic control device detection optimization
EP3612424A4 (en) * 2017-04-18 2020-09-16 Nutonomy Inc. AUTOMATIC TRAFFIC LIGHT COLLECTION
US10643084B2 (en) * 2017-04-18 2020-05-05 nuTonomy Inc. Automatically perceiving travel signals
DE202018006695U1 (de) 2017-05-15 2022-04-01 Ouster, Inc. Optischer Bildübertrager mit Helligkeitsverbesserung
US10540895B2 (en) 2017-06-21 2020-01-21 International Business Machines Corporation Management of mobile objects
US10600322B2 (en) 2017-06-21 2020-03-24 International Business Machines Corporation Management of mobile objects
US10585180B2 (en) 2017-06-21 2020-03-10 International Business Machines Corporation Management of mobile objects
US10535266B2 (en) 2017-06-21 2020-01-14 International Business Machines Corporation Management of mobile objects
US10504368B2 (en) 2017-06-21 2019-12-10 International Business Machines Corporation Management of mobile objects
US10546488B2 (en) 2017-06-21 2020-01-28 International Business Machines Corporation Management of mobile objects
US10525903B2 (en) * 2017-06-30 2020-01-07 Aptiv Technologies Limited Moving traffic-light detection system for an automated vehicle
EP3422045B1 (en) * 2017-06-30 2022-04-20 Veoneer Sweden AB A system for enhanced object tracking
KR20220119769A (ko) 2017-07-28 2022-08-30 옵시스 테크 엘티디 작은 각도 발산을 갖는 vcsel 어레이 lidar 송신기
US10558224B1 (en) * 2017-08-10 2020-02-11 Zoox, Inc. Shared vehicle obstacle data
US10928832B2 (en) * 2017-09-29 2021-02-23 Huawei Technologies Co., Ltd. Impedance-based motion control for autonomous vehicles
KR102634870B1 (ko) 2017-11-15 2024-02-13 옵시스 테크 엘티디 잡음 적응형 솔리드-스테이트 lidar 시스템
JP6915512B2 (ja) * 2017-11-28 2021-08-04 トヨタ自動車株式会社 サーバ装置、故障車両推定方法および故障車両推定プログラム
JP7027844B2 (ja) * 2017-11-29 2022-03-02 株式会社デンソー カメラモジュール
JP6866934B2 (ja) * 2017-12-05 2021-04-28 日産自動車株式会社 車両の制御方法及び制御装置
WO2019131002A1 (ja) * 2017-12-25 2019-07-04 日立オートモティブシステムズ株式会社 車両制御装置および電子制御システム
JP7067067B2 (ja) 2018-01-11 2022-05-16 トヨタ自動車株式会社 信号機認識装置、及び自動運転システム
CN108407797B (zh) * 2018-01-19 2021-02-05 洛阳中科龙网创新科技有限公司 一种基于深度学习的实现农机自动换挡的方法
US20210046953A1 (en) * 2018-03-06 2021-02-18 Technion Research & Development Foundation Limited Efficient inference update using belief space planning
KR102634880B1 (ko) 2018-04-01 2024-02-08 옵시스 테크 엘티디 잡음 적응형 솔리드-스테이트 lidar 시스템
JP7077726B2 (ja) * 2018-04-02 2022-05-31 株式会社デンソー 車両システム、空間領域推測方法及び空間領域推測装置
US10699565B2 (en) 2018-04-04 2020-06-30 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for inferring lane obstructions
CN108674412B (zh) * 2018-04-04 2020-01-24 江苏大学 一种采用传感器融合的车辆主动避撞方法
US10632913B2 (en) * 2018-04-13 2020-04-28 GM Global Technology Operations LLC Vehicle behavior using information from other vehicles lights
US20210179142A1 (en) * 2018-04-20 2021-06-17 Sony Corporation Mobile object, information processing apparatus, information processing method, and program
FR3080345A1 (fr) * 2018-04-20 2019-10-25 Psa Automobiles Sa Amelioration de la detection par le suivi d’un vehicule eclaireur
US10331128B1 (en) * 2018-04-20 2019-06-25 Lyft, Inc. Control redundancy
FR3080344B1 (fr) * 2018-04-20 2022-01-21 Psa Automobiles Sa Detection fiabilisee d’un objet par un vehicule
US10649459B2 (en) 2018-04-26 2020-05-12 Zoox, Inc. Data segmentation using masks
JP7110729B2 (ja) 2018-05-25 2022-08-02 トヨタ自動車株式会社 自動運転システム及び自動運転システムの制御方法
JP2020527761A (ja) * 2018-06-22 2020-09-10 ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド 高度自動運転マップを更新するためのシステムおよび方法
US10884410B2 (en) * 2018-06-29 2021-01-05 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for determining whether a vehicle is capable of navigating an intersection in an autonomous driving mode
US11017671B2 (en) * 2018-07-02 2021-05-25 Nio Usa, Inc. Precautionary visual perception by detection of rear stop light of vehicle that is two vehicles ahead
DE102018116079A1 (de) * 2018-07-03 2020-01-09 HELLA GmbH & Co. KGaA Verfahren zur Erfassung und Verarbeitung der Fahrbahnbeschaffenheit einer mit einem Fahrzeug befahrenen Fahrbahn
US10650678B2 (en) 2018-08-21 2020-05-12 International Business Machines Corporation Cognitive traffic light pattern analysis and notification
CZ308605B6 (cs) * 2018-10-01 2020-12-30 Roboauto s.r.o. Senzorický systém s rychlou skupinovou fúzí pro získání modelu objektů v jeho okolí
CN109785655B (zh) * 2018-12-11 2020-09-29 北京百度网讯科技有限公司 车辆控制方法、装置、设备、无人驾驶车辆及存储介质
KR102505717B1 (ko) 2019-01-29 2023-03-02 모셔널 에이디 엘엘씨 교통 신호등 추정
US10796571B2 (en) * 2019-01-31 2020-10-06 StradVision, Inc. Method and device for detecting emergency vehicles in real time and planning driving routes to cope with situations to be expected to be occurred by the emergency vehicles
US11205343B2 (en) * 2019-02-20 2021-12-21 GM Global Technology Operations LLC Methods and systems for interpretating traffic signals and negotiating signalized intersections
JP7278578B2 (ja) * 2019-04-05 2023-05-22 株式会社Liberaware 飛行体
CN113692540A (zh) 2019-04-09 2021-11-23 欧普赛斯技术有限公司 带激光控制的固态lidar发送器
WO2020242834A1 (en) 2019-05-30 2020-12-03 OPSYS Tech Ltd. Eye-safe long-range lidar system using actuator
CN112033425B (zh) * 2019-06-04 2023-06-13 长沙智能驾驶研究院有限公司 车辆辅助驾驶方法、装置、计算机设备和存储介质
CN113924506A (zh) 2019-06-10 2022-01-11 欧普赛斯技术有限公司 眼睛安全的长范围固态lidar系统
JP2022539706A (ja) * 2019-06-25 2022-09-13 オプシス テック リミテッド 適応型多重パルスlidarシステム
CN110606085B (zh) * 2019-08-29 2020-08-28 江苏大学 智能驾驶辅助系统下预防车辆在交叉口误闯交通灯的方法
BR112022009416A2 (pt) * 2019-11-15 2022-08-09 Nissan Motor Método para controlar veículo e dispositivo de controle de veículo
FR3103219B1 (fr) * 2019-11-19 2021-10-08 Vitesco Technologies Procédé de gestion des anomalies sporadiques d’un système de motorisation d’un véhicule automobile
CN111002980B (zh) * 2019-12-10 2021-04-30 苏州智加科技有限公司 基于深度学习的道路障碍物轨迹预测方法和系统
US11055998B1 (en) 2020-02-27 2021-07-06 Toyota Motor North America, Inc. Minimizing traffic signal delays with transports
JP7406432B2 (ja) * 2020-03-31 2023-12-27 本田技研工業株式会社 移動体制御装置、移動体制御方法、およびプログラム
US11938939B1 (en) * 2020-06-04 2024-03-26 Aurora Operations, Inc. Determining current state of traffic light(s) for use in controlling an autonomous vehicle
IT202000017158A1 (it) 2020-07-15 2022-01-15 Ecologia E Servizi Italia S R L Sistema di rilevamento dati stradali e ambientali per automezzi di servizio pubblico di igiene urbana
US11726471B2 (en) * 2020-08-27 2023-08-15 Waymo Llc Methods and systems for gradually adjusting vehicle sensor perspective using remote assistance
CN112061133A (zh) * 2020-09-15 2020-12-11 苏州交驰人工智能研究院有限公司 交通信号状态推测方法、车辆控制方法、车辆及存储介质
CN112071064A (zh) * 2020-09-17 2020-12-11 苏州交驰人工智能研究院有限公司 基于相反规则车道进行交通信号状态推测的方法及装置
DE102021103732A1 (de) 2021-02-17 2022-08-18 Cariad Se Fahrerassistenzsystem, Kraftfahrzeug und Verfahren zur automatischen Längsführung eines Kraftfahrzeugs
CN112918488B (zh) * 2021-03-11 2022-06-21 知行汽车科技(苏州)有限公司 车辆控制方法、装置及存储介质
CN112799412A (zh) * 2021-04-12 2021-05-14 北京三快在线科技有限公司 一种无人驾驶设备的控制方法及控制装置
KR102331807B1 (ko) 2021-04-16 2021-12-02 국방과학연구소 차량의 주행을 위한 전자 장치 및 그의 동작 방법
CN112859884B (zh) * 2021-04-25 2021-07-30 北京三快在线科技有限公司 一种控制无人驾驶设备的方法及装置
KR20230031730A (ko) * 2021-08-27 2023-03-07 현대자동차주식회사 신호등 판단 장치, 그를 포함한 시스템 및 그 방법
CN116767224B (zh) * 2023-07-03 2024-01-23 小米汽车科技有限公司 确定可行驶区域的方法、装置、车辆、及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158969A (ja) * 2006-12-26 2008-07-10 Toyota Motor Corp 移動体周囲危険度判定方法、装置、およびプログラム
KR20100034281A (ko) * 2008-09-23 2010-04-01 현대자동차주식회사 차량의 전방 영상을 이용하는 도로상 요철 검출 시스템
JP2010228740A (ja) * 2009-03-05 2010-10-14 Nissan Motor Co Ltd 走行経路生成装置、走行経路生成方法、及び運転操作支援装置
JP2011192177A (ja) * 2010-03-16 2011-09-29 Toyota Motor Corp 前方状況予測装置

Family Cites Families (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0312799A (ja) * 1989-06-12 1991-01-21 Akio Kato 車載用運転操作支援報知装置
JPH08263784A (ja) 1995-03-23 1996-10-11 Honda Motor Co Ltd 道路状況認識装置
JPH10129438A (ja) * 1996-11-06 1998-05-19 Toyota Motor Corp 自動制動制御装置
US7979172B2 (en) 1997-10-22 2011-07-12 Intelligent Technologies International, Inc. Autonomous vehicle travel control systems and methods
EP0913751B1 (de) 1997-11-03 2003-09-03 Volkswagen Aktiengesellschaft Autonomes Fahrzeug und Verfahren zur Steuerung eines autonomen Fahrzeuges
JPH11306498A (ja) 1998-04-16 1999-11-05 Matsushita Electric Ind Co Ltd 車載カメラシステム
JP2001228740A (ja) 2000-02-16 2001-08-24 Konica Corp 画像形成装置の定着装置
JP3646605B2 (ja) 2000-02-23 2005-05-11 株式会社日立製作所 車両走行制御装置
WO2001095141A1 (en) * 2000-06-09 2001-12-13 Automotive Systems Laboratory, Inc. Situation awareness processor
US7102496B1 (en) * 2002-07-30 2006-09-05 Yazaki North America, Inc. Multi-sensor integration for a vehicle
JP4019854B2 (ja) * 2002-08-12 2007-12-12 日産自動車株式会社 走行経路生成装置
JP3985748B2 (ja) 2003-07-08 2007-10-03 日産自動車株式会社 車載用障害物検出装置
JP4435519B2 (ja) 2003-08-21 2010-03-17 富士重工業株式会社 車両の走行制御装置
JP2005202922A (ja) 2003-12-18 2005-07-28 Nissan Motor Co Ltd 運転支援装置及び運転支援プログラム
JP2006316644A (ja) 2005-05-10 2006-11-24 Toyota Motor Corp エンジン制御装置
JP4692073B2 (ja) * 2005-05-19 2011-06-01 トヨタ自動車株式会社 運転支援装置
DE102005049458A1 (de) * 2005-10-15 2007-04-26 Daimlerchrysler Ag Verfahren und Vorrichtung zur Verbrauchsreduzierung in einem Fahrzeug
JP4771365B2 (ja) 2005-11-30 2011-09-14 アイシン・エィ・ダブリュ株式会社 経路案内システム、経路案内方法及びプログラム
JP4400584B2 (ja) * 2006-03-01 2010-01-20 トヨタ自動車株式会社 障害物検出方法及び障害物検出装置
DE102006017177A1 (de) * 2006-04-12 2007-10-18 Robert Bosch Gmbh Fahrerassistenzsystem mit Anfahrhinweisfunktion
JP4600357B2 (ja) 2006-06-21 2010-12-15 トヨタ自動車株式会社 測位装置
JP4525670B2 (ja) 2006-11-20 2010-08-18 トヨタ自動車株式会社 走行制御計画生成システム
DE102006057277A1 (de) * 2006-12-05 2008-06-12 Robert Bosch Gmbh Verfahren zum Betrieb eines Radarsystems bei möglicher Zielobjektverdeckung sowie Radarsystem zur Durchführung des Verfahrens
US9302678B2 (en) 2006-12-29 2016-04-05 Robotic Research, Llc Robotic driving system
JP2008191781A (ja) 2007-02-01 2008-08-21 Hitachi Ltd 衝突回避システム
FR2916893A1 (fr) * 2007-05-30 2008-12-05 Eurolum Soc Par Actions Simpli Procede et dispositif d'assistance a la conduite pour un vehicule destine a parcourir un trajet defini entre un premier point et un deuxieme point
US9043138B2 (en) * 2007-09-07 2015-05-26 Green Driver, Inc. System and method for automated updating of map information
FR2923016B1 (fr) 2007-10-31 2009-11-20 Valeo Vision Procede de detection d'un phenomene perturbateur de visibilite pour un vehicule.
DE102007058192A1 (de) * 2007-12-04 2009-06-10 Continental Teves Ag & Co. Ohg Zentrales Steuergerät für mehrere in einem Kraftfahrzeug vorgesehene Assistenzsysteme und Kraftfahrzeug (Wegen nicht zuerkannter Prio)
US8031062B2 (en) 2008-01-04 2011-10-04 Smith Alexander E Method and apparatus to improve vehicle situational awareness at intersections
JP5419390B2 (ja) 2008-06-13 2014-02-19 富士通テン株式会社 ドライブレコーダ及びシステム
US8170739B2 (en) 2008-06-20 2012-05-01 GM Global Technology Operations LLC Path generation algorithm for automated lane centering and lane changing control system
CN102089178B (zh) * 2008-07-08 2013-04-17 西门子公司 用于给车辆充能量的适配器装置和方法
WO2010041315A1 (ja) * 2008-10-08 2010-04-15 トヨタ自動車株式会社 運転支援装置及び方法
US8126642B2 (en) 2008-10-24 2012-02-28 Gray & Company, Inc. Control and systems for autonomously driven vehicles
JP4957747B2 (ja) * 2009-05-18 2012-06-20 トヨタ自動車株式会社 車両環境推定装置
JP5278378B2 (ja) * 2009-07-30 2013-09-04 日産自動車株式会社 車両運転支援装置及び車両運転支援方法
US8482431B2 (en) 2009-10-23 2013-07-09 Fuji Jukogyo Kabushiki Kaisha Driving support apparatus
JP5407764B2 (ja) * 2009-10-30 2014-02-05 トヨタ自動車株式会社 運転支援装置
US8559673B2 (en) 2010-01-22 2013-10-15 Google Inc. Traffic signal mapping and detection
DE102010002300B4 (de) * 2010-02-24 2022-09-01 Robert Bosch Gmbh Verfahren zum Ermitteln eines Fahrverhaltens
KR101735050B1 (ko) 2010-09-10 2017-05-12 현대모비스 주식회사 차량의 지능형 순항 제어 시스템 및 그 제어방법
DE102010049214A1 (de) * 2010-10-21 2011-07-28 Daimler AG, 70327 Verfahren zur Bestimmung eines Fahrspurverlaufs für ein Fahrzeug
DE102011004425A1 (de) * 2011-02-18 2012-08-23 Bayerische Motoren Werke Aktiengesellschaft Schätzen des Status einer Ampelanlage
US8675909B2 (en) * 2011-07-22 2014-03-18 American Megatrends, Inc. Traffic signal connected digital electronic display and method of controlling the same
KR20140051996A (ko) * 2011-08-03 2014-05-02 콘티넨탈 테베스 아게 운트 코. 오하게 거리 및 속력을 적응적으로 제어하고 자동차를 정지시키는 방법 및 시스템, 및 이에 따라 작동하는 자동차
US8571743B1 (en) * 2012-04-09 2013-10-29 Google Inc. Control of vehicles based on auditory signals
US8793046B2 (en) 2012-06-01 2014-07-29 Google Inc. Inferring state of traffic signal and other aspects of a vehicle's environment based on surrogate data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158969A (ja) * 2006-12-26 2008-07-10 Toyota Motor Corp 移動体周囲危険度判定方法、装置、およびプログラム
KR20100034281A (ko) * 2008-09-23 2010-04-01 현대자동차주식회사 차량의 전방 영상을 이용하는 도로상 요철 검출 시스템
JP2010228740A (ja) * 2009-03-05 2010-10-14 Nissan Motor Co Ltd 走行経路生成装置、走行経路生成方法、及び運転操作支援装置
JP2011192177A (ja) * 2010-03-16 2011-09-29 Toyota Motor Corp 前方状況予測装置

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180019718A (ko) * 2015-07-21 2018-02-26 닛산 지도우샤 가부시키가이샤 씬 평가 장치, 주행 지원 장치, 씬 평가 방법
US10186150B2 (en) 2015-07-21 2019-01-22 Nissan Motor Co., Ltd. Scene determination device, travel assistance apparatus, and scene determination method
WO2017018842A1 (ko) * 2015-07-30 2017-02-02 삼성전자 주식회사 자율 주행 차량을 제어하는 장치 및 방법
WO2017018852A1 (ko) * 2015-07-30 2017-02-02 삼성전자 주식회사 자율 주행 차량 및 자율 주행 차량 제어 방법
US10962378B2 (en) 2015-07-30 2021-03-30 Samsung Electronics Co., Ltd. Autonomous vehicle and method of controlling the autonomous vehicle
US10235885B2 (en) 2016-01-29 2019-03-19 Electronics And Telecommunications Research Institute Autonomous vehicle driving system and method
US9997074B2 (en) 2016-03-03 2018-06-12 Lg Electronics Inc. Display apparatus and vehicle having the same
US11604474B2 (en) 2016-03-22 2023-03-14 Motional Ad Llc Scenario aware perception system for an automated vehicle
KR20180117207A (ko) * 2016-03-22 2018-10-26 델피 테크놀로지스, 엘엘씨. 자동주행 차량을 위한 시나리오 인지 인식 시스템
CN109155107A (zh) * 2016-03-22 2019-01-04 德尔福技术有限公司 用于自动化车辆场景感知的感知系统
US10895879B2 (en) 2016-03-22 2021-01-19 Motional Ad Llc Scenario aware perception system for an automated vehicle
WO2019190627A1 (en) * 2018-03-26 2019-10-03 Hrl Laboratories, Llc System and method for estimating uncertainty of the decisions made by a supervised machine learner
US11086299B2 (en) 2018-03-26 2021-08-10 Hrl Laboratories, Llc System and method for estimating uncertainty of the decisions made by a supervised machine learner
US20210248915A1 (en) * 2018-07-20 2021-08-12 Cybernet Systems Corp. Autonomous transportation system and methods
KR20230042393A (ko) * 2018-12-11 2023-03-28 웨이모 엘엘씨 자율 차량들을 위한 중복성 하드웨어 시스템
US11912292B2 (en) 2018-12-11 2024-02-27 Waymo Llc Redundant hardware system for autonomous vehicles
KR20220136006A (ko) * 2021-03-30 2022-10-07 모셔널 에이디 엘엘씨 자율 주행 차량의 성능을 평가하기 위한 테스트 시나리오의 선택
US11932260B2 (en) 2021-03-30 2024-03-19 Motional Ad Llc Selecting testing scenarios for evaluating the performance of autonomous vehicles

Also Published As

Publication number Publication date
US20210018920A1 (en) 2021-01-21
US8793046B2 (en) 2014-07-29
US11845472B2 (en) 2023-12-19
US10331133B2 (en) 2019-06-25
US11474520B2 (en) 2022-10-18
JP6018705B2 (ja) 2016-11-02
KR101705961B1 (ko) 2017-02-10
EP3792126A1 (en) 2021-03-17
US10831196B2 (en) 2020-11-10
US20180032076A1 (en) 2018-02-01
WO2013180787A1 (en) 2013-12-05
ES2848868T3 (es) 2021-08-12
CN107628027B (zh) 2021-07-30
US20130325241A1 (en) 2013-12-05
US20140303829A1 (en) 2014-10-09
EP2855225B1 (en) 2021-01-20
CN104470781B (zh) 2017-10-24
EP2855225A4 (en) 2016-06-29
US20190271983A1 (en) 2019-09-05
CN107628027A (zh) 2018-01-26
US20230004159A1 (en) 2023-01-05
EP2855225A1 (en) 2015-04-08
US9327734B2 (en) 2016-05-03
US20240075961A1 (en) 2024-03-07
JP2015524762A (ja) 2015-08-27
CN104470781A (zh) 2015-03-25
US20160209844A1 (en) 2016-07-21
US9804601B2 (en) 2017-10-31

Similar Documents

Publication Publication Date Title
KR101705961B1 (ko) 대용 데이터에 기초하여 교통 신호의 상태 및 차량의 환경의 다른 양상들을 추론하기
US11650584B2 (en) Remote assistance for autonomous vehicles in predetermined situations
US10962981B2 (en) Assisted perception for autonomous vehicles
USRE46972E1 (en) Controlling a vehicle having inadequate map data
KR101742365B1 (ko) 다른 차량들의 예측 동작에 기초하는 자율 차량의 동작 변경

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20200129

Year of fee payment: 4