KR20190100855A - 자율 주행 차량을 위한 자기 위치 측정 방법, 시스템 및 기계 판독 가능한 매체 - Google Patents

자율 주행 차량을 위한 자기 위치 측정 방법, 시스템 및 기계 판독 가능한 매체 Download PDF

Info

Publication number
KR20190100855A
KR20190100855A KR1020190013470A KR20190013470A KR20190100855A KR 20190100855 A KR20190100855 A KR 20190100855A KR 1020190013470 A KR1020190013470 A KR 1020190013470A KR 20190013470 A KR20190013470 A KR 20190013470A KR 20190100855 A KR20190100855 A KR 20190100855A
Authority
KR
South Korea
Prior art keywords
adv
distance
driveway
vehicle
camera
Prior art date
Application number
KR1020190013470A
Other languages
English (en)
Other versions
KR102309496B1 (ko
Inventor
판 주
Original Assignee
바이두 유에스에이 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 바이두 유에스에이 엘엘씨 filed Critical 바이두 유에스에이 엘엘씨
Publication of KR20190100855A publication Critical patent/KR20190100855A/ko
Application granted granted Critical
Publication of KR102309496B1 publication Critical patent/KR102309496B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/025Active steering aids, e.g. helping the driver by actively influencing the steering system after environment evaluation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • G05D1/0236Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0259Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/804Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for lane monitoring

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Combustion & Propulsion (AREA)
  • Optics & Photonics (AREA)
  • Chemical & Material Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

자율 주행 차량(ADV)을 위한 자기 위치 측정 방법, 시스템 및 기계 판독 가능한 매체가 개시된다. ADV 중에서 자기 위치 측정 시스템을 이용하여 차량의 다양한 위치에 설치된 일부 센서를 사용함으로써 차도 내의 상대 위치를 확정한다. 일부 카메라는 차량의 상이한 위치에 설치되어 차량의 주변 환경에 관련된 이미지를 캡처할 수 있다. 캡처된 이미지에 기반하여, 차량과 차도의 가장자리 사이의 거리는 이미지 인식 프로세스 또는 알고리즘을 이용하여 확정될 수 있다. 차량과 차도의 가장자리 사이의 거리에 기반하여, 차도 내의 차량의 상대 위치는 확정될 수 있다. 차도 내의 차량의 상대 위치는 차량의 주행 방향과 차도의 중심선 또는 기준선의 세로 벡터 사이의 각도 및 차량과 차도의 중심선 또는 기준선 사이의 거리를 가리킨다.

Description

자율 주행 차량을 위한 자기 위치 측정 방법, 시스템 및 기계 판독 가능한 매체 {SELF-LOCALIZATION METHOD, SYSTEM AND MACHINE READABLE MEDIUM FOR AUTONOMOUS DRIVING VEHICLES}
본 개시의 실시예는 전반적으로 자율 주행 차량을 작동하는 것에 관한 것이다. 더 구체적으로, 본 개시의 실시예는 자율 주행 차량을 위한 차도 자기 위치 측정에 관한 것이다.
자율 주행 모드로 작동하는(예를 들어, 운전자가 없는) 차량은 탑승자, 특히 운전자를 일부 운전에 관련된 의무에서 해방하도록 할 수 있다. 자율 주행 모드로 작동할 경우, 차량은 차량용 센서를 이용하여 다양한 위치로 내비게이션할 수 있으므로, 차량이 인간과 컴퓨터 사이의 인터랙션이 가장 적은 상황 또는 승객이 전혀 없는 일부 상황에서 주행하는 것을 허용한다.
움직임 계획 및 제어는 자율 주행 중의 매우 중요한 조작이다. 이 조작들은 차량의 위치 또는 지점에 의존하고, 차량의 위치 또는 지점은 위성 위치 확인 시스템(GPS) 및 차량의 IMU 유닛과 같은 기타 센서에 기반하여 확정될 수 있다. 이러한 위치는 지도 기반의 절대 위치로 지칭된다. 그러나, 때로는 도로 또는 차도 내의 로컬 상대 위치도 자율 주행에 대해 중요하다. 이러한 로컬 상대 위치의 확정은 자기 위치 측정으로 지칭된다. 자기 위치 측정은 언제나 한 도전적 문제이고, 자율 주행 차량(ADV)의 상대 위치를 확정하는 효율적인 방법은 아직도 없다.
본 개시의 일 방면에 따르면, 자율 주행 차량의 자기 위치 측정을 위한 컴퓨터 구현 방법은, 자율 주행 차량(ADV)의 전단의 제1 위치에 설치된 제1 카메라에 의해 캡처된 제1 이미지에 기반하여, 상기 ADV의 전단과 상기 ADV가 주행하는 차도의 왼쪽 가장자리 사이의 제1 거리(L1)를 측정하는 단계; 상기 ADV의 전단의 제2 위치에 설치된 제2 카메라에 의해 캡처된 제2 이미지에 기반하여, 상기 ADV의 전단과 상기 차도의 오른쪽 가장자리 사이의 제2 거리(L2)를 측정하는 단계; 상기 ADV의 후단의 제3 위치에 설치된 제3 카메라에 의해 캡처된 제3 이미지에 기반하여, 상기 ADV의 후단과 상기 차도의 왼쪽 가장자리 사이의 제3 거리(L3)를 측정하는 단계; 상기 ADV의 후단의 제4 위치에 설치된 제4 카메라에 의해 캡처된 제4 이미지에 기반하여, 상기 ADV의 후단과 상기 차도의 오른쪽 가장자리 사이의 제4 거리(L4)를 측정하는 단계; 및 상기 제1 거리, 상기 제2 거리, 상기 제3 거리 및 상기 제4 거리에 기반하여 상기 차도 내의 상기 ADV의 로컬 상대 위치를 확정하는 단계를 포함한다.
본 개시의 다른 일 방면에 따르면, 비일시적인 기계 판독 가능한 매체에 명령어가 저장되고, 상기 명령어는 프로세서에 의해 실행될 경우 상기 프로세서로 하여금 조작을 수행하도록 한다. 상기 조작은, 자율 주행 차량(ADV)의 전단의 제1 위치에 설치된 제1 카메라에 의해 캡처된 제1 이미지에 기반하여, 상기 ADV의 전단과 상기 ADV가 주행하는 차도의 왼쪽 가장자리 사이의 제1 거리(L1)를 측정하는 단계; 상기 ADV의 전단의 제2 위치에 설치된 제2 카메라에 의해 캡처된 제2 이미지에 기반하여, 상기 ADV의 전단과 상기 차도의 오른쪽 가장자리 사이의 제2 거리(L2)를 측정하는 단계; 상기 ADV의 후단의 제3 위치에 설치된 제3 카메라에 의해 캡처된 제3 이미지에 기반하여, 상기 ADV의 후단과 상기 차도의 왼쪽 가장자리 사이의 제3 거리(L3)를 측정하는 단계; 상기 ADV의 후단의 제4 위치에 설치된 제4 카메라에 의해 캡처된 제4 이미지에 기반하여, 상기 ADV의 후단과 상기 차도의 오른쪽 가장자리 사이의 제4 거리(L4)를 측정하는 단계; 및 상기 제1 거리, 상기 제2 거리, 상기 제3 거리 및 상기 제4 거리에 기반하여 상기 차도 내의 상기 ADV의 로컬 상대 위치를 확정하는 단계를 포함한다.
본 개시의 또 다른 일 방면에 따르면, 데이터 처리 시스템은 프로세서 및 메모리를 포함하되, 상기 메모리는 명령어를 저장하도록 상기 프로세서에 연결된다. 상기 명령어는 상기 프로세서에 의해 실행될 경우 상기 프로세서로 하여금 조작을 수행하도록 한다. 상기 조작은, 자율 주행 차량(ADV)의 전단의 제1 위치에 설치된 제1 카메라에 의해 캡처된 제1 이미지에 기반하여, 상기 ADV의 전단과 상기 ADV가 주행하는 차도의 왼쪽 가장자리 사이의 제1 거리(L1)를 측정하는 단계; 상기 ADV의 전단의 제2 위치에 설치된 제2 카메라에 의해 캡처된 제2 이미지에 기반하여, 상기 ADV의 전단과 상기 차도의 오른쪽 가장자리 사이의 제2 거리(L2)를 측정하는 단계; 상기 ADV의 후단의 제3 위치에 설치된 제3 카메라에 의해 캡처된 제3 이미지에 기반하여, 상기 ADV의 후단과 상기 차도의 왼쪽 가장자리 사이의 제3 거리(L3)를 측정하는 단계; 상기 ADV의 후단의 제4 위치에 설치된 제4 카메라에 의해 캡처된 제4 이미지에 기반하여, 상기 ADV의 후단과 상기 차도의 오른쪽 가장자리 사이의 제4 거리(L4)를 측정하는 단계; 및 상기 제1 거리, 상기 제2 거리, 상기 제3 거리 및 상기 제4 거리에 기반하여 상기 차도 내의 상기 ADV의 로컬 상대 위치를 확정하는 단계를 포함한다.
본 개시의 실시예는 첨부된 도면의 각 도면에서 한정적이 아니고 예를 드는 방식으로 도시되어 도면의 동일한 첨부기호가 유사한 부품을 가리킨다.
도1은 일 실시예에 따른 네트워크화된 시스템을 나타내는 블록도이다.
도2는 일 실시예에 따른 자율 주행 차량의 예시를 나타내는 블록도이다.
도3A 및 도3B는 일 실시예에 따른 자율 주행 차량과 함께 사용되는 감지 및 계획 시스템의 예시를 나타내는 블록도이다.
도4는 일 실시예에 따른 자율 주행 차량의 자기 위치 측정을 나타내는 도면이다.
도5는 일 실시예에 따른 차도 내의 차량의 로컬 상대 위치를 확정하는 프로세스를 나타내는 흐름도이다.
도6은 일 실시예에 따른 자율 주행 시스템을 평가하는 프로세스를 나타내는 흐름도이다.
도7은 일 실시예에 따른 데이터 처리 시스템을 나타내는 블록도이다.
이하, 기술된 세부 사항들을 참조하여 본 개시의 다양한 실시예와 방면에 대해 설명하기로 하는 바, 첨부된 도면은 상기 다양한 실시예를 나타낸다. 이하의 설명과 도면은 본 개시에 대한 설명일 뿐, 본 개시를 한정하는 것으로 해석하여서는 아니된다. 본 개시의 다양한 실시예들에 대한 완전한 이해를 제공하기 위해 대량의 특정된 세부 사항들에 대해 설명하였다. 그러나, 일부 상황에서는, 본 개시의 실시예에 대한 간결한 기술을 제공하기 위해 널리 알려져 있거나 관습적인 세부 사항에 대해서는 설명하지 않는다.
본 명세서에 있어서, "일 실시예" 또는 "실시예"에 대한 언급은 해당 실시예를 결합하여 설명한 특정의 특징, 구조 또는 특성이 본 개시의 적어도 하나의 실시예에 포함될 수 있음을 의미한다. 본 개시의 여러 곳에 나타난 문구 "일 실시예에 있어서"는 전부 동일한 실시예를 가리켜야만 하는 것이 아니다.
일부 실시예에 따르면, 자율 주행 차량 중에서 자기 위치 측정 시스템을 이용하여 차량의 다양한 위치 또는 점에 설치된 일부 센서를 사용함으로써 차량이 주행하는 차도 내의 상대 위치를 확정한다. 예를 들어, 일부 카메라는 차량의 상이한 위치에 설치되어 차량의 주변 환경에 관련된 이미지를 캡처할 수 있다. 캡처된 이미지에 기반하여, 차량과 차도 또는 도로의 가장자리 사이의 거리는 이미지 인식 프로세스 또는 알고리즘을 이용하여 확정될 수 있다. 차량과 차도의 가장자리 사이의 거리에 기반하여, 차도 내의 차량의 상대 위치는 확정될 수 있다. 차도 내의 차량의 상대 위치는 차량의 주행 방향과 차도의 중심선 또는 기준선의 세로 벡터 사이의 각도 및 차량과 차도의 중심선 또는 기준선 사이의 거리를 가리킨다.
일 실시예에 따르면, ADV의 전단과 ADV가 주행하는 차도의 왼쪽 가장자리 사이의 제1 거리(L1)는 ADV의 전단의 제1 위치에 설치된 제1 카메라에 의해 캡처된 제1 이미지를 기반으로 측정된다. ADV의 전단과 차도의 오른쪽 가장자리 사이의 제2 거리(L2)는 ADV의 전단의 제2 위치에 설치된 제2 카메라에 의해 캡처된 제2 이미지를 기반으로 측정된다. ADV의 후단과 차도의 왼쪽 가장자리 사이의 제3 거리는 ADV의 후단의 제3 위치에 설치된 제3 카메라에 의해 캡처된 제3 이미지를 기반으로 측정된다. ADV의 후단과 차도의 오른쪽 가장자리 사이의 제4 거리는 ADV의 후단의 제4 위치에 설치된 제4 카메라에 의해 캡처된 제4 이미지를 기반으로 측정된다. 차도 내의 ADV의 로컬 상대 위치는 제1 거리, 제2 거리, 제3 거리 및 제4 거리를 기반으로 확정된다.
또한, 차량의 주행 방향과 차도의 중심선 사이의 각도는 제1 거리, 제2 거리, 제3 거리 및 제4 거리에 기반하고 ADV의 물리적 크기를 고려하여 계산된다. 일 실시예에 있어서, ADV의 차량 길이(VL)를 고려하여, 차량의 주행 방향과 차도의 중심선 사이의 각도는 거리(L1)와 거리(L3) 사이의 차 또는 거리(L2)와 거리(L4) 사이의 차에 기반하여 확정된다. 특히, 구체적인 실시예에 따르면, 해당 각도는 arcsin(|L1-L3|/VL) 또는 arcsin(|L2-L4|/VL)에 기반하여 확정될 수 있다.
차도 내의 상대 위치가 계산될 경우, 일 실시예에 따르면, 제1 거리, 제2 거리, 제3 거리, 및 제4 거리에 기반하여 ADV의 중심점과 차도의 중심선 사이의 제5 거리가 확정된다. 제5 거리 및 차량의 주행 방향과 중심선 사이의 각도는 차도 내의 차량의 로컬 상대 위치를 표시하는 데 사용된다. 일 구체적인 실시예에 있어서, 제5 거리는 (L1+L3-L2-L4)/2에 기반하여 확정된다. 일 실시예에 있어서, 제1 카메라는 ADV의 전단의 왼쪽 코너에 설치되고, 제2 카메라는 ADV의 전단의 오른쪽 코너에 설치된다. 제3 카메라는 ADV의 후단의 왼쪽 코너에 설치되고, 제4 카메라는 ADV의 후단의 오른쪽 코너에 설치된다.
도1은 본 개시의 일 실시예에 따른 자율 주행 차량 네트워크 구성을 나타내는 블록도이다. 도1을 참조하면, 네트워크 구성(100)은 네트워크(102)를 통해 통신적 방식으로 하나 또는 다수의 서버(103-104)에 연결될 수 있는 자율 주행 차량(101)을 포함한다. 비록 하나의 자율 주행 차량을 도시하였지만, 다수의 자율 주행 차량이 네트워크(102)를 통해 상호 연결되고 및/또는 서버(103-104)에 연결될 수 있다. 네트워크(102)는 임의 유형의 네트워크일 수 있고, 예를 들어, 유선 또는 무선의 근거리 통신망(LAN), 인터넷과 같은 광역 통신망(WAN), 셀룰러 네트워크, 위성 네트워크 또는 이들의 조합일 수 있다. 서버(103-104)는 임의 유형의 서버 또는 서버 클러스터일 수 있고, 예를 들어, 네트워크 또는 클라우드 서버, 애플리케이션 서버, 후단 서버 또는 이들의 조합일 수 있다. 서버(103-104)는 데이터 분석 서버, 콘텐츠 서버, 교통 정보 서버, 지도 및 관심 지점(MPOI) 서버 또는 위치 서버 등일 수 있다.
자율 주행 차량은 자율 주행 모드에 처하도록 구성될 수 있는 차량을 가리키고, 상기 자율 주행 모드에서, 차량은 운전자로부터의 입력이 극히 적거나 아예 없는 상황에서 내비게이션을 하고 환경을 통행한다. 이러한 자율 주행 차량은 센서 시스템을 포함할 수 있고, 상기 센서 시스템은 차량 작동 환경과 관련된 정보를 검측하도록 구성된 하나 또는 다수의 센서를 구비한다. 상기 차량과 그에 관련된 제어기는 검측된 정보를 이용하여 내비게이션을 하고 상기 환경을 통행한다. 자율 주행 차량(101)은 수동 모드, 완전 자율 모드 또는 부분 자율 모드에서 작동할 수 있다.
일 실시예에 있어서, 자율 주행 차량(101)은 감지 및 계획 시스템(110), 차량 제어 시스템(111), 무선 통신 시스템(112), 사용자 인터페이스 시스템(113), 인포테인먼트 시스템(114), 및 센서 시스템(115)을 포함하나, 이에 한정되지 않는다. 자율 주행 차량(101)은 일반적인 차량 중에 포함된 일부 범용 부품(예를 들어, 엔진, 바퀴, 핸들 및 변속기 등)을 더 포함할 수 있고, 상기 부품은 차량 제어 시스템(111) 및/또는 감지 및 계획 시스템(110)에 의해 다양한 통신 신호 및/또는 명령(예를 들어, 가속도 신호 또는 명령, 감속도 신호 또는 명령, 조향 신호 또는 명령, 제동 신호 또는 명령 등)을 이용하여 제어될 수 있다.
부품(110-115)은 상호 연결 장치, 버스, 네트워크 또는 이들의 조합을 통해 통신적 방식으로 상호 연결될 수 있다. 예를 들어, 부품(110-115)은 계측 제어기 통신망(CAN)의 버스를 경유하여 통신적 방식으로 상호 연결될 수 있다. CAN 버스는 마이크로 제어기 및 장치로 하여금 호스트 컴퓨터가 없는 애플리케이션에서 상호 통신이 가능하도록 설계된 차량 버스 표준이다. 상기 CAN 버스는 정보 기반의 프로토콜이고, 처음엔 자동차 내의 멀티 플렉스 전기 배선을 위해 설계되었으나, 기타 다양한 상황에서도 사용된다.
도2를 참조하면, 일 실시예에 있어서, 센서 시스템(115)은 하나 또는 다수의 카메라(211), 위성 위치 확인 시스템(GPS) 유닛(212), 관성 측정 유닛(IMU; 213), 레이더 유닛(214)과 광탐지 및 거리측정(LIDAR) 유닛(215)을 포함하나, 이에 한정되지 않는다. GPS 시스템(212)은 송수신기를 포함할 수 있고, 상기 송수신기는 자율 주행 차량의 위치와 관련된 정보를 제공하도록 작동될 수 있다. IMU 유닛(213)은 관성 가속도를 기반으로 자율 주행 차량의 위치와 방향 변화를 감지할 수 있다. 레이더 유닛(214)은 라디오 신호를 이용하여 자율 주행 차량의 로컬 환경 내의 대상을 감지하는 시스템을 표시할 수 있다. 일부 실시예에 있어서, 대상 감지외에, 레이더 유닛(214)은 대상의 속도 및/또는 주행 방향을 더 감지할 수 있다. LIDAR 유닛(215)은 레이저를 이용하여 자율 주행 차량이 처하는 환경 중의 대상을 감지할 수 있다. 기타 시스템 부품 외에, LIDAR 유닛(215)은 하나 또는 다수의 레이저 소스, 레이저 스캐너, 및 하나 또는 다수의 탐지기를 더 포함할 수 있다. 카메라(211)는 자율 주행 차량 주변 환경의 이미지를 수집하기 위한 하나 또는 다수의 장치를 포함할 수 있다. 카메라(211)는 스틸 카메라 및/또는 비디오 카메라일 수 있다. 카메라는 기계적으로 이동 가능할 수 있고, 예를 들어, 카메라를 회전 플랫폼 및/또는 경사진 플랫폼에 설치함으로써 이동 가능할 수 있다.
센서 시스템(115)은 기타 센서를 더 포함할 수 있고, 예를 들어, 소나 센서, 적외선 센서, 조향 센서, 스로틀 센서, 제동 센서 및 오디오 센서(예를 들어, 마이크)를 포함할 수 있다. 오디오 센서는 자율 주행 차량 주변의 환경에서 소리를 캡처하도록 구성될 수 있다. 조향 센서는 핸들, 차량의 바퀴 또는 그들의 조합의 조향 각도를 감지하도록 구성될 수 있다. 스로틀 센서 및 제동 센서는 차량의 스로틀 위치 및 제동 위치를 각각 감지한다. 일부 상황에서, 스로틀 센서 및 제동 센서는 집적 스로틀/제동 센서로 통합될 수 있다.
일 실시예에 있어서, 차량 제어 시스템(111)은 조향 유닛(201), 스로틀 유닛(202; 가속 유닛으로도 지칭됨), 및 제동 유닛(203)을 포함하나, 이에 한정되지 않는다. 조향 유닛(201)은 차량의 방향 또는 주행 방향을 조정하도록 구성된다. 스로틀 유닛(202)은 모터 또는 엔진의 속도를 제어하도록 구성되고, 모터 또는 엔진의 속도는 차량의 속도와 가속도를 제어한다. 제동 유닛(203)은 마찰을 제공함으로써 차량의 바퀴 또는 타이어를 늦춤으로써 차량의 속도를 줄인다. 도2에 도시된 부품은 하드웨어, 소프트웨어 또는 이들의 조합으로 구현될 수 있음을 유의하여야 한다.
도1을 다시 참조하면, 무선 통신 시스템(112)은 자율 주행 차량(101)과 외부 시스템(예를 들어, 장치, 센서, 기타 차량 등) 사이의 통신이 가능하도록 한다. 예를 들어, 무선 통신 시스템(112)은 하나 또는 다수의 장치와 무선 통신을 직접 진행할 수 있거나 통신 네트워크를 통해 무선 통신을 진행할 수 있고, 예를 들어, 네트워크(102)를 통해 서버(103-104)와 통신을 진행할 수 있다. 무선 통신 시스템(112)은 임의의 셀룰러 통신망 또는 무선 근거리 통신망(WLAN; 예를 들어, WIFI)을 이용하여 다른 일 부품 또는 시스템과 통신할 수 있다. 예를 들어, 무선 통신 시스템(112)은 적외선 링크, 블루투스 등을 이용하여 장치(예를 들어, 승객의 모바일 장치, 디스플레이 장치, 및 차량(101) 내의 스피커)와 직접 통신할 수 있다. 사용자 인터페이스 시스템(113)은 차량(101) 내에 구현된 주변 장치의 일부분일 수 있고, 예를 들어, 키보드, 터치 스크린 디스플레이 장치, 마이크로폰, 스피커 등을 포함한다.
특히 자율 주행 모드에서 작동할 경우, 자율 주행 차량(101)의 일부 또는 전부 기능은 감지 및 계획 시스템(110)에 의해 제어되거나 관리될 수 있다. 감지 및 계획 시스템(110)은 필요한 하드웨어(예를 들어, 프로세서, 메모리, 및 저장 장치)와 소프트웨어(예를 들어, 운영 체제, 계획 및 노선 배정 프로그램)를 포함하여 센서 시스템(115), 제어 시스템(111), 무선 통신 시스템(112) 및/또는 사용자 인터페이스 시스템(113)에서 정보를 수신하고, 수신된 정보를 처리하고, 시작점으로부터 목적지점까지의 노선 또는 경로를 계획하며, 다음, 계획 및 제어 정보에 기반하여 차량(101)을 운전한다. 선택적으로, 감지 및 계획 시스템(110)은 차량 제어 시스템(111)과 통합될 수 있다.
예를 들어, 승객으로서의 사용자가, 예를 들어, 사용자 인터페이스를 경유하여 트립의 시작 위치와 목적지를 지정할 수 있다. 감지 및 계획 시스템(110)은 트립에 관한 데이터를 획득한다. 예를 들어, 감지 및 계획 시스템(110)은 MPOI 서버에서 위치 및 노선 정보를 획득할 수 있고, 상기 MPOI 서버는 서버(103-104)의 일부분일 수 있다. 위치 서버는 위치 서비스를 제공하고, MPOI 서버는 지도 서비스 및 일부 위치의 POI를 제공한다. 선택적으로, 이러한 위치 및 MPOI 정보는 감지 및 계획 시스템(110)의 영구 저장 장치에 로컬로 캐시될 수 있다.
자율 주행 차량(101)이 노선을 따라 이동할 경우, 감지 및 계획 시스템(110)은 교통 정보 시스템 또는 서버(TIS)에서 실시간 교통 정보를 더 획득할 수 있다. 서버(103-104)는 제3자 엔터티에 의해 작동될 수 있음을 유의하여야 한다. 선택적으로, 서버(103-104)의 기능은 감지 및 계획 시스템(110)과 통합될 수 있다. 실시간 교통 정보, MPOI 정보, 위치 정보 및 센서 시스템(115)에 의해 검측 또는 감지된 실시간 로컬 환경 데이터(예를 들어, 장애물, 대상 및 근처의 차량)에 기반하여, 감지 및 계획 시스템(110)은 감지 및 계획 시스템(110)은 지정된 목적지에 안전하게 효율적으로 도착하도록 최적 노선을 계획하고, 계획된 노선에 따라, 예를 들어, 제어 시스템(111)을 통해 차량(101)을 운전할 수 있다.
서버(103)는 다양한 클라이언트를 위해 데이터 분석 서비스를 수행하는 데이터 분석 시스템일 수 있다. 일 실시예에 있어서, 데이터 분석 시스템(103)은 데이터 수집기(121)와 기계 학습 엔진(122)을 포함한다. 데이터 수집기(121)는 다양한 차량(자율 주행 차량 또는 인간 운전자가 운전하는 상용 차량)에서 주행 통계 데이터(123)를 수집한다. 주행 통계 데이터(123)는, 내리는 주행 명령(예를 들어, 스로틀, 제동, 및 조향 명령)을 지시하는 정보 및 차량의 부동한 자리에 위치한 센서가 실시간 캡처하는 차량의 응답(예를 들어, 속도, 가속도, 감속도, 및 방향)을 포함한다. 주행 통계 데이터(123)는 상이한 시점에서의 주행 환경을 설명하는 정보를 더 포함할 수 있고, 예를 들어, 노선(시작 위치 및 목적지 위치를 포함함), MPOI, 도로 상태, 날씨 상태 등을 포함할 수 있다.
주행 통계 데이터(123)에 기반하여, 기계 학습 엔진(122)은 여러 가지의 목적에서 한 세트의 규칙, 알고리즘 및/또는 예측 모델(124)을 생성 또는 훈련한다. 일 실시예에 있어서, 알고리즘(124)은 적어도 하나의 알고리즘을 포함하여 차도 내의 ADV의 로컬 상대 위치를 계산하고 확정할 수 있다. 차량의 로컬 상대 위치는 차량의 주행 방향과 차량이 처하는 차도의 방향 사이의 각도를 가리킨다. 차도의 방향은 차도의 중심선과 관련된 세로 벡터를 가리킬 수 있다. 로컬 상대 위치는 차량과 중심선 사이의 거리(예를 들어, 차량의 중심과 중심선 사이의 가로 또는 최단 거리)로 표시될 수도 있다. 즉, 차량의 로컬 상대 위치는, (1) 차량의 주행 방향과 중심선의 세로 벡터 사이의 각도, 및 (2) 차량의 중심과 중심선 사이의 최단 거리로 표시된다. 일 실시예에 있어서, 차량과 중심선 사이의 각도 및 거리는 차량의 상이한 위치 또는 점에 설치된 각 카메라에 의해 캡처된 이미지에 기반하여 계산될 수 있다. 다음, 알고리즘(124)은 자율 주행 차량에 실시간으로 업로드될 수 있다.
일 실시예에 따르면, 이미지는 차량에 의해 구체적인 자율 주행 시스템 또는 방법을 이용하여 수집되고 일정 기간 후 주행 통계 데이터(123)의 일부분으로 저장될 수도 있다. 평가 시스템(125)은 호출되어, 이미지를 기반으로 차량이 이미 주행하고 통행한 차도 내의 로컬 상대 위치를 확정함으로써 해당 구체적인 자율 주행 시스템 또는 방법을 분석할 수 있다. 상이한 시점 또는 상이한 주행 상황 또는 주행 환경에서 차량의 로컬 상대 위치에 기반하고 글로벌 절대 위치를 고려하여, 평가 시스템(125)은 자율 주행 시스템이 조정 또는 개선될 필요가 있는지 여부를 확정할 수 있다. 이러한 평가 프로세스는 과거 시간에 주행한 다양한 차량에서 수집된 주행 통계 데이터(123)에 기반하여 오프라인으로 수행될 수 있다.
도3A 및 도3B는 일 실시예에 따른 자율 주행 차량과 함께 사용되는 감지 및 계획 시스템의 예시를 나타내는 블록도이다. 시스템(300)은 도1의 자율 주행 차량(101)의 일부분으로 구현될 수 있고, 감지 및 계획 시스템(110), 제어 시스템(111) 및 센서 시스템(115)을 포함하나, 이에 한정되지 않는다. 도3A 및 도3B를 참조하면, 감지 및 계획 시스템(110)은 위치 측정 모듈(301), 감지 모듈(302), 예측 모듈(303), 결정 모듈(304), 계획 모듈(305), 제어 모듈(306), 노선 배치 모듈(307) 및 자기 위치 측정 모듈(308)을 포함하나, 이에 한정되지 않는다.
모듈(301-308)의 일부 또는 전부는 소프트웨어, 하드웨어, 또는 이들의 조합으로 구현될 수 있다. 예를 들어, 이 모듈들은 영구 저장 장치(352)에 설치될 수 있고, 메모리(351)에 로딩될 수 있고, 하나 또는 다수의 프로세서(미도시)에 의해 실행될 수 있다. 이 모듈들 중의 일부 또는 전부는 도2의 차량 제어 시스템(111)의 일부 또는 전부 모듈에 통신적 방식으로 연결되거나 그들과 통합될 수 있다. 모듈(301-308) 중의 일부는 집적 모듈로 통합될 수 있다.
위치 측정 모듈(301)은 자율 주행 차량(300)의 현재 위치를 확정하고, 예를 들어, GPS 유닛(212)을 이용하여 확정하고, 사용자의 트립 또는 노선과 관련된 임의 데이터를 관리한다. 위치 측정 모듈(301; 지도 및 노선 모듈로도 지칭됨)은 사용자의 트립 또는 노선과 관련된 임의 데이터를 관리한다. 예를 들어, 사용자는 사용자 인터페이스를 경유하여 로그인하고 트립의 시작 위치 및 목적지를 지정할 수 있다. 위치 측정 모듈(301)은 지도 및 노전 정보(311)와 같은 자율 주행 차량(300)의 기타 부품과 통신하여 트립에 관한 데이터를 획득한다. 예를 들어, 위치 측정 모듈(301)은 위치 서버와 지도 및 POI(MPOI) 서버에서 위치 및 노선 정보를 획득할 수 있다. 위치 서버는 위치 서비스를 제공하고, MPOI 서버는 지도 서비스 및 일부 위치의 POI를 제공하고, 따라서, 이는 지도 및 노전 정보(311)의 일부분으로 캐시될 수 있다. 자율 주행 차량(300)이 노선을 따라 이동할 경우, 위치 측정 모듈(301)은 교통 정보 시스템 또는 서버에서 실시간 교통 정보를 획득할 수도 있다.
센서 시스템(115)이 제공한 센서 데이터 및 위치 측정 모듈(301)이 획득한 위치 확정 정보에 기반하여, 감지 모듈(302)은 주변 환경에 대한 감지를 확정한다. 감지 정보는 보통 운전자가 운전하는 차량 주변에서 운전자가 감지하게 되는 것을 표시할 수 있다. 감지는 대상 형식을 이용하는 차도 구성(예를 들어, 직선 차도 또는 곡선 차도), 교통 신호, 다른 일 차량의 상대 위치, 보행자, 건물, 횡단 보도 또는 교통에 관한 기타 표지(예를 들어, 정지 표지, 양보 표지) 등과 같은 것을 포함할 수 있다.
감지 모듈(302)은 컴퓨터 시각 시스템 또는 컴퓨터 시각 시스템의 기능을 포함하여 하나 또는 다수의 카메라에 의해 수집된 이미지를 처리하고 분석할 수 있고, 따라서, 자율 주행 차량의 환경 중의 대상 및/또는 특징을 식별하게 된다. 상기 대상은 교통 신호, 도로 경계선, 기타 차량, 보행자 및/또는 장애물 등을 포함할 수 있다. 컴퓨터 시각 시스템은 대상 인식 알고리즘, 동영상 추적 및 기타 컴퓨터 시각 기술을 이용할 수 있다. 일부 실시예에 있어서, 컴퓨터 시각 시스템은 환경 지도를 제작하고 대상을 추적하고 대상의 속도를 추산할 수 있다. 감지 모듈(302)은 레이더 및/또는 LIDAR와 같은 기타 센서에 의해 제공된 기타 센서 데이터에 기반하여 대상을 검측할 수도 있다.
각 대상에 대하여, 예측 모듈(303)은 대상이 환경에서 어떻게 표현하는지를 예측한다. 지도/노선 정보(311) 및 교통 규칙(312)의 집합을 감안하여, 상기 예측은 해당 시점에서 주행 환경을 감지하는 감지 데이터를 기반으로 수행된다. 예를 들어, 대상이 반대 방향을 따른 차량이고 현재 주행 환경이 교차로를 포함할 경우, 예측 모듈(303)은 차량이 앞으로 직진할지, 회전을 할지를 예측하게 된다. 감지 데이터가 교차로에 신호등이 없는 것을 지시할 경우, 예측 모듈(303)은 차량이 교차로에 들어가기 전에 완전히 정지하여야 할 수 있는지를 예측할 수 있다. 감지 데이터가 차량이 현재 좌회전 전용 차도 또는 우회전 전용 차도에 처하는 것을 지시할 경우, 예측 모듈(303)은 차량이 좌회전 또는 우회전을 할 가능성이 더 높은 것을 각각 예측할 수 있다.
각 대상에 대하여, 결정 모듈(304)은 대상을 어떻게 처리하는지에 관한 결정을 내린다. 예를 들어, 특정 대상(예를 들어, 교차로 중의 다른 일 차량) 및 대상을 설명하는 메타데이터(예를 들어, 속도, 방향, 및 회전 각도)에 대하여, 결정 모듈(304)은 상기 대상과 어떻게 마주치는지(예를 들어, 추월, 양보, 정지, 및 초과)를 결정한다. 결정 모듈(304)은 교통 규칙 또는 주행 규칙(312)과 같은 규칙 집합에 따라 이러한 결정을 내릴 수 있고, 상기 규칙 집합은 영구 저장 장치(352)에 저장될 수 있다.
노선 배치 모듈(307)은 시작점으로부터 목적지점까지의 하나 또는 다수의 노선 또는 경로를 제공하도록 구성된다. 시작 위치로부터 목적지 위치까지의 지정된 트립(예를 들어, 사용자로부터 수신된 지정된 트립)에 대하여, 노선 배치 모듈(307)은 노선 및 지도 정보(311)를 획득하고, 시작 위치로부터 목적지 위치에 도착하는 모든 가능한 노선 또는 경로를 확정한다. 노선 배치 모듈(307)은 이에 의해 확정되고 시작 위치로부터 목적지 위치에 도착하는 각 노선을 위해 지형도의 형식으로 기준선을 생성할 수 있다. 기준선은 기타 차량, 장애물 또는 교통 상황과 같은 기타 것들에서 아무런 방해를 받지 않는 이상적인 노선 또는 경로를 가리킨다. 즉, 도로 위에 기타 차량, 보행자 또는 장애물이 없을 경우, ADV는 기준선을 정확하게 또는 긴밀하게 따라야 한다. 다음, 지형도는 결정 모듈(304) 및/또는 계획 모듈(305)에 제공된다. 기타 모듈에 의해 제공된 기타 데이터(예를 들어, 위치 측정 모듈(301)로부터의 교통 상황, 감지 모듈(302)에 의해 감지된 주행 환경, 및 예측 모듈(303)에 의해 예측된 교통 상황)를 고려하여, 결정 모듈(304) 및/또는 계획 모듈(305)은 모든 가능한 노선을 검사하여 최적 노선 중의 하나를 선택하고 변경한다. 시점에서의 특정 주행 환경에 의존하여, ADV를 제어하기 위한 실제 경로 또는 노선은 노선 배치 모듈(307)에 의해 제공된 기준선과 가깝거나 다를 수도 있다.
감지된 대상 중의 각각에 대한 결정에 기반하여, 계획 모듈(305)은 노선 배치 모듈(307)에 의해 제공된 기준선을 기초로 하여, 자율 주행 차량을 위해 경노 또는 노선, 및 주행 파라미터(예를 들어, 거리, 속도 및/또는 회전 각도)를 계획한다. 즉, 지정된 대상에 대하여, 결정 모듈(304)은 해당 대상에 대해 뭘 하는지를 결정하고, 계획 모듈(305)은 어떻게 할지를 확정한다. 예를 들어, 지정된 대상에 대하여, 결정 모듈(304)은 대상를 초과하는 것을 결정할 수 있고, 계획 모듈(305)은 대상의 왼쪽 또는 오른쪽에서 초과하는지를 확정할 수 있다. 계획 및 제어 데이터는 계획 모듈(305)에 의해 생성되고, 차량(300)이 다음 이동 사이클(예를 들어, 다음 노선/경로 세그먼트)에서 어떻게 이동할지를 설명하는 정보를 포함한다. 예를 들어, 계획 및 제어 데이터는 차량(300)이 시속 30마일(mph)의 속도로 10m를 이동하고, 다음, 25mph의 속도로 오른쪽 차도로 변경하도록 지시할 수 있다.
계획 및 제어 데이터에 기반하여, 제어 모듈(306)은 계획 및 제어 데이터에 의해 한정된 노선 또는 경로에 따라 적절한 명령 또는 신호를 차량 제어 시스템(111)에 발송함으로써 자율 주행 차량을 제어하고 운전한다. 상기 계획 및 제어 데이터는 충분한 정보를 포함하여, 경로 또는 노선을 따라 상이한 시점에서 적절한 차량 설정 또는 주행 파라미터(예를 들어, 스로틀, 제동 및 회전 명령)를 이용하여 차량을 노선 또는 경로의 제1 점으로부터 제2점에 운전하도록 한다.
일 실시예에 있어서, 계획 단계는 다수의 계획 주기(명령 주기로도 지칭됨)에서 수행되고, 예를 들어, 기간이 100 밀리초(ms)인 모든 주기에서 수행된다. 각 계획 주기 또는 명령 주기에 대하여, 하나 또는 다수의 제어 명령은 계획 및 제어 데이터를 기반으로 내리게 된다. 즉, 각 100ms에 대하여, 계획 모듈(305)은 다음 노선 세그먼트 또는 경로 세그먼트를 계획하고, 예를 들어, 목표 위치 및 ADV가 목표 위치에 도착하는 데 필요한 시간을 포함한다. 선택적으로, 계획 모듈(305)은 구체적인 속도, 방향 및/또는 조향 각도 등을 더 규정할 수 있다. 일 실시예에 있어서, 계획 모듈(305)은 다음 예정된 기간(예를 들어, 5초)의 노선 세그먼트 또는 경로 세그먼트를 계획한다. 각 계획 주기에 대하여, 계획 모듈(305)은 지난 주기에서 계획된 목표 위치에 기반하여 현재 주기(예를 들어, 다음 5초)의 목표 위치를 계획한다. 다음, 제어 모듈(306)은 현재 주기의 계획 및 제어 데이터에 기반하여 하나 또는 다수의 제어 명령(예를 들어, 스로틀, 제동, 조향 제어 명령)을 생성한다.
결정 모듈(304) 및 계획 모듈(305)은 집적 모듈로 통합될 수 있음을 유의하여야 한다. 결정 모듈(304)/계획 모듈(305)은 네비게이션 시스템 또는 네비게이션 시스템의 기능을 포함하여 자율 주행 차량의 주행 경로를 확정할 수 있다. 예를 들어, 네비게이션 시스템은 아래와 같은 경로를 따른 자율 주행 차량의 이동을 구현하기 위한 일련의 속도 및 주행 방향을 확정할 수 있다. 상기 경로는 자율 주행 차량로 하여금 최종 목적지에 향하고 차도에 기반하는 경로를 따라 주행하는 동시에 감지된 장애물을 기본적으로 피하도록 한다. 목적지는 사용자 인터페이스 시스템(113)을 통해 진행하는 사용자 입력에 따라 설정될 수 있다. 내비게이션 시스템은 자율 주행 차량이 작동하는 동시에 주행 경로를 동적으로 업데이트할 수 있다. 네비게이션 시스템은 GPS 시스템 및 하나 또는 다수의 지도로부터의 데이터를 병합하여 자율 주행 차량을 위한 주행 경로를 확정할 수 있다.
결정 모듈(304)/계획 모듈(305)은 충돌 회피 시스템 또는 충돌 회피 시스템의 기능을 더 포함하여 자율 주행 차량의 환경 중의 잠재적인 장애물을 식별하고 평가하고 회피하거나 기타 방식으로 넘어갈 수 있다. 예를 들어, 충돌 회피 시스템은 제어 시스템(111) 내의 하나 또는 다수의 서브 시스템을 작동하여 방향을 바꾸는 동작, 회전 동작, 제동 동작 등과 같은 방식을 통해 내비게이션에서 자율 주행 차량의 변화를 구현할 수 있다. 충돌 회피 시스템은 주변의 교통 패턴, 도로 상황 등에 기반하여 가능한 장애물 회피 동작을 자동적으로 확정할 수 있다. 충돌 회피 시스템은 자율 주행 차량이 방향을 바꿔 들어가는 근접 구역에 처하는 차량, 건축 장애물 등이 기타 센서 시스템에 의해 검측될 경우 방향을 바꾸는 동작을 채용하지 않도록 구성될 수 있다. 충돌 회피 시스템은 자율 주행 차량의 탑승자의 안전성을 최대화하고 사용 가능한 동작을 자동적으로 선택할 수 있다. 충돌 회피 시스템은 자율 주행 차량의 승객실 중에서 최소의 가속도가 나타나도록 하는 것으로 예측된 회피 동작을 선택할 수 있다.
일 실시예에 있어서, 자기 위치 측정 모듈(308)은 차량의 다양한 위치 또는 점에 설치된 일부 센서를 이용하여 차량이 주행하는 차도 내의 그의 상대 위치를 확정하도록 구성된다. 예를 들어, 일부 카메라는 차량의 상이한 위치에 설치되어 차량의 주변 환경에 관한 이미지를 캡처할 수 있다. 카메라는 차도의 가장자리에 관한 이미지를 캡처하는 데 사용될 수 있다. 캡처된 이미지에 기반하여, 차량과 차도 또는 도로의 가장자리 사이의 거리는 이미지 인식 프로세스 또는 알고리즘을 이용하여 확정될 수 있다.
차량과 차도의 가장자리 사이의 거리에 기반하여, 차도 내 차량의 로컬 상대 위치가 확정될 수 있다. 차도 내 차량의 로컬 상대 위치는 차량의 주행 방향과 차도 방향(예를 들어, 중심선 또는 기준선의 세로 벡터) 사이의 각도 및 차량(예를 들어, 차량의 중심)과 차도의 중심선/기준선 사이의 거리(예를 들어, 최단 거리)를 가리킨다. 차량의 로컬 상대 위치는 차량의 위치/지점을 확정하는 데 도움이 되도록 위치 측정 모듈(301)로 피드백될 수 있고, 차량의 위치/지점은 도3B에 도시된 계획 모듈(305) 및 제어 모듈(306) 등과 같은 기타 다운스트림 모듈에 의해 이용될 수 있다.
일 실시예에 있어서, 자기 위치 측정 모듈(308)은 가로 거리 계산기(321) 및 방향각 계산기(322)를 포함한다. 가로 거리 계산기(321)는 차량과 차도의 중심선 사이의 거리를 계산하도록 구성된다. 방향각 계산기(322)는 차량의 주행 방향과 차도의 중심선 사이의 각도를 계산하도록 구성된다. 상기 거리 및 각도는 차량의 다수의 점과 차도의 왼쪽 가장자리 및 오른쪽 가장자리 사이의 거리에 기반하여 계산될 수 있다. 차량의 점과 차도의 가장자리 사이의 거리는 이 점들 근처의 카메라를 이용하여 캡처된 이미지에서 획득될 수 있다. 따라서, 차도 내의 차량의 로컬 상대 위치를 확정하는 것에 대해 일부 카메라를 차량의 일부 점에 설치하는 것은 매우 중요하다. 일 실시예에 있어서, 카메라는 차량의 맨 끝의 점에 설치되고, 즉, 차도의 가장자리에서 가장 가까운 점에 설치된다.
도4를 참조하면,이 실시예에 있어서, 차량(400)의 4 개의 코너에 설치된 적어도 4 개의 카메라(예를 들어, 카메라(401-404))가 존재한다. 카메라(401-404)의 렌즈는 바깥쪽으로 차도(410)의 가장자리(405-406)를 향하도록 구성된다. 카메라가 차량 상에 설치된 위치는 차량의 가장 가까운 점과 차도(410)의 가장자리(405-406) 사이의 거리를 측정하도록 확정될 수 있다. 일 실시예에 있어서, 카메라(401-404)는 차량의 4 개의 코너에 설치된다. 이 실시예에 있어서, 카메라(401)는 차량의 전단의 왼쪽 코너에 설치되고, 카메라(402)는 차량의 전단의 오른쪽 코너에 설치된다. 카메라(403)는 차량의 후단의 왼쪽 코너에 설치되고, 카메라(404)는 차량의 후단의 오른쪽 코너에 설치된다.
차량이 이동하여 차도(410)를 통행할 경우, 카메라(401-404)는 차도(410)의 가장자리(405-406)에 관한 이미지를 주기적으로 또는 지속적으로 캡처한다. 이미지는 이미지(315)의 일부분으로 영구 저장 장치(352)와 같은 영구 저장 장치에 저장될 수 있다. 이미지(315)는 차량의 자율 주행 기간에 캡처되고 기록된(예를 들어, 타임 스탬프, 관련 위치를 구비하는) 주행 통계 데이터(313)의 일부분으로 저장되거나 상기 주행 통계 데이터와 관련되어 저장될 수 있다. 캡처된 이미지는 차도(410) 내의 차량의 로컬 상대 위치룰 확정하도록 자기 위치 측정 모듈(308)에 의해 이용될 수 있고, 상기 차량의 로컬 상대 위치는 차량의 정확한 위치를 확정하도록 위치 측정 모듈(301)에 의해 이용될 수 있다. 차량의 정확한 위치는 GPS 및 IMU 정보를 기반으로 확정된 절대 위치, 및 차량의 다양한 전략 설치점에 설치된 카메라에 의해 캡처된 이미지를 기반으로 확정된 차도 내의 상대 위치를 포함할 수 있다.
일 실시예에 따르면, 자기 위치 측정 모듈(308)은 거리 측정 모듈 또는 이미지 분석 모듈(미도시)을 포함하여 이미지를 캡처하는 카메라와 목표 대상(예를 들어, 차도의 가장자리) 사이의 거리를 분석하고 측정한다. 이미지를 기반으로 거리를 측정하는 데 이용될 수 있고 잘 알려져 있는 많은 알고리즘 또는 방법이 존재하는데, 이들의 세부 사항은 여기서 설명하지 않기로 한다. 도4에 도시된 바와 같이, 거리 측정 모듈은 카메라(401)에 의해 캡처된 제1 이미지에 기반하여 카메라(401)와 차도(410)의 가장자리(405) 사이의 제1 거리(L1; 예를 들어, 카메라(401)와 왼쪽 가장자리(405) 사이의 최단 거리)를 측정한다. 거리 측정 모듈은 카메라(402)에 의해 캡처된 제2 이미지에 기반하여 카메라(402)와 차도(410)의 가장자리(406) 사이의 제2 거리(L2; 예를 들어, 카메라(401)와 오른쪽 가장자리(406) 사이의 최단 거리)를 측정한다. 유사하게, 거리 측정 모듈은 카메라(403)에 의해 캡처된 제3 이미지에 기반하여 카메라(403)와 차도(410)의 가장자리(405) 사이의 제3 거리(L3)를 측정한다. 거리 측정 모듈은 카메라(404)에 의해 캡처된 제4 이미지에 기반하여 카메라(404)와 차도(410)의 가장자리(406) 사이의 제4 거리(L4)를 측정한다.
거리(L1- L4)에 기반하여, 가로 거리 계산기(321)는 차량의 위치와 차도(410)의 중심선(420; 또는 기준선) 사이의 거리(S)를 계산하도록 구성된다. 일 실시예에 있어서, 차량의 위치는 차량 길이(VL) 및 차량 너비(VW)를 고려하는 차량의 중심점(415)으로 표시된다. 차량의 물리적 크기(예를 들어, VL 및 VW)는 차량의 제조자에 의존하여 변할 수 있다. 차량의 물리적 규격은 제조자로부터 획득되고 차량 내에 저장될 수 있다. 일 실시예에 있어서, 가로 거리(S)는 (L1+L3)와 (L2+L4) 사이의 차에 기반하여 확정될 수 있다. 구체적인 실시예에 있어서, 가로 거리(S)는 다음과 같이 확정될 수 있다:
S=[(L1+L3)-(L2+L4)]/2
가로 거리(S)의 양수 값은 차량의 대부분(예를 들어, 차량의 중심)이 현재 차도(410)의 중심선(420)의 오른쪽에 처하는 것을 지시한다. 유사하게, 가로 거리(S)의 음수 값은 차량이 현재 차도(410)의 중심선(420)의 왼쪽에 처하는 것을 지시한다.
또한, 방향각 계산기(322)는 차량의 주행 방향과 차도(410)의 방향 사이의 각도(θ)를 계산하도록 구성된다. 차도(410)의 방향은 중심선(420)과 관련된 세로 벡터로 표시된다. 유사하게, 차량의 주행 방향은 차량의 전단과 후단을 따르는 세로 벡터(예를 들어, 선 또는 벡터(425))를 가리킨다. 일 실시예에 있어서, 차량의 방향과 차도(410)의 방향 사이의 각도(θ)는 L1과 L3 사이의 차에 기반하고 차량의 차량 길이(VL)를 고려하여 확정될 수 있다. 선택적으로, 각도(θ)는 L2와 L4 사이의 차에 기반하고 차량의 VL를 고려하여 확정될 수 있다. 예를 들어, 각도(θ)는 |L1-L3|/VL 또는 |L2-L4|/VL의 비율에 기반하여 확정될 수 있다. 구체적인 실시예에 있어서, 각도(θ)는 다음과 같이 확정될 수 있다:
θ=arcsin(|L1-L3|/VL) 또는
θ=arcsin(|L2-L4|/VL)
도5는 일 실시예에 따른 차도 내의 자율 주행 차량의 로컬 상대 위치를 확정하는 프로세스를 나타내는 흐름도이다. 프로세스(500)는 처리 논리에 의해 수행될 수 있고, 상기 처리 논리는 소프트웨어, 하드웨어 또는 이들의 조합을 포함할 수 있다. 예를 들어, 프로세스(500)는 자기 위치 측정 모듈(308)에 의해 수행될 수 있다. 도5를 참조하면, 조작(501)에서, 처리 논리는 ADV의 제1 설치 위치 또는 설치점에 설치된 제1 카메라에 의해 캡처된 제1 이미지에 기반하여 ADV의 전단과 ADV가 주행하는 차도의 왼쪽 가장자리 사이의 제1 거리를 측정한다. 조작에서, 처리 논리는 ADV의 전단의 제1 설치 위치 또는 설치점에 설치된 제1 카메라에 의해 캡처된 제1 이미지에 기반하여 ADV의 전단과 ADV가 주행하는 차도의 제1 가장자리(예를 들어, 왼쪽 가장자리) 사이의 제1 거리를 측정한다. 조작(502)에서, 처리 논리는 ADV의 전단의 제2 설치 위치 또는 설치점에 설치된 제2 카메라에 의해 캡처된 제2 이미지에 기반하여 ADV의 전단과 차도의 제2 가장자리(예를 들어, 오른쪽 가장자리) 사이의 제2 거리를 측정한다. 조작(503)에서, 처리 논리는 ADV의 후단의 제3 설치 위치 또는 설치점에 설치된 제3 카메라에 의해 캡처된 제3 이미지에 기반하여 ADV의 후단과 차도의 제1 가장자리 사이의 제3 거리를 측정한다. 조작(504)에서, 처리 논리는 ADV의 후단의 제4 설치 위치 또는 설치점에 설치된 제4 카메라에 의해 캡처된 제4 이미지에 기반하여 ADV의 후단과 차도의 제2 가장자리 사이의 제4 거리를 측정한다. 조작(505)에서, 제1 거리, 제2 거리, 제3 거리 및 제4 거리에 기반하여 ADV의 로컬 상대 위치/지점(예를 들어, 가로 거리, 및 각도)을 확정한다.
전술한 바와 같이, 상술한 자기 위치 측정 기술은 자율 주행 차량을 계획하고 제어하기 위한 자율 주행 방법 또는 알고리즘의 품질을 평가하는 데 사용될 수도 있다. 차량의 로컬 상대 위치는, 원하는 결과 등을 구현하도록 구체적인 계획 및 제어 알고리즘은 수행되는지 여부를 확정하는 데 사용될 수 있다. 상기 평가 프로세스는 차량이 수집한(카메라에 의해 캡처되고 차량이 주행하는 차도의 가장자리에 관련된 이미지를 포함하는) 주행 통계 데이터에 기반하여 오프라인으로 수행될 수 있다. 예를 들어, 평가 시스템(125)은 자기 위치 측정 모듈(308)을 포함하여, 상이한 시점에서 상이한 차도 또는 도로 내의 차량의 로컬 상대 위치를 확정할 수 있다. 자율 주행 알고리즘 또는 방법은 평가를 고려하는 전제하에 수정되거나 개선될 수 있다.
도6은 일 실시예에 따른 자율 주행 계획 방법을 평가하는 프로세스를 나타내는 흐름도이다. 프로세스(600)는 처리 논리에 의해 수행될 수 있고, 상기 처리 논리는 소프트웨어, 하드웨어 또는 이들의 조합을 포함할 수 있다. 예를 들어, 프로세스(600)는 도1의 평가 시스템(125)에 의해 수행될 수 있다. 도6을 참조하면, 조작(601)에서, 처리 논리는 다양한 차도 및 도로에 주행하는 각 차량이 수집한 주행 통계 데이터를 수신한다. 주행 통계 데이터는 차량의 카메라에 의해 캡처되고 차량이 주행하는 차도 또는 도로의 가장자리에 관련된 이미지를 포함할 수 있다. 조작(602)에서, 선택된 차량의 일부 차도의 선택된 각 차도 세그먼트에 대하여, 처리 논리는 차량의 상이한 설치 위치에 설치된 카메라에 의해 캡처된 이미지에 기반하여 차량과 차도의 가장자리 사이의 거리(예를 들어, L1-L4)를 측정한다. 조작(603)에서, 처리 논리는 차량과 차도의 가장자리 사이의 거리에 기반하여 차도 내의 차량의 로컬 상대 위치를 확정한다. 조작(604)에서, 처리 논리는 상이한 시점에서 상이한 차도 또는 도로 내의 차량의 로컬 상대 위치에 기반하여 동일한 차량을 운전하는 데 사용된 자율 주행 방법 또는 알고리즘에 대해 평가를 진행한다. 필요하면, 조작(605)에서, 자율 주행 알고리즘은 상기 평가를 기반으로 수정되거나 개선될 수 있다.
위에 나타나고 설명된 부품 중의 일부 또는 전부는 소프트웨어, 하드웨어 또는 이들의 조합에서 구현될 수 있음을 유의하여야 한다. 예를 들어, 이러한 부품은 영구 저장 장치에 설치되고 저장되는 소프트웨어로 구현될 수 있고, 상기 소프트웨어는 프로세서(미도시)를 통해 메모리에 로딩되고 메모리에서 실행되어 본 출원의 전문에 나타난 상기 프로세스 또는 조작을 구현할 수 있다. 선택적으로, 이러한 부품은 전용 하드웨어(예를 들어, 집적 회로(예를 들어, 전용 집적 회로(ASIC)), 디지털 신호 프로세서(DSP), 또는 필드 프로그램 가능한 게이트 어레이(FPGA))에 프로그래밍되거나 내장된 실행 가능한 코드로 수현될 수 있다. 상기 실행 가능한 코드는 애플리케이션으로부터의 상응한 드라이버 및/또는 운영 체제를 통해 액세스될 수 있다. 또한, 이러한 부품은 프로세서 또는 프로세서 코어 중의 특정 하드웨어 논리로 구현되어, 소프트웨어 부품에 의해 하나 또는 다수의 특정 명령어를 통해 액세스하는 명령어 집합의 일부분으로 사용될 수 있다.
도7은 본 개시의 일 실시예와 함께 사용될 수 있는 데이터 처리 시스템의 예시를 나타내는 블록도이다. 예를 들어, 시스템(1500)은 상술한 상기 프로세스 또는 방법 중의 임의의 하나를 수행하는 임의 데이터 처리 시스템을 표시할 수 있고, 예를 들어, 도1의 감지 및 계획 시스템(110) 또는 서버(103-104) 중의 임의의 하나를 표시할 수 있다. 시스템(1500)은 다수의 상이한 부품을 포함할 수 있다. 이러한 부품들은 집적 회로(IC), 집적 회로의 부분, 분리된 전자 장치 또는 회로판(예를 들어, 컴퓨터 시스템의 메인보드 또는 플러그인 카드)에 적합한 기타 모듈로 구현될 수 있거나, 또는 기타 방식으로 컴퓨터 시스템의 섀시 내에 통합된 부품으로 구현될 수 있다.
시스템(1500)은 컴퓨터 시스템의 다수의 부품의 고차적 도면을 도시하는 것을 목적으로 함을 더 유의하여야 한다. 그러나, 일부 실시예에서 추가 부품이 존재할 수 있고, 또한, 기타 실시예에서는 도시된 부품의 상이한 배치가 나타날 수 있다는 것을 이해하여야 한다. 시스템(1500)은 데스크톱 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 서버, 이동 전화, 미디어 플레이어, 개인용 휴대 단말기(PDA), 스마트워치, 개인 휴대 통신기, 게임 장치, 네트워크 라우터 또는 허브, 무선 액세스 포인트(AP) 또는 리피터, 셋탑 박스, 또는 이들의 조합을 표시할 수 있다. 또한, 오직 하나의 기계 또는 시스템만 도시하였으나, 용어 "기계" 또는 "시스템"은 단독적으로 또는 공동으로 하나(또는 다수)의 명령어 집합을 실행하여 본 명세서에 설명된 임의의 하나 또는 다수의 방법을 수행하는 기계 또는 시스템의 임의의 집합을 포함한다는 것으로도 이해되어야 한다.
일 실시예에 있어서, 시스템(1500)은 버스 또는 상호 연결 장치(1510)를 통하여 연결된 프로세서(1501), 메모리(1503) 및 장치(1505-1508)를 포함한다. 프로세서(1501)는 하나의 프로세서 코어 또는 다수의 프로세서 코어를 포함하는 하나의 프로세서 또는 다수의 프로세서를 표시할 수 있다. 프로세서(1501)는 하나 또는 다수의 범용 프로세서를 표시할 수 있고, 예를 들어, 마이크로 프로세서, 중앙 처리 장치(CPU) 등을 표시할 수 있다. 더 구체적으로, 프로세서(1501)는 복잡 명령어 집합 컴퓨팅(CISC) 마이크로 프로세서, 축소 명령어 집합 컴퓨팅(RISC) 마이크로 프로세서, 훨씬 긴 명령어(VLIW) 마이크로 프로세서, 또는 기타 명령어 집합을 실현하는 프로세서, 또는 명령어 집합의 조합을 실현하는 프로세서일 수 있다. 프로세서(1501)는 하나 또는 다수의 전용 프로세서일 수도 있고, 예를 들어, 전용 집적 회로(ASIC), 셀룰러 또는 베이스밴드 프로세서, 필드 프로그램 가능한 게이트 어레이(FPGA), 디지털 신호 프로세서(DSP), 네트워크 프로세서, 그래픽 프로세서, 통신 프로세서, 암호화 프로세서, 코프로세서, 내장형 프로세서 또는 명령어를 처리할 수 있는 모든 기타 유형의 논리일 수 있다.
프로세서(1501)는 상기 시스템의 각종 부품들과 통신하기 위한 메인 처리 유닛 및 중앙 허브로 작용할 수 있으며, 상기 프로세서(1501)는 초저 전압 프로세서와 같은 저출력 다중 코어 프로세서 소켓일 수 있다. 이러한 프로세서는 시스템 온 칩(SoC)으로 구현될 수 있다. 프로세서(1501)는 본 명세서에 기재된 조작 및 단계를 수행하기 위한 명령어를 실행하도록 구성된다. 시스템(1500)은 선택적인 그래픽 서브 시스템(1504)과 통신하기 위한 그래픽 인터페이스를 더 포함할 수 있고, 상기 그래픽 서브 시스템(1504)은 디스플레이 제어기, 그래픽 프로세서 및/또는 디스플레이 장치를 포함할 수 있다.
프로세서(1501)는 메모리(1503)와 통신할 수 있고, 메모리(1503)는 일 실시예에 있어서 다수의 메모리 장치로 구현되어 기정 량의 시스템 메모리를 제공할 수 있다. 메모리(1503)는 랜덤 액세스 메모리(RAM), 동적 RAM(DRAM), 싱크로너스 DRAM(SDRAM), 스태틱 RAM(SRAM)과 같은 하나 또는 다수의 휘발성 저장(또는 메모리) 장치 또는 기타 유형의 저장 장치를 포함할 수 있다. 메모리(1503)는 프로세서(1501) 또는 기타 임의의 장치에 의해 실행되는 명령어 서열을 포함하는 정보를 저장할 수 있다. 예를 들어, 다양한 운영 체제, 장치 드라이버, 펌웨어(예를 들어, 기본 입출력 체계 또는 BIOS) 및/또는 애플리케이션의 실행 가능한 코드 및/또는 데이터는 메모리(1503)에 로딩되어, 프로세서(1501)에 의해 실행될 수 있다. 운영 체제는 임의의 유형의 운영 체제일 수 있으며, 예를 들어, 로봇 운영 체제(ROS), Microsoft®의 Windows® 운영 체제, 애플의 Mac OS®/iOS®, Google®의 Android®, Linux®, Unix®, 또는 기타 실시간 또는 내장형 운영 체제일 수 있다.
시스템(1500)은 네트워크 인터페이스 장치(1505), 선택적인 입력 장치(1506) 및 기타 선택적인 IO 장치(1507)를 포함하는 장치(1505-1508)와 같은 IO 장치를 더 포함할 수 있다. 네트워크 인터페이스 장치(1505)는 무선 트래시버 및/또는 네트워크 인터페이스 카드(NIC)를 포함할 수 있다. 무선 트랜시버는 WiFi 트랜시버, 적외선 트랜시버, 블루투스 트랜시버, WiMax 트랜시버, 무선 셀룰러 텔레포니 트랜시버, 위성 트랜시버(예를 들어, 위성 위치 확인 시스템(GPS) 트랜시버) 또는 기타 무선 주파수(RF) 트랜시버 또는 이들의 조합일 수 있다. NIC는 이더넷 카드일 수 있다.
입력 장치(1506)는 마우스, 터치 패드, 터치 감응식 스크린(디스플레이 장치(1504)에 통합될 수 있음), 스타일러스와 같은 포인터 장치, 및/또는 키보드(예를 들어, 물리적 키보드 또는 터치 감응식 스크린의 일부분으로 표시된 가상 키보드)를 포함할 수 있다. 예를 들어, 입력 장치(1506)는 터치 스크린에 연결된 터치 스크린 제어기를 포함할 수 있다. 터치 스크린 및 터치 스크린 제어기는, 예를 들어, 다수의 터치 감응 기술(용량성, 저항성, 적외선, 및 표면 탄성파 기술을 포함하나, 이에 한정되지 않음) 중 임의의 하나, 및 기타 근접각 센서 어레이 또는 터치 스크린과의 하나 또는 다수의 접촉점을 확정하기 위한 기타 부품을 이용하여 터치 스크린의 접촉 및 이동 또는 중단을 검측할 수 있다.
IO 장치(1507)는 오디오 장치를 포함할 수 있다. 오디오 장치는 스피커 및/또는 마이크로 폰 을 포함함으로써 음성 인식, 음성 복제, 디지털 녹음 및/또는 전화 기능과 같은 음성 지원 기능이 가능하도록 할 수 있다. 기타 IO 장치(1507)는 범용 직렬 버스 라인(USB) 포트, 병렬 포트, 직렬 포트, 프린터, 네트워크 인터페이스, 버스 브리지(예를 들어, PCI-PCI 브리지), 센서(예를 들어, 가속도계, 자이로스코프(gyroscope), 자력계, 광 센서, 나침판, 근접각 센서 등과 같은 동작 센서) 또는 이들의 조합을 더 포함할 수 있다. 장치(1507)는 이미징 처리 서브 시스템(예를 들어, 카메라)를 더 포함할 수 있고, 상기 이미징 처리 서브 시스템은 고체 촬상 소자(CCD) 또는 상보형 금속산화 반도체(CMOS) 광학 센서와 같이, 사진 및 비디오 클립을 기록하는 것과 같은 카메라 기능을 향상하도록 하기 위한 광학 센서를 포함할 수 있다. 일부 센서는 센서 허브(미도시)를 통해 상호연결 장치(1510)에 연결될 수 있고, 키보드 또는 온도 센서와 같은 기타 장치는 시스템(1500)의 구체적인 구성 또는 디자인에 따라 내장된 제어기(미도시)에 의해 제어될 수 있다.
데이터, 애플리케이션, 하나 또는 다수의 운영 체제 등과 같은 정보에 대한 영구 저장을 제공하기 위해, 프로세서(1501)에 대용량 저장 장치(미도시)가 연결될 수도 있다. 각종 실시예에 있어서, 더 얇고 가벼운 시스템 디자인을 실현하고 시스템 응답력을 향상시키기 위해, 상기 대용량 저장 장치는 고체 디바이스(SSD)를 통해 구현될 수 있다. 그러나, 기타 실시예에 있어서, 대용량 저장 장치는 주로 하드디스크 드라이브(HDD)를 이용하여 구현될 수 있으며, 비교적 적은 량의 SSD 저장 장치를 SSD 캐시로 작용하도록 하여 파워 다운 상황에서 맥락 상태 및 기타 유사한 정보에 대한 비휘발성 저장을 실현함으로써, 시스템 활동이 리부팅될 경우 빠른 파워 업을 실현할 수 있다. 또한, 플래시 장치는, 예를 들어, 직렬 주변 장치 인터페이스(SPI)를 통해 프로세서(1501)에 연결될 수 있다. 이러한 플래시 장치는 시스템 소프트웨어에 대한 비휘발성 저장을 제공할 수 있고, 상기 시스템 소프트웨어는 상기 시스템의 BIOS 및 기타 펌웨어를 포함한다.
저장 장치(1508)는 컴퓨터 액세스 가능한 저장 매체(1509; 기계 판독 가능한 저장 매체 또는 컴퓨터 판독 가능한 매체라고도 함)를 포함할 수 있고, 컴퓨터 액세스 가능한 저장 매체에는 본 명세서에 설명된 임의 하나 또는 다수의 방법 또는 기능을 구현하는 하나 또는 다수의 명령어 집합 또는 소프트웨어(예를 들어, 모듈, 유닛 및/또는 로직(1528))가 저장된다. 처리 모듈/유닛/로직(1528)은 전술된 부품 중의 임의의 하나를 표시할 수 있고, 예를 들어, 계획 모듈(305), 제어 모듈(306) 및/또는 자기 위치 측저ㅇ 모듈(308)를 표시할 수 있다. 처리 모듈/유닛/로직(1528)은 데이터 처리 시스템(1500), 메모리(1503) 및 프로세서(1501)에 의해 실행되는 동안, 완전히 또는 적어도 부분적으로 메모리(1503) 및/또는 프로세서(1501) 내에 위치될 수도 있으며, 여기서 데이터 처리 시스템(1500), 메모리(1503) 및 프로세서(1501)는 기계 액세스 가능한 저장 매체를 구성하기도 한다. 처리 모듈/유닛/로직(1528)은 네트워크를 통해 네트워크 인터페이스 장치(1505)를 경유하여 발신 또는 수신될 수도 있다.
컴퓨터 판독 가능한 저장 매체(1509)는 상술한 일부 소프트웨어 기능을 영구적으로 저장하기 위한 것일 수도 있다. 예시적인 실시예에서 컴퓨터 판독 가능한 저장 매체(1509)는 단일 매체로 도시되였으나, 용어 "컴퓨터 판독 가능한 저장 매체"는 하나 또는 다수의 명령어 집합을 저장하는 단일 매체 또는 다수의 매체(예를 들어, 중앙 집중식 또는 분산형 데이터베이스 및/또는 관련된 캐시 및 서버)를 포함하는 것으로 이해해야 한다. 또한, 용어 "컴퓨터 판독 가능한 저장 매체"는 명령어 집합을 저장하거나 인코딩할 수 있는 임의의 매체를 포함하는 것으로 이해해야 하고, 상기 명령어 집합은 기계에 의해 실행되고, 기계로 하여금 본 개시의 하나 또는 다수의 방법을 실행하도록 한다. 따라서, 용어 "컴퓨터 판독 가능한 저장 매체"는 고체 메모리, 광학 매체 및 자기식 매체 또는 기타 임의의 비일시적인 기계 판독 가능한 매체를 포함하나 이에 한정되지 않는 것으로 이해해야 한다.
본 명세서에 설명된 처리 모듈/유닛/로직(1528), 부품 및 기타 특징은 이산형 하드웨어 부품으로 구현되거나 ASICS, FPGA, DSP 또는 유사한 장치와 같은 하드웨어 부픔의 기능에 통합될 수 있다. 이외에, 처리 모듈/유닛/로직(1528)은 하드웨어 장치 내에서 펌웨어 또는 기능성 회로로 구현될 수 있다. 또한, 처리 모듈/유닛/로직(1528)은 하드웨어 장치 및 소프트웨어 부품의 임의의 조합으로 구현될 수 있다.
시스템(1500)은 데이터 처리 시스템의 각종 부품으로 도시되였으나, 이러한 세부 사항들은 본 개시의 실시예에 밀접히 관련되는 것이 아니므로, 부품들이 상호 연결되도도록 하는 임의의 특정 체계 구조 또는 방식을 표시하는 것이 아님을 유의해야 한다. 또한, 더 적은 부품을 구비하거나 더 많은 부품을 구비할 수 있는 네트워크 컴퓨터, 휴대용 컴퓨터, 이동 전화, 서버 및/또는 기타 데이터 처리 시스템은 본 개시의 실시예와 함께 사용될 수 있음은 자명한 것이다.
상기 상세한 설명 중의 일부분은 이미 컴퓨터 메모리 내의 데이터 비트에 대한 연산의 알고리즘 및 기호적 표현에 따라 나타났다. 이러한 알고리즘적 설명 및 표현은 데이터 처리 분야의 당업자들이 그들 작업의 요지를 해당 분야의 기타 당업자들한테 효율적으로 전달하기 위해 사용하는 방식이다. 여기서, 알고리즘은 통상적으로 원하는 결과를 달성하기 위한 조작의 자기 부합적 시퀸스로 구상된다. 이러한 조작들은 물리량에 대한 물리적 조작을 필요로 하는 조작이다.
그러나, 이러한 용어 및 유사한 용어들은 모두 적당한 물리량에 연관되어야 하고, 단지 이러한 량에 적용된 편리한 라벨일 뿐이라는 것을 명기해야 한다. 상술한 기재로부터 명확히 알 수 있는 바와 같이 기타 구체적인 설명이 없는 한, 첨부된 청구항에 기재된 용어와 같은 용어를 사용하여 진행한 설명은 명세서 전체를 걸쳐 컴퓨터 시스템 또는 유사한 전자 계산 장치의 동작 및 처리를 가리킨다는 것은 자명한 것이며, 상기 컴퓨터 시스템 또는 전자 계산 장치는 컴퓨터 시스템의 레지스터 및 메모리 내의 물리(전자)량으로 표시된 데이터를 조작하고, 상기 데이터를 컴퓨터 시스템 메모리 또는 레지스터 또는 기타 유사한 정보 저장 장치, 전송 및 디스플레이 장치 내에서 유사하게 물리량으로 표시된 기타 데이터로 전환한다.
본 개시의 실시예는 본 명세서 중의 조작을 수행하기 위한 장치에 관련된다. 이와 같은 컴퓨터 프로그램은 비일시적인 컴퓨터 판독 가능한 매체에 저장된다. 기계 판독 가능한 매체는 정보를 기계(예를 들어, 컴퓨터)에 의해 판독 될수 있는 포맷으로 저장하기 위한 임의의 메커니즘을 포함한다. 예를 들어, 기계 판독 가능한(예를 들어, 컴퓨터 판독 가능한) 매체는 기계(예를 들어, 컴퓨터) 판독 가능한 저장 매체(예를 들어, 읽기 전용 메모리("ROM"), 랜덤 액세스 메모리("RAM"), 자기 디스크 저장 매체, 광학 저장 매체, 플래시 메모리 장치)를 포함한다.
첨부된 도면에 도시된 과정 또는 방법은 하드웨어(예를 들어, 회로, 전용 논리 등), 소프트웨어(예를 들어, 비일시적인 컴퓨터 판독 가능한 매체에 내장됨) 또는 이들의 조합을 포함하는 처리 논리에 의해 실행될 수 있다. 비록 위에서 일부 순차적인 조작에 의해 상기 과정 또는 방법에 대해 설명하였으나, 설명된 조작 중의 일부는 상이한 순서로 실행될 수도 있음을 자명할 것이다. 또한, 일부 조작은 순차적인 순서가 아니라, 병행으로 수행될 수 있다.
본 개시의 실시예는 어떠한 특정 프로그래밍 언어를 참조하여 설명된 것도 아니다. 다양한 프로그래밍 언어를 사용하여 본 명세서에서 설명된 본 개시의 실시예들의 교시를 실현할 수 있음을 자명할 것이다.
상기 명세서에서, 본 개시의 상세한 예시적 실시예들을 참조하여 본 개시의 실시예에 대해 설명하였다. 첨부된 청구항에 기재된 본 개시의 더 넓은 사상 및 범위를 벗어나지 않으면서 각종 변경을 진행할 수 있음은 명백할 것이다. 따라서, 본 명세서 및 도면은 제한적인 의미가 아닌, 설명적인 의미로 이해하여야 한다.

Claims (22)

  1. 자율 주행 차량(ADV)의 전단의 제1 위치에 설치된 제1 카메라에 의해 캡처된 제1 이미지에 기반하여, 상기 ADV의 전단과 상기 ADV가 주행하는 차도의 왼쪽 가장자리 사이의 제1 거리(L1)를 측정하는 단계;
    상기 ADV의 전단의 제2 위치에 설치된 제2 카메라에 의해 캡처된 제2 이미지에 기반하여, 상기 ADV의 전단과 상기 차도의 오른쪽 가장자리 사이의 제2 거리(L2)를 측정하는 단계;
    상기 ADV의 후단의 제3 위치에 설치된 제3 카메라에 의해 캡처된 제3 이미지에 기반하여, 상기 ADV의 후단과 상기 차도의 왼쪽 가장자리 사이의 제3 거리(L3)를 측정하는 단계;
    상기 ADV의 후단의 제4 위치에 설치된 제4 카메라에 의해 캡처된 제4 이미지에 기반하여, 상기 ADV의 후단과 상기 차도의 오른쪽 가장자리 사이의 제4 거리(L4)를 측정하는 단계; 및
    상기 제1 거리, 상기 제2 거리, 상기 제3 거리 및 상기 제4 거리에 기반하여 상기 차도 내의 상기 ADV의 로컬 상대 위치를 확정하는 단계를 포함하는 것을 특징으로 하는 자율 주행 차량의 자기 위치 측정을 위한 컴퓨터 구현 방법.
  2. 제1항에 있어서,
    상기 차도 내의 상기 ADV의 로컬 상대 위치를 확정하는 단계는,
    상기 ADV의 물리적 크기를 고려하여, 상기 제1 거리와 상기 제3 거리에 기반하거나 상기 제2 거리와 상기 제4 거리에 기반하여 상기 ADV의 주행 방향과 상기 차도의 중심선 사이의 각도를 계산하는 단계를 포함하는 것을 특징으로 하는 자율 주행 차량의 자기 위치 측정을 위한 컴퓨터 구현 방법.
  3. 제2항에 있어서,
    상기 ADV의 길이를 고려하여, 상기 ADV의 주행 방향과 상기 차도의 중심선 사이의 각도는 L1과 L3 사이의 차 또는 L2와 L4 사이의 차에 기반하여 확정되는 것을 특징으로 하는 자율 주행 차량의 자기 위치 측정을 위한 컴퓨터 구현 방법.
  4. 제3항에 있어서,
    상기 ADV의 주행 방향과 상기 차도의 중심선 사이의 각도는 arcsin(|L1-L3|/상기 ADV의 길이)에 기반하거나 arcsin(|L2-L4|/상기 ADV의 길이)에 기반하여 확정되는 것을 특징으로 하는 자율 주행 차량의 자기 위치 측정을 위한 컴퓨터 구현 방법.
  5. 제2항에 있어서,
    상기 방법은,
    상기 제1 거리, 상기 제2 거리, 상기 제3 거리 및 상기 제4 거리에 기반하여, 상기 ADV의 중심과 상기 차도의 중심선 사이의 제5 거리를 계산하는 단계를 더 포함하는 것을 특징으로 하는 자율 주행 차량의 자기 위치 측정을 위한 컴퓨터 구현 방법.
  6. 제5항에 있어서,
    상기 ADV의 중심과 상기 차도의 중심선 사이의 상기 제5 거리는 (L1+L3-L2-L4)/2에 기반하여 계산되는 것을 특징으로 하는 자율 주행 차량의 자기 위치 측정을 위한 컴퓨터 구현 방법.
  7. 제1항에 있어서,
    상기 제1 카메라는 상기 ADV의 전단의 왼쪽 코너에 설치되고, 상기 제2 카메라는 상기 ADV의 전단의 오른쪽 코너에 설치되는 것을 특징으로 하는 자율 주행 차량의 자기 위치 측정을 위한 컴퓨터 구현 방법.
  8. 제1항에 있어서,
    상기 제3 카메라는 상기 ADV의 후단의 왼쪽 코너에 설치되고, 상기 제4 카메라는 상기 ADV의 후단의 오른쪽 코너에 설치되는 것을 특징으로 하는 자율 주행 차량의 자기 위치 측정을 위한 컴퓨터 구현 방법.
  9. 비일시적인 기계 판독 가능한 매체에 있어서,
    상기 비일시적인 기계 판독 가능한 매체에는 명령어가 저장되고, 상기 명령어는 프로세서에 의해 실행될 경우 상기 프로세서로 하여금 조작을 수행하도록 하며, 상기 조작은,
    자율 주행 차량(ADV)의 전단의 제1 위치에 설치된 제1 카메라에 의해 캡처된 제1 이미지에 기반하여, 상기 ADV의 전단과 상기 ADV가 주행하는 차도의 왼쪽 가장자리 사이의 제1 거리(L1)를 측정하는 단계;
    상기 ADV의 전단의 제2 위치에 설치된 제2 카메라에 의해 캡처된 제2 이미지에 기반하여, 상기 ADV의 전단과 상기 차도의 오른쪽 가장자리 사이의 제2 거리(L2)를 측정하는 단계;
    상기 ADV의 후단의 제3 위치에 설치된 제3 카메라에 의해 캡처된 제3 이미지에 기반하여, 상기 ADV의 후단과 상기 차도의 왼쪽 가장자리 사이의 제3 거리(L3)를 측정하는 단계;
    상기 ADV의 후단의 제4 위치에 설치된 제4 카메라에 의해 캡처된 제4 이미지에 기반하여, 상기 ADV의 후단과 상기 차도의 오른쪽 가장자리 사이의 제4 거리(L4)를 측정하는 단계; 및
    상기 제1 거리, 상기 제2 거리, 상기 제3 거리 및 상기 제4 거리에 기반하여 상기 차도 내의 상기 ADV의 로컬 상대 위치를 확정하는 단계를 포함하는 것을 특징으로 하는 비일시적인 기계 판독 가능한 매체.
  10. 제9항에 있어서,
    상기 차도 내의 상기 ADV의 로컬 상대 위치를 확정하는 단계는,
    상기 ADV의 물리적 크기를 고려하여, 상기 제1 거리와 상기 제3 거리에 기반하거나 상기 제2 거리와 상기 제4 거리에 기반하여 상기 ADV의 주행 방향과 상기 차도의 중심선 사이의 각도를 계산하는 단계를 포함하는 것을 특징으로 하는 비일시적인 기계 판독 가능한 매체.
  11. 제10항에 있어서,
    상기 ADV의 길이를 고려하여, 상기 ADV의 주행 방향과 상기 차도의 중심선 사이의 각도는 L1과 L3 사이의 차 또는 L2와 L4 사이의 차에 기반하여 확정되는 것을 특징으로 하는 비일시적인 기계 판독 가능한 매체.
  12. 제11항에 있어서,
    상기 ADV의 주행 방향과 상기 차도의 중심선 사이의 각도는 arcsin(|L1-L3|/상기 ADV의 길이)에 기반하거나 arcsin(|L2-L4|/상기 ADV의 길이)에 기반하여 확정되는 것을 특징으로 하는 비일시적인 기계 판독 가능한 매체.
  13. 제10항에 있어서,
    상기 조작은,
    상기 제1 거리, 상기 제2 거리, 상기 제3 거리 및 상기 제4 거리에 기반하여, 상기 ADV의 중심과 상기 차도의 중심선 사이의 제5 거리를 계산하는 단계를 더 포함하는 것을 특징으로 하는 비일시적인 기계 판독 가능한 매체.
  14. 제13항에 있어서,
    상기 ADV의 중심과 상기 차도의 중심선 사이의 상기 제5 거리는 (L1+L3-L2-L4)/2에 기반하여 계산되는 것을 특징으로 하는 비일시적인 기계 판독 가능한 매체.
  15. 제9항에 있어서,
    상기 제1 카메라는 상기 ADV의 전단의 왼쪽 코너에 설치되고, 상기 제2 카메라는 상기 ADV의 전단의 오른쪽 코너에 설치되는 것을 특징으로 하는 비일시적인 기계 판독 가능한 매체.
  16. 제9항에 있어서,
    상기 제3 카메라는 상기 ADV의 후단의 왼쪽 코너에 설치되고, 상기 제4 카메라는 상기 ADV의 후단의 오른쪽 코너에 설치되는 것을 특징으로 하는 비일시적인 기계 판독 가능한 매체.
  17. 데이터 처리 시스템에 있어서,
    프로세서; 및
    메모리를 포함하되, 상기 메모리는 명령어를 저장하도록 상기 프로세서에 연결되고, 상기 명령어는 상기 프로세서에 의해 실행될 경우 상기 프로세서로 하여금 조작을 수행하도록 하며, 상기 조작은,
    자율 주행 차량(ADV)의 전단의 제1 위치에 설치된 제1 카메라에 의해 캡처된 제1 이미지에 기반하여, 상기 ADV의 전단과 상기 ADV가 주행하는 차도의 왼쪽 가장자리 사이의 제1 거리(L1)를 측정하는 단계;
    상기 ADV의 전단의 제2 위치에 설치된 제2 카메라에 의해 캡처된 제2 이미지에 기반하여, 상기 ADV의 전단과 상기 차도의 오른쪽 가장자리 사이의 제2 거리(L2)를 측정하는 단계;
    상기 ADV의 후단의 제3 위치에 설치된 제3 카메라에 의해 캡처된 제3 이미지에 기반하여, 상기 ADV의 후단과 상기 차도의 왼쪽 가장자리 사이의 제3 거리(L3)를 측정하는 단계;
    상기 ADV의 후단의 제4 위치에 설치된 제4 카메라에 의해 캡처된 제4 이미지에 기반하여, 상기 ADV의 후단과 상기 차도의 오른쪽 가장자리 사이의 제4 거리(L4)를 측정하는 단계; 및
    상기 제1 거리, 상기 제2 거리, 상기 제3 거리 및 상기 제4 거리에 기반하여 상기 차도 내의 상기 ADV의 로컬 상대 위치를 확정하는 단계를 포함하는 것을 특징으로 하는 데이터 처리 시스템.
  18. 제17항에 있어서,
    상기 차도 내의 상기 ADV의 로컬 상대 위치를 확정하는 단계는,
    상기 ADV의 물리적 크기를 고려하여, 상기 제1 거리와 상기 제3 거리에 기반하거나 상기 제2 거리와 상기 제4 거리에 기반하여 상기 ADV의 주행 방향과 상기 차도의 중심선 사이의 각도를 계산하는 단계를 포함하는 것을 특징으로 하는 데이터 처리 시스템.
  19. 제18항에 있어서,
    상기 ADV의 길이를 고려하여, 상기 ADV의 주행 방향과 상기 차도의 중심선 사이의 각도는 L1과 L3 사이의 차 또는 L2와 L4 사이의 차에 기반하여 확정되는 것을 특징으로 하는 데이터 처리 시스템.
  20. 제19항에 있어서,
    상기 ADV의 주행 방향과 상기 차도의 중심선 사이의 각도는 arcsin(|L1-L3|/상기 ADV의 길이)에 기반하거나 arcsin(|L2-L4|/상기 ADV의 길이)에 기반하여 확정되는 것을 특징으로 하는 데이터 처리 시스템.
  21. 제18항에 있어서,
    상기 조작은,
    상기 제1 거리, 상기 제2 거리, 상기 제3 거리 및 상기 제4 거리에 기반하여, 상기 ADV의 중심과 상기 차도의 중심선 사이의 제5 거리를 계산하는 단계를 더 포함하는 것을 특징으로 하는 데이터 처리 시스템.
  22. 제21항에 있어서,
    상기 ADV의 중심과 상기 차도의 중심선 사이의 제5 거리는 (L1+L3-L2-L4)/2에 기반하여 계산되는 것을 특징으로 하는 데이터 처리 시스템.
KR1020190013470A 2018-02-07 2019-02-01 자율 주행 차량을 위한 자기 위치 측정 방법, 시스템 및 기계 판독 가능한 매체 KR102309496B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/891,360 2018-02-07
US15/891,360 US20190241180A1 (en) 2018-02-07 2018-02-07 Lane self-localization system using multiple cameras for autonomous driving vehicles

Publications (2)

Publication Number Publication Date
KR20190100855A true KR20190100855A (ko) 2019-08-29
KR102309496B1 KR102309496B1 (ko) 2021-10-07

Family

ID=65199345

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190013470A KR102309496B1 (ko) 2018-02-07 2019-02-01 자율 주행 차량을 위한 자기 위치 측정 방법, 시스템 및 기계 판독 가능한 매체

Country Status (5)

Country Link
US (1) US20190241180A1 (ko)
EP (1) EP3524494B1 (ko)
JP (1) JP6667688B2 (ko)
KR (1) KR102309496B1 (ko)
CN (1) CN110119138A (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220258763A1 (en) * 2019-09-27 2022-08-18 Aisin Corporation Drive assistance device and computer program
CN113822930B (zh) * 2020-06-19 2024-02-09 黑芝麻智能科技(重庆)有限公司 用于高精度定位停车场中的物体的系统和方法
CN111860319B (zh) * 2020-07-20 2024-03-26 阿波罗智能技术(北京)有限公司 车道线的确定方法、定位精度的评测方法、装置、设备
KR102633705B1 (ko) * 2020-12-03 2024-02-06 재단법인대구경북과학기술원 자율주행을 위한 차량의 위치추정 장치 및 방법
CN113525365A (zh) * 2021-07-21 2021-10-22 上汽通用五菱汽车股份有限公司 道路规划方法、装置及计算机可读存储介质
CN113311844B (zh) * 2021-07-28 2021-11-12 福勤智能科技(昆山)有限公司 一种伺服控制方法、装置、计算机设备及存储介质
CN113900070B (zh) * 2021-10-08 2022-09-27 河北德冠隆电子科技有限公司 雷达车道自动绘制目标数据精准输出的方法、装置与系统
JP2024011401A (ja) * 2022-07-14 2024-01-25 三菱重工機械システム株式会社 データ処理アルゴリズム評価装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100250323B1 (ko) * 1997-10-10 2000-04-01 정몽규 무인 자동차의 화상 처리 장치 및 방법
KR20110051531A (ko) * 2009-11-10 2011-05-18 한국전자통신연구원 차량의 차선 유지 및 이탈 방지 장치, 및 그 방법
WO2013069099A1 (ja) * 2011-11-08 2013-05-16 トヨタ自動車株式会社 車両の走行軌跡制御装置
JP2016206868A (ja) * 2015-04-21 2016-12-08 アルパイン株式会社 電子装置、走行車線識別システムおよび走行車線識別方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4329088B2 (ja) * 1998-02-18 2009-09-09 株式会社エクォス・リサーチ 車両制御装置
JP4114292B2 (ja) * 1998-12-03 2008-07-09 アイシン・エィ・ダブリュ株式会社 運転支援装置
JP2001180401A (ja) * 1999-12-24 2001-07-03 Aisin Aw Co Ltd 運転支援装置及び運転支援方法
US20020084894A1 (en) * 2001-01-03 2002-07-04 Horng Chun Hsien Traffic condition monitoring system with cameras for vehicle
JP2009253673A (ja) * 2008-04-07 2009-10-29 Clarion Co Ltd 車両用周囲状況表示装置
JP5479956B2 (ja) * 2010-03-10 2014-04-23 クラリオン株式会社 車両用周囲監視装置
EP3081433A1 (en) * 2015-10-12 2016-10-19 Continental Automotive GmbH An improved camera module for vehicle
US10322717B2 (en) * 2016-01-04 2019-06-18 GM Global Technology Operations LLC Expert mode for vehicles
US11066073B2 (en) * 2016-03-15 2021-07-20 Honda Motor Co., Ltd. Vehicle control system, vehicle control method, and vehicle control program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100250323B1 (ko) * 1997-10-10 2000-04-01 정몽규 무인 자동차의 화상 처리 장치 및 방법
KR20110051531A (ko) * 2009-11-10 2011-05-18 한국전자통신연구원 차량의 차선 유지 및 이탈 방지 장치, 및 그 방법
WO2013069099A1 (ja) * 2011-11-08 2013-05-16 トヨタ自動車株式会社 車両の走行軌跡制御装置
US20140257640A1 (en) * 2011-11-08 2014-09-11 Toyota Jidosha Kabushiki Kaisha Vehicle travel track control device
JP2016206868A (ja) * 2015-04-21 2016-12-08 アルパイン株式会社 電子装置、走行車線識別システムおよび走行車線識別方法

Also Published As

Publication number Publication date
EP3524494B1 (en) 2021-06-09
CN110119138A (zh) 2019-08-13
JP6667688B2 (ja) 2020-03-18
EP3524494A1 (en) 2019-08-14
JP2019137391A (ja) 2019-08-22
KR102309496B1 (ko) 2021-10-07
US20190241180A1 (en) 2019-08-08

Similar Documents

Publication Publication Date Title
KR102223270B1 (ko) 여분의 초음파 radar를 구비한 자율 주행 차량
CN111076732B (zh) 基于车辆行驶的轨迹标记和生成高清地图的标记方案
CN109489673B (zh) 用于自动驾驶车辆的数据驱动地图更新系统
CN108139884B (zh) 用于操作自动驾驶车辆的方法和系统
KR102062608B1 (ko) 자율 주행 차량의 제어 피드백에 기초한 맵 업데이트 방법 및 시스템
CN108137015B (zh) 用于自动驾驶车辆的侧滑补偿控制方法
CN109195860B (zh) 自动驾驶车辆的车道路缘辅助离道检查和车道保持系统
CN108891417B (zh) 用于操作自动驾驶车辆的方法及数据处理系统
CN108733046B (zh) 用于自动驾驶车辆的轨迹重新规划的系统和方法
KR102309496B1 (ko) 자율 주행 차량을 위한 자기 위치 측정 방법, 시스템 및 기계 판독 가능한 매체
CN110667591A (zh) 用于自动驾驶车辆的规划驾驶感知系统
CN110621541B (zh) 用于生成轨迹以操作自动驾驶车辆的方法和系统
CN109070889B (zh) 自动驾驶车辆的基于减速路缘的方向检测和车道保持系统
CN111061261A (zh) 使用标准导航地图与基于车辆的先前轨迹确定的车道配置的自动驾驶
JP2020523552A (ja) 自動運転車両の経路計画のための運転シナリオに基づく車線ガイドライン
CN111615476B (zh) 用于自动驾驶车辆的基于螺旋曲线的竖直停车规划系统
KR20190098912A (ko) 다수의 스레드를 이용하여 자율 주행 차량을 위한 기준선을 생성하기 위한 방법 및 시스템
CN111328313A (zh) 用于自动驾驶车辆的控制占主导的三点转弯规划
CN111103876A (zh) 自动驾驶车辆的基于雷达通信的扩展感知
CN113226825A (zh) 自动驾驶车辆的基于扭矩反馈的车辆纵向自动校准系统
CN112272805A (zh) 连接两条平滑参考线的基于多点增强的拼接方法
CN112041637B (zh) 用于3级自动驾驶车辆的无地图且基于摄像机的车道标识取样方法
CN111629947A (zh) 自动驾驶车辆的用于生成参考线的方法和系统

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant