KR102425272B1 - 디지털 지도에 대한 위치를 판별하기 위한 방법 및 시스템 - Google Patents

디지털 지도에 대한 위치를 판별하기 위한 방법 및 시스템 Download PDF

Info

Publication number
KR102425272B1
KR102425272B1 KR1020167033256A KR20167033256A KR102425272B1 KR 102425272 B1 KR102425272 B1 KR 102425272B1 KR 1020167033256 A KR1020167033256 A KR 1020167033256A KR 20167033256 A KR20167033256 A KR 20167033256A KR 102425272 B1 KR102425272 B1 KR 102425272B1
Authority
KR
South Korea
Prior art keywords
vehicle
data
longitudinal
real
reference data
Prior art date
Application number
KR1020167033256A
Other languages
English (en)
Other versions
KR20160147016A (ko
Inventor
크르지스토프 믹사
블라저이 퀴비아크
라팔 얀 글리슈친스키
Original Assignee
톰톰 글로벌 콘텐트 비.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰톰 글로벌 콘텐트 비.브이. filed Critical 톰톰 글로벌 콘텐트 비.브이.
Publication of KR20160147016A publication Critical patent/KR20160147016A/ko
Application granted granted Critical
Publication of KR102425272B1 publication Critical patent/KR102425272B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

디지털 지도에 대해 차량의 길이방향 위치를 판별하는 방법이 개시되며, 여기에서 적어도 하나의 거리계 센서를 이용하여 상기 차량 주위의 측면 주변을 스캔하여 실시간 스캔 데이터가 판별되며, 상기 실시간 스캔 데이터는 하나 이상의 깊이 지도들을 포함하며, 각 깊이 지도는 복수의 길이방향 위치들 및 고도들에 대한 상기 측면 주변 내 표면들까지의 측정된 측면 거리를 나타낸다. 상기 디지털 지도에 관련하여 상기 차량의 간주된 현재 길이방향 위치에 대하여 상기 디지털 지도와 연관된 로컬화 레퍼런스 데이터가 검색되며, 그리고 길이방향 오프셋을 판별하기 위해 교차-상관을 계산함으로써 상기 실시간 스캔 데이터와 비교된다. 상기 디지털 지도에 대한 상기 차량의 길이방향 위치를 판별하기 위해 상기 길이방향 오프셋에 기초하여, 상기 간주된 현재 길이방향 위치가 조절된다.

Description

디지털 지도에 대한 위치를 판별하기 위한 방법 및 시스템 {METHOD AND SYSTEM FOR DETERMINING A POSITION RELATIVE TO A DIGITAL MAP}
본 발명은 디지털 지도에 대한 향상된 포지셔닝 정밀도를 위한, 그리고 고도의 완전한 자율 운전 애플리케이션들을 위해 필요한 방법들 및 시스템들에 관련된 것이다. 더욱 특별하게는, 본 발명의 실시예들은 (예를 들면, 크라우드 소싱 기술들을 통한) 레퍼런스 데이터 생성, 그 레퍼런스 데이터의 포맷, 그리고 상기 디지털 지도 상 차량의 위치를 정밀하게 정하기 위해 상기 차량으로부터 감지된 데이터와의 비교를 통한 상기 레퍼런스 데이터의 사용에 관련된다.
차량 내에 탈착 가능하게 위치가 정해질 수 있는 휴대용 내비게이션 디바이스들 (portable navigation devices (PNDs)) 또는 차량에 통합된 시스템들 중 어느 하나의 모습으로, 차량들에 내비게이션 디바이스들이 장착되는 것은 근래에 흔해지고 있다. 이 내비게이션 디바이스들은 그 차량의 현재 위치를 판별하기 위한 수단을 포함한다; 그 수단은 보통은 GPS 또는 GLONASS와 같은 글로벌 내비게이션 위성 시스템 (global navigation satellite system (GNSS)) 수신기이다. 그러나 모바일 원거리통신 네트워크, 표면 비컨들 등을 이용하는 것과 같이 다른 수단들이 사용될 수 있을 것이라는 것이 인정될 것이다
내비게이션 디바이스들은 차량이 운행하고 있는 운행가능 네트워크를 나타내는 디지털 지도에 대한 액세스를 또한 가진다. 자신의 가장 간단한 모습인 상기 디지털 지도 (또는 때때로 알려지듯이 수학적 그래프)는 가장 일반적으로 도로 교차점들인 노드들 그리고 그 교차점들 사이의 도로들을 나타내는, 그 노드들 사이의 라인들을 나타내는 데이터를 포함하는 실제상 데이터베이스이다. 더 많은 상세한 디지털 지도들에서, 라인들은 시작 노드 및 종료 노드에 의해 한정되는 세그먼트들로 분할될 수 있다. 이 노드들이 최소 3개의 라인들이나 세그먼트들이 교차하는 도로 교차점을 나타낸다는 점에서 이 노드들은 "실제 (real)"일 수 있으며, 또는 이 노드들이 도로를 따라 도로 변화들의 몇몇의 특성들, 예를 들면, 속도 제한이 변하는 위치를 식별하는 수단 또는 도로의 특별한 한 줄기 도로를 위한 형상 정보를 특히 제공하기 위해 실제의 노드에 의해 하나의 말단 또는 양 말단들에서 한정되지 않는 세그먼트들을 위한 앵커들로서 제공된다는 점에서 이 노드들은 "인위적 (artificial)"일 수 있다. 사실상 모든 현대의 디지털 지도들, 노드들 및 세그먼트들은 상기 데이터베이스 내 데이터에 의해 다시 제시되는 다양한 속성들에 의해 더 한정된다. 예를 들면, 각 노드는 자신의 실제-세계 위치를 한정하기 위해 지리적인 좌표들, 예를 들면, 위도 및 경도를 가지는 것이 보통이다. 노드들은 자신과 연관된 방향성 데이터 (manoeuvre data)를 또한 가지는 것이 일반적일 것이며, 이것은 교차점에서 한 도로로부터 다른 도로로 움직이는 것이 가능한가의 여부를 표시한다; 반면에 상기 세그먼트들은 허용된 최대 속도, 차로 사이즈, 차로들의 개수, 사이에 분할기가 존재하는가의 여부 등과 같은 연관된 속성들을 또한 가질 것이다. 본원의 상기 목적들을 위해, 이 모습의 디지털 지도는 "표준 지도"로 언급될 것이다.
내비게이션 디바이스들은 정해진 경로에 대한 안내와 같은 여러 태스크들 그리고 현재 위치 또는 결정된 경로에 기반하여 예측된 미래 위치에 관한 여행 및 트래픽 정보 제공을 수행하기 위해 표준 지도와 함께 디바이스의 현재 위치를 이용할 수 있도록 구성된다.
그러나, 표준 지도들 내에 포함된 데이터는 차량이 자동적으로 제어할 수 있는, 예를 들면, 운전자로부터의 입력없이 가속, 브레이킹 및 조종을 할 수 있는 고도로 자율화된 드라이빙과 같은 다양한 차세대 애플리케이션들 그리고 심지어는 완전히 자율화된 "자체-드라이빙" 차량들을 위해서는 충분하지 않다는 것이 인식되었다. 그런 애플리케이션들을 위해, 더욱 정밀한 디지털 지도가 필요하다. 이 더욱 상세한 디지털 지도는 보통은 3차원 벡터 모델을 포함하는 것이 보통이며, 그 벡터 모델에서 도로의 각 차로는 분리하여 표현되며, 다른 차로들로의 연결성 데이터를 구비한다. 이 애플리케이션의 목적을 위해서, 이런 모습의 디지털 지도는 "계획 지도 (planning map)" 또는 고 선명도 (high definition (HD)) 지도"로 언급될 것이다.
계획 지도의 일부의 표현이 도 1에 보이며, 여기에서 각 라인은 차로의 중심라인을 나타낸다. 도 2는 계획 지도의 다른 예시적인 부분을 보여주지만, 이 시간은 도로 네트워크의 이미지 위를 덮은 것이다. 이 지도들 내의 데이터는 일 미터 내에서 또는 심지어는 그 미만의 범위 내에서 정확한 것이며 보통이며, 그리고 다양한 기술들을 이용하여 수집될 수 있다.
그런 계획 지도들을 구축하기 위해 상기 데이터를 수집하기 위한 한 가지의 예시적인 기술은 모바일 매핑 시스템들을 사용하는 것이다; 그 일 예가 도 3에 도시된다. 모바일 매핑 시스템 (2)은 서베이 차량 (4), 디지털 카메라 (40) 및 차량 (4)의 루프 (8) 상에 장착된 레이저 스캐너 (6)를 포함한다. 상기 서베이 차량 (2)은 프로세서 (10), 메모리 (12) 및 트랜시버 (14)를 더 포함한다. 추가로, 상기 서베이 차량 (2)은 GNSS 수신기와 같은 절대 포지셔닝 디바이스 (20), 그리고 관성 측정 유닛 (inertial measurement unit (IMU)) 및 거리 측정 유닛 도구 (distance measurement instrument (DMI))를 구비한 상대적 포지셔닝 디바이스 (22)를 포함한다. 상기 절대적 포지셔닝 디바이스 (20)는 상기 차량의 지리적 좌표들을 제공하며, 그리고 상기 상대적 포지셔닝 디바이스 (22)는 상기 절대 포지셔닝 디바이스 (20)에 의해 측정된 좌표들의 정밀도를 향상시키는 것에 (그리고 내비게이션 위성들로부터의 신호들을 수신할 수 없을 때의 예들에서 상기 절대 포지셔닝 디바이스를 대체하는 것에) 소용이 된다. 상기 레이저 스캐너 (6), 상기 카메라 (40), 상기 메모리 (12), 상기 트랜시버 (14), 상기 절대적 표지셔닝 디바이스 (20) 및 상기 상대적 포지셔닝 디바이스 (22)는 (참조번호 24의 라인들에 의해 표시되듯이) 상기 프로세서 (10)와 통신하도록 모두 구성된다. 상기 레이저 스캐너 (6)는 주변을 가로질러 3D로 레이저 빔을 스캔하고 그리고 상기 주변을 나타내는 포인트 클라우드를 생성하도록 구성된다; 각 포인트는 상기 레이저 빔이 반사되는 물체의 표면의 위치를 표시한다. 상기 레이저 스캐너 (6)는 비행시간법 (time-of-flight) 레이저 거리계 (range-finder)로서 또한 구성되며, 이는 상기 물체 표면 상의 레이저 빔 투사의 각 위치까지의 거리를 측정하기 위한 것이다.
사용에 있어서, 도 4에서 보이는 것처럼, 상기 서베이 차량 (4)은 표면 (32)을 포함하는 도로 (40)를 따라서 운행하며, 그 도로 위에는 도로 마킹들 (34)이 도포되어 있다. 상기 프로세서 (10)는 상기 절대적 포지셔닝 디바이스 (20) 및 상기 상대적 포지셔닝 디바이스 (22)를 이용하여 측정된 위치 및 방위 데이터로부터 어떤 순간에서의 상기 차량 (4)의 위치 및 방위를 판별하며, 그리고 그 데이터를 적합한 타임스탬프들과 함께 상기 메모리 (12) 내에 저장한다. 추가로, 상기 카메라 (40)는 복수의 도로 표면 이미지들을 제공하기 위해 상기 도로 표면 (32)의 이미지를 반복하여 캡쳐한다; 상기 프로세서 (10)는 각 이미지에 타임스탬프를 추가하고 그 이미지들을 메모리 (12)에 저장한다. 상기 레이저 스캐너 (6)는 적어도 복수의 측정된 거리 값들을 제공하기 위해 상기 표면 (32)을 또한 반복하여 스캔한다; 상기 프로세서는 각 거리 값에 타임스탬프를 추가하여 메모리 (12)에 저장한다. 레이저 스캐너 (6)로부터 획득된 데이터의 예들은 도 5 및 도 6에 보인다. 도 5는 3D 뷰를 보여주며, 그리고 도 6은 측면 뷰 투사를 보여준다; 각 사진에서의 색상은 도로까지의 거리를 나타낸다. 이 모바일 매핑 차량들로부터 획득된 모든 데이터는 상기 차량이 운행된 운행가능 네트워크 (또는 도로망)의 부분들의 계획 지도들을 생성하기 위해 분석되고 사용될 수 있다.
고도로 그리고 완전하게 자율화된 운전 에플리케이션들을 위해 그런 계획 지도들을 이용하기 위해서, 상기 계획 지도에 대한 차량의 위치를 고도의 정밀도로 아는 것이 필요하다는 것을 본 출원인은 인식했다. 내비게이션 위성 또는 지상 비컨들을 이용하여 디바이스의 현재 로케이션을 판별하는 전통적인 기술은 디바이스의 절대적 위치를 약 5-10 미터의 정밀도로 제공한다; 이 절대적 위치는 그러면 디지털 지도 상의 대응 위치와 매칭된다. 이 정밀도 레벨이 대부분의 전통적인 애플리케이션들에게는 충분하지만, 심지어는 도로망 상에서 높은 속도로 운행하고 있을 때에 디지털 지도에 대한 위치들이 미터-미만 (sub-metre)의 정밀도로 필요한 경우인 차세대 애플리케이션들을 위해서는 충분하게 정밀하지 않다. 그러므로 향상된 포지셔닝 방법이 필요하다.
본 발명의 첫 번째 모습에 따라서 디지털 지도에 대해 차량의 길이방향 (longitudinal) 위치를 계속해서 판별하는 방법이 제공된다; 상기 디지털 지도는 상기 차량이 이동하고 있는 운행가능 네트워크 (예를 들면, 도로망)의 운행가능 요소들 (예를 들면, 도로들)을 나타내는 데이터를 포함한다. 상기 방법은 상기 차량 주위의 측면 (lateral) 주변을 스캔하여 획득된 실시간 스캔 데이터를 수신하는 단계; 상기 디지털 지도에 관련하여 상기 차량의 간주된 현재 길이방향 위치에 대하여 상기 디지털 지도와 연관된 로컬화 (localisation) 레퍼런스 스캔 데이터를 검색하는 단계로, 여기에서 상기 로컬화 레퍼런스 스캔 데이터는 상기 간주된 현재 길이방향 위치 주위의 측면 주변의 레퍼런스 스캔을 포함하며, 옵션으로는 상기 레퍼런스 스캔은 상기 경로를 따라 이전에 이동했던 적어도 하나의 디바이스로부터의 디지털 지도를 통해서 획득되는, 검색 단계; 상기 실시간 스캔 데이터와 상기 로컬화 레퍼런스 스캔 데이터 사이의 길이방향 오프셋을 판별하기 위해 상기 실시간 스캔 데이터를 상기 로컬화 레퍼런스 스캔 데이터와 비교하는 단계; 그리고 상기 길이방향 오프셋에 기초하여, 상기 간주된 현재 길이방향 위치를 조절하는 단계를 포함한다.
그래서, 본 발명의 상기 첫 번째 모습에 따라, 상기 디지털 지도에 대한 상기 차량의 위치는 그래서 높은 정도의 정밀도로 항상 알려질 수 있다. 종래 기술에서의 예들은 수집된 데이터를 경로를 따른 미리-판별된 랜드마크들용의 알려진 레퍼런스 데이터와 비교하여 차량의 위치를 판별하기 위해 시도했다. 그러나, 그 랜드마크들은 여러 경로들 상에서 드물게 분산될 수 있을 것이며, 차량이 랜드마크들 사이에서 운행하고 있을 때에 차량의 위치를 추정함에 있어서 큰 오류의 결과를 가져온다. 이것은 고도로 자율화된 운행 시스템들과 같은 상황들에서는 문제이며, 이 경우에 그런 오류들은 심각한 부상이나 인명 상실의 결과가 되는 차량 충돌 사고들과 같은 비극적인 결과들을 초래할 수 있다. 본 발명의 상기 첫 번째 모습은 상기 디지털 지도를 통해 레퍼런스 스캔 데이터를 구비함으로써 그리고 실시간으로 차량 주위의 측면 주변을 스캔함으로써 이 문제를 해결한다. 이 방식에서, 본 발명의 첫 번째 모습은 실시간 스캔 및 레퍼런스 데이터가 비교되는 것을 가능하게 하여, 상기 디지털 지도에 대한 차량의 위치가 높은 정도의 정밀도로 항상 알려지도록 한다.
상기 간주된 현재의 길이방향 위치는 적어도 초기에는 GPS, GLONASS, 유럽 갈릴레오 포지셔닝 시스템, COMPASS 포지셔닝 시스템 또는 IRNSS (Indian Regional Navigational Satellite System)처럼 위성 내비게이션 디바이스와 같은 절대 포지셔닝 시스템으로부터 획득될 수 있다. 그러나 모바일 원거리통신, 표면 비컨들 등을 이용하는 것처럼 다른 로케이션 판별 수단이 사용될 수 있다는 것이 인정될 것이다.
상기 디지털 지도는 운행가능 네트워크의 운행가능 요소들, 예를 들면, 도로망의 도로들을 나타내는 3차원 벡터 모델을 포함할 수 있으며, 여기에서 상기 운행가능 요소들의 각 레인, 예를 들면, 도로들은 분리하여 표현된다. 그래서, 도로 상의 차량의 측면 위치는 그 차량이 이동하고 있는 차로를 판별함에 의해 알려질 수 있다. 다른 실시예들에서, 차량의 측면 위치는 실시간 스캔 데이터를 검색된 로컬화 레퍼런스 데이터와 비교한 것을 이용하여 판별될 수 있으며, 이는 아래에서 더욱 상세하게 설명된다.
상기 실시간 스캔 데이터는 차량의 왼쪽 사이트 그리고 그 차량의 오른쪽 사이드 상에서 획득될 수 있다. 이것은 위치 추정 상에서의 순간적 특징 (transient feature)들의 영향을 줄이는데 도움이 된다. 그런 순간적 특징들은, 예를 들면, 주차된 차량들, 추월하는 차량들 또는 반대 방향에서 동일한 경로를 이동하는 차량들일 수 있다. 그래서, 실시간 스캔 데이터는 차량의 양 사이드들 상에 존재하는 특징들을 기록할 수 있다. 몇몇의 실시예들에서, 이 실시간 스캔 데이터는 차량의 왼쪽 사이드 또는 차량의 오른쪽 사이드 중 어느 하나로부터 획득될 수 있을 것이다.
상기 로컬화 레퍼런스 데이터는 운행가능 요소의 왼쪽 사이드 그리고 상기 운행가능 요소의 오른쪽 사이드 상의 측면 주변의 레퍼런스 스캔을 포함할 수 있을 것이며, 그리고 운행가능 요소의 각 사이드에 대한 로컬화 레퍼런스 데이터는 결합된 데이터 세트 내에 저장될 수 있다. 그래서, 상기 운행가능 네트워크의 여러 부분들로부터의 데이터는 유효한 데이터 포맷으로 함께 저장될 수 있다. 상기 결합된 데이터 세트 내에 저장된 데이터는 압축될 수 있을 것이며, 운행가능 네트워크의 더 많은 부분들을 위한 데이터가 동일한 저장 용량 내에 저장되는 것을 가능하게 한다. 데이터 압축은 레퍼런스 스캔 데이터가 무선 네트워크 접속을 통해 차량으로 전송되도록 하기 위해 축소된 네트워크 대역폭이 사용되는 것을 또한 가능하게 할 것이다.
차량의 왼쪽 사이드로부터의 실시간 스캔 데이터를 운행가능 요소의 왼쪽 사이드로부터의 로컬화 레퍼런스 데이터와 비교하고 그리고 차량의 오른쪽 사이드로부터의 실시간 스캔 데이터를 운행가능 요소의 오른쪽 사이드로부터의 로컬화 레퍼런스 데이터와 비교하는 것은 단일의 비교일 수 있다. 그래서, 상기 스캔 데이터가 운행가능 요소의 왼쪽 사이드로부터의 데이터 그리고 운행가능 요소의 오른쪽 사이드로부터의 데이터를 포함할 때에, 그 스캔 데이터는 단일의 데이터 세트로서 비교될 수 있을 것이며, 이는 운행가능 요소의 왼쪽 사이드에 대한 비교 그리고 운행가능 요소의 오른쪽 사이드에 대한 비교가 분리하여 수행되는 경우에 비하여 프로세싱 요구사항들을 크게 줄어들게 한다.
디지털 지도에 대한 차량의 길이방향 위치는 항상 미터 미만의 정밀도로 알려질 수 있을 것이다. 그래서, 몇몇의 실시예들에서, 본 발명은 고도로 자율화된 운행과 같은 높은 정밀도의 위치 추정들을 필요로 하는 애플리케이션들에게 특히 적합하다.
실시간 스캔 데이터를 로컬화 레퍼런스 데이터와 비교하는 것은 상기 실시간 스캔 데이터 그리고 상기 로컬화 레퍼런스 데이터 사이에서 교차-상관 (cross-correlation), 바람직하게는 정규화된 교차-상관을 계산하는 것을 포함할 수 있다.
상기 실시간 스캔 데이터를 상기 로컬화 레퍼런스 데이터와 비교하는 것은 길이방향 데이터의 윈도우에 걸쳐 수행될 수 있다. 그래서, 데이터를 윈도우화하는 것은 상기 비교가 이용가능 데이터의 서브세트를 고려하는 것을 가능하게 한다. 상기 비교는 겹치는 윈도우들에 대해 주기적으로 수행될 수 있다. 상기 비교를 위해 사용된 데이터의 윈도우들 내 적어도 몇몇의 겹침은 이웃하는 계산된 길이방향 오프세트 값들 사이에서의 차이들이 상기 데이터에 걸쳐서 평탄해지는 것을 보장한다. 상기 윈도우는 상기 오프셋 계산의 정밀도가 순간적 특징들에 대해 불변이기에 충분한 길이, 바람직하게는 적어도 100m의 길이를 가질 수 있다. 그런 순간적 특징들은, 예를 들면, 주차된 차량들, 추월하는 차량들 또는 반대 방향에서 동일한 경로를 이동하는 차량들일 수 있다. 몇몇의 실시예들에서, 그 길이는 적어도 50m이다. 몇몇의 실시예들에서, 그 거리는 200m이다. 이 방식에서, 감지된 주변 데이터는 도로의 길이방향, 상기 '윈도우', 예를 들면, 200m에 대해 판별되며, 그리고 그 결과 데이터는 그 도로의 연장에 대한 로컬화 레퍼런스 데이터와 비교된다. 이 크기, 즉, 차량의 길이보다 실질적으로 더 큰 크기의 도로의 연장에 걸쳐서 비교를 수행함으로써, 도로 상의 다른 차량들, 도로의 사이드 상에 정차된 차량들 등과 같은 비-고정적인 또는 일시적인 물체들은 상기 비교의 결과에 보통은 영향을 미치지 않을 것이다.
실시간 스캔 데이터는 적어도 하나의 거리계 센서를 이용하여 획득될 수 있다. 그 거리계 센서는 단일의 축을 따라 동작하도록 구성될 수 있다. 거리계 센서는 수직 축에서의 스캔을 수행하도록 배치될 수 있을 것이다. 스캔이 수직 축에서 수행될 때에, 여러 높이들에서의 평면들에 대한 거리 정보가 수집되며, 그래서 그 결과인 스캔은 아주 더 상세하다. 대안으로, 또는 추가로, 상기 거리계 센서는 수평 축에서 스캔을 수행하도록 배치될 수 있을 것이다.
거리계 센서는 차량의 운행 방향에 실질적으로 90도에서 외부 방향으로 가리키도록 배치될 수 있을 것이다. 그래서, 여러 거리계 센서들이 사용되는 경우에, 레퍼런스 스캔 데이터와의 비교는 동시에 획득된 모든 실시간 스캔 데이터에 대해 단일의 비교에서 수행될 수 있다.
상기 거리계 센서는 50도 및 90도 사이의 획득 각도 내에서 데이터를 획득하도록 구성된다. 여기에서 사용되듯이, 상기 획득 각도라는 용어는 상기 거리계 센서에 관찰될 수 있는 두 물체들에 대해 가능한 최대 각도 격리를 나타내는 상기 거리계 센서의 전체 각도 시야를 의미한다. 몇몇의 실시예들에서, 상기 취득 각도는 실질적으로 70도이다.
상기 거리계 센서는 레이저 스캐너일 수 있다. 레이저 스캐너는 적어도 하나의 거울을 사용하여 측면 주변을 가로질러 스캔된 레이저 빔을 포함한다. 그래서, 상기 레이저 스캐너는 민감한 컴포넌트를 보호하기 위해 차량의 표면으로부터 떨어져서 위치할 수 있다. 몇몇의 실시예들에서, 상기 거울은 상기 측면 주변을 가로질러 레이저를 스캔하도록 구동된다. 그래서, 물리적으로 회전하면 경량의 거울이 필요하며, 더 무거운 레이저 스캐너 어셈블리는 필요없다.
상기 로컬화 레퍼런스 데이터의 적어도 일부는 원거리에 저장될 수 있다. 바람직하게는, 상기 로컬화 레퍼런스 데이터의 적어도 일부는 상기 차량의 로컬에 저장된다. 그래서, 비록 상기 로컬화 레퍼런스 데이터가 상기 경로 전체에 걸쳐서 이용 가능하다고 하더라도, 그것은 상기 차량 상으로 계속해서 전달될 필요는 없으며 그리고 상기 비교는 상기 차량 상에서 수행될 수 있을 것이다.
상기 로컬화 레퍼런스 데이터는 압축된 포맷으로 저장될 수 있을 것이다. 상기 로컬화 레퍼런스 데이터는 30KB/km 또는 그 미만에 대응하는 크기를 가질 수 있다.
상기 로컬화 레퍼런스 데이터는 디지털 지도 내 표현된 운행가능 네트워크의 운행가능 요소들 중 적어도 몇몇, 그리고 바람직하게는 그 요소들 전부에 대해 저장될 수 있을 것이다. 그래서, 상기 차량의 위치는 상기 경로를 따르는 어느 곳에서나 계속해서 판별될 수 있다.
상기 레퍼런스 스캔은 상기 운행가능 요소를 따라 이전에 운행되었던 모바일 매핑 차량 상에 배치된 적어도 하나의 디바이스로부터 획득될 수 있다. 그래서, 상기 레퍼런스 스캔은 위치가 계속해서 판별되고 있는 현재 차량이 아닌 다른 차량을 이용하여 얻어질 수 있다. 몇몇의 실시예들에서, 상기 모바일 매핑 차량은 위치가 계속해서 판별되고 있는 차량과 유사한 디자인이다.
본 발명의 두 번째 모습에 따라, 디지털 지도와 연관된 레퍼런스 스캔을 생성하는 방법이 제공된다; 상기 디지털 지도는 운행가능 네트워크 (예를 들면, 도로망)의 운행가능 요소들 (예를 들면, 도로들)을 나타내는 데이터를 포함한다. 상기 방법은 상기 디지털 지도에서 표현된 적어도 하나의 운행가능 요소를 따르는 측면 주변의 레퍼런스 스캔을 획득하는 단계; 그리고 상기 레퍼런스 스캔 전체에 걸쳐서 상기 레퍼런스 새큰의 실제 위치들을 판별하는 단계를 포함한다.
그래서, 상기 디지털 지도 내 적어도 하나의 경로에 대한 본 발명의 두 번째 모습에 따라서, 레퍼런스 스캔이 상기 경로 전체를 따라 획득된다. 이 획득된 레퍼런스 데이터는 본 발명의 상기 첫 번째 모습의 실시예들 중 어느 곳에서도 사용하기에 적합하다.
상기 레퍼런스 스캔은 상기 운행가능 요소의 왼쪽 사이드 및 상기 운행가능 요소의 오른쪽 사이드 상에서 획득될 수 있다. 이것은 상기 생성된 레퍼런스 스캔을 이용하여 수행될 수 있을 위치 추정 상에서의 순간적 특징들의 영향을 줄이는데 도움이 된다. 그런 순간적 특징들은, 예를 들면, 주차된 차량들, 추월하는 차량들 또는 반대 방향에서 동일한 경로를 이동하는 차량들일 수 있다. 명백하게, 이 경우에, 상기 레퍼런스 스캔 데이터가 얻어지고 있을 때에 상기 순간적 특징들이 존재했다. 그래서, 레퍼런스 스캔은 경로의 양 사이드들 상에 존재하는 특징들을 기록할 수 있다.
상기 레퍼런스 스캔 데이터는 적어도 하나의 거리계 센서를 이용하여 획득될 수 있다. 상기 거리계 센서는 단일의 축을 따라 동작하도록 구성될 수 있다. 거리계 센서는 수직 축에서의 스캔을 수행하도록 배치될 수 있을 것이다. 스캔이 수직 축에서 수행될 때에, 여러 높이들에서의 평면들에 대한 거리 정보가 수집되며, 그래서 그 결과인 스캔은 아주 더 상세하다. 대안으로, 또는 추가로, 상기 거리계 센서는 수평 축에서 스캔을 수행하도록 배치될 수 있을 것이다.
상기 거리계 센서는 차량의 운행 방향에 실질적으로 90도에서 외부 방향을 지시하도록 배치될 수 있을 것이다. 그래서, 여러 거리계 센서들이 사용되는 경우에, 레퍼런스 스캔 데이터와의 비교는 동시에 획득된 모든 실시간 스캔 데이터를 위한 단일의 비교에서 수행될 수 있다.
상기 거리계 센서는 50도 및 90도 사이의 획득 각도 내에서 데이터를 획득하도록 구성될 수 있다. 여기에서 사용되듯이, 상기 획득 각도라는 용어는 상기 거리계 센서에 관찰될 수 있는 두 물체들에 대해 가능한 최대 각도 격리를 나타내는 상기 거리계 센서의 전체 각도 시야를 의미한다. 몇몇의 실시예들에서, 상기 취득 각도는 실질적으로 70도이다.
상기 거리계 센서는 레이저 스캐너일 수 있다. 상기 레이저 스캐너는 거울들을 사용하여 측면 주변을 가로질러 스캔된 레이저 빔을 포함한다. 그래서, 상기 레이저 스캐너는 민감한 컴포넌트를 보호하기 위해 차량의 표면으로부터 떨어져서 위치할 수 있다. 몇몇의 실시예들에서, 상기 거울은 상기 측면 주변을 가로질러 레이저를 스캔하도록 구동된다. 그래서, 물리적으로 회전하면 경량의 거울이 필요하며, 더 무거운 레이저 스캐너 어셈블리는 필요없다. 추가로, 또는 대안으로, 상기 거리계 센서는 레이더 스캐너 및/또는 스테레오 카메라들의 쌍일 수 있다.
상기 방법은 상기 판별된 실제 위치들을 기초로 하여 상기 레퍼런스 스캔을 상기 디지털 지도와 정렬하는 단계; 그리고 상기 레퍼런스 스캔을 상기 디지털 지도와 연관된 데이터베이스 내에 저장하는 단계를 더 포함할 수 있다. 상기 실제 위치들은, GPS, GLONASS, 유럽 갈릴레오 포지셔닝 시스템, COMPASS 포지셔닝 시스템 또는 IRNSS (Indian Regional Navigational Satellite System)처럼 위성 내비게이션 디바이스와 같은 절대 포지셔닝 시스템으로부터 판별될 수 있다. 그러나, 모바일 원거리통신, 표면 비컨들 등을 이용하는 것처럼 다른 로케이션 판별 수단이 사용될 수 있다는 것이 인정될 것이다. 상기 판별된 실제 위치들에 기반한 상기 레퍼런스 스캔의 상기 디지털 지도와의 계속적인 정렬 그리고 상기 디지털 지도와 연관된 데이터베이스 내 저장을 위해서 상기 방법은 상기 레퍼런스 스캔 그리고 상기 판별된 실제 위치들을 서버로 전송하는 단계를 더 포함할 수 있다.
본 발명의 세 번째 모습에 따라, 디지털 지도와 연관된 레퍼런스 스캔 데이터를 저장하는 방법이 제공된다; 상기 디지털 지도는 운행가능 네트워크 (에를 들면, 도로망)의 운행가능 요소들 (예를 들면, 도로들)을 나타내는 데이터를 포함한다. 상기 방법은 운행가능 요소의 양 사이들 상에서 측면 주변을 스캔하여 획득된 로컬화 레퍼런스 스캔 데이터를 수신하는 단계; 그리고 상기 운행가능 요소의 각 사이드로부터의 로컬화 레퍼런스 데이터를 단일의 결합된 데이터 세트 내에 저장하는 단계를 포함한다.
그래서, 본 발명의 세 번째 모습에 따라서, 상기 운행가능 요소의 여러 부분들로부터의 데이터는 효율적인 데이터 포맷으로 함께 저장될 수 있다. 상기 결합된 데이터 세트 내에 저장된 데이터는 압축될 수 있으며, 상기 경로의 더 많은 부분들용의 데이터가 동일한 저장 용량 내에 저장되는 것을 가능하게 한다. 데이터 압축은 상기 레퍼런스 스캔 데이터가 무선 네트워크 접속을 통해 차량으로 전송되도록 하기 위해 축소된 네트워크 대역폭이 사용되는 것을 또한 가능하게 할 것이다.
상기 방법은 단일의 결합된 데이터 세트를 차량의 길이방향 위치를 판별하기 위한 디바이스로 전송하는 단계를 더 포함할 수 있다.
본 발명의 네 번째 모습에 따라, 디지털 지도에 대한 차량의 길이방향 위치를 판별하는 방법이 제공되며, 상기 디지털 지도는 차량이 이동하고 있는 운행가능 네트워크의 운행가능 요소들을 나타내는 데이터를 포함하며, 상기 방법은:
적어도 하나의 거리계 센서를 이용하여 상기 차량 주위의 측면 주변을 스캔하여 실시간 스캔 데이터를 판별하는 단계로, 상기 실시간 스캔 데이터는 하나 이상의 깊이 지도들을 포함하며, 각 깊이 지도는 복수의 길이방향 위치들 및 고도들에 대한 상기 측면 주변 내 표면들까지의 측정된 측면 거리를 나타내는, 판별 단계;
상기 디지털 지도에 관련하여 상기 차량의 간주된 현재 길이방향 위치에 대하여 상기 디지털 지도와 연관된 로컬화 레퍼런스 데이터를 검색하는 단계로, 상기 로컬화 레퍼런스 데이터는 하나 이상의 깊이 지도들을 포함하며, 각 깊이 지도는 복수의 길이방향 위치들 및 고도들에 대해 상기 측면 주변 내 표면들까지의 상기 측면 거리를 나타내는, 검색 단계;
상기 실시간 스캔 데이터와 상기 로컬화 레퍼런스 데이터 사이의 길이방향 오프셋을 판별하기 위해 교차-상관을 계산하여 상기 실시간 스캔 데이터를 상기 로컬화 레퍼런스 데이터와 비교하는 단계; 그리고
상기 디지털 지도에 대한 상기 차량의 길이방향 위치를 판별하기 위해 상기 길이방향 오프셋에 기초하여 상기 간주된 현재 길이방향 위치를 조절하는 단계를 포함한다.
본 발명은 여기에서 설명된 상기 방법들 중 어느 하나를 수행하도록 배열된, 예를 들면, 프로그램된 하나 이상의 프로세서들과 같은 수단을 구비한 디바이스, 예를 들면, 내비게이션 디바이스, 차량 등으로 확대된다. 본 발명은 여기에서 설명된 방법들 중 어느 하나를 수행하기 위해 또는 디바이스로 하여금 수행하도록 하기 위해 실행가능한 컴퓨터 판독가능 지시어들을 포함하는 비-일시적 물리적 저장 매체로 더 확대된다.
본 발명이 속한 기술 분야에서의 통상의 지식을 가진 자들에 의해 인정되듯이, 본 발명의 모습들 및 실시예들은 여기에서 설명된 본 발명의 바람직한 특징들 및 옵션의 특징들 중 어느 하나 또는 그 이상 또는 모두를 포함할 수 있으며, 그리고 바람직하게는 본 발명의 다른 모습들 중 어느 하나에 관하여 적합하게 실행할 수 있다.
본 발명의 효과는 본 명세서의 해당되는 부분들에 개별적으로 명시되어 있다.
본 발명의 실시예들은 동반하는 도면들을 참조하여 예로서만 이제 설명될 것이다.
도 1은 계획 지도의 일부를 나타낸다.
도 2는 도로 네트워크의 이미지 상에 덮여진 계획 지도의 일부를 보여준다.
도 3 및 도 4는 지도들을 구축하기 위해 데이터를 수집하기 위해 사용될 수 있는 예시적인 모바일 매핑 시스템을 보여준다.
도 5는 레이저 스캐너로부터 획득된 데이터의 3D 뷰를 보여주며, 도 6은 레이저 스캐너로부터 획득된 데이터의 측면 뷰 투사를 보여준다.
도 7은 자신의 주변들을 감지하면서 도로를 따라서 운행하는 본 발명에 따른 차량을 보여준다.
도 8은 예를 들어 도 7의 차량에 의해 수집된 감지된 주변 데이터에 비교된 로컬화 레퍼런스 데이터 비교를 보여준다.
도 9는 로컬화 레퍼런스 데이터가 저장될 수 있는 예시적인 포맷을 보여준다.
도 10a는 도로를 따라 운행하는 차량에 설치된 거리계 센서에 의해 얻어진 예시적인 포인트 클라이드를 보여주며, 도 10b는 두 개의 깊이 지도들로 변환되고 있는 이 포인트 클라우드 데이터를 보여준다.
도 11은 일 실시예에서 정규화된 교차-상관 계산에 이어서 결정된 오프셋을 보여준다.
도 12는 "레퍼런스" 데이터 세트 및 "로컬 측정" 데이터 세트 사이에서 수행된 상관의 다른 예를 보여준다.
도 13은 일 실시예에 다른 차량 내에 위치한 시스템을 보여준다.
(운행가능한 네트워크, 예를 들면, 도로망을 나타내는) 디지털 지도에 대해 차량과 같은 디바이스의 위치를 판별하기 위한 향상된 방법이 필요하다는 것이 인식되어왔다. 특히, 상기 디지털 지도에 대한 상기 디바이스의 길이방향 위치가 정밀하게, 예를 들면, 미터 미만의 정밀도로 판별될 수 있다는 것이 필요하다. 본원에서의 "길이방향 (longitudinal)"의 용어는 상기 디바이스가, 예컨대, 차량이 움직이고 있는 운행가능 네트워크의 부분을 따르는 방향을 언급하는 것이다; 다른 말로 하면, 상기 차량이 운행하고 있는 도로의 길이를 따르는 방향을 언급하는 것이다. 본원에서의 "측면 (lateral)"이라는 용어는 상기 길이방향에 수직이라는 그 용어의 통상적인 의미를 가지며, 그래서 상기 도로의 폭을 따르는 방향을 언급한다.
알 수 있을 것처럼, 디지털 지도가, 예를 들어, (표준의 지도들에서와 같이 도로에 대한 중심 라인에 대한 것과 대조적으로) 도로의 각 차로가 분리되어 표현된 3차원 벡터 모델인 상기에서 설명된 계획 지도를 포함할 때에, 디바이스의, 예를 들면, 차량의 측면 위치는 상기 디바이스가 현재 운행하고 있는 차로를 판별하는 것을 단순하게 수반한다. 그런 판별을 수행하기 위해 다양한 기술들이 알려져있다. 예를 들어, 상기 판별은 글로벌 내비게이션 위성 시스템 (global navigation satellite system (GNSS)) 수신기로부터 획득된 정보만을 사용하여 이루어질 수 있다. 추가로 또는 대안으로, 상기 디바이스와 연관된 카메라, 레이저 또는 다른 이미징 센서로부터의 정보가 사용될 수 있다; 최근 몇 년동안 실질적인 리서치가 수행되었으며, 그 리서치에서, 예를 들면, 차량 내에 설치된 하나 또는 그 이상의 비디오 카메라들로부터의 이미지 데이터가, 예컨데, 다양한 이미지 프로세싱 기술들을 이용하여 분석되어, 상기 차량이 운행하고 있는 차로를 탐지하고 추적한다. 하나의 예시적인 기술은 Intelligent Vehicles Symposium, 1297-1302면. IEEE, (2013)의 회보들에서 발표된 Junhwa Hur, Seung-Nam Kang, 및 Seung-Woo Seo 에 의해 저술된 논문 "Multi-lane detection in urban driving environments using conditional random fields"에서 제시된다. 여기에서, 상기 디바이스에는 비디오 카메라, 레이더 및/또는 라이더 (lidar) 센서로부터의 데이터 피드가 제공되며 그리고 실시간으로 수신된 데이터를 처리하기 위해 적절한 알고리즘이 사용되어, 상기 디바이스가 운행하고 있는 디바이스 또는 차량의 현재 차로를 판별한다. 대안으로, Mobileye N.V.로부터 이용가능한 Mobileye 시스템과 같은 다른 디바이스 또는 장치는 이런 데이터에 기반하여 차량의 현재 차로를 판별하는 것을 제공하고 그리고 그 현재 차로의 판별을 예를 들면 유선 접속 또는 블루투스 접속에 의해 상기 디바이스로 피드할 수 있다.
실시예들에서, 상기 차량의 길이방향 위치는, 바람직하게는 차량의 한쪽 또는 양 사이드 상에서의 차량 주위 주변의 실시간 스캔을 디지털 지도와 연관된 주변의 레퍼런스 스캔과 비교하는 것에 의해 판별될 수 있다. 이 비교로부터, 길이방향 오프셋이 존재한다면, 그 길이방향 오프셋이 판별될 수 있으며, 그리고 그 차량의 위치가 상기 판별된 오프셋을 이용하여 상기 디지털 지도에 매칭된다. 그러므로 상기 디지털 지도에 대한 상기 차량의 위치가 높은 정도의 정밀도로 항상 알려질 수 있다.
차량 주위 주변의 실시간 스캔은 상기 차량 상에 위치한 적어도 하나의 거리계 (range-finder) 센서를 이용하여 획득될 수 있다. 상기 적어도 하나의 거리계 센서는 어떤 적합한 모습로 취할 수 있지만, 바람직한 실시예들에서는 레이저 스캐너, 즉, LiDAR 디바이스를 포함한다. 상기 레이저 스캐너는 주변을 가로질러 레이저 빔을 스캔하고 그리고 그 주변의 포인트 클라이드 표현을 생성하도록 구성된다; 각 포인트는 상기 레이저가 반사된 물체의 표면의 위치를 표시한다. 알 수 있을 것처럼, 레이저 스캐너는 레이저 빔이 물체의 표면으로부터 반사된 이후에 상기 스캐너로 복귀하기 위해 걸리는 시간을 기록하도록 구성되며, 그리고 그 기록된 시간은 각 포인트까지의 거리를 판별하기 위해 그 후에 사용될 수 있다. 바람직한 실시예들에서, 상기 거리계 센서는, 예를 들면, 70ㅀ와 같이 50-90ㅀ 사이의 특정 획득 각도 내 데이터를 획득하기 위해서 단일 축을 따라서 동작하도록 구성된다; 예를 들면, 상기 센서가 레이저 스캐너를 포함할 때에, 상기 레이저 빔은 상기 디바이스 내 거울들을 이용하여 스캔된다.
차량 (100)이 도로를 따라 운행하고 있는 도 7에서 일 실시예가 보인다. 그 차량에는 차량의 각 사이드 상에 배치된 거리계 센서 (101, 102)가 장착된다. 센서가 상기 차량의 각 사이드 상에서 보이지만, 다른 실시예들에서는 단일의 센서가 차량의 한 사이드 상에서 사용될 수 있다. 바람직하게는, 상기 센서들은 적절하게 정렬되어, 각 센서로부터의 데이터가 아래에서 더욱 상세하게 설명되는 것처럼 결합될 수 있도록 한다.
위에서 설명된 것처럼, 상기 거리계 센서(들)는 단일의 축을 따라 동작하도록 배치될 수 있다. 일 실시예에서, 상기 센서는 수평 방향에서, 즉, 상기 도로의 표면에 평행한 평면에서 스캔을 수행하도록 배치될 수 있다. 이것은 예를 들면 도 7에서 보인다. 상기 차량이 도로를 따라서 운행할 때에 주변을 계속해서 스캔함으로써, 도 8에서 보이는 것 같은 감지된 주변 데이터가 수집될 수 있다. 참조번호 200의 데이터는 왼쪽 센서 (102)로부터 수집된 데이터이며, 그리고 참조번호 104의 물체를 보여준다. 참조번호 202의 데이터는 오른쪽 센서(101)로부터 수집된 데이터이며, 그리고 참조번호 106 및 108의 물체들을 보여준다. 다른 실시예들에서, 상기 센서는 수직 방향에서, 즉, 상기 도로의 표면에 수직인 평면에서 스캔을 수행하도록 배치될 수 있다. 상기 차량이 도로를 따라서 운행하면서 주변을 계속해서 스캔함으로써, 도 6에서의 방식으로 주변 데이터를 수집하는 것이 가능하다. 알 수 있을 것처럼, 수직 방향에서 스캔을 수행함으로써, 여러 높이들에서 평면들에 대한 거리 정보가 수집되며, 그래서 결과인 스캔은 아주 더 상세하다. 상기 스캔은 필요하다면 어떤 축을 따라서라도 수행될 수 있을 것이라는 것이 물론 인정될 것이다.
상기 주변의 레퍼런스 스캔은 그 도로를 따라 이전에 운행했던 하나 또는 그 이상의 차량들로부터 획득되며, 그리고 그 후에 상기 디지털 지도와 적절하게 정렬되며 연관된다. 상기 레퍼런스 스캔들은 상기 디지털 지도와 연관된 데이터베이스 내에 저장되며, 그리고 본원에서는 로컬화 레퍼런스 데이터로 언급된다. 디지털 지도에 매칭될 때에 상기 로컬화 레퍼런스 데이터의 조합은 로컬화 지도로 언급될 수 있다. 알 수 있을 것처럼, 상기 로컬화 지도는 보통은 TomTom International B.V. 또는 HERE, Nokia 회사와 같은 디지털 지도 제작 회사에 의해 상기 차량들과는 원거리에서 생성될 것이다.
상기 레퍼런스 스캔들은 예를 들면 도 3에서 보이는 모바일 매핑 차량들과 같은 전문가 차량들로부터 획득될 수 있다. 그러나, 바람직한 실시예들에서, 상기 레퍼런스 스캔들은, 차량들이 상기 운행가능 네트워크를 따라 운행할 때에 그 차량들에 의해 수집된 감지된 주변 데이터로부터 결정될 수 있다. 이 감지된 주변 데이터는 저장되어 상기 디지털 매핑 회사로 주기적으로 송신되어, 상기 로컬화 지도를 생성하고, 유지하고 그리고 업데이트하도록 할 수 있다.
상기 로컬화 레퍼런스 데이터는, 비록 그 데이터가 원격으로 저장될 수 있을 것이라는 것이 인정될 것이지만, 상기 차량의 로컬에서 저장되는 것이 바람직하다. 실시예들에서, 그리고 특히 상기 로컬화 레퍼런스 데이터가 로컬에서 저장될 때에, 상기 데이터는 압축된 포맷으로 저장된다.
실시예들에서, 로컬화 레퍼런스 데이터는 도로망 내 도로의 양 사이드에 대해 수집된다. 그런 실시예들에서, 도로의 각 사이드를 위한 레퍼런스 데이터는 분리하여 저장될 수 있으며, 또는 그 데이터는 결합된 데이터 세트로 함께 저장될 수 있다.
실시예들에서, 상기 로컬화 레퍼런스 데이터는 이미지 데이터로 저장될 수 있다. 그 이미지 데이터는 컬러, 예를 들면, RGB 이미지들, 또는 그레이스케일 이미지들일 수 있다.
도 9는 로컬화 레퍼런스 데이터가 저장될 수 있는 예시적인 포맷을 보여준다. 이 실시예에서, 도로의 왼쪽 사이드에 대한 레퍼런스 데이터는 이미지의 왼쪽 사이드 상에 제공되며, 그리고 도로의 오른쪽 사이드에 대한 레퍼런스 데이터는 이미지의 오른쪽 사이드 상에 제공된다; 상기 데이터 세트들은 정렬되어, 특정 길이방향 위치에 대한 왼쪽-사이드 레퍼런스 데이터 세트가 동일한 길이방향 위치에 대한 오른쪽-사이드 레퍼런스 데이터 세트 반대편에 보이도록 한다.
도 9의 이미지에서, 그리고 예시적인 목적을 위해서만, 길이방향 픽셀 사이즈는 0.5m이며, 중심라인의 각 사이드 상에 40개의 픽셀들이 존재한다. 상기 이미지는 컬러 (RGB) 이미지들이 아니라 그레이스케일 이미지로 저장될 수 있다고 또한 판별된다. 이 포맷으로 이미지들을 저장함으로써, 상기 로컬화 레퍼런스 데이터는 30KB/km에 대응하는 사이즈를 가진다.
추가의 예들을 도 10a 및 도 10b에서 볼 수 있다. 도 10a는 도로를 따라 운행하는 차량에 설치된 거리계 센서에 의해 획득된 예시의 포인트 클라우드를 보여준다. 도 10b에서, 이 포인트 클라우드 데이터는 두 개의 깊이 지도 (depth map)들로 변환되었다; 하나는 차량의 왼쪽 사이트에 대한 것이며 그리고 다른 것은 차량의 오른쪽 사이드에 대한 것이며, 이것들은 서로에게 나란하게 배치되어 합성 이미지를 형성한다.
위에서 설명된 것처럼, 차량에 의해 판별된 감지된 주변 데이터는 오프셋이 존재하는가를 판별하기 위해서 상기 로컬화 레퍼런스 데이터와 비교된다. 그러면 상기 차량의 위치가 상기 디지털 지도 상의 올바른 위치에 정확하게 매칭되도록 상기 차량의 위치를 조절하기 위해서, 판별된 어떤 오프셋도 사용될 수 있다. 이 판별된 오프셋은 여기에서는 상관 인덱스 (correlation index)로 언급된다.
실시예들에서, 감지된 주변 데이터는 도로의 길이방향 연장, 예를 들면, 200m에 대해 판별되며, 그리고 그 결과 데이터, 예를 들면, 이미지 데이터는 그러면 도로의 상기 연장에 대해 상기 로컬화 레퍼런스 데이터와 비교된다. 이 사이즈, 즉, 상기 차량의 길이보다 실질적으로 더 긴 사이즈의 도로 연장에 걸쳐서 상기 비교를 수행함으로써, 도로 상의 다른 차량들, 도로의 사이드 상에 정차된 차량들과 같은 비-고정적인 또는 일시적인 물체들은 보통은 상기 비교의 결과에 영향을 미치지 않을 것이다.
상기 비교는, 상기 데이터 세트들이 가장 많이 정렬된 길이방향 위치들을 판별하기 위해서, 상기 감지된 주변 데이터와 상기 로컬화 레퍼런스 데이터 사이의 교차-상관 (cross-correlation)을 계산함으로써 수행되는 것이 바람직하다. 최대 정렬에서 양 데이터 세트들의 길이방향 위치들 사이에서의 차이는 길이방향 오프셋이 판별되는 것을 가능하게 한다. 이것은, 예를 들면, 도 8의 로컬화 레퍼런스 데이터와 감지된 주변 데이터 사이에서 표시된 오프셋에 의해 보여질 수 있다.
실시예들에서, 상기 데이터 세트들이 이미지들로서 제공될 때에, 상기 교차-상관은 정규화된 교차-상관 오퍼레이션을 포함하며, 그래서 상기 로컬화 레퍼런스 데이터와 상기 감지된 주변 데이터 사이의 밝기, 조명 상태들 등에서의 차이들이 완화될 수 있도록 한다. 바람직하게는, 상기 비교는, 예를 들면, 200m 길이의 겹친 윈도우들에 대해 주기적으로 수행되며, 그래서 상기 차량이 도로를 따라서 운행할 때에 어떤 오프셋도 계속해서 판별되도록 한다. 도 11은, 예시적인 실시예에서, 도시된 로컬화 레퍼런스 데이터 그리고 도시된 감지된 주변 데이터 사이의 정규화된 교차-상관 계산에 이어지는 판별된 오프셋을 보여준다.
도 12는 "레퍼런스" 데이터 세트 그리고 (차량이 도로를 따라서 운행할 때에 그 차량에 의해 얻어진) "로컬 측정" 데이터 세트 사이에서 수행된 상관의 추가의 예를 도시한다. 두 이미지들 사이에서의 상기 상관의 결과는 "길이방향 상관 인덱스"에 대한 "시프트"의 그래프에서 볼 수 있으며, 여기에서 가장 큰 피크의 위치는 도시된 최선-핏 (best-fit) 시프트를 판별하기 위해 사용되며, 이것은 그러면 상기 디지털 지도에 대한 차량의 길이방향 위치를 조절하기 위해 사용될 수 있다.
도 9, 도 10b, 도 11 및 도 12에서 볼 수 있듯이, 상기 로컬화 레퍼런스 데이터 및 상기 감지된 주변 데이터는 깊이 지도들의 모습인 것이 바람직하여, 이 경우 각 엘리먼트 (예를 들면, 깊이 지도가 이미지로서 저장될 때의 픽셀)은 다음을 포함한다: (도로를 따른) 길이방향 위치를 나타내는 제1 값; 고도 (즉, 지면 위의 높이)를 나타내는 제2 값 ; 그리고 (도로를 가로지르는) 측면 위치를 나타내는 제3 값. 그러므로, 상기 깊이 지도의 각 엘리먼트는, 예를 들면, 픽셀은 상기 차량 주위의 주변 표면 부분에 유효하게 대응한다. 알 수 있듯이, 각 엘리먼트, 예를 들면, 픽셀에 의해 표현된 상기 표면의 사이즈는 압축의 양에 따라 변할 것이며, 그래서 엘리먼트가, 예를 들면, 픽셀이 상기 깊이 지도 (또는 이미지)의 더 높은 레벨의 압축을 가진 더 큰 표면 영역을 나타내도록 한다.
상기 로컬화 레퍼런스 데이터가 상기 디바이스의 데이터 저장 수단에, 예를 들면, 메모리에 저장되는 실시예들에서, 상기 비교 단계는 차량 내의 하나 이상의 프로세서들 상에서 수행될 수 있다. 상기 로컬화 레퍼런스 데이터가 상기 차량에서 떨어져서 저장되는 실시예들에서, 상기 감지된 주변 데이터는 무선 접속을 통해서, 예를 들면, 모바일 원거리통신 네트워크를 경유하여 서버로 송신될 수 있다. 상기 로컬화 레퍼런스 데이터로의 액세스를 가지는 상기 서버는 그 후에, 예를 들면, 상기 모바일 원거리통신 네트워크를 다시 이용하여 판별된 오프셋을 상기 차량으로 반송할 것이다.
차량 내에 위치한, 본 발명의 실시예에 따른 예시적인 시스템이 도 13에 도시된다. 이 시스템에서, 상관 인덱스 제공자 유닛으로 언급되는 프로세싱 디바이스는 차량의 왼쪽 사이드 상의 주변을 탐지하기 위해 위치한 거리계 센서 그리고 차량의 오른쪽 사이드 상의 주변을 탐지하기 위해 위치한 거리계 센서로부터 데이터 피드를 수신한다. 상기 프로세성 디바이스는 (바람직하게는 계획 지도의 모습인) 디지털 지도로의 액세스 그리고 상기 디지털 지도에 적합하게 매치되는 로케이션 레퍼런스 데이터의 데이터베이스로의 액세스를 또한 구비한다. 상기 프로세싱 디바이스는 위에서 설명된 상기 방법을 수행하고, 그리고 상기 거리계 센서들로부터의 데이터 피드, 옵션으로는 상기 데이터 피드를 적합한 모습으로, 예를 들면, 양 센서들로부터의 데이터를 결합한 이미지 데이터로 변환한 이후에 로컬화 레퍼런스 데이터와 비교하도록 구성되어, 길이방향 오프셋 및 상기 디지털 지도에 대한 상기 차량의 정밀한 위치를 판별하도록 한다. 상기 시스템은 수평 제공자 유닛을 또한 포함하며, 이는 상기 차량의 판별된 위치 그리고 상기 디지털 지도 내 데이터를 이용하여, 상기 차량이 막 지나가려고 하는 운행가능 네트워크의 다가오는 부분에 관한 정보 ("수평 데이터"로 언급됨)를 제공한다. 이 수평 데이터는 다양한 보조 또는 자율화된 운행 동작들, 예를 들면, 적응적 크루우즈 제어, 자율 차로 변경, 응급 브레이크 보조 등을 수행하기 위해 상기 차량 내 하나 이상의 시스템들을 제어하기 위해서 그 후에 사용될 수 있다.
요약하면, 본 발명은, 적어도 바람직한 실시예들에서, 길이방향 상관을 기반으로 하는 포지셔닝 방법에 관한 것이다. 차량 주위의 3D 공간이 두 개의 깊이 지도들의 모습으로 표현되며, 이는 도로의 왼쪽 및 오른쪽 사이드들을 커버하며, 그리고 단일의 이미지로 결합될 수 있다. 디지털 지도 내에 저장된 레퍼런스 이미지들이 상기 차량의 레이저들 또는 다른 거리계 센서들로부터 유도된 상기 깊이 지도들과 교차-상관되어, 상기 디지털 지도 내 도로의 표현에 따라 (즉, 길이방향으로) 정밀하게 상기 차량의 위치를 정하도록 한다. 상기 깊이 정보는 상기 도로를 가로질러 (즉, 측면으로) 상기 차의 위치를 정하기 위해 실시예들에서 그 후에 사용될 수 있다.
바람직한 실시예들에서, 차량 주위의 3D 공간은 도로 궤도에 평행한 두 개의 그리드들로 투사되며 그리고 투사들의 값들은 상기 그리드의 각 셀 내에서 평균화된다. 길이방향 상관기 깊이 지도의 픽셀은 주행 방향을 따라 약 50cm 그리고 약 20cm의 높이의 치수를 가진다. 픽셀 값으로 부호화된 깊이는 약 10cm로 양자화된다. 주향 방향을 따른 깊이 지도 이미지 해상도가 비록 50cm라고 하더라도, 포지셔닝의 해상도는 아주 더 높다. 상기 교차-상관 이미지들은 그리드를 나타내며, 그 그리드에서 레이저 포인트들은 분산되고 평균화된다. 적절한 업-샘플링은 서브-픽셀 계수들의 시프트 벡터들을 찾는 것을 가능하게 한다. 유사하게, 약 10cm의 깊이 양자화는 도로를 가로지르는 포지셔닝의 10cm 정밀도를 의미하지 않으며, 이는 상관된 픽셀들 모두에 걸쳐서 양자화 오류가 평균화되기 때문이다. 그러므로, 실제로, 포지셔닝의 정밀도는 대개는 레이저 정밀도 및 캘리브레이션에 의해 제한되며, 길이방향 상관기 인덱스의 양자화 오류로부터는 아주 약간의 영향을 받을 뿐이다.
따라서, 포지셔닝 정보, 예를 들면, 상기 깊이 지도들 (또는 이미지들)은 항상 이용가능하며 (주변에 날카로운 물체들이 이용 가능하지 않다고 하더라도), 컴팩트하며 (전 세계의 도로망을 저장하는 것이 가능하다), 그리고 (어떤 장소에서라도 그 포지셔닝 정보의 가용성 및 높은 오류 평균화 가능성으로 인하여) 다른 접근방식들에 필적하거나 심지어 더 양호한 정밀도를 가능하게 한다는 것이 인정될 것이다.
본 발명에 따른 방법들 중 어느 것도 소프트웨어, 예를 들면, 컴퓨터 프로그램들을 적어도 부분적으로 이용하여 구현될 수 있다. 본 발명은 그래서 본 발명의 실시예들이나 모습들 중 어느 하나에 따른 방법을 수행하거나 또는 내비게이션 디바이스로 하여금 그 방법을 수행하도록 하기 위해 실행가능한 컴퓨터 판독가능 지시어들을 포함하는 컴퓨터 프로그램으로 또한 확장된다. 그래서, 본 발명은, 하나 이상의 프로세서들에 의해 실행될 때에 하나 이상의 프로세서들로 하여금 디스플레이 스크린 상에서의 디스플레이를 위해 적합한 이미지들 (또는 다른 그래픽 정보)을 생성하도록 하는 컴퓨터 프로그램 제품을 포함한다. 본 발명은, 데이터 프로세싱 수단을 포함하는 시스템이나 장치를 운영하기 위해 사용될 때에 상기 데이터 프로세싱 수단과 함께 상기 장치나 시스템이 본 발명의 방법들의 단계들을 수행하도록 하는 그런 소프트웨어를 포함하는 컴퓨터 소프트웨어 캐리어로 또한 확장된다. 그런 컴퓨터 소프트웨어 캐리어는 ROM 칩, CD ROM 등과 같은 비 일시적 물리적 저장 매체일 수 있으며, 또는 와이어들, 광 신호 또는 라디오 신호를 통한 위성 등과 같은 곳으로의 전기 신호와 같은 신호일 수 있다. 본 발명은, 기계에 의해 독출될 때에 상기 기계로 하여금 본 발명의 모습들이나 실시예들 중 어느 하나의 방법에 따라서 동작하도록 하는 지시어들을 포함하는 기계 판독 가능 매체를 제공한다.
명시적으로 선언되지 않는다면, 본 발명의 모습들 중 어느 하나에서의 본 발명은 본 발명의 다른 모습들이나 실시예들에 관하여 설명된 특징들 중 어느 하나 또는 모두를, 그것들이 상호 배타적이지 않은 정도까지 포함할 수 있다는 것이 인정될 것이다. 특히, 동작들의 다양한 실시예들이 상기 방법에서 그리고 상기 장치에 의해 수행될 수 있는 것으로 설명되었지만, 이 동작들 중 하나 이상 또는 모두가 소망 되는대로 그리고 적절하게 어떤 조합으로라도 상기 방법에서 그리고 상기 장치에 의해 수행될 수 있을 것이라는 것이 인정될 것이다.

Claims (14)

  1. 디지털 지도에 대해 차량의 길이방향 (longitudinal) 위치를 판별하는 방법으로,
    상기 디지털 지도는 상기 차량이 이동하고 있는 운행가능 네트워크의 운행가능 요소들을 나타내는 데이터를 포함하며, 상기 방법은:
    적어도 하나의 거리계 (range-finder) 센서를 이용하여 상기 차량 주위의 측면 (lateral) 주변을 스캔하여 실시간 스캔 데이터를 판별하는 단계로, 상기 실시간 스캔 데이터는 하나 이상의 깊이 지도들을 포함하며, 각 깊이 지도는 복수의 길이방향 위치들 및 고도들에 대한 상기 측면 주변 내 표면들까지의 측정된 측면 거리를 나타내는, 판별 단계;
    상기 디지털 지도에 관련하여 상기 차량의 간주된 현재 길이방향 위치에 대하여 상기 디지털 지도와 연관된 로컬화 레퍼런스 데이터를 검색하는 단계로, 상기 로컬화 레퍼런스 데이터는 하나 이상의 깊이 지도들을 포함하며, 각 깊이 지도는 복수의 길이방향 위치들 및 고도들에 대해 상기 측면 주변 내 표면들까지의 상기 측면 거리를 나타내며, 상기 로컬화 레퍼런스 데이터는 하나 이상의 깊이 지도 이미지들을 포함하는 이미지 데이터로서 제공되며, 각 깊이 지도 이미지의 각 픽셀은:
    길이방향 위치를 나타내는 제1 값;
    고도를 나타내는 제2 값; 및
    측면 위치를 나타내는 제3 값을 포함하는, 검색 단계;
    상기 실시간 스캔 데이터와 상기 로컬화 레퍼런스 데이터 사이의 길이방향 오프셋을 판별하기 위해 교차-상관 (cross-correlation)을 계산하여 상기 실시간 스캔 데이터를 상기 로컬화 레퍼런스 데이터와 비교하는 단계; 그리고
    상기 디지털 지도에 대한 상기 차량의 길이방향 위치를 판별하기 위해 상기 길이방향 오프셋에 기초하여, 상기 간주된 현재 길이방향 위치를 조절하는 단계를 포함하는, 방법.
  2. 제1항에 있어서,
    합성 이미지로 결합되는 차량의 왼쪽 사이드에 대한 깊이 지도 및 차량의 오른쪽 사이드에 대한 깊이 지도를 결정하기 위해서 상기 차량의 왼쪽 사이드 및 상기 차량의 오른쪽 사이드 둘 모두에서 상기 측면 주변을 스캔하여 상기 실시간 스캔 데이터가 획득되는, 방법.
  3. 제1항 또는 제2항에 있어서,
    상기 로컬화 레퍼런스 데이터는, 복수의 길이방향 위치들 및 고도들에 대해 상기 차량의 왼쪽 상의 측면 주변 내 표면들까지의 측면 거리를 나타내는 깊이 지도 그리고 복수의 길이방향 위치들 및 고도들에 대해 상기 차량의 오른 상의 측면 주변 내 표면들까지의 측면 거리를 나타내는 깊이 지도를 포함하는, 방법.
  4. 제3항에 있어서,
    복수의 길이방향 위치들 및 고도들에 대해 상기 차량의 왼쪽 상의 측면 주변 내 표면들까지의 측면 거리를 나타내는 상기 깊이 지도 그리고 복수의 길이방향 위치들 및 고도들에 대해 상기 차량의 오른 상의 측면 주변 내 표면들까지의 측면 거리를 나타내는 상기 깊이 지도는 합성 이미지로 결합되는, 방법.
  5. 제4항에 있어서,
    상기 교차-상관은 상기 실시간 스캔 데이터의 합성 이미지 그리고 상기 로컬화 레퍼런스 데이터의 이미지 사이에서 계산되는, 방법.
  6. 제1항에 있어서,
    상기 로컬화 레퍼런스 데이터의 하나 이상의 깊이 지도들은 압축된 이미지들로 저장되는, 방법.
  7. 제1항에 있어서,
    상기 로컬화 레퍼런스 데이터의 하나 이상의 깊이 지도들은 그레이스케일 이미지들로 저장되는, 방법.
  8. 제1항에 있어서,
    상기 실시간 스캔 데이터를 상기 로컬화 레퍼런스 데이터와 비교하는 것은 미리 정해진 길이방향 거리의 윈도우 동안에 획득된 실시간 스캔 데이터를 이용하여 수행되는, 방법.
  9. 제8항에 있어서,
    상기 비교는 겹치는 윈도우들에 대해 주기적으로 수행되는, 방법.
  10. 제1항에 있어서,
    상기 거리계 센서는: 레이저 스캐너; 레이더 스캐너; 및 스테레오 카메라들의 쌍 중 하나 이상을 포함하는, 방법.
  11. 제1항에 있어서,
    상기 로컬화 레퍼런스 데이터는 상기 차량의 메모리 내에 국지적으로 저장된, 방법.
  12. 디지털 지도에 대해 차량의 길이방향 위치를 판별하기 위한 디바이스로서,
    상기 디지털 지도는 상기 차량이 이동하고 있는 운행가능 네트워크의 운행가능 요소들을 나타내는 데이터를 포함하며, 상기 디바이스는 적어도 하나의 프로세서 그리고 상기 적어도 하나의 프로세서에 의해 실행가능한 컴퓨터 판독가능 지시어들을 구비한 메모리를 포함하며,
    상기 지시어들은 상기 디바이스로 하여금:
    적어도 하나의 거리계 (range-finder) 센서를 이용하여 상기 차량 주위의 측면 주변을 스캔하여 실시간 스캔 데이터를 판별하게 하며, 상기 실시간 스캔 데이터는 하나 이상의 깊이 지도들을 포함하며, 각 깊이 지도는 복수의 길이방향 위치들 및 고도들에 대한 상기 측면 주변 내 표면들까지의 측정된 측면 거리를 나타내며;
    상기 디지털 지도에 관련하여 상기 차량의 간주된 현재 길이방향 위치에 대하여 상기 디지털 지도와 연관된 로컬화 레퍼런스 데이터를 검색하도록 하며, 상기 로컬화 레퍼런스 데이터는 하나 이상의 깊이 지도들을 포함하며, 각 깊이 지도는 복수의 길이방향 위치들 및 고도들에 대한 상기 측면 주변 내 표면들까지의 상기 측면 거리를 나타내며, 상기 로컬화 레퍼런스 데이터는 이미지 데이터로서 제공되며, 각 깊이 지도 이미지의 각 픽셀은:
    길이방향 위치를 나타내는 제1 값;
    고도를 나타내는 제2 값; 및
    측면 위치를 나타내는 제3 값을 포함하며;;
    상기 실시간 스캔 데이터와 상기 로컬화 레퍼런스 데이터 사이의 길이방향 오프셋을 판별하기 위해 교차-상관 (cross-correlation)을 계산하여 상기 실시간 스캔 데이터를 상기 로컬화 레퍼런스 데이터와 비교하도록 하며; 그리고
    상기 디지털 지도에 대한 상기 차량의 길이방향 위치를 판별하기 위해 상기 길이방향 오프셋에 기초하여 상기 간주된 현재 길이방향 위치를 조절하도록 하는, 디바이스.
  13. 제12항에 있어서,
    상기 컴퓨터 판독가능 지시어들은 상기 적어도 하나의 프로세서에 의해 실행가능하여 상기 디바이스로 하여금 제1항의 방법에 따라 동작하도록 하는, 디바이스.
  14. 비 일시적 물리적 컴퓨터 판독가능 저장 매체에 기록된 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램은 지시어들을 포함하며, 이 지시어들은 컴퓨팅 디바이스의 적어도 하나의 프로세서에 의해 실행될 때에, 상기 컴퓨팅 디바이스로 하여금 제1항, 제2항 및 제6항 내지 제11항 중 어느 한 항의 방법에 따라 동작하도록 하는. 비 일시적 물리적 컴퓨터 판독가능 저장 매체에 기록된 컴퓨터 프로그램.
KR1020167033256A 2014-04-30 2015-04-30 디지털 지도에 대한 위치를 판별하기 위한 방법 및 시스템 KR102425272B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB1407643.4 2014-04-30
GBGB1407643.4A GB201407643D0 (en) 2014-04-30 2014-04-30 Improved positioning relatie to a digital map for assisted and automated driving operations
PCT/EP2015/059614 WO2015173034A1 (en) 2014-04-30 2015-04-30 Method and system for determining a position relative to a digital map

Publications (2)

Publication Number Publication Date
KR20160147016A KR20160147016A (ko) 2016-12-21
KR102425272B1 true KR102425272B1 (ko) 2022-07-26

Family

ID=50972142

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167033256A KR102425272B1 (ko) 2014-04-30 2015-04-30 디지털 지도에 대한 위치를 판별하기 위한 방법 및 시스템

Country Status (7)

Country Link
US (1) US10240934B2 (ko)
EP (1) EP3137850B1 (ko)
JP (1) JP6694395B2 (ko)
KR (1) KR102425272B1 (ko)
CN (1) CN106461402B (ko)
GB (2) GB201407643D0 (ko)
WO (1) WO2015173034A1 (ko)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10082797B2 (en) * 2015-09-16 2018-09-25 Ford Global Technologies, Llc Vehicle radar perception and localization
WO2017095539A1 (en) * 2015-11-30 2017-06-08 Raytheon Company Navigation system for autonomous underwater vehicle based on coherence map
CN107515006A (zh) * 2016-06-15 2017-12-26 华为终端(东莞)有限公司 一种地图更新方法和车载终端
US10317901B2 (en) 2016-09-08 2019-06-11 Mentor Graphics Development (Deutschland) Gmbh Low-level sensor fusion
US10678240B2 (en) 2016-09-08 2020-06-09 Mentor Graphics Corporation Sensor modification based on an annotated environmental model
US10585409B2 (en) * 2016-09-08 2020-03-10 Mentor Graphics Corporation Vehicle localization with map-matched sensor measurements
US11067996B2 (en) 2016-09-08 2021-07-20 Siemens Industry Software Inc. Event-driven region of interest management
JP7090597B2 (ja) * 2016-09-28 2022-06-24 トムトム グローバル コンテント ベスローテン フエンノートシャップ 位置特定基準データを生成及び使用する方法及びシステム
US10579065B2 (en) * 2016-11-23 2020-03-03 Baidu Usa Llc Algorithm and infrastructure for robust and efficient vehicle localization
EP3343172B1 (en) * 2017-01-03 2024-03-13 iOnRoad Technologies Ltd. Creation and use of enhanced maps
US10436595B2 (en) * 2017-02-02 2019-10-08 Baidu Usa Llc Method and system for updating localization maps of autonomous driving vehicles
US10380890B2 (en) * 2017-02-08 2019-08-13 Baidu Usa Llc Autonomous vehicle localization based on walsh kernel projection technique
CN108732584B (zh) * 2017-04-17 2020-06-30 百度在线网络技术(北京)有限公司 用于更新地图的方法和装置
US20180314253A1 (en) 2017-05-01 2018-11-01 Mentor Graphics Development (Deutschland) Gmbh Embedded automotive perception with machine learning classification of sensor data
DE102017211607A1 (de) * 2017-07-07 2019-01-10 Robert Bosch Gmbh Verfahren zur Verifizierung einer digitalen Karte eines höher automatisierten Fahrzeugs (HAF), insbesondere eines hochautomatisierten Fahrzeugs
US10796572B2 (en) * 2017-07-17 2020-10-06 Ford Global Technologies, Llc Automated map anomaly detection and update
US10503175B2 (en) 2017-10-26 2019-12-10 Ford Global Technologies, Llc Lidar signal compression
KR102333033B1 (ko) 2017-12-07 2021-12-01 삼성전자주식회사 차량 및 그 제어 방법
US11073828B2 (en) * 2017-12-08 2021-07-27 Samsung Electronics Co., Ltd. Compression of semantic information for task and motion planning
US11145146B2 (en) 2018-01-31 2021-10-12 Mentor Graphics (Deutschland) Gmbh Self-diagnosis of faults in an autonomous driving system
US10553044B2 (en) 2018-01-31 2020-02-04 Mentor Graphics Development (Deutschland) Gmbh Self-diagnosis of faults with a secondary system in an autonomous driving system
US10776983B2 (en) 2018-02-27 2020-09-15 Nvidia Corporation Analysis of point cloud data using depth and texture maps
DE102018203440A1 (de) * 2018-03-07 2019-09-12 Robert Bosch Gmbh Verfahren und Lokalisierungssystem zum Erstellen oder Aktualisieren einer Umgebungskarte
US10684132B2 (en) * 2018-03-19 2020-06-16 Here Global B.V. Generation and update of a lane network graph model
JP6847885B2 (ja) * 2018-03-20 2021-03-24 株式会社東芝 情報処理装置、情報処理方法及びプログラム
US10521913B2 (en) * 2018-03-29 2019-12-31 Aurora Innovation, Inc. Relative atlas for autonomous vehicle and generation thereof
US11256729B2 (en) * 2018-03-29 2022-02-22 Aurora Operations, Inc. Autonomous vehicle relative atlas incorporating hypergraph data structure
US10503760B2 (en) * 2018-03-29 2019-12-10 Aurora Innovation, Inc. Use of relative atlas in an autonomous vehicle
US10598498B2 (en) * 2018-04-06 2020-03-24 GM Global Technology Operations LLC Methods and systems for localization of a vehicle
CA3026914C (en) 2018-07-02 2021-11-30 Beijing Didi Infinity Science And Development Co., Ltd. Vehicle navigation system using pose estimation based on point cloud
EP3617749B1 (en) * 2018-09-03 2020-11-11 Zenuity AB Method and arrangement for sourcing of location information, generating and updating maps representing the location
DE102019205994A1 (de) * 2019-04-26 2020-10-29 Robert Bosch Gmbh Verfahren zum Ausbilden einer Lokalisierungsschicht einer digitalen Lokalisierungskarte zum automatisierten Fahren
US11755917B2 (en) * 2019-11-15 2023-09-12 Waymo Llc Generating depth from camera images and known depth data using neural networks
EP3882649B1 (en) * 2020-03-20 2023-10-25 ABB Schweiz AG Position estimation for vehicles based on virtual sensor response
CN113450439A (zh) * 2020-03-26 2021-09-28 华为技术有限公司 一种虚实融合方法、设备及系统
US11872965B2 (en) * 2020-05-11 2024-01-16 Hunter Engineering Company System and method for gyroscopic placement of vehicle ADAS targets
CN112800159B (zh) * 2021-01-25 2023-10-31 北京百度网讯科技有限公司 地图数据处理方法及装置
CN113096441B (zh) * 2021-03-25 2022-08-05 北京星云互联科技有限公司 一种车辆预警方法、装置、车辆及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070021915A1 (en) * 1997-10-22 2007-01-25 Intelligent Technologies International, Inc. Collision Avoidance Methods and Systems
JP2010160777A (ja) 2008-12-12 2010-07-22 Toyota Central R&D Labs Inc 地図生成装置、走路推定装置、移動可能領域推定装置、及びプログラム
WO2011023246A1 (en) * 2009-08-25 2011-03-03 Tele Atlas B.V. A vehicle navigation system and method
JP2012208525A (ja) 2012-07-17 2012-10-25 Toyota Central R&D Labs Inc 静止物地図生成装置
US20130155058A1 (en) 2011-12-14 2013-06-20 The Board Of Trustees Of The University Of Illinois Four-dimensional augmented reality models for interactive visualization and automated construction progress monitoring
US20140028678A1 (en) 2010-12-30 2014-01-30 Radoslaw Pawel Chmielewski System and method for generating textured map object images

Family Cites Families (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4700307A (en) 1983-07-11 1987-10-13 General Dynamics Corp./Convair Division Feature navigation system and method
WO1995006283A1 (en) * 1993-08-24 1995-03-02 Downs Roger C Topography processor system
DE4408329C2 (de) 1994-03-11 1996-04-18 Siemens Ag Verfahren zum Aufbau einer zellular strukturierten Umgebungskarte von einer selbstbeweglichen mobilen Einheit, welche sich mit Hilfe von auf Wellenreflexion basierenden Sensoren orientiert
US5961571A (en) 1994-12-27 1999-10-05 Siemens Corporated Research, Inc Method and apparatus for automatically tracking the location of vehicles
US6526352B1 (en) 2001-07-19 2003-02-25 Intelligent Technologies International, Inc. Method and arrangement for mapping a road
US7085637B2 (en) 1997-10-22 2006-08-01 Intelligent Technologies International, Inc. Method and system for controlling a vehicle
DE19532104C1 (de) 1995-08-30 1997-01-16 Daimler Benz Ag Verfahren und Vorrichtung zur Bestimmung der Position wenigstens einer Stelle eines spurgeführten Fahrzeugs
JPH1031799A (ja) 1996-07-15 1998-02-03 Toyota Motor Corp 自動走行制御装置
US5999866A (en) 1996-11-05 1999-12-07 Carnegie Mellon University Infrastructure independent position determining system
JP3848431B2 (ja) * 1997-04-28 2006-11-22 本田技研工業株式会社 車両位置推定装置と車両位置推定方法、および、走行車線維持装置と走行車線維持方法
US6047234A (en) 1997-10-16 2000-04-04 Navigation Technologies Corporation System and method for updating, enhancing or refining a geographic database using feedback
US6266442B1 (en) 1998-10-23 2001-07-24 Facet Technology Corp. Method and apparatus for identifying objects depicted in a videostream
DE19930796A1 (de) 1999-07-03 2001-01-11 Bosch Gmbh Robert Verfahren und Vorrichtung zur Übermittlung von Navigationsinformationen von einer Datenzentrale an ein fahrzeugbasiertes Navigationssystem
CA2395257C (en) 1999-12-29 2013-04-16 Geospan Corporation Any aspect passive volumetric image processing method
US6671615B1 (en) 2000-05-02 2003-12-30 Navigation Technologies Corp. Navigation system with sign assistance
US6608913B1 (en) 2000-07-17 2003-08-19 Inco Limited Self-contained mapping and positioning system utilizing point cloud data
US20050149251A1 (en) 2000-07-18 2005-07-07 University Of Minnesota Real time high accuracy geospatial database for onboard intelligent vehicle applications
US6772062B2 (en) 2001-05-31 2004-08-03 The Regents Of The University Of California Intelligent ultra high speed distributed sensing system and method for sensing roadway markers for intelligent vehicle guidance and control
JP3910582B2 (ja) 2001-07-31 2007-04-25 株式会社キャドセンター 三次元構造物形状の自動生成装置、自動生成方法、そのプログラム、及びそのプログラムを記録した記録媒体
JP2003232888A (ja) 2001-12-07 2003-08-22 Global Nuclear Fuel-Japan Co Ltd 輸送物の健全性確認検査システムおよび健全性確認方法
DE10202756A1 (de) 2002-01-25 2003-08-07 Daimler Chrysler Ag Digitale Karte mit Temperaturdaten
US7433889B1 (en) 2002-08-07 2008-10-07 Navteq North America, Llc Method and system for obtaining traffic sign data using navigation systems
US6728608B2 (en) 2002-08-23 2004-04-27 Applied Perception, Inc. System and method for the creation of a terrain density model
US6847887B1 (en) 2003-03-04 2005-01-25 Navteq North America, Llc Method and system for obtaining road grade data
FI115668B (fi) 2003-03-25 2005-06-15 Sandvik Tamrock Oy Kaivosajoneuvon paikan ja suunnan alustaminen
US6856897B1 (en) 2003-09-22 2005-02-15 Navteq North America, Llc Method and system for computing road grade data
US7035733B1 (en) 2003-09-22 2006-04-25 Navteq North America, Llc Method and system for obtaining road grade data
US7050903B1 (en) 2003-09-23 2006-05-23 Navteq North America, Llc Method and system for developing traffic messages
US7096115B1 (en) 2003-09-23 2006-08-22 Navteq North America, Llc Method and system for developing traffic messages
US6990407B1 (en) 2003-09-23 2006-01-24 Navteq North America, Llc Method and system for developing traffic messages
US7251558B1 (en) 2003-09-23 2007-07-31 Navteq North America, Llc Method and system for developing traffic messages
DE102004055069B4 (de) 2004-07-15 2007-02-15 Daimlerchrysler Ag Mehrdimensionale Fahrbahnvermessung
DE102004046589A1 (de) 2004-08-05 2006-02-23 Volkswagen Ag Vorrichtung für ein Kraftfahrzeug
DE102005008185A1 (de) 2005-02-23 2006-08-31 Daimlerchrysler Ag Verfahren, System und Fahrzeuggerät zur Überprüfung digitaler Straßendaten
WO2006118563A1 (en) * 2005-04-29 2006-11-09 Chubb International Holdings Limited Method and device for consistent region of interest
WO2006132522A1 (en) 2005-06-06 2006-12-14 Tomtom International B.V. Navigation device with camera-info
US7728869B2 (en) 2005-06-14 2010-06-01 Lg Electronics Inc. Matching camera-photographed image with map data in portable terminal and travel route guidance method
WO2007011522A2 (en) 2005-07-14 2007-01-25 Gm Global Technology Operations, Inc. Remote perspective vehicle environment observation system
US20070055441A1 (en) 2005-08-12 2007-03-08 Facet Technology Corp. System for associating pre-recorded images with routing information in a navigation system
JP4600357B2 (ja) 2006-06-21 2010-12-15 トヨタ自動車株式会社 測位装置
CA2646830A1 (en) 2006-06-27 2008-01-03 Tomtom International B.V. Navigation device and method for providing warnings for a speed trap
DE502006007134D1 (de) 2006-07-06 2010-07-15 Siemens Ag Vorrichtung zum orten eines an einen fahrweg gebundenen fahrzeugs
JP5069439B2 (ja) 2006-09-21 2012-11-07 パナソニック株式会社 自己位置認識システム
US20080243378A1 (en) 2007-02-21 2008-10-02 Tele Atlas North America, Inc. System and method for vehicle navigation and piloting including absolute and relative coordinates
RU2009148504A (ru) 2007-06-08 2011-07-20 Теле Атлас Б.В. (NL) Способ и устройство для создания панорамы с множественными точками наблюдения
CA2712673A1 (en) 2008-02-04 2009-08-13 Tele Atlas North America Inc. Method for map matching with sensor detected objects
WO2010004689A1 (ja) 2008-07-07 2010-01-14 三菱電機株式会社 車両走行環境検出装置
US20110178610A1 (en) * 2008-10-22 2011-07-21 Terratrim, Inc. Systems and methods for managing utility consumption
EP2209091B1 (en) * 2009-01-16 2012-08-08 Honda Research Institute Europe GmbH System and method for object motion detection based on multiple 3D warping and vehicle equipped with such system
DE102009009047A1 (de) * 2009-02-16 2010-08-19 Daimler Ag Verfahren zur Objektdetektion
US8301374B2 (en) 2009-08-25 2012-10-30 Southwest Research Institute Position estimation for ground vehicle navigation based on landmark identification/yaw rate and perception of landmarks
TWI391874B (zh) 2009-11-24 2013-04-01 Ind Tech Res Inst 地圖建置方法與裝置以及利用該地圖的定位方法
US8861842B2 (en) * 2010-02-05 2014-10-14 Sri International Method and apparatus for real-time pedestrian detection for urban driving
JP5062497B2 (ja) * 2010-03-31 2012-10-31 アイシン・エィ・ダブリュ株式会社 風景画像認識を用いた自車位置検出システム
US8594425B2 (en) * 2010-05-31 2013-11-26 Primesense Ltd. Analysis of three-dimensional scenes
IT1401367B1 (it) * 2010-07-28 2013-07-18 Sisvel Technology Srl Metodo per combinare immagini riferentesi ad un contenuto tridimensionale.
US20120044241A1 (en) * 2010-08-20 2012-02-23 Himax Technologies Limited Three-dimensional on-screen display imaging system and method
CN102455425B (zh) * 2010-10-20 2013-07-31 银河港(北京)技术有限公司 一种全视景光电雷达及利用地面目标图像定位的扫描方法
US9140792B2 (en) 2011-06-01 2015-09-22 GM Global Technology Operations LLC System and method for sensor based environmental model construction
JP2013061270A (ja) * 2011-09-14 2013-04-04 Mitsubishi Electric Corp 現在位置算出装置および現在位置算出方法
US8630805B2 (en) 2011-10-20 2014-01-14 Robert Bosch Gmbh Methods and systems for creating maps with radar-optical imaging fusion
US9194949B2 (en) 2011-10-20 2015-11-24 Robert Bosch Gmbh Methods and systems for precise vehicle localization using radar maps
US8831336B2 (en) * 2011-11-11 2014-09-09 Texas Instruments Incorporated Method, system and computer program product for detecting an object in response to depth information
US9111444B2 (en) * 2012-10-31 2015-08-18 Raytheon Company Video and lidar target detection and tracking system and method for segmenting moving targets
CN103278170B (zh) * 2013-05-16 2016-01-06 东南大学 基于显著场景点检测的移动机器人级联地图创建方法
US9438891B2 (en) * 2014-03-13 2016-09-06 Seiko Epson Corporation Holocam systems and methods

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070021915A1 (en) * 1997-10-22 2007-01-25 Intelligent Technologies International, Inc. Collision Avoidance Methods and Systems
JP2010160777A (ja) 2008-12-12 2010-07-22 Toyota Central R&D Labs Inc 地図生成装置、走路推定装置、移動可能領域推定装置、及びプログラム
WO2011023246A1 (en) * 2009-08-25 2011-03-03 Tele Atlas B.V. A vehicle navigation system and method
US20140028678A1 (en) 2010-12-30 2014-01-30 Radoslaw Pawel Chmielewski System and method for generating textured map object images
US20130155058A1 (en) 2011-12-14 2013-06-20 The Board Of Trustees Of The University Of Illinois Four-dimensional augmented reality models for interactive visualization and automated construction progress monitoring
JP2012208525A (ja) 2012-07-17 2012-10-25 Toyota Central R&D Labs Inc 静止物地図生成装置

Also Published As

Publication number Publication date
KR20160147016A (ko) 2016-12-21
GB201407643D0 (en) 2014-06-11
US20170052032A1 (en) 2017-02-23
JP6694395B2 (ja) 2020-05-13
GB201415616D0 (en) 2014-10-15
CN106461402A (zh) 2017-02-22
CN106461402B (zh) 2019-12-03
US10240934B2 (en) 2019-03-26
WO2015173034A1 (en) 2015-11-19
EP3137850B1 (en) 2018-08-29
JP2017519973A (ja) 2017-07-20
EP3137850A1 (en) 2017-03-08

Similar Documents

Publication Publication Date Title
KR102425272B1 (ko) 디지털 지도에 대한 위치를 판별하기 위한 방법 및 시스템
JP7398506B2 (ja) ローカライゼーション基準データを生成及び使用する方法及びシステム
JP2020500290A (ja) 位置特定基準データを生成及び使用する方法及びシステム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant