KR102362714B1 - 경로 데이터를 생성하는 방법들 및 시스템들 - Google Patents

경로 데이터를 생성하는 방법들 및 시스템들 Download PDF

Info

Publication number
KR102362714B1
KR102362714B1 KR1020177000602A KR20177000602A KR102362714B1 KR 102362714 B1 KR102362714 B1 KR 102362714B1 KR 1020177000602 A KR1020177000602 A KR 1020177000602A KR 20177000602 A KR20177000602 A KR 20177000602A KR 102362714 B1 KR102362714 B1 KR 102362714B1
Authority
KR
South Korea
Prior art keywords
scan line
data
path
route
view
Prior art date
Application number
KR1020177000602A
Other languages
English (en)
Other versions
KR20170016473A (ko
Inventor
데르 몰런 헹크 판
제룬 트룸
덴 브란트 얀 빌럼 판
Original Assignee
톰톰 글로벌 콘텐트 비.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰톰 글로벌 콘텐트 비.브이. filed Critical 톰톰 글로벌 콘텐트 비.브이.
Publication of KR20170016473A publication Critical patent/KR20170016473A/ko
Application granted granted Critical
Publication of KR102362714B1 publication Critical patent/KR102362714B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/3676Overview of the route on the road map
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • G09B29/106Map spot or coordinate position indicators; Map reading aids using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Educational Technology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Instructional Devices (AREA)
  • Image Processing (AREA)

Abstract

경로의 이미지들로부터 스캔 라인 데이터를 추출하기 위한 디바이스가 제공되며, 상기 스캔 라인 데이터는 스캔 라인을 따라 확장하는 이미지의 일부만을 포함하며, 상기 디바이스는 이 데이터를 운행가능 네트워크 내 상기 경로를 따라 이동하는 상기 디바이스의 위치에 관련된 각 위치 데이터와 함께 메모리에 저장한다. 예를 들면, 디지털 지도의 사실적인 뷰를 생산하는데 있어서 사용하기 위해, 이 스캔 라인 및 위치 데이터는 네트워크 내 복수의 디바이스들로부터 획득되어 컴퓨팅 장치로 전송될 수 있다.

Description

경로 데이터를 생성하는 방법들 및 시스템들 {METHODS AND SYSTEMS FOR GENERATING ROUTE DATA}
본 발명은 경로 (route) 데이터를 계속해서 생성하는 방법들 및 시스템들에 관한 것이다. 본 발명의 예시적인 응용은 경로의 디지털 지도의 사실적인 뷰 (view)를 생산하는데 있다. 다른 예시적인 응용들은 도로 마킹들, 예를 들면, 차로 분할기들, 출구 화살표들 등의 판별 그리고 그 차로 내 차량의 위치를 판별하는 것을 포함한다.
디지털 지도들을 생산하는데 있어서 사용하기 위해 정밀한 경로 데이터에 대한 계속되는 요청이 존재한다. 전용의 휴대용 위성 내비게이션 디바이스들과 같은 휴대용 내비게이션 디바이스 (PND), 내장 차량 내비게이션 시스템들 및 글로벌 포지셔닝 시스템 (GPS) 수신기들 및 매핑 소프트웨어를 통합한 스마트폰들이 평범해지고 있다. 이 디바이스들은 원격으로 저장되어 무선 네트워크를 경유하여 액세스될 수 있는, 또는 그 디바이스 상에 로컬에 저장될 수 있는 디지털 지도들을 이용하여 내비게이션 지시어들을 제공한다. 이 지도들은 도로들, 고속도로들 또는 보도들과 같은 운행가능 네트워크 내 다양한 경로들의 존재 및 로케이션들에 관한 상대적으로 신뢰성 있는 정보를 가지는 것이 일반적이다. 경로 정보는 (보통은 GPS 프로브 데이터를 이용하여 탐지된) 경로의 중심선을 정확하게 지적하는 노드들의 시퀀스로 디지털 지도 데이터베이스들 내에 보통 저장되며, 그 경로의 뷰 (view)들은 상기 노드들을, 예를 들면, 스플라인 함수를 이용하여 결합시킴으로써 생성되며, 이 스플라인 함수는 그 경로의 간단한 뷰를 라인으로 - 상기 PND가 운송 중에 이 라인을 따라서 진행한다 - 렌더링하기 위해 사용 가능하다. 그러나, 이 지도 리소스들 및 뷰들은 도로 상의 차로들의 개수 또는 도로 표지 콘텐트와 같은 더욱 상세한 정보가 종종 부족하다. 또한, 경로들의 최신의 사실적인 뷰들을 구축하기 위해서, 이 디지털 지도들에 추가적인 정보를 포함시키려는 소망이 존재한다. 이 디바이스들의 보급이 계속 증가하고 그리고 도로 레이아웃들이 계속해서 변하기 때문에, 더욱 많은 데이터가 상기 지도들을 최선의 가용 정밀도로 업데이트하도록 하는 끊임없는 필요성이 존재한다.
디지털 지도들의 상세한 뷰들을 생성하기 위해 사용되는 경로 데이터용의 잠재적인 리소스는 지구에 대한 위성 이미지이다. 이 기술은 디지털 지도를 구축하기 위해 도로들 또는 '경로들'의 로케이션을 식별하는데 있어서 그리고 이 경로들의 뷰들을 제공하는데 있어서 상대적으로 정밀하다. 그러나 위성 이미지는 여러 불리함들을 가진다. 천성적으로 위성들은 위에서 본 경로의 뷰를 제공할 수 있을 뿐이다. 터널들, 나무들, 도로들, 구름들 등과 같이 사이에 끼어 있는 물체, 도로 표지들과 같이 위에서부터는 보이지 않는 피처들, 또는 이용 가능한 것보다 더 높은 해상도를 필요로 하는 것의 존재에 의해서 가려지는 경로의 영역들은 이미지화되지 않을 것이다. 이 이미지들은 실제로는 획득하기에 비용이 들며 시간을 소비하는 것이 또한 일반적이며, 그래서 거의 최신이 아니다.
정부 또는 지방 당국들과 같은 서드 파티들은 경로 데이터의 잠재적인 추가의 소스이다. 이 파티들은 지도 작성자들에게 새로운 경로들의 존재, 도로 공사들의 존재 또는 지도 상의 다양한 다른 피처들을 통지할 수 있을 것이다. 그러나, 그런 데이터는 보통은 신뢰할 수 없으며, 종종 이용 가능하지 않으며 그리고 보통은 경로들의 뷰들을 제공하지 않는다.
경로 데이터는 모바일 매핑 차량들로부터 또한 수집될 수 있다. 이 차량들은 GoogleTM 이 자신들의 Street ViewTM 이미지들을 생성하는데 있어서 다량으로 사용되었다. 경로의 여러 이미지들은 여러 카메라들이 설치된 이동 밴을 이용하여 360도 뷰를 가로질러 얻어진다. 위치 데이터는 GPS 데이터로부터 획득되며 그리고 디지털 지도에서 상기 경로의 사실적인 뷰를 구축하기 위해서 이 이미지들에 융합된다. 비록 모바일 매핑 차량들이 위성 이미지들로부터 이용 가능한 것보다 더 높은 레벨로 상세하게 경로의 도로측 뷰들을 제공할 수 있지만, 그것들은 위성 이미지들을 구비한 두 개의 다른 불리함들, 즉 그것들의 높은 비용 및 상기 이미지들이 획득되는 시간 소비 방법을 공유한다. 실제로 이것은 획득된 경로 데이터가 급격하게 구형이 되고 그리고 드물게 업데이트된다는 것을 의미한다.
그러므로, 종래 기술에서 상기 언급된 제한들을 극복하는 디지털 지도의 상세하고 최신의 뷰들을 생산하는데 있어서 사용하기 위한 경로 데이터를 획득하는 대안의 수단에 대한 필요성이 존재한다.
본 발명의 제1 모습에 따라 경로 데이터를 연속적으로 생성하는 방법이 제공되며, 상기 방법은:
운행가능 네트워크 내 경로를 따라 이동하는 이미지 캡쳐링 디바이스의 위치에 관련된 위치 데이터 피드를 수신하는 단계;
상기 경로의 뷰 (view)를 획득하기 위해서 이미지 캡쳐링 디바이스가 상기 경로를 따라서 진행할 때에 그 이미지 캡쳐링 디바이스를 이용하여 캡쳐된 상기 경로의 이미지들을 수신하는 단계;
상기 이미지들로부터 스캔 라인 데이터를 추출하는 단계로, 상기 스캔 라인 데이터는 스캔 라인을 따라 확장하는 이미지의 일부만을 포함하는, 추출 단계; 그리고
상기 스캔 라인 데이터를 상기 스캔 라인에 대한 각자의 위치 데이터와 함께 메모리에 저장하는 단계로, 상기 위치 데이터는 상기 위치 데이터 피드에 기초한 것인, 저장 단계를 포함한다.
본 발명은 상기 방법을 수행하기 위한 디바이스로, 옵션으로는 휴대용 내비게이션 디바이스로 또한 확장된다.
그래서, 본 발명의 제2 모습에 따라, 경로 데이터를 연속적으로 생성하는 디바이스가 제공되며, 상기 디바이스는:
운행가능 네트워크 내 경로를 따라 이동하는 이미지 캡쳐링 디바이스의 위치에 관련된 위치 데이터 피드를 수신하는 수단;
상기 경로의 뷰 (view)를 획득하기 위해서 이미지 캡쳐링 디바이스가 상기 경로를 따라서 진행할 때에 그 이미지 캡쳐링 디바이스를 이용하여 캡쳐된 상기 경로의 이미지들을 수신하는 수단;
상기 이미지들로부터 스캔 라인 데이터를 추출하는 수단으로, 상기 스캔 라인 데이터는 스캔 라인을 따라 확장하는 이미지의 일부만을 포함하는, 추출 수단; 그리고
상기 스캔 라인 데이터를 상기 스캔 라인에 대한 각자의 위치 데이터와 함께 메모리에 저장하는 수단으로, 상기 위치 데이터는 상기 위치 데이터 피드에 기초한 것인, 저장 수단을 포함한다.
이 추가의 모습에서 본 발명은 본 발명의 상기 첫 번째 모습에 관련하여 설명된 특징들 중 어느 하나 또는 모두를 그것들이 상호 불일치하지 않는 한도 내에서 포함할 수 있을 것이며, 그리고 그 반대도 성립한다. 그래서, 여기에서 명시적으로 진술되지 않는다면, 본 발명의 상기 시스템은 상기 설명된 방법의 단계들 중 어느 것이라도 수행하기 위한 수단을 포함할 수 있을 것이다.
상기 방법의 단계들 중 어느 하나를 수행하기 위한 수단은 그렇게 하기 위해 구성된, 예를 들면, 프로그램된 하나 또는 그 이상의 프로세서들의 세트를 포함할 수 있다. 주어진 단계는 어떤 다른 단계를 수행하는 프로세서들의 동일한 또는 상이한 세트를 이용하여 수행될 수 있을 것이다. 어떤 주어진 단계는 프로세서들의 세트들의 조합을 이용하여 수행될 수 있을 것이다.
그러므로, 본 발명의 제3 모습에 따라, 경로 데이터를 연속적으로 생성하는 디바이스가 제공되며, 상기 디바이스는: 하나 이상의 프로세서들; 그리고 지시어들을 포함하는 메모리를 포함하며, 상기 지시어들을 하나 이상의 프로세서들에 의해 실행될 때에, 상기 디바이스로 하여금:
운행가능 네트워크 내 경로를 따라 이동하는 이미지 캡쳐링 디바이스의 위치에 관련된 위치 데이터 피드를 수신하도록 하고;
상기 경로의 뷰 (view)를 획득하기 위해서 이미지 캡쳐링 디바이스가 상기 경로를 따라서 진행할 때에 그 이미지 캡쳐링 디바이스를 이용하여 캡쳐된 상기 경로의 이미지들을 수신하도록 하며;
상기 이미지들로부터 스캔 라인 데이터를 추출하도록 하고, 상기 스캔 라인 데이터는 스캔 라인을 따라 확장하는 이미지의 일부만을 포함하며; 그리고
상기 스캔 라인 데이터를 상기 스캔 라인에 대한 각자의 위치 데이터와 함께 메모리에 저장하도록 하며, 여기에서 상기 위치 데이터는 상기 위치 데이터 피드에 기초한 것이다.
그러므로 위에서 설명된 종래 기술에서의 한계들을 극복하는 경로 데이터를 획득하는 새로운 장치가 제공된다. 휴대용 내비게이션 디바이스 (PND)의 형상일 수 있는 디바이스가 제공되어, 스캔 라인을 이용함으로써 가능해진 것처럼, 네트워크를 통해 효율적인 방식으로 전달될 수 있는 시각적인 경로 데이터를 수동적으로 수집하기 위해 사용될 수 있다. 복수의 디바이스들이 이 네트워크 내에 제공될 수 있을 것이며, 여기에서 각 디바이스는 경로 데이터의 잠재적인 피드를 제공한다. 이것은 시각적인 경로 데이터의 극도로 효과적인 방식으로, 크라우드 소싱 (crowd sourcing)에 의해 효과적인, 수동적 대용량 수집을 가능하게 한다. 스캔 라인 데이테에 의해 제공된 상기 시각적 경로 데이터는, 예를 들면, 디지털 지도 내 경로들의 사실적인 뷰들을 생성함에 있어서 사용 가능하다. 디바이스에 의해 생성된 경로 데이터는 프로세싱되어 결국은 중앙 서버에서의 사실적인 뷰 시뮬레이션/생성에 의한 것처럼 상기 네트워크 내 다른 디바이스들과 공유되며, 이는 상기 네트워크를 통해 이용가능한 데이터의 품질 및 양을 향상시키기 위한 것이다. 이것은 경로들의 사실적이며 최신의 뷰들을 렌더링하는데 있어서 특히 유용하다.
상기 경로 데이터는 상기 디바이스의 외부 또는 내부에 있는 내비게이션 위성 수신기, 예를 들면, GPS 수신기에 의해 획득될 수 있을 위치 데이터 피드로부터 취해진 위치 데이터를 포함한다. 상기 경로 데이터는 상기 디바이스가 경로를 따라 진행할 때에 스캔 라인을 따라 확장하는 경로의 이미지의 실질적인 추출인 스캔 라인 데이터를 더 포함한다. 상기 이미지는, 전방의 또는 잠재적으로는 상기 경로 방향의 뒤 및 경로 방향을 따른 도로 또는 '경로'를 이미지화하기 위해서 이동 방향에 정렬된, 또는 적어도 실질적으로 정렬된 이미지 캡쳐링 디바이스, 예컨대, 카메라에 의해 획득되는 것이 바람직하다. 예컨대, 스마트폰 사용의 경우에 보통 그러는 것처럼, 카메라 (또는 다른 유사한 디바이스)가 PND의 후방 표면 상에 제공되고 그리고 상기 PND는 차량의 전면 유리에 부착될 때에 그럴 것이다. 대안으로, 이 이미지들은 상기 디바이스 외부에 있는, 그러나, 그 디바이스와 전기적인 통신 상태에 있는 카메라 (또는 다른 유사한 디바이스)를 이용하여 캡쳐될 수 있을 것이며, 이는 내장된 차량 내비게이션 시스템들에 대해서 예측되는 것이다. 상기 스캔 라인 데이터 그리고 그 스캔 라인에 대한 각자의 위치 데이터는 그 후에 메모리에 함께 저장된다. 약간 잘못 정렬된 것은 상기 경로의 일부가 뷰 내에 있는 한은 소프트웨어를 이용하여 처리될 수 있다.
이전에, 비-전문 매핑 차량들로부터 시각적인 경로 데이터를 획득하는 것이 가능하다고 간주되지 않았으며, 이는 움직이면서 경로의 여러 이미지들을 획득하기 위해 그리고 무선 네트워크를 경유하여 서버로 이 데이터를 계속해서 업로드하기 위해, 또는 나중에 업로드되도록 하기 위해 이 정보를 저장하기 위해서, 보통의 차량들 내의 컴퓨팅 디바이스들이 필수적인 프로세싱 능력 (예를 들면, 빠른 프로세서들, 큰 메모리 및 고속 네트워크 연결들로의 액세스)이 부족한 것이 보통이기 때문이다. 본 발명은 경로의 이미지로부터 추출될 이미지 데이터를 지능적으로 선택하여, 저장되고 전송된 데이터의 전체적인 양이 크게 감소하도록 함으로써, 이 제한을 극복한다. 이 방식에서, (본 발명에 따른 디바이스를 포함한) 차량이 고도로 압축되고 극도로 효율적인 방식으로 상기 경로를 따라서 진행할 때에 경로의 상세한 그림이 구축될 수 있다.
예컨대, PND 내의 카메라에 의해 캡쳐된 전체 시야의 각 이미지는 대략적으로 1MB의 데이터를 포함하는 곳이 일반적이며, 이것을 전송하는 것은 경로를 따른 진행의 비디오 피드를 위해 극도로 높은 대역폭 및 큰 데이터 전달을 필요로 할 것이며, 이는 이것을 실행할 수 없게 만든다. 대신에, 스캔 라인을 따라 확장하는 이미지의 일부 (또는 단편)만으로부터 이미지 데이터를 추출하기 위해서 상기 이미지들로부터 스캔 라인 데이터가 취해진다. 따라서, 이미지에 대한 스캔 라인 데이터는 바람직하게는 미리 정해진 모습의 스캔 라인을 따라 확장하는 미리 정해진 폭의 이미지의 선형 부분을 포함하고, 그리고 보통은 그 이미지의 선형 부분으로 이루어진다. 이 스캔 라인 데이터는, 예를 들면, 도로의 1 킬로미터 확장에 대해 수집되고 그리고 관련된 경로 정보를 잃지 않으면서 JPEG-압축을 이용하여 10KB 그레이스케일 이미지로 압축될 수 있다. 그래서, 보통 100-150 개 이미지들에서 커버될 수 있는 100 킬로미터 경로는 단지 1MB의 데이터에 저장될 수 있다. 이 데이터는 연관된 위치 데이터와 함께, (상기 디바이스를 운반하는) 차량에, 예컨대, 상기 PND 그 자체에 로컬로 쉽게 저장되고, 그리고, 예를 들면, 움직이면서 셀룰러 원거리통신 네트워크를 통해 서버로 업로드되거나 또는 Wi-Fi와 같은 낮은 비용의 대안이 이용 가능할 때인 나중에 서버로 업로드될 수 있을 것이다. 또한, 상기 이미지 캡쳐링 디바이스가 내비게이션 디바이스의 일부를 형성할 때에, 이 경로 데이터의 취득, 저장 및 전송은 상기 내비게이션 디바이스의 성능에 영향일 미치지 않으며 그래서 사용자의 주의를 필요로 하지 않으면서 효과적으로 발생할 수 있다.
보통의 차량들, 즉, 비-전문 매핑 차량들과 연관된 디바이스들을 이용하여 경로 데이터를 획득할 수 있는 시스템을 제공함으로써, 경로 정보는 크라우드 소싱될 수 있다. 차량들과 연관된 디바이스들은, 이미지 캡쳐링 디바이스를 포함하거나 또는 그 이미지 캡쳐링 디바이스로부터 피드를 수신하는 어떤 디바이스도 포함할 수 있다. 예를 들면, 상기 이미지 캡쳐링 디바이스는 차량 내에, 예를 들면, 주차 보조 디바이스 등으로 설치될 수 있으며, 또는 그 차량에 설치되는 애프터마켓 컴포넌트일 수 있다. 다른 실시예들에서, 상기 이미지 캡쳐링 디바이스는 상기 컴퓨팅 디바이스와, 예를 들면, 스마트폰이나 PND의 모습으로 통합될 수 있을 것이다. 이것은, 예를 들면, 자신들의 디지털 지도들의 품질을 향상시키기 위해서, PND 사용자들은 프로세싱되어 나중에 자신들에게 돌아오거나, 또는 다른 PND 사용자들과 공유되는 경로 데이터를 생성할 수 있다는 것을 의미한다. 그처럼 경로 데이터를 크라우드 소싱함으로써, 경로 데이터는 비싼 위성 이미지들 또는 모바일 매핑 차량들을 필요로 하지 않으면서 쉽게 그리고 효과적으로 획득될 수 있을 것이다. 상기 경로 데이터를 이용하여 구축되는 운행가능 네트워크들의 지도들은 통신 디바이스들, 예를 들면, PND들의 네트워크로부터 계속해서 업데이트될 수 있다. 그래서 이 지도들은 경로에서의 변화들에, 예를 들면, 도로 공사들의 존재, 차로 레이아웃에서의 변화들 등에 빠르게 반응할 수 있다. 상기 획득된 경로 데이터는 또한 프로세싱되어, 차로들의 개수, 도로 표지들, 도로의 색상, 나부들 및 다른 시각적인 피처들과 같이 상기 스캔 라인 이미지들로부터 식별될 수 있는 상기 경로에 관한 추가의 시각적인 정보를 획득하도록 할 수 있다. 이 추가의 정보는 매핑 제공자들을 도와서 사실적인, 최신의 뷰들을 생성하도록 하며, 이는 사용자에게 이용가능한 전체적인 경험을 향상시킨다.
사실적인 뷰를 생성하는데 있어서 특히 도움이 되는 상기 경로 데이터를 위해, 상기 스캔 라인은 상기 경로의 뷰를 가로질러 확장하도록 배열된다. 추가의 이점이 실현되며, 여기에서 상기 디바이스는 상기 경로의 뷰 내에서 차량 후드 (hood)의 외곽에 대응하는 후드 라인을 모니터링하고, 상기 경로의 뷰 내 소실점의 위치를 모니터링하고, 그리고 상기 후드 라인 및 상기 소실점에 관하여 미리 정해진 위치에 상기 스캔 라인을 배열하도록 촉구된다. 이 프로세스는 상기 스캔 라인 위치를 효과적으로 캘리브레이션하여, 상기 스캔 라인이 사실적인 뷰를 생성함에 있어서 유용할 수 있는 상기 경로의 정보를 포함하는 이미지의 일부를 가로질러 뻗도록 한다. 상기 차량 후드의 영역 내에 순수하게 존재하는 스캔 라인들을 획득하는 것은 상기 결과들을 쓸모없게 만들 수 있을 것이다. 유사하게, 차로 탐지가 의도되는 경우에는 수평 위에 있는 스캔 라인들을 획득하는 것은 바람직하지 않지만, 이것은 날씨 또는 돌출된 도로 표시 탐지가 의도되는 경우에는 유용할 수 있을 것이다. 라인 스캐닝을 위한 관심 영역은 (또한 본넷으로도 알려진) 차량 후드 및 수평 사이에 놓여있으며, 그래서 전방 도로의 뷰가 추출되도록 하는 것이 바람직하다. 이 방식에서 상기 디바이스는 가장 유용한 데이터를 캡쳐하기 위해 스캔 라인 포지셔닝을 자동적으로 그리고 동적으로 캘리브레이션한다.
운행가능 네트워크 내 경로를 따라 이동하는 휴대용 내비게이션 디바이스의 위치에 관련된 위치 데이터 피드를 수신하는 단계는 바람직하게는 위치 데이터 피드 수신기에 의해 수행된다. 더욱이, 상기 이미지들 내 상기 경로의 뷰를 획득하기 위해서 상기 경로를 따라 전진하는 상기 디바이스의 이동의 방향에 정렬된 카메라를 이용하여 캡쳐된 이미지들을 수신하기 위해 이미지 수신기가 제공될 수 있다. 상기 위치 데이터 피드 수신기 및 상기 이미지 수신기 둘 모두 또는 어느 하나는 실제로는 하드웨어, 소프트웨어, 또는 둘 모두의 혼합일 수 있다.
카메라가 상기 피처 (feature)들을 향해 움직일 때에 상기 경로의 연속하는 이미지들 사이에서 아래쪽으로 움직이는 상기 경로의 이미지들에서 보이는 하나 이상의 피처들을 추적하고; 상기 카메라의 시야 내에서 보이는 상기 움직이는 피처들의 가장 낮은 위치들을 모니터링하고; 그리고 상기 모니터링된 가장 낮은 위치들에 기초하여 후드 라인을 판별함에 의해서 후드 라인이 바람작하게 모니터링된다.
상기 후드 라인을 모니터링하는 것은 대안으로, 또는 추가로 전면 유리 와이퍼들 또는 대시보드와 같이 경로의 뷰를 가릴 수 있을 다양한 다른 피처들을 모니터링하는 것을 포함한다. 존재하는 경우에, 이 피처들의 윤곽이 탐지될 수 있을 것이며 그리고 상기 탐지된 "후드 라인"의 일부를 형성할 수 있을 것이다. 그러면 이미지 마스크가 적용되어, 상기 후드 라인 아래의 이미지 내의, 즉, 상기 경로의 뷰를 포함하지 않는 픽셀들이 무시되도록 한다. 몇몇의 경우들에서, 이미지 내에 어떤 후드 라인도 존재하지 않으며 그래서 개념상의 후드 라인이 상기 이미지의 바닥 부분에 세팅될 수 있다. 상기 소실점 또한 모니터링될 수 있으며 그리고 상기 스캔 라인은 상기 후드 라인 및 상기 소실점에 관하여 미리 정해진 위치에 바람직하게 배열된다. 상기 스캔 라인이 최적의 또는 의도된 위치에서 유지되는 것을 확실하게 하기 위해서 상기 디바이스 (또는 그 디바이스와 연관된 차량)가 경로를 따라서 이동하는 동안에, 이 프로세스는 상기 디바이스의 초기화 시에 발생할 수 있을 것이며 그리고, 예를 들면, 타이머에 따라서, 또는 상기 위치 데이터 피드에 기초하여 반복될 수 있을 것이다. 상기 프로세스를 반복하는 것이 상기 디바이스를, 예를 들면, PND를 동작시키는 사용자로부터의 또는 도로에서의 동요의 영향으로 인한 진동이나 비-관성적 힘들로부터의 결과일 수 있는 상기 카메라의 있을 수 있는 움직임에 대해 보상하는 것이 바람직하다.
상기 소실점의 위치를 아는 것은 스캔 라인의 위치를 판별하는데 있어서, 그리고 상기 스캔 라인들을 해석함에 있어서 도움이 될 수 있다. 도로 장면들에 대한 소실점 탐지는 수평에 가까이에 있는 도로 라인들을 판별하고 그리고 그것들의 교차를 계산함으로서 구현될 수 있다. 더욱 바람직하게는, 상기 소실점의 위치를 모니터링하는 것은, 상기 위치 데이터 피드에 기초하여 제1 위치 및 제2 위치에서 각각에서 이동 방향 내 제1 방위각 (bearing) 및 제2 방위각을 모니터링하고, 상기 디바이스가 상기 모니터링된 제1 방위각 및 제2 방위각에 따라 상기 제1 위치 및 제2 위치 사이에서 실질적으로 직선 라인으로 이동하고 있었는가를 계산하고, 상기 이동 방향에서 상기 경로의 뷰 내 둘 이상의 직선 도로 라인들을 모니터링하고, 상기 도로 라인들의 교차 위치를 계산하고, 그리고 상기 디바이스가 상기 제1 위치 및 제2 위치 사이에서 실질적으로 직선 라인에서 이동하고 있는 것으로 계산되었다면, 상기 교차 위치를 상기 경로의 뷰 내 소실점으로서 출력하는 것을 포함한다. 상기 제1 위치 및 제2 위치는 이동 방향에서 적어도 50미터만큼 원위 이격된 (distally spaced) 것이 바람직하다. 도로 마킹들을 이용한 소실점 탐지 기술들은 그래서 직선의 또는 실질적으로 직선 도로에 대해 탐지된 소실점들을 단지 수용함으로써 위치 정보를 이용하여 향상될 수 있다.
사용자가 상기 PND 상에 제공된 사용자 인터페이스를 통해 이 피처들을 식별하는 것을 가능하게 함으로써 상기 소실점 및 상기 후드 라인의 위치를 판별하는 것이 또한 가능하다. 표준의 객체 인식 기술들들이 상기 절차를 간략하게 하기위해 이것에 추가하여 사용될 수 있으며, 또는 예를 들어 위에서 설명된 것과 같은 대안의 이미지 (또는 객체) 프로세싱 기술들이 사용자를 가능하게 함으로써 상기 소실 포인트 및 상기 후드 라인의 위치를 판별하기 위해 사용될 수 있다.
스캔 라인의 상기 미리 정해진 위치는 높은 레벨의 상세함으로 상기 경로의 넓은 뷰를 가로질러 바람직하게 확장하며 그리고 동적으로 결정되거나 또는 고정된 위치에 존재한다. 이것은 각 스캔 라인에 의해 추출될 상기 경로의 최적 뷰를 가능하게 한다. 상기 경로의 이미지 내에 상기 스캔 라인을 위한 적합한 높이를 선택하는 것이 중요하다. 상기 차량 후드 위에 가장 낮은 위치는 가장 넓고 가장 위치-정밀한 차로 마킹들의 결과를 가져오지만, 시야는 작다. 이미지 내에서 더 높은 라인에서 기록하는 것은 더욱 개략적 모습 (그리고 잠재적으로 더 많은 차로들)을 주지만, 상세함을 잃는다. 최적의 솔루션은 그 사이의 어느 곳에 바람직하게 위치한다.
최적 위치를 판별하는 것은 여러 방식들로 수행될 수 있다. 상기 위치를 동적으로 판별하는 것은 상기 경로를 따른 카메라에 의해 획득된 이미지들을 분석하고 (수평 소실점 또는 후다 라인 중 어느 하나를 잠재적으로 모니터링하는 것을 포함한다) 그리고 상기 분석에 따라서 스캔 라인의 위치를 정하는 것을 포함한다. 이것을 상기 디바이스 (또는 그 디바이스를 통합한 차량)이 경로를 따라서 진행할 때에 필요한 경우에는 조절을 하면서 이것이 정기적으로 수행될 수 있을 것이다. 이것은 바람직하며, 그래서, 예컨데, 카메라가 이동되었기 때문에, 또는 전방 도로의 뷰 내에 가파른 경사로 인해서 상기 경로의 뷰가 크게 변할 때에 상기 디바이스가 반응할 수 있도록 한다. 대안으로, 필요한 프로세싱 전력을 줄이기 위해서 또는 상기 이미지 분석의 결과들이 확정되지 않는 경우에, 상기 스캔 라인은 상기 이미지에 걸쳐 미리-정해진 위치에 미리-정해진 모습으로, 예를 들면, 상기 이미지의 절반 위에 있는 수평 라인으로 선택될 수 있을 것이다. 바람직하게는, 스캔 라인의 상기 미리 정해진 위치는 상기 소실점과 상기 후드 라인 사이에 있으며 그리고 상기 후드 라인과 실질적으로 교차하지 않는다. 또한, 바람직하게는 상기 스캔 라인은 상기 소실점 아래에 적어도 60도의 각도로, 더욱 바람직하게는 90도의 각도로 대한다 (subtend).
일 예에서 상기 스캔 라인은 상기 시야를 가로질러 실질적으로 확장하는 실질적으로 수평의 직선 라인이다. 이 구성은 예를 들면 간단한 차로 정보가 소망되는 경우에 유리하다. 이것은 단 하나의 옵션일 필요는 없지만, 다양한 상이한 모습의 개방 또는 폐쇄 라인들을 이용하여 추가적인 경로 데이터 및 상이한 전망들이 획득될 수 있다. 예를 들어, 스캔 라인은 직사각형 (정사각형을 포함한다), 아크 (arc), 타원 (원을 포함한다) 또는 U-모습의 박스일 수 있다. 다른 예에서 상기 스캔 라인은 상기 소실점으로부터 아래로 확장하는 방사상 라인에 실질적으로 접하여 교차하며, 그리고 바람직하게는 상기 소실점으로부터 위로, 왼쪽으로 그리고 오른쪽으로 확장하는 방사상 라인들에 또한 실질적으로 접하여 교차한다. 스캔 라인은 보통은 한 픽셀의 '두께' 또는 '너비'를 가지지만, 카메라의 해상도에 종속하여 이것보다 더 클 수 있을 것이다.
상기 스캔 라인이 U-모습의 박스인 실시예들에서, 상기 박스의 바닥은 각 캡쳐된 이미지에 대해 동일한 폭을 바람직하게 가지며, 그래서, 예컨대, 아래에서 더욱 상세하게 설명되는 것처럼 상기 스캔 라인들이 함께 스티치될 때에, 상기 스캔 라인들 각각이 실질적으로 동일한 스케일을 가지도록 한다.
상기 스캔 라인의 타원인 실시예들에서, 그 타원은 상기 소실점 주위로 확장하지만 상기 후드 라인과는 실질적으로 교차하지 않도록 하기 위해 배열될 수 있다.
상기 경로의 이미지들은 상기 카메라로부터 획득된 비디오 피드로부터 일정 프레임 레이트로 캡쳐되는 것이 보통이다. 상기 프레임 레이트는 바람직하게는 초 당 1 프레임 및 30 프레임 사이이다. 더 높은 프레임 레이트가 소망되며 그리고 바람직하게는 상기 프레임 레이트는 변할 수 있으며, 예를 들어, 이미지 캡쳐는, 상기 위치 데이터 피드를 기초로 하여 상기 경로를 따른 미리 정해진 이미지 캡쳐 거리들에 따라서 트리거되는 것이 바람직하다. 이 미리 정해진 이미지 캡쳐 거리들은 바람직하게는 등거리이며 그리고 바람직하게는 여전히 0.1 미터 및 5 미터 사이이다. 이미지 캡쳐가 트리거되는 미리 정해진 원위 인터벌 (distal interval)들의 크기는 소망된 경로 데이터의 속성에 종속할 수 있을 것이다. 더 작은 거리들은 증가된 상세 모습을 제공하지만, 추가적인 메모리를 필요로 한다. 더 큰 원위 인터벌들이 선택된다면, 도로 상에 칠해진 화살표들과 같은 특정 피처들이 누락될 수 있을 것이다. 그러나, 이것은 여러 디바이스들, 예를 들면, 여러 PND들로부터 획득된 경로 데이터의 통계적인 분석에 의해서 어느 정도까지는 교정될 수 있다.
특별한 이점이 실현되었으며, 여기에서 상기 디바이스는: 상기 위치 데이터 피드에 따라 이미지 캡쳐링 디바이스의 속도를 모니터링하고; 그리고 상기 미리 정해진 이미지 캡쳐 거리들에서 상기 경로의 이미지들을 캡쳐하기 위해 상기 속도에서 필요한 프레임 레이트가 상기 카메라의 최대 프레임 레이트를 초과하면, 상기 이미지들로부터의 하나 이상의 추가 스캔 라인들로부터 스캔 라인 데이터를 획득하도록 더 배열되며, 여기에서, 미리 정해진 이미지 캡쳐 거리에서 상기 경로의 뷰를 커버하기 위해 각 추가 스캔 라인의 위치가 결정된다. 그래서, 카메라의 최대 프레임 레이트가 상기 경로를 따른 소망된 위치들에서 획득된 개별 이미지들로부터 단일의 스캔 라인을 획득하기에 너무 낮을 때에 등거리 스캔 라인들 (즉, 스캔 라인 데이터가 그 경로를 따른 실질적으로 동일한 거리들에서 경로의 뷰를 도시함)을 달성하기 위해 추가적인 스캔 라인이 이미지 또는 프레임으로부터 획득될 수 있다. 스캔될 라인들의 개수는 상기 카메라에 의해 캡쳐된 연속 프레임들 사이에서의 이동 시간에 의해 결정될 수 있다.
메모리에 저장된 스캔 라인 데이터에 대한 각 위치 데이터는 상기 위치 데이터 피드로부터 획득되는 상기 디바이스 또는 적절한 이미지 캡쳐링 디바이스 그리고 상기 스캔 라인에 의해 보이는 상기 경로의 위치 사이의 원위 분리 (distal separation)를 바람직하게 설명한다. 이것은 스캔 라인에 의해 도시된 경로의 위치 그리고 상기 디바이스 그 자체의 위치 사이의 불일치를 설명하며, 그래서 상기 경로 데이터의 위치 정밀도를 증가시킨다. 상기 원위 분리는 다양한 기술들, 예를 들면, 상기 스캔 라인에 대한 상기 소실점의 모니터링된 위치들을 기반으로 하는 계산들에 의해 설명될 수 있을 것이다.
상기 위치 데이터 피드는 안테나를 바람직하게 포함하는 내비게이션 위성 수신기, 예를 들면, GPS 수신기로부터 바람직하게 획득되며, 그 안테나에 의해 로케이션 데이터를 포함하는 위성-방송 신호들이 수신되며 그리고 상기 디바이스 (또는 이미지 캡쳐링 디바이스)의 현재 로케이션을 판별하기 위해 계속해서 프로세싱될 수 있다. 상기 내비게이션 위성 수신기는 상기 디바이스 내부에 또는 외부에 있을 수 있다. 대안으로, 상기 위치 데이터 피드는 상기 디바이스, 예를 들면, PND가, 또는 상기 PND와 연결되어 있는 디바이스가 연결된 무선 네트워크에 의해 제공된 정보로부터 획득될 수 있을 것이다.
바람직하게는 프로세서들과 전기 통신하며 그리고 카메라의 경사를 모니터하도록 구성된 가속도계가 제공된다. 이 경우에 상기 프로세서는 또한 상기 디바이스로 하여금 상기 모니터링된 경사에 따라 상기 스캔 라인의 위치를 조절하도록 하는 지시어들을 발행할 수 있다. 더 바람직하게는, 상기 가속도계는 카메라의 진동들을 탐지하도록 구성된다. 이 경우에 상기 프로세서에 의해 발행된 지시어들은 또한 상기 디바이스로 하여금 상기 진동들로부터의 결과인 상기 이미지들 내에서의 아티팩트들을 교정하도록 한다.
스마트폰들은 디스플레이나 스크린 반대편 측면 상에 위치한 카메라들을 포함하는 것이 일반적이다. 이 카메라들은 그래서 운행가능 네트워크 내 경로의 이미지들을 캡쳐하기 위해서 차량 전면 유리 상에 편리하게 위치하며, 그러면서도 잠재적으로는 내비게이션 정보를 사용자에게 디스플레이한다. 그것들은 내부 가속도계들을 포함하고 그리고 위치 데이터 피드를 획득하고 그리고 각자의 위치 데이터와 함께 스캔 라인 데이터를 서버로 전송하기 위한 적합한 수단을 포함하는 것이 또한 일반적이다. 바람직하게는, 그러므로, 상기 PND는 스마트폰이다.
제공된 상기 지시어들은 또한 상기 디바이스로 하여금 상기 스캔 라인 데이터와 함께 각 위치 데이터를 하나 이상의 서버들로 업로드하도록 한다. 대안으로, 또는 이것에 추가하여, 상기 지시어들은 상기 디바이스로 하여금 상기 스캔 라인들을 상기 경로의 개략적 이미지로 집성하도록 촉구할 수 있다. 지시어들이 더 제공되어, 상기 디바이스로 하여금 각 위치 데이터와 함께 상기 개략적 이미지를 휴대용 내비게이션 디바이스로부터 하나 이상의 서버들로 업로드하도록 할 수 있다.
경로 데이터는 상기 스캔 라인 데이터로부터 추철된 데이터를 포함할 수 있다. 예를 들면, 상기 PND는 하나 이상의 프로세서들에 의해 실행될 때에 상기 디바이스로 하여금 상기 개략적 이미지 내 경로 피처들을 식별하도록 하는 지시어들을 더 포함하는 추가의 이점이 제공된다. 상기 경로 피처들은 도로 차로들의 개수, 차로 안내 표시기들, 도로 공사들, 도로 표지들, 색상들, 나무들, 터널들, 다리들 및 날씨를 포함할 수 있다.
본 발명의 제4 모습에 따라 운행가능 네트워크를 나타내는 디지털 지도를 유지하는 방법이 제공되며, 상기 방법은:
상기 운행가능 네트워크 내 경로들의 뷰의 스캔 라인 데이터 그리고 하나 이상의 모바일 디바이스들로부터 수신된 상기 스캔 라인 데이터에 대한 관련 위치 데이터에 액세스하는 단계;
상기 스캔 라인 데이터로부터 경로 피처들을 식별하는 단계; 그리고
상기 식별된 경로 피처들을 이용하여 디지털 지도를 업데이트하는 단계를 포함한다.
본 발명은 상기 방법을 수행하기 위한 디바이스, 옵션으로는 서버로 또한 확장한다; 상기 디바이스는 상기 스캔 라인 데이터를 저장한 데이터베이스와 통신 상태에 있으며, 상기 스캔 라인 데이터는 위치 데이터와 연관하여 저장된다.
그래서, 본 발명의 제5 모습에 따라서, 운행가능 네트워크를 나타내는 디지털 지도를 유지하는 디바이스가 제공되며, 상기 디바이스는:
상기 운행가능 네트워크 내 경로들의 뷰의 스캔 라인 데이터 그리고 하나 이상의 모바일 디바이스들로부터 수신된 상기 스캔 라인 데이터에 대한 관련 위치 데이터에 액세스하는 수단;
상기 스캔 라인 데이터로부터 경로 피처들을 식별하는 수단; 그리고
상기 식별된 경로 피처들을 이용하여 디지털 지도를 업데이트하는 수단을 포함한다.
이 추가의 모습에서 본 발명은 상호 불일치하지 않는 정도까지 본 발명의 네 번째 모습과 관련하여 설명된 특징들 중 어느 하나 또는 모두를 포함할 수 있으며, 그 반대도 마찬가지이다. 그래서, 여기에서 명시적으로 진술되지 않는다면, 본 발명의 상기 시스템은 설명된 상기 방법의 단계들 중 어느 것을 수행하기 위한 수단을 포함할 수 있다.
상기 방법의 단계들 중 어느 하나를 수행하기 위한 수단은 그렇게 하기 위해 구성된, 예를 들면, 프로그램된 하나 또는 그 이상의 프로세서들의 세트를 포함할 수 있다. 주어진 단계는 어떤 다른 단계를 수행하는 프로세서들의 동일한 또는 상이한 세트를 이용하여 수행될 수 있을 것이다. 어떤 주어진 단계는 프로세서들의 세트들의 조합을 이용하여 수행될 수 있을 것이다.
상기 스캔 라인 데이터 내에서 보이는 상기 경로의 시각적인 피처들을 이용하여 상기 지도 데이터베이스를 풍부하게 하는 것은 스캔 라인 데이터에서 보이는 시각적인 피처들을 탐지하는 것을 바람직하게 포함하며 그리고 경로의 사실적인 뷰를 시뮬레이션하는 것을 더 포함할 수 있다. 일 예에서, 상기 스캔 라인 데이터 및 위치 데이터는 상기 경로의 개략적 이미지로서 수신되며, 그리고 상기 데이터베이스에 저장된다. 대안으로, 상기 데이터베이스 내에 저장된 스캔 라인 이미지를 이용하여 상기 디바이스 그 자체에 의해서 상기 경로의 개략적 이미지가 생성될 수 있다. 예를 들면, 상기 방법은 상기 스캔 라인들을 상기 경로의 개략적 이미지로 집성하는 단계, 그리고 상기 개략적 이미지로부터 경로 피처들을 식별하는 단계를 포함할 수 있다. 이 경로 피처들은: 도로 차로들의 개수, 차로 안내 표시기들, 도로 공사들, 도로 표지들, 색상들, 나무들, 터널들, 다리들 및 날씨 중 하나 이상을 포함할 수 있다.
본 발명의 제6 모습에 따라, 운행가능 네트워크 내 경로의 사실적인 뷰를 생성하는 방법이 제공되며, 상기 방법은:
상기 운행가능 네트워크의 적어도 일부를 따른 경로를 나타내는 데이터를 수신하는 단계;
하나 이상의 모바일 디바이스들로부터 수신된 경로의 뷰의 스캔 라인 데이터에 액세스하는 단계; 그리고
상기 경로를 따른 뷰의 시뮬레이션을 생성하기 위해 상기 스캔 라인 데이터를 집성하는 단계를 포함한다.
본 발명은 상기 방법을 수행하기 위한 디바이스, 옵션으로는 서버로 또한 확장한다; 상기 디바이스는 상기 스캔 라인 데이터를 저장한 데이터베이스와 통신 상태에 있으며, 상기 스캔 라인 데이터는 위치 데이터와 연관하여 저장된다.
그래서, 본 발명의 제7 모습에 따라서, 운행가능 네트워크 내 경로의 사실적인 뷰를 생성하는 디바이스가 제공되며, 상기 디바이스는:
상기 운행가능 네트워크의 적어도 일부를 따른 경로를 나타내는 데이터를 수신하는 수단;
하나 이상의 모바일 디바이스들로부터 수신된 경로의 뷰의 스캔 라인 데이터에 액세스하는 수단; 그리고
상기 경로를 따른 뷰의 시뮬레이션을 생성하기 위해 상기 스캔 라인 데이터를 집성하는 수단을 포함한다.
이 추가의 모습에서 본 발명은 상호 불일치하지 않는 정도까지 본 발명의 여섯 번째 모습과 관련하여 설명된 특징들 중 어느 하나 또는 모두를 포함할 수 있으며, 그 반대도 마찬가지이다. 그래서, 여기에서 명시적으로 진술되지 않는다면, 본 발명의 상기 시스템은 설명된 상기 방법의 단계들 중 어느 것을 수행하기 위한 수단을 포함할 수 있다.
상기 방법의 단계들 중 어느 하나를 수행하기 위한 수단은 그렇게 하기 위해 구성된, 예를 들면, 프로그램된 하나 또는 그 이상의 프로세서들의 세트를 포함할 수 있다. 주어진 단계는 어떤 다른 단계를 수행하는 프로세서들의 동일한 또는 상이한 세트를 이용하여 수행될 수 있을 것이다. 어떤 주어진 단계는 프로세서들의 세트들의 조합을 이용하여 수행될 수 있을 것이다.
본 발명에 따른 상기 방법들 중 어느 것은 적어도 부분적으로 소프트웨어, 예를 들면, 컴퓨터 프로그램들을 이용하여 구현될 수 있을 것이다. 본 발명은 그래서 본 발명의 상기 모습들이나 실시예들 중 어느 하나에 따른 방법을 수행하기 위해 실행가능한 컴퓨터 판독가능 지시들을 포함한 컴퓨터 프로그램으로 또한 확대된다.
본 발명은 데이터 프로세싱 수단을 포함한 장치나 시스템을 운영하기 위해 사용될 때에 상기 데이터 프로세싱 수단과 함께 상기 장치나 시스템으로 하여금 본 발명의 상기 방법들의 단계들을 수행하도록 하는 그런 소프트웨어를 포함하는 컴퓨터 소프트웨어 캐리어 (carrier)로 대응하여 확대된다. 그런 컴퓨터 소프트웨어 캐리어는 ROM 칩, CD ROM 또는 디스크와 같은 비 일시적인 물리적 저장 매체일 수 있으며, 또는 와이어들을 통한 전기적 신호, 광학적 신호 또는 위성 등에 관한 것과 같은 라디오 신호 등과 같은 신호일 수 있다.
명시적으로 선언되지 않은 경우에는, 본 발명의 모습의 어느 하나에서의 본 발명은 본 발명의 실시예들이나 모습들에 관하여 설명된 특징들의 어느 하나 또는 모두를, 그 특징들이 상호 배타적이지 않은 정도까지 포함할 수 있다는 것이 인정될 것이다. 특히, 동작들의 다양한 실시예들이 상기 장치에 의해 그리고 상기 방법에서 실행될 수 있는 것으로 설명되었지만, 이 동작들의 어느 하나 또는 그 이상 또는 모두는 원하는대로 그리고 적절하게 어떤 조합으로라도 상기 방법에서 그리고 상기 장치에 의해 수행될 수 있을 것이라는 것이 인정될 것이다.
이 실시예들의 이점들은 이후에 제시되며, 그리고 이 실시예들 각각의 더 상세한 내용들 및 특징들은 동반하는 종속항들 그리고 다음의 상세한 설명의 다른 곳에서 정의된다.
본 발명의 효과는 본 명세서의 해당되는 부분들에 개별적으로 명시되어 있다.
본 발명의 예들은 동반하는 도면들을 참조하여 이제 설명된다.
도 1은 글로벌 포지셔닝 시스템 (GPS)을 도시한 것이다.
도 2는 예시적인 휴대용 내비게이션 디바이스 (PND)를 도시한 것이다.
도 3은 예시적인 디바이스 및 도킹 스테이션을 도시한 것이다.
도 4는 본 발명의 실시예에 따라 스캔 라인 데이터를 수집하는 방법의 흐름도이다.
도 5a, 도 5b 및 도 5c는 경로의 뷰를 개략적으로 도시한 것이며 그리고 도 5d는 경로 뷰의 예시적인 이미지이다.
도 6은 소실점 (vanishing point)을 식별하기 위한 방법의 흐름도이다.
도 7a는 후드 라인을 식별하기 위한 방법의 흐름도이다.
도 7b는 후드 라인을 식별하기 위한 대안의 방법으로부터의 결과들을 보여준다.
도 8a 및 도 8b는 예시의 스캔 라인들을 도시한 것이다.
도 9는 획득된 여러 스캔 라인들을 구비한 경로의 뷰의 예이다.
도 10은 경로 데이터를 전송하고 수신하기 위한 네트워크의 예를 도시한 것이다.
도 11은 개략적 이미지의 예이다.
도 12는 박스 스캐닝을 이용하여 획득된 스캔 라인들의 재구축된 이미지의 예이다.
본 발명의 실시예들은 휴대용 내비게이션 디바이스 (Portable Navigation Device (PND))를 특히 참조하여 이제 설명될 것이다. 그러나, 본 발명은, 컴퓨팅 디바이스의 위치를 판별하기 위한 수단 그리고 그 컴퓨팅 디바이스가 통과하고 있는 경로의 이미지 데이터를 캡쳐하기 위한 수단을 포함하거나 또는 통신하고 있는 어떤 컴퓨팅 디바이스에도 적용 가능하다는 것이 실감되어야 한다. 또한, 본 발명의 실시예들은 도로 네트워크를 참조하여 설명된다. 본 발명은 보행자 통로들, 강들, 운하들, 자전거 통로들 등과 같은 다른 운행가능 네트워크들에도 또한 적용 가능할 수 있다는 것이 실감되어야 한다.
상기의 조건들을 염두에 두면, 도 1의 글로벌 포지셔닝 시스템 (Global Positioning System (GPS)) 및 유사한 것은 다양한 목적들을 위해 사용된다. 일반적으로, 상기 GPS는 연속적인 위치, 속도, 시각, 및 몇몇의 예들에서의 무제한의 사용자들을 위한 방향 정보를 결정할 수 있는 위성-라디오 기반의 내비게이션 시스템이다. 이전에 NAVSTAR로 알려진 상기 GPS는 극도로 정밀한 궤도들에서 지구의 궤도에 진입한 복수의 위성들을 편입한다. 이런 정밀한 궤도들을 기초로 하여, GPS 위성들은 자신들의 위치를 임의 개수의 수신 유닛들에게 GPS 데이터로서 중계할 수 있다. 그러나, 글로벌 포지셔닝 시스템들은 GLOSNASS, 유럽의 갈릴레오 (Galileo) 포지셔닝 시스템, COMPASS 포지셔닝 시스템 또는 IRNSS (Indian Regional Navigational Satellite System)처럼 사용될 수 있을 것이라는 것이 이해될 것이다.
GPS 데이터를 수신하기 위해 특별하게 장착된 디바이스가 GPS 위성 신호들을 위한 라디오 주파수들을 스캐닝하는 것을 시작할 때에 상기 GPS 시스템이 구현된다. GSP 위성으로부터 라디오 신호를 수신하면, 상기 디바이스는 복수의 상이한 전통적인 방법들을 통해서 그 위성의 정밀한 위치를 판별한다. 상기 디바이스는 대부분의 경우들에서 적어도 세 개의 상이한 위성 신호들을 획득할 때까지 신호들을 계속해서 스캐닝할 것이다 (정상적이지는 않지만, 다른 삼각 측량 기술들을 이용하여 단 두 개의 신호들을 이용하여 위치가 판별될 수 있다는 것에 유의한다). 기하학적인 삼각 측량을 구현하면, 수신기는 상기 위성들에 상대적인 자신의 2차원적인 위치를 판별하기 위해 상기 3개의 알려진 위치들을 활용한다. 이것은 알려진 방식으로 행해질 수 있다. 추가적으로, 네 번째 위성 신호를 획득하는 것은 상기 수신 디바이스가 알려진 방식으로 동일한 기하학적 계산에 의해 자신의 3차원적인 위치를 계산하는 것을 가능하게 한다. 상기 위치 및 속도 데이터는 무제한 수의 사용자들에 의해 연속적인 것에 근거하여 실시간으로 업데이트될 수 있다.
도 1에서 보이는 것처럼, 상기 GPS 시스템 (100)은 지구 (104) 주위에 궤도를 선회하는 복수의 위성들 (102)을 포함한다. GPS 수신기 (106)는 GPS 데이터를 여러 복수의 위성들 (102)로부터 확산 스펙트럼 GPS 위성 데이터 신호들로서 수신한다. 상기 확산 스펙트럼 데이터 신호들 (108)은 각 위성 (102)으로부터 계속해서 전송되며, 전송된 상기 확산 스펙트럼 데이터 신호들 (108) 각각은 상기 데이터 스트림이 비롯된 특별한 위성 (102)을 식별하는 정보를 구비한 데이터 스트림을 포함한다. 상기 GPS 수신기 (106)는 2차원 위치를 계산할 수 있기 위해서 적어도 세 개의 위성들 (102)로부터의 확산 스펙트럼 데이터 신호들을 일반적으로 필요로 한다. 네 번째 확산 스펙트럼 데이터 신호를 수신하는 것은 상기 GPS 수신기 (106)가 알려진 기술을 이용하여 3차원적인 위치를 계산하는 것을 가능하게 한다.
예시의 내비게이션 디바이스 (200), 예를 들면, PND가 도 2에 도시된다; 상기 내비게이션 디바이스 (200)의 블록도는 상기 내비게이션 디바이스의 모든 컴포넌트들을 포함하는 것이 아니며, 많은 예시의 컴포넌트들을 대표하는 것일뿐이라는 것에 유의해야 한다. 상기 내비게이션 디바이스 (200)는 하우징 (도시되지 않음) 내에 위치한다. 상기 내비게이션 디바이스 (200)는, 예를 들면, 위에서 언급된 프로세서 (202)를 구비한 프로세싱 회로를 포함하며, 상기 프로세서 (202)는 입력 디바이스 (204) 및 디스플레이 디바이스, 예를 들면, 디스플레이 스크린 (206)에 연결된다. 비록 여기에서는 상기 입력 디바이스 (204)를 단수로 참조하지만, 통상의 지식을 가진 자는 상기 입력 디바이스 (204)가 키보드 디바이스, 음성 입력 디바이스, 터치 패널 및/또는 정보를 입력하기 위해 활용되는 어떤 다른 알려진 입력 디바이스를 포함하는 임의 개수의 입력 디바이스들을 대표한다는 것을 인정해야 한다. 유사하게, 상기 디스플레이 스크린 (206)은, 예를 들면, LCD (Liquid Crystal Display)와 같은 임의 유형의 디스플레이 스크린을 포함할 수 있다. 이미지들을 캡쳐하기 위해 상기 PND (200)의 외부에 카메라 (도시되지 않음)가 더 제공될 수 있으며 그리고 상기 카메라에 의해 캡쳐된 이미지들을 수신하기 위해 이미지 수신기 (또한 도시되지 않음)가 제공될 수 있다.
한 설비에서, 입력 디바이스 (204) 및 디스플레이 스크린 (206)은 통합된 입력 및 디스플레이 디바이스를 제공하기 위해 통합되며, 터치 패널 스크린을 통한 (직접 입력, 메뉴 선택 등을 경유한) 정보의 입력 및 정보의 디스플레이 둘 모두를 가능하게 하기 위해 터치패드 또는 터치스크린 입력 (250) (도 3)를 포함하여, 사용자가 복수의 디스플레이 선택들 중 하나를 선택하거나 복수의 가상 또는 "소프트" 버튼들 중 하나를 활성화하기 위해 디스플레이 스크린 (206)의 일부만을 터치할 필요가 있도록 한다. 이런 면에서, 상기 프로세서 (202)는 상기 터치스크린과 함께 작동하는 그래픽 사용자 인터페이스 (GUI)를 지원한다.
상기 내비게이션 디바이스 (200)에서, 상기 프로세서 (202)는 입력 디바이스 (204)에 작동적으로 연결되어 참조번호 210의 접속을 경유하여 상기 입력 디바이스로부터 입력 정보를 수신할 수 있으며, 그리고 각자의 출력 접속들 (212)을 경유하여 상기 디스플레이 스크린 (206) 및 상기 출력 디바이스 (208) 중 적어도 하나에 작동적으로 연결되어 그것들에게 정보를 출력한다. 상기 내비게이션 디바이스 (200)는 출력 디바이스 (208), 예를 들면, 가청 출력 디바이스 (예를 들면, 라우드스피커)를 포함할 수 있다. 상기 출력 디바이스 (208)가 상기 내비게이션 디바이스 (200)의 사용자를 위해 들을 수 있는 정보를 생성할 수 있기 때문에, 입력 디바이스 (204)는 입력 음성 명령들을 마찬가지로 수신하기 위한 마이크로폰 및 소프트웨어를 포함할 수 있다는 것이 마찬가지로 이해되어야 한다. 또한, 상기 내비게이션 디바이스 (200)는 예를 들면 오디오 입력/출력 디바이스들과 같은 어떤 추가의 입력 디바이스 (204) 및/또는 어떤 추가의 출력 디바이스를 또한 포함할 수 있다.
상기 프로세서 (202)는 참조번호 216의 접속을 경유하여 메모리 (214)에 작동적으로 연결되며 그리고 참조번호 200의 접속을 경유하여 입력/출력 (I/O) 포트들 (218)로/로부터 정보를 수신/송신하도록 더 적응되며, 이 경우 상기 I/O 포트 (218)는 상기 내비게이션 디바이스 (200)에 외부인 I/O 디바이스 (222)에 연결 가능하다. 상기 외부 I/O 디바이스 (222)는 예를 들면 이어폰과 같은 외부의 청취 디바이스를 포함할 수 있을 것이지만, 그것으로 제한되지는 않는다. I/O 디바이스 (222)로의 접속은 핸드-프리 동작을 위한 그리고/또는 예를 들면 음성 활성 동작을 위한, 이어폰이나 헤드폰으로의 접속을 위한 그리고/또는 예를 들면 모바일 전화기로의 접속을 위한, 자동차 스테레오 유닛과 같은 어떤 다른 외부 디바이스로의 유선 또는 무선 접속일 수 있으며, 이 경우에 상기 모바일 전화기 접속은 예를 들면 상기 내비게이션 디바이스 (200) 및 상기 인터넷 또는 어떤 다른 네트워크 사이에서의 데이터 접속을 설립하기 위해, 그리고/또는 예를 들면 인터넷 또는 몇몇의 다른 네트워크를 경유하여 서버로의 접속을 설립하기 위해 사용될 수 있다.
상기 내비게이션 디바이스 (200)의 메모리 (214)는 (예를 들면, 프로그램 코드를 저장하기 위해서) 비-휘발성 메모리의 일부 그리고 (예를 들면 프로그램 코드가 실행될 때에 데이터를 저장하기 위해서) 휘발성 메모리의 일부를 포함한다. 상기 내비게이션 디바이스는 참조번호 230의 접속을 경유하여 프로세서 (202)와 통신하는 포트 (228)를 또한 포함하여, 탈부착 가능한 메모리 카드 (보통은 카드로 언급됨)가 상기 디바이스 (200)에 추가되는 것을 허용한다.
도 2는 참조번호 226의 접속을 경유한 프로세서 (202) 및 안테나/수신기 (224) 사이의 작동적 접속을 더 도시하며, 여기에서 상기 안테나/수신기 (224)는 예를 들면, GPS 안테나/수신기일 수 있으며 그리고 그 자체로 도 1의 GSP 수신기처럼 기능할 수 있을 것이다. 참조번호 224에 의해 표시된 상기 안테나 및 수신기는 예시를 위해 도면처럼 조합되지만, 상기 안테나 및 수신기는 분리하여 배치된 컴포넌트들일 수 있으며, 그리고 상기 안테나는 예를 들면 GPS 패치 안테나 또는 나선형 안테나일 수 있다는 것이 이해되어야 한다.
물론, 도 2에서 보이는 전자 컴포넌트들은 통상적인 방식으로 하나 또는 그 이상의 전력 소스들 (도시되지 않음)에 의해 전력을 공급받는다는 것이 본 발명이 속한 기술 분야에서의 통상의 지식을 가진 자에 의해 이해될 것이다. 그런 전력 소스들은 내부 배터리 및/또는 저 전압 DC 공급을 위한 입력 또는 어떤 다른 적합한 설비를 포함할 수 있을 것이다. 본 발명이 속한 기술 분야에서의 통상의 지식을 가진 자에 의해 이해될 것처럼, 도 2에서 보이는 컴포넌트들의 상이한 구성들이 예측된다. 예를 들면, 도 2에서 보이는 컴포넌트들은 유선 및/또는 무선 접속들 등을 경유하여 서로 통신할 수 있다. 그래서, 본원에서 설명된 상기 내비게이션 디바이스 (200)는 휴대용 또는 핸드헬드 내비게이션 디바이스 (200)일 수 있다.
추가로, 도 2의 상기 휴대용 또는 핸드헬드 내비게이션 디바이스 (200)는 예를 들면 자전거, 모터바이크, 차 또는 보트와 같은 차량에 알려진 방식으로 연결되거나 "도킹"될 수 있다. 그런 내비게이션 디바이스 (200)는 그러면 휴대용 또는 핸드헬드 내비게이션 사용을 위해, 도킹된 위치로부터 탈착 가능하다. 실제, 다른 실시예들에서, 상기 디바이스 (200)는 사용자의 내비게이션을 허용하기 위해 핸드헬드이도록 구성될 수 있을 것이다.
도 3을 참조하면, 상기 내비게이션 디바이스 (200)는 통합된 입력 및 디스플레이 디바이스 (206) 및 도 2의 다른 컴포넌트들 (내부 GPS 수신기 (224), 프로세서 (202), 파워 서플라이 (도시되지 않음), 메모리 시스템 (214) 등을 포함하지만, 그것들로 한정되지는 않음)을 포함하는 유닛일 수 있다. 상기 내비게이션 디바이스 (200)는 암 (252) 상에 놓여질 수 있으며, 이 암 그 자체는 석션 컵 (254)을 이용하여 차량 대시보드/창/등에 안전하게 부착될 수 있다. 이 암 (252)은 상기 내비게이션 디바이스 (200)가 도킹될 수 있는 도킹 스테이션의 한 예이다. 상기 내비게이션 디바이스 (200)를 예를 들면 상기 암 (252)에 스냅 연결시킴으로써 상기 내비게이션 디바이스 (200)는 상기 도킹 스테이션의 암 (252)에 도킹되거나 또는 그렇지 않고 연결될 수 있다. 상기 내비게이션 디바이스 (200)는 그러면 상기 암 (252) 상에서 회전 가능할 수 있다. 내비게이션 디바이스 (200)와 도킹 스테이션 사이의 연결을 풀기 위해서, 예를 들면 상기 내비게이션 디바이스 (200) 상의 버튼 (도시되지 않음)이 눌려질 수 있다. 상기 내비게이션 디바이스 (200)를 도킹 스테이션에 연결하고 연결해제하기 위한 다른 동등하게 적합한 설비는 본 발명이 속한 기술 분야에서의 통상의 지식을 가진 자들에게 잘 알려져 있다.
본 발명의 다양한 예들을 수행하는데 있어서 상기 휴대용 내비게이션 디바이스 (PND)의 동작이 이제 설명될 것이다.
도 4는 제1 예의 방법을 수행하는데 있어서 다양한 단계들을 도시한 흐름도를 보여준다. 그 방법을 단계 50에서 시작하며, 거기에서 PND (200) (이 경우에는 스마트폰)는 차량의 방풍유리에 붙여지며 그리고 디스플레이 반대편인 PND (200)의 후면 측에 제공된 그런 카메라가 정렬되어, 예를 들면 도 5d에서 보이는 것처럼 이동의 방향에서 경로의 뷰를 획득하게 하도록 PND의 위치가 정해진다.
스캔 라인 (1)의 위치는 단계 51에서 결정된다. 이것이 달성되는 방법이 도 4 내지 도 7b를 참조하여 이제 설명될 것이다.
도 5a, 도 5b 및 도 5c는 PND가 차량에 설치되는 방식에 종속하는 카메라의 시야의 예들을 보여준다. 도 5a 및 도 5b는 소실점 (vanishing point) (7)과 후드 라인 (hood line) (8)을 도시하며, 반면에 도 5c는 상기 후드 라인이 보이지 않도록 위치가 정해졌다. 이 방법에서, 상기 소실점 (7) 및 (보인다면) 상기 후드 라인 (8)이 이미지 (2) 내에서 먼저 식별된다. 스캔 라인 (1)의 위치는 상기 소실점 (7)과 후드 라인 (8)에 관련하여 선택되며, 그래서 그것이 매우 상세하게 상기 경로의 넓은 뷰를 가로질러 확장하도록 한다. 이것은 상기 스캔 라인 데이터가 경로의 사실적인 뷰를 생성함에 있어서 지도 구축자들에게 유용한 경로의 시각적인 정보를 포함하는 것을 확실하게 한다. 상기 스캔 라인의 위치를 판별하는데 있어서 사용하기 위해 상기 소실점 및 상기 후드 라인을 동적으로 판별하는 기능성은 도 10에 도시된 (PND (200) 상에서 동작하는) 도로 스캐닝 앱의 자동-캘리브레이션 모듈에 의해 도시된다.
상기 소실점 (7)이 모니터링되는 방법이 도 6의 흐름도를 참조하여 이제 설명될 것이다. 상기 경로의 이미지는 카메라를 이용하여 먼저 획득되며 그리고 방위각 (bearing) 추적기가 시작되어, 미리 정해진 거리에 대해 직선 라인에서 차를 운전하고 있는가의 여부를 모니터한다. 방위각 추적기는 0으로 세팅되고 위치 데이터 피드는 상기 PND (200) 내 GPS 수신기에 의해수신된 GPS 데이터를 기반으로 하여 모니터링된다. 상기 디바이스의 제1 방위각은 제1 위치 (거리 = 0m)에서 모니터링된다. 이 방위각은 대지 표면 상에서 그 디바이스의 움직임의 각도에 관련되며 그리고 짧은 거리, 예를 들면, 10 미터 또는 그 미만에 걸쳐 상기 PND (200) 움직임을 모니터링하여, 또는 상기 PND (200) 그 자체 내에 제공된 디지털 나침반으로부터 수신된 데이터를 잠재적으로 이용하여 측정될 수 있다. 일단 상기 위치 데이터 피드가 100 미터의 거리를 이동했다고 표시하면, 제2 방위각이 제2 위치 (거리 = 100m)에서 기록된다. 그 후에 상기 PND (200) 내에 제공된 프로세서는 상기 제1 방위각 및 제2 방위각을 비교하여, 차량 또는 PND (200)가 제1 위치와 제2 위치 사이에서 실질적으로 직선 라인에서 이동하고 있었는가의 여부를 판별한다. 이 분석의 결과들이 상기 PND (200)가 직선 라인에서 이동하고 있지 않았다는 것을 시사한다면, 이미지는 폐기되고 상기 단계들이 반복된다.
차량 (또는 PND (200))이 실질적으로 직선 라인에서 이동하고 있다고 일단 판별되면, 상기 이미지 수신기로부터 수신된 이미지 내에서 허프 라인들 (Hough lines)이 식별된다. 이 허프 라인들 (4)은 전방 경로 내 차로들의 가장자리를 보통 표시하는 이동 방향에서의 직선 라인들이며 그래서 연속선 또는 단속선일 수 있다. 예시의 허프 라인들 (4)이 도 5d에서 식별된다. 바로 실감되듯이, 이 차로 마킹들은 뷰의 중심 부분에서 실질적으로 수직이며 그리고 그 뷰의 왼쪽 측면 및 오른쪽 측면을 향하여 점점 더 수평이다. 차량 (및 그 차량에 구비된 PND (200))이 이동하고 있는 차로의 가장자리를 표시하는 도 5d에서 보이는 허프 라인들 (4)은 수직에 가깝게 취해진다. 이 설명을 충족하지 않는 라인들은 프로세싱 단계에 의해 필터링되어 제거되며 그리고 나머지 둘 또는 그 이상의 허프 라인들 (4)의 교차점이 계산된다. 이 교차점은 상기 경로 (2)의 뷰 내에서는 그 자체가 실제로는 보이지 않는 것이 일반적이며 그리고 이론적인 교차점을 계산하기 위해서 상기 라인들을 외삽함에 의해서 계산되어야 한다. 이것이 소실점 (vanishing point) (7)으로 불린다. 이 소실점 (7)은 수평 (5)의 높이 (또는 y-위치)에 관한 추정을 제공한다.
소실점의 위치를 아는 것은 스캔 라인의 위치를 판별함에 있어서 그리고 상기 스캔 라인들을 해석하는데 있어서 도움을 줄 수 있다. 데이터가 도로 피처들만에 관하여 조사되는 이벤트에서, 소실점의 y-위치 위의 모든 것은 관련되지 않는다. x-위치는 상기 도로 피처들을 재구축하기 위해 나중에 관련된다.
소실점 (7)의 위치가 일단 판별되면, 후드 라인 (8)이 모니터링된다. 상기 후드 라인 (8)은 이미지 내 차량 후드의 윤곽에 대응하며 그리고 상기 후드와 전방 경로 사이의 경계이다. 비록 약간의 굴곡이 있다고 하더라도, 그리고 보통은 정적이지만, 카메라의 진동으로 인해 약간 진동하는 것으로 보일 수 있다고 하더라도, 그 후드 라인은 현저하게 수평인 것으로 가정된다. 후드 탐지는 본 발명이 속한 기술 분야에서는 흔한 유형의 객체 인식 기술들을 이용하여 수행될 수 있다. 상기 후드 라인을 모니터링하기 위한 알고리즘을 예시하는 적합한 방법의 예가 도 7a에서 제시된다.
상기 방법의 첫 번째 단계는 추적할 이미지 내 피처들 ("굿 포인트들"로 언급됨)을 결정하는 것이다. 단계 72에서, 이 포인트들은 추적 라인들을 형성하기 위해 광 흐름 (optical flow) 알고리즘을 이용하여 모니터될 수 있는 광 흐름을 형성하는 차후의 이미지들에서 이어진다. 관심 영역 내에 존재하는 포인트들은 후속 이미지들 내에서 아래로 후드까지 이동할 것이며 (차량은 이 피처들을 향하여 이동하고 있다고 가정한다) 그리고 그곳에서 사라지며, 그 후드 상의 포인트들은 정적인채로 유지될 것이다. 예를 들면, 직선이 아닌 "불량" 라인들은 필터링되어 제거된다. 단계 74 및 단계 75에서, 이 광 흐름 모니터링은 더 이상 추적할 포인트들이 남아있지 않다고 판별될 때까지, 또는 최대 추적 시간이 초과될 때까지 반복된다. 단계 76에서, 상기 트랙 라인들의 가장 낮은 위치 또는 포인트들이 저장되고 그리고 상기 후드 라인은 낮은 포인트들의 분포를 분석하여 판별된다. 어떤 후드 라인 (8)도 상기 이미지 내에 존재하지 않는 경우에, 개념상의 후드 라인 (8)이 시야 외에서 상기 이미지의 바닥 부분에 세팅될 수 있을 것이다 (y = 0).
대안으로, 또는 잠재적으로 보충하여, 상기 후드 라인 (8)을 모니터링하기 위한 방법이 도 7b에 도시된다. 카메라의 시야 내의 도로 라인 마킹들과 같은 피처들은 전경 내에서 (상기 이미지의 바닥 부분에서) 가장 넓으며 그리고 상기 PND로부터 (즉, 지평선 (7) 아래의, 상기 이미지의 제일 윗 부분에서) 가장 멀리 떨어진 곳에 가장 좁다. 이것은 도 7b의 왼쪽에 있는 이미지에 의해 명백하게 보여진다; 이것은 차로 마킹들이 강조된 경로의 디지털적으로 향상된 뷰를 보여준다. 도 7b의 오른쪽에 있는 이미지에서 보이는) 히스토그램이 생성되어, y-방향에서의 '높이' 또는 이미지 라인에 대한 차로 마킹들로 탐지된 픽셀들의 개수를 도시한다. 보이는 것처럼, 상기 히스토그램은 도로 마킹들이 임지의 바닥을 향하여 넓어지고 그리고 그 후에 피처들이 시야로부터 불명료하면 날카롭게 하강한다. 이 하강의 위치는 후드 라인, 또는 스캔 라인들을 위해 사용된 가장 낮은 라인으로 사용될 수 있다.
소실점 (7) 및 후드 라인 (8)이 일단 계산되었으면, 상기 후드 라인 (8) 및 소실점 (7)에 관하여 미리 정해진 위치에서 스캔 라인 (1)이 선택된다. 도 8a 및 도 8b는 각 이미지 (2) 상의 미리 정해진 위치에서 도시된 스캔 라인 (1)을 이용하여 PND (200)로부터 획득된 뷰들의 예시의 이미지들 (2)을 보여준다. 도 8a에서, 모니터링되는 소실점 및 상기 이미지 (2)의 바닥 부분의 대략적으로 중간에 수평의 평평한 스캔 라인 (1)이 위치한다. 도 8b에서, 타원의 스캔 라인 (1)이 사용된다; 그 타원은 소실점으로부터 미리 정해진 양만큼 오프셋된 위치에 중심을 둔다.
상기 스캔 라인 (1)을 위한 적합한 높이를 선택하는 것이 중요하다. 대부분의 바닥 라인 결과들은 가장 넓고 가장 큰 위치 정밀도를 요구하는 마킹들이지만 시야는 작다. 상기 이미지보다 더 높은 라인에서 기록하는 것은 더욱 개략적인 모습 (그리고 더욱 많은 차로들)을 부여하지만, 상세함을 잃는다. 최적의 솔루션은 그 사이의 어느 곳이다. 실시예들에서, 스캔라인은 수평 라인 (1)에 추가하여 상기 이미지 (2)의 측면에서의 수직 라인들 (3, 3')을 포함할 수 있다.
도 8b에서 보이는 것과 같은 대안의 솔루션은 직선 라인을 스캔하는 것이 아니라 그릇 형상의 아크 (arc) 또는 타원에 의해 커버되는 이미지의 영역을 스캔하는 것이다. 이것은 그 결과인 사진에서 중심에서는 더 높은 레벨의 상세함을 그리고 차로들 외부에서는 더 많은 개략적인 모습을 제공한다. 원들 또는 타원들을 사용하는 유리한 특성은 현재의 차로가 이미지의 바닥 부분에 있기 때문에 그것들이 동일한 차로 내 전면에 있는 차들의 픽셀들을 거의 캡쳐하지 않으며, 그리고 커버되는 넓은 시야 각도를 여전히 가지고 있다는 것이다. 더욱이 그것의 출력은 보는 축에 걸쳐서 약간 회전하는 (즉, 지평 (5)에 평행하지 않은 뷰를 가진) 카메라들을 위해서 더욱 강건하다. 또 다른 대안은 데이터를 스캔하기 위해 픽셀들의 네 개의 라인 박스를, 즉, 사각형 또는 직사각형에 의해 커버되는 이미지의 영역을 사용하는 것이다. 이것은 아크 또는 타원에 걸쳐서 스캔할 때에 흔한 경우인 픽셀 값들에 대한 어떤 보간도 필요로 하지 않는다는 장점을 가진다.
상기 후드 라인 (8) 및 상기 소실점 (7)은 상기 PND (200)가 경로를 따라 이동하고 그리고 스캔 라인 (1) 위치가 동적으로 결정될 때에, 즉, 상기 소실점 (7) 또는 후드 라인 (8)의 위치가 변하는 경우에 조절될 때에, 루프 (loop) 상에서 계속해서 모니터링된다. 이것은 예를 들면, 상기 PND (200)가 이동되어, 경사 카메라가 상기 경로의 뷰 (2)를 따라서 변하게 하는 경우일 수 있다.
도 4로 다시 돌아가면, 단계 52에서, 위치 데이터 피드가 위치 데이터 피드 수신기 (이것은 스프트웨어 및/또는 하드웨어에 의해 구현된 논리적인 컴포넌트일 수 있다)에 의해 수신되며 그리고 상기 카메라로 하여금 상기 경로의 이미지들 (2)을 캡쳐하도록 하기 위해서 이 피드에 따라서 상기 프로세서에 의해 트리거 신호가 발행된다. 이 예에서, 상기 프로세서는 상기 PND (200)가 이동했던 모든 미터마다 트리거 신호를 발행하도록 구성된다. 단계 53에서, 미리 정해진 스캔 라인 위치에서 상기 스캔 라인 (1)을 따라 확장하는 각 이미지의 일부만으로부터 스캔 라인 이미지 데이터가 추출된다. 상기 스캔 라인 (1)에 의해 이미지화된 상기 경로의 위치는 상기 위치 데이터 피드에 기반하여 계산된다. 예를 들면, 상기 스캔 라인이 PND (200)의 위치에서가 아니라 PND (200)의 전면에 놓여 있다는 사실을 보상하기 위해서, 상기 계산은 상기 소실점 (7) 및 상기 후드 라인 (8)을 참조하여 삼각측량법을 사용할 수 있을 것이다
단계 54에서, 상기 스캔 라인 데이터는 JPEG 압축 (또는 다른 압축 기술)을 이용하여 압축되며, 옵션으로는 그레이스케일 이미지로 변환되며, 그리고 상기 스캔 라인 (1)에서 보이는 위치를 표시하는 상기 스캔 라인 (1)에 대한 각자의 위치 데이터와 함께 메모리에 저장된다. 단계 52 내지 단계 54는 상기 경로를 따라 d의 원위 (distal) 인터벌들로, 이 경우에는 매 미터마다, 반복된다. 상기 스캔 라인 데이터 및 각자의 위치 데이터는 매 시간마다 단계 55에서 서버로 주기적으로 전송된다. 대안으로, 이 데이터는 서버에 의해 발행되어 상기 PND (200)에 의해 수신된 요청 신호에 응답하여 전송될 수 있을 것이다. 대안으로, 상기 데이터는 상기 PND (200)가 서버와의 통신을 위한 수단에 유선으로 또는 무선으로 연결될 때에 그 서버로 전송될 수 있을 것이다.
도 9에 보이는 두 번째 예의 방법에서, 경로의 단일 이미지 (2)로부터 여러 스캔 라인들 (1, 1')이 획득된다. 카메라의 하드웨어 규격들이 주어지면, 전방 도로 이미지에 기하학적인 계산들을 수행하는 것이 가능하다. 예를 들면, 상기 이미지 내 두 개의 수평 라인들 사이의 실제 세계에서의 거리는, 상기 소실점 (7)이 결정되거나 또는 조정된다면 계산 가능하다. 보통 있는 경우지만 스캔 라인들 사이의 어떤 실제 세계의 사이 거리가 소망되고 그리고 상기 카메라의 프레임 레이트가 높다면, 프레임 당 하나의 스캔 라인을 사용하는 것으로 충분할 수 있다. 그러나, 상기 카메라가 요청된 샘플 거리 당 하나의 프레임을 전달 수 없다면, 그 스캔 프레임 내 여러 스캔 라인들을 이용하여 중간 프레임 정보가 획득될 수 있으며, 여기에서 각 스캔 라인은 차량 또는 PND (200)로부터의 상이한 거리를 나타낸다. 등거리 스캔들을 위해서, 각 프레임 내에서 필요한 스캔 라인들의 개수 및 위치는 (상기 위치 데이터 피드로부터 획득될 수 있는) 상기 차의 속도의 프레임 레이트에 종속한다. 주어진 스캔 라인 거리 d, 속도 및 프레임에 대해, 프레임 당 필요한 스캔들의 개수 n은 다음과 같다:
Figure 112017002420796-pct00001
예를 들면, 초 당 20 프레임의 프레임 레이트, 15 센치미터의 라인간 거리 및 시간 당 70 킬로미터를 이용하면, 프레임 당 취해야 하는 스캔 라인들의 개수는 약 6.5이다. 올바르게 설치된 카메라를 가정하면, 상기 소실점의 넓은 위치에 대해 상기 캡쳐된 이미지 내에서 스캔되어야 하는 라인의 y-위치는 상기 PND (200)로부터 (상기 소실점을 향하여) 스캔된 위치 z까지의 실세계의 거리의 역에 비례한다. 박스 또는 타원 스캐닝에 대해서 동일한 원칙이 적용될 수 있다.
도 9에서, 제1 스캔 라인은 1로 라벨링되며 그리고 이동 방향으로 15 센치미터 오프셋된 제1 스캔 라인은 1'로 라벨링된다. 블랙 마크 내 상기 수평 라인들은 현재의 프레임에서 추출될 스캔 라인들을 마킹한다. 스캔될 라인들의 개수는 이 프레임과 다음 프레임 사이에 이동된 시간에 의해 결정된다. 그레이 라인들은 다음 프레임 내에서 스캔될 위치들을 도시학 위해 단순하게 도시된다. GPS 위치 데이터를 보간할 것이 필요할 수 있으며, 이는 상기 위치 데이터 피드로부터 탐지될 수 있는 더 작은 인터벌들에서 스캔 라인들이 획득될 수 있기 때문이다.
추가의 예에서, 예를 들면, 대각 스캔 라인 (1)을 이용함으로써 상기 카메라가 수평 (5)과 평행하게 설치되지 않았으며 그리고 상기 스캔 라인 (1)의 위치 또는 각도가 그에 따라서 조절되었다는 것을 탐지하기 위해 상기 PND (200) 내에 있는 가속도계들이 사용된다. 이 가속도계들은 상기 차 및 카메라의 진동들의 결과인 이미지 도는 스캔 라인 (1) 내 아티팩트들을 교정하기 위해 또한 사용될 수 있을 것이다.
경로 데이터를 전송하고 수신하기 위한 네트워크의 예가 도 10을 참조하여 이제 설명될 것이다. 스캔 라인 데이터 및 관련된 위치 데이터는 복수의 PND들 (200, 200' 및 200'')로부터 4G LTE 또는 3G 셀룰러 네트워크와 같은 (무선) 통신 네트워크 (9)를 경유하여 서버 (10)으로, 예를 들면, 주기적으로 전송된다. 상기 서버 (10)는 하나 이상의 프로세서들 그리고 운행가능 네트워크 내 경로의 뷰의 스캔 라인 데이터 및 그 스캔 라인 데이트에 대한 관련 위치 데이터를 상기 통신 네트워크 (9)를 경유하여 수신하도록 구성된 수신기를 포함할 수 있다. 상기 서버 (10)는 지시어들을 포함하는 메모리를 더 포함하며, 상기 지시어들은 하나 이상의 프로세서들에 의해 실행될 때에 상기 서버로 하여금, 스캔 라인들로부터 수신된 위치 데이터에 기반하여 지도 데이터베이스 내에서 스캔 라인의 판별된 위치를 참조하여 상기 스캔 라인 데이터를 처리하도록 하며, 이는 상기 스캔 라인 데이터 내에서 보이는 경로의 시각적 피처들로 상기 데이터베이스를 풍부하게 하기 위한 것이다. 상기 지도 데이터베이스의 이 "풍부함"은 생성될 디지털 지도의 경로의 "사실적인" 뷰를 가능하게 하기 위해 데이터베이스를 보강하는 것을 포함할 수 있을 것이며, 그리고, 예를 들면, 개략적 이미지 생성, 사실적인 도로 렌더링, 도로 표지들 읽기, 차로 마커들 식별, 차로 개수 판별, 도로-측 및 대지-사용 탐지 (나무들, 빌딩들, 컬러 팔레트들), 그리고 모바일 네트워크들을 이용할 때의 기상관련 자료 수집을 포함할 수 있을 것이다. 이 기능성은 도 10에서 보이는 도로 마킹 탐지기 및 차로 추출기 모듈들에 의해 예시된다. 더욱이, 경로의 이미지들은 경로의 미리보기 영상을 형성하기 위해 함께 스티치 (stitch)될 수 있다. 상기 서버는 상기 이미지 데이터를 기반으로 하여, 시뮬레이션될 상기 경로의 사실적인 3D 뷰를 가능하게 하기 위해 여러 디바이스들로부터 모은 이미지 데이터를 상기 지도 데이터베이스와 효과적으로 융합할 수 있다. 그러면 업데이트된 지도가 패드백 루프를 통해서 다시 상기 디바이스들로 분배된다. 대안으로, 상기 네트워크는 실-시간 업데이트들을 구비한 "라이브" 지도를 생성하기 위해 잠재적으로 사용될 수 있을 것이다.
도 11에서 보이는 경로의 개략적인 이미지 (8) (또한 조감도로 알려짐)의 예에서, 개별 수평 스캔 라인들 (1)은 경로를 따른 자신들 각자의 위치들에서 서로에게 평행하게 함께 집성된다. 비록 개략적 이미지가 상기 PND (200) 그 자체에 의해 생성되어 서버 (10)로 전송되지만, 이 예에서 상기 개략적 이미지 (8)는 이 디지털 지도에서 (상이한 차로들 외부에 분기한 것에 의해 입증되듯이) 약간 상이한 경로들을 이동하는 복수의 PND (200)로부터 획득된 각자의 위치 데이터와 함께 스캔 라인 데이터를 이용하여 상기 서버 (10)에 의해 생성된다. 상기 개략적 이미지 (8)의 차로 마킹들 및 그 도로 상에 날인된 도로 표지들과 같은 시각적 피처들의 개수가 눈에 보인다. 이 시각적인 피처들은 상기 서버 (10)에 의해 식별되며 그리고 매핑된 데이터베이스로 입력되며, 이는 상기 경로 데이터의 품질을 향상시키거나 또는 이 부가적인 정보를 이용하여 상기 지도 데이터베이스를 풍부하게 하기 위한 것이다. 상기 경로의 3D의 사실적 뷰는 그러면, 예컨데, 스캔 라인 데이터 내에 캡쳐된 도로 마킹들 및 표지들에 기초하여 이 추가적인 정보의 표현들을 포함시키기 위해 상기 경로의 뷰를 시뮬레이션함으로써 상기 풍부하게 된 지도 데이터베이스를 기반으로 하여 생성될 수 있다.
운행가능 네트워크 내 상이한 경로들을 따라 이동하는 여러 휴대용 내비게이션 디바이스들 (200, 200', 200'')이 제공되어 서버 (10)에 연결되며, 그래서 디지털 지도들을 생성함에 있어서 사용된 경로 정보가 크라우드 소싱될 수 있도록 하는 특별한 이점이 제공된다. 그래서 많은 개수의 PND들이, 더 높은 품질의 최신 정보인 운행가능 네트워크 내 시각적인 피처들의 최신의 경로 데이터를 제공할 수 있다. 상기의 방법을 실행시키기 위해 필요한 소프트웨어 또는 컴퓨터 판독가능 매체가 쉽게 그리고 값싸게 다운로드될 수 있기 때문에, 이 경로 데이터를 획득하는데 있어서의 비용은 예컨데 위성 이미지들 또는 모바일 매핑 차량들에 비교하면 극적으로 줄어들 수 있다. 이것은 훨씬 더 많은 개수의 잠재적 소스들이 유통될 경로 데이터를 어느 때에나 획득하고 전송하는 것을 가능하게 한다.
서버 메모리 상에 제공된 소프트웨어 지시어들은 상기 네트워크 (9)를 가로질러 송신된 스캔 라인 데이터를 제어하기 위해 사용될 수 있다. 예를 들면, 상기 서버 (10)는 상기 통신 네트워크 (9)에게 요청 신호를 발행하여, 디지털 지도 상의 특정된 로케이션들에 있는 PND들의 어떤 세트 또는 서브세트로부터 각자의 위치 데이터와 함께 스캔 라인 데이터를 요청할 수 있다. 이것은 상기 네트워크 (9)를 통해 송신된 데이터의 양을 제한하기 위해 바람직하다. 이 예에서 상기 서버 (10) 내의 자동적인 프로세스는 지도 상의 각 위치에 대해 특정된 시간 윈도우 내에서 (일광 시간 동안에), 매일 획득될 새로운 스캔 라인 데이터를 요청할 수 있을 것이다. 이것이 아직 수신되지 않았다면, 서버 (10)에 의해 신호가 송신되어, 이 로케이션의 범위 내의 임의 PND (200)를 활성화하여, 스캔 라인 데이터를 획득하고 그리고 그것을 상기 네트워크 (9)를 가로질러 전송하도록 한다. 이 신호는 일단 상기 데이터가 수신되면 종결될 수 있다. 이것은 상기 디지털 지도들이 최신이지만 소비되는 불필요한 컴퓨팅 노력을 줄이는 것을 확실하게 한다.
추가의 예에서, 실질적으로 유사한 로케이션들에서 네트워크 내 복수의 PND들 (200, 200' 및 200'')로부터 수신된 스캔 라인 데이터가 활용된다. 개별 여행들로부터의 스캔 라인 데이터가 분석되며 그리고 그것들로부터 마커 정보가 추출된다. 추출된 마커 정보의 세트는 통계적으로 결합될 융합 프로세스에서 그 후에 사용된다. 차후의 PND가 동일한 경로를 통해서 지나갈 때에, 마커 분석은 각 여행의 수집된 스캔 라인들에 관해 수행되며, 그리고 그 결과인 마커 정보는 통계적으로 관련된 결과들을 획득하기 위해 융합된다.
도 12는 (박스 스캐닝이라고도 또한 알려진) 직사각형 스캔 라인을 이용하여 획득된 스캔 라인들로부터 재구축된 '3D 이미지', 또는 경로 미리보기의 예를 보여준다. 제일 위의 인레이 (inlay) 이미지는 하늘이 제외되고 측면들은 접혀서 떨어진 원근적인 뷰를 보여주며, 두 번째 인레이 이미지는 위에서 본 뷰를 보여준다. 이와 같이 재구축된 이미지들은 함께 스티치되어 경로 운전 영상들을 위한 강한 압축 방법으로 사용될 수 있다. 스캔 라인 데이터 및 좌표들을 저장하는 비용은 전체 MPEG 영상을 저장하는 비용에 비해 아주 더 낮다. 이 비디오는 스캐너 (10)에 의해 보통 처리되고 원격으로 획득되지만, 상기 PND (200) 그 자체에 의해 대안으로 생성될 수 있다.
본 발명에 따른 상기 방법들 중 어느 것은 소프트웨어, 예를 들면, 컴퓨터 프로그램들을 적어도 부분적으로 이용하여 구현될 수 있을 것이다. 본 발명은 그래서 본 발명의 실시예들 또는 모습들 중 어느 하나에 따른 방법을 수행하거나, 또는 내비게이션 디바이스로 하여금 수행하도록 하기 위해 실행가능한 컴퓨터 판독가능 지시어들을 포함하는 컴퓨터 프로그램으로 또한 확대된다. 그래서, 본 발명은 하나 이상의 프로세서들에 의해 실행될 때에 그 하나 이상의 프로세서들로 하여금 디스플레이 스크린 상에서의 디스플레이를 위해 적합한 이미지들 (또는 다른 그래픽 정보)을 생성하도록 하는 컴퓨터 프로그램 제품을 포함한다. 본 발명은 소프트웨어를 포함하는 컴퓨터 소프트웨어 캐리어로 따라서 확장되며, 그 소프트웨어는 데이터 프로세싱 수단을 포함하는 시스템이나 장치을 동작시키기 위해 사용될 때에, 상기 데이터 프로세싱 수단과 함께 상기 장치나 시스템으로 하여금 본 발명의 상기 방법들의 단계들을 수행하도록 한다. 그런 컴퓨터 소프트웨어 캐리어는 ROM 칩, CD ROM 또는 디스크와 같은 비 일시적 물리적 저장 매체일 수 있으며, 또는 유선, 광 신호 또는 라디오 신호를 통해 위성 등으로 가는 전자 신호와 같은 신호일 수 있다. 본 발명은, 기계에 의해 읽혀질 때에 그 기계로 하여금 본 발명의 상기 모습들이나 실시예들 중 어느 하나의 방법에 따라 동작하도록 하는 지시어들을 포함하는 기계 판독 가능 매체를 제공한다.
명시적으로 진술되지 않았다면, 본 발명의 모습들 중 어느 하나 내의 본 발명은 본 발명의 다른 모습들이나 실시예들에 관하여 설명된 특징들 중 어느 하나 또는 모두를 그것들이 상호 배타적이지 않은 정도까지 포함할 수 있을 것이라는 것이 인정될 것이다. 특히, 동작들의 다양한 실시예들이 상기 방법에서 그리고 상기 장치에 의해 실행될 수 있을 것이라고 설명되었지만, 이 동작들 중 하나 이상 또는 모두는 소망되는 어떤 조합으로 그리고 적절하게 상기 방법에서 그리고 상기 장치에 의해 수행될 수 있을 것이라는 것이 인정될 것이다.

Claims (31)

  1. 경로 데이터를 연속적으로 생성하는 방법으로, 상기 방법은:
    운행가능 네트워크 내 경로를 따라 이동하는 이미지 캡쳐링 디바이스의 위치에 관련된 위치 데이터 피드를 수신하는 단계;
    상기 경로의 뷰 (view)를 획득하기 위해서 이미지 캡쳐링 디바이스가 상기 경로를 따라서 진행할 때에 그 이미지 캡쳐링 디바이스를 이용하여 캡쳐된 상기 경로의 이미지들을 수신하는 단계;
    상기 이미지들로부터 스캔 라인 데이터를 추출하는 단계로, 이미지에 대한 상기 스캔 라인 데이터는 미리 정해진 모습의 스캔 라인을 따라 확장하는 미리 정해진 폭의 이미지의 선형 부분을 포함하는, 추출 단계; 그리고
    상기 스캔 라인 데이터를 상기 스캔 라인에 대한 각자의 위치 데이터와 함께 메모리에 저장하는 단계로, 상기 위치 데이터는 상기 위치 데이터 피드에 기초한 것인, 저장 단계를 포함하며,
    상기 이미지 캡쳐는, 상기 위치 데이터 피드에 기초하여 상기 경로를 따라 미리 정해진 이미지 캡쳐 거리들에 따라서 트리거되며,
    상기 방법은:
    상기 위치 데이터 피드에 따라 이미지 캡쳐링 디바이스의 속도를 모니터링하는 단계, 그리고
    상기 미리 정해진 이미지 캡쳐 거리들에서 상기 경로의 이미지들을 캡쳐하기 위해 상기 속도에서 필요한 프레임 레이트가 상기 이미지 캡쳐링 디바이스의 최대 프레임 레이트를 초과하면, 상기 이미지들로부터의 하나 이상의 추가 스캔 라인들로부터 스캔 라인 데이터를 획득하는 단계를 더 포함하며,
    미리 정해진 이미지 캡쳐 거리에서 상기 경로의 뷰를 커버하기 위해 각 추가 스캔 라인의 위치가 결정되며,
    상기 하나 이상의 추가 스캔 라인들로부터의 스캔 라인 데이터는 상기 하나 이상의 추가 스캔 라인들을 따라 확장하는 추가의 미리 정해진 폭의 이미지의 추가 선형 부분을 포함하는, 방법.
  2. 제1항에 있어서,
    상기 경로의 디지털 지도의 사실적인 뷰를 생성함에 있어서 상기 경로 데이터를 이용하는 단계를 포함하는, 방법.
  3. 제1항 또는 제2항에 있어서,
    상기 경로의 뷰 내에서 소실점 (vanishing point)의 위치를 모니터링하는 단계, 그리고
    그 소실점에 광하여 미리 정해진 위치에 상기 스캔 라인을 배치하는 단계를 포함하는, 방법.
  4. 제1항 또는 제2항에 있어서,
    상기 이미지 캡쳐링 디바이스는 차량 내에 위치하며, 여기에서 상기 방법은:
    상기 경로의 뷰 내에서 차량 후드 (hood)의 외곽에 대응하는 후드 라인을 모니터링하는 단계;
    상기 경로의 뷰 내 소실점의 위치를 모니터링하는 단계; 그리고
    상기 후드 라인 및 상기 소실점에 관하여 미리 정해진 위치에 상기 스캔 라인을 배열하며, 그래서 상기 스캔 라인이 상기 소실점과 상기 후드 라인 사이에 위치하도록 하며 그리고 상기 후드 라인과 실질적으로 교차하지 않도록 하는 단계를 포함하는, 방법.
  5. 제4항에 있어서,
    후드 라인을 모니터링하는 단계는:
    상기 이미지 캡쳐링 디바이스가 상기 경로의 이미지들에서 보이는 하나 이상의 피처 (feature)들을 향해 움직일 때에 상기 경로의 연속하는 이미지들 사이에서 아래쪽으로 움직이는 피처들을 추적하는 단계;
    상기 이미지 캡쳐링 디바이스의 시야 내에서 보이는 상기 움직이는 피처들의 가장 낮은 위치들을 모니터링하는 단계; 그리고
    상기 모니터링된 가장 낮은 위치들에 기초하여 후드 라인을 판별하는 단계를 포함하는, 방법.
  6. 제3항에 있어서,
    소실점의 위치를 모니터링하는 상기 단계는:
    상기 위치 데이터 피드에 기초하여 제1 위치 및 제2 위치에서 각각에서 이동 방향 내 제1 방위각 (bearing) 및 제2 방위각을 모니터링하는 단계;
    상기 디바이스가 상기 모니터링된 제1 방위각 및 제2 방위각에 따라 상기 제1 위치 및 제2 위치 사이에서 실질적으로 직선 라인으로 이동하고 있었는가를 계산하는 단계;
    상기 이동 방향에서 상기 경로의 뷰 내 둘 이상의 직선 도로 라인들을 모니터링하는 단계;
    상기 도로 라인들의 교차 위치를 계산하는 단계; 그리고
    상기 디바이스가 상기 제1 위치 및 제2 위치 사이에서 실질적으로 직선 라인에서 이동하고 있는 것으로 계산되었다면, 상기 교차 위치를 상기 경로의 뷰 내 소실점으로서 출력하는 단계를 포함하는, 방법.
  7. 제3항에 있어서,
    스캔 라인의 상기 미리 정해진 위치는 동적으로 결정되거나 또는 고정된 위치에 있는 것 중 어느 하나인, 방법.
  8. 제3항에 있어서,
    상기 스캔 라인은 상기 소실점 아래에 적어도 60도의 각도로 대하는 (subtend), 방법
  9. 제5항에 있어서,
    상기 스캔 라인 또는 그 스캔 라인의 적어도 일부는:
    직사각형, 상기 시야를 실질적으로 가로질러 확장하는 실질적인 수평 직선 라인; 호 ; 및 타원,
    중 하나인, 방법.
  10. 제1항 또는 제2항에 있어서,
    상기 경로의 이미지들은 상기 이미지 캡쳐링 디바이스로부터 획득된 비디오 피드로부터 일정한 프레임 레이트로 캡쳐되는, 방법.
  11. 제10항에 있어서,
    상기 프레임 레이트는 초 당 1 프레임 내지 30 프레임 사이인, 방법.
  12. 삭제
  13. 제1항에 있어서,
    상기 미리 정해진 이미지 캡쳐 거리들은 등거리인, 방법.
  14. 제1항에 있어서,
    상기 미리 정해진 이미지 캡쳐 거리는 0.1 미터 내지 5 미터 사이인, 방법.
  15. 삭제
  16. 삭제
  17. 제1항 또는 제2항에 있어서,
    상기 위치 데이터 피드는 내비게이션 위성 시스템 수신기로부터 획득되는, 방법.
  18. 제1항 또는 제2항에 있어서,
    각자의 위치 데이터와 함께 상기 스캔 라인 데이터를 하나 이상의 서버들로 업로드하는 단계를 더 포함하는, 방법.
  19. 제1항 또는 제2항에 있어서,
    상기 스캔 라인들을 상기 경로의 개략적 이미지로 집성하는 단계를 포함하는, 방법.
  20. 제19항에 있어서,
    상기 개략적 이미지 내 경로 피처들을 식별하는 단계를 포함하는, 방법.
  21. 제20항에 있어서,
    상기 경로 피처들은:
    도로 차로들의 개수, 차로 안내 표시기들, 도로 공사들, 도로 표지들, 색상들, 나무들, 터널들, 다리들 및 날씨,
    중 하나 이상을 포함하는, 방법.
  22. 경로 데이터를 연속적으로 생성하는 디바이스로, 상기 디바이스는:
    운행가능 네트워크 내 경로를 따라 이동하는 이미지 캡쳐링 디바이스의 위치에 관련된 위치 데이터 피드를 수신하는 수단;
    상기 경로의 뷰 (view)를 획득하기 위해서 이미지 캡쳐링 디바이스가 상기 경로를 따라서 진행할 때에 그 이미지 캡쳐링 디바이스를 이용하여 캡쳐된 상기 경로의 이미지들을 수신하는 수단;
    상기 이미지들로부터 스캔 라인 데이터를 추출하는 수단으로, 상기 스캔 라인 데이터는 미리 정해진 모습의 스캔 라인을 따라 확장하는 미리 정해진 폭의 이미지의 선형 부분을 포함하는, 추출 수단; 그리고
    상기 스캔 라인 데이터를 상기 스캔 라인에 대한 각자의 위치 데이터와 함께 메모리에 저장하는 수단으로, 상기 위치 데이터는 상기 위치 데이터 피드에 기초한 것인, 저장 수단을 포함하며,
    상기 이미지 캡쳐는, 상기 위치 데이터 피드에 기초하여 상기 경로를 따라 미리 정해진 이미지 캡쳐 거리들에 따라서 트리거되며,
    상기 디바이스는:
    상기 위치 데이터 피드에 따라 이미지 캡쳐링 디바이스의 속도를 모니터링하는 수단으로, 상기 미리 정해진 이미지 캡쳐 거리들에서 상기 경로의 이미지들을 캡쳐하기 위해 상기 속도에서 필요한 프레임 레이트가 상기 이미지 캡쳐링 디바이스의 최대 프레임 레이트를 초과하면, 상기 이미지들로부터의 하나 이상의 추가 스캔 라인들로부터 스캔 라인 데이터를 획득하는, 모니터링 수단을 더 포함하며,
    미리 정해진 이미지 캡쳐 거리에서 상기 경로의 뷰를 커버하기 위해 각 추가 스캔 라인의 위치가 결정되며,
    상기 하나 이상의 추가 스캔 라인들로부터의 스캔 라인 데이터는 상기 하나 이상의 추가 스캔 라인들을 따라 확장하는 추가의 미리 정해진 폭의 이미지의 추가 선형 부분을 포함하는, 디바이스.
  23. 제22항에 있어서,
    상기 이미지 캡쳐링 디바이스의 기울기를 모니터링하도록 구성된 적어도 하나의 가속도계를 더 포함하며, 그리고
    상기 디바이스는 상기 모니터링된 기울기에 따라 상기 스캔 라인의 위치를 조절하도록 구성된, 디바이스.
  24. 제22항 또는 제23항에 있어서,
    상기 이미지 캡쳐링 디바이스의 진동들을 탐지하기 위한 적어도 하나의 가속도계를 더 포함하며, 그리고
    상기 디바이스는 상기 진동들로부터의 결과인 상기 이미지들 내 아티팩트들을 교정하도록 구성된, 디바이스.
  25. 운행가능 네트워크를 나타내는 디지털 지도를 유지하는 방법으로, 상기 디지털 지도는 제1항에 따른 방법을 기반으로 하며, 상기 방법은:
    상기 운행가능 네트워크 내 경로들의 뷰의 스캔 라인 데이터 그리고 하나 이상의 모바일 디바이스들로부터 수신된 상기 스캔 라인 데이터에 대한 관련 위치 데이터에 액세스하는 단계;
    상기 스캔 라인 데이터로부터 경로 피처들을 식별하는 단계; 그리고
    상기 식별된 경로 피처들을 이용하여 디지털 지도를 업데이트하는 단계를 포함하는, 방법.
  26. 제25항에 있어서,
    상기 스캔 라인 데이터를 상기 경로의 개략적 이미지로 집성하는 단계, 그리고
    상기 개략적 이미지로부터 경로 피처들을 식별하는 단계를 포함하는, 방법.
  27. 제25항 또는 제26항에 있어서,
    상기 경로 피처들은:
    도로 차로들의 개수, 차로 안내 표시기들, 도로 공사들, 도로 표지들, 색상들, 나무들, 터널들, 다리들 및 날씨,
    중 하나 이상을 포함하는, 방법.
  28. 운행가능 네트워크를 나타내는 디지털 지도를 유지하는 디바이스로, 상기 디지털 지도는 제1항에 따른 방법을 기반으로 하며, 상기 디바이스는:
    상기 운행가능 네트워크 내 경로들의 뷰의 스캔 라인 데이터 그리고 하나 이상의 모바일 디바이스들로부터 수신된 상기 스캔 라인 데이터에 대한 관련 위치 데이터에 액세스하는 수단;
    상기 스캔 라인 데이터로부터 경로 피처들을 식별하는 수단; 그리고
    상기 식별된 경로 피처들을 이용하여 디지털 지도를 업데이트하는 수단을 포함하는, 디바이스.
  29. 운행가능 네트워크 내 경로의 사실적인 뷰를 생성하는 방법으로, 상기 방법은:
    상기 운행가능 네트워크의 적어도 일부를 따른 경로를 나타내는 경로 데이터를 수신하는 단계로, 상기 경로 데이터는 제1항에 따른 방법을 기반으로 하는, 수신 단계;
    하나 이상의 모바일 디바이스들로부터 수신된 경로의 뷰의 스캔 라인 데이터에 액세스하는 단계; 그리고
    상기 경로를 따른 뷰의 시뮬레이션을 생성하기 위해 상기 스캔 라인 데이터를 집성하는 단계를 포함하는, 방법.
  30. 운행가능 네트워크 내 경로의 사실적인 뷰를 생성하는 디바이스로, 상기 디바이스는:
    상기 운행가능 네트워크의 적어도 일부를 따른 경로를 나타내는 경로 데이터를 수신하는 수단으로, 상기 경로 데이터는 제1항에 따른 방법을 기반으로 하는, 수신 수단;
    하나 이상의 모바일 디바이스들로부터 수신된 경로의 뷰의 스캔 라인 데이터에 액세스하는 수단; 그리고
    상기 경로를 따른 뷰의 시뮬레이션을 생성하기 위해 상기 스캔 라인 데이터를 집성하는 수단을 포함하는, 디바이스.
  31. 지시어들을 포함하는 컴퓨터 프로그램 제품으로, 상기 지시어들은 디바이스의 하나 이상의 프로세서들에 의해 실행될 때에 상기 디바이스로 하여금 제1항, 제2항, 제25항, 제26항 그리고 제29항 중 어느 하나의 방법을 수행하도록 하며, 옵션으로는 비-일시적 컴퓨터 판독가능 매체 상에서 구현되도록 하는, 컴퓨터 프로그램 제품.
KR1020177000602A 2014-06-13 2015-06-12 경로 데이터를 생성하는 방법들 및 시스템들 KR102362714B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GBGB1410612.4A GB201410612D0 (en) 2014-06-13 2014-06-13 Methods and systems for generating route data
GB1410612.4 2014-06-13
PCT/EP2015/063143 WO2015189375A2 (en) 2014-06-13 2015-06-12 Methods and systems for generating route data

Publications (2)

Publication Number Publication Date
KR20170016473A KR20170016473A (ko) 2017-02-13
KR102362714B1 true KR102362714B1 (ko) 2022-02-14

Family

ID=51266589

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177000602A KR102362714B1 (ko) 2014-06-13 2015-06-12 경로 데이터를 생성하는 방법들 및 시스템들

Country Status (7)

Country Link
US (3) US10768006B2 (ko)
EP (1) EP3155375B1 (ko)
JP (1) JP2017528772A (ko)
KR (1) KR102362714B1 (ko)
CN (1) CN106574841B (ko)
GB (1) GB201410612D0 (ko)
WO (1) WO2015189375A2 (ko)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201410612D0 (en) * 2014-06-13 2014-07-30 Tomtom Int Bv Methods and systems for generating route data
EP3234505B1 (en) * 2014-12-17 2021-09-29 HERE Global B.V. Providing constraint to a position
JP6641614B2 (ja) * 2015-06-22 2020-02-05 本田技研工業株式会社 地図情報更新装置、および地図情報更新システム
JP6450294B2 (ja) * 2015-09-30 2019-01-09 株式会社デンソーアイティーラボラトリ 物体検出装置、物体検出方法、及びプログラム
US10203211B1 (en) * 2015-12-18 2019-02-12 Amazon Technologies, Inc. Visual route book data sets
KR102543523B1 (ko) * 2016-09-09 2023-06-15 현대모비스 주식회사 카메라의 오차 보정 시스템 및 방법
WO2018209584A1 (zh) * 2017-05-17 2018-11-22 深圳市伊特利网络科技有限公司 基于定位的跑步路线记录方法及系统
CN106979777A (zh) * 2017-05-17 2017-07-25 深圳市伊特利网络科技有限公司 基于定位的跑步路线记录方法及系统
US10699135B2 (en) 2017-11-20 2020-06-30 Here Global B.V. Automatic localization geometry generator for stripe-shaped objects
JP7402695B2 (ja) * 2018-02-02 2023-12-21 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報送信方法及びクライアント装置
JP2019168267A (ja) * 2018-03-22 2019-10-03 パイオニア株式会社 データ構造、情報処理装置、データ通信方法、プログラム及び記憶媒体
EP3775777A1 (en) * 2018-04-03 2021-02-17 Mobileye Vision Technologies Ltd. Systems and methods for vehicle navigation
EP3567518B1 (en) * 2018-05-08 2022-05-18 Aptiv Technologies Limited Lane marker recognition
CN110858405A (zh) * 2018-08-24 2020-03-03 北京市商汤科技开发有限公司 车载摄像头的姿态估计方法、装置和系统及电子设备
FR3086439B1 (fr) * 2018-09-20 2020-08-28 Psa Automobiles Sa Procede et dispositif de detection de l’etat d’un capot avant d’un vehicule automobile par comparaison de champs de vision
JP7095559B2 (ja) * 2018-11-09 2022-07-05 トヨタ自動車株式会社 区画線検出装置及び区画線検出方法
CN113793550B (zh) * 2019-01-16 2023-06-20 北京百度网讯科技有限公司 地图数据的采集方法、装置、设备和存储介质
US11423565B2 (en) 2019-07-31 2022-08-23 Toyota Motor North America, Inc. 3D mapping using sign reference points
FR3139512A1 (fr) * 2022-09-14 2024-03-15 Psa Automobiles Sa Procédé et dispositif de détection fiabilisée d’ouverture d’un capot d’un véhicule

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130266175A1 (en) * 2012-04-09 2013-10-10 GM Global Technology Operations LLC Road structure detection and tracking

Family Cites Families (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5648901A (en) 1990-02-05 1997-07-15 Caterpillar Inc. System and method for generating paths in an autonomous vehicle
JP3110837B2 (ja) 1992-01-21 2000-11-20 日本電信電話株式会社 地図図形データ管理方式
JP2888735B2 (ja) 1993-06-01 1999-05-10 松下電器産業株式会社 走行レーン検出装置
JPH0778255A (ja) * 1993-09-08 1995-03-20 Sumitomo Electric Ind Ltd 画像の直線部抽出方法
JPH0969162A (ja) * 1995-08-31 1997-03-11 Mitsubishi Electric Corp 車載用画像処理装置
JPH11108671A (ja) * 1997-10-06 1999-04-23 Hitachi Ltd 道路情報収集表示装置
JP4573977B2 (ja) * 1999-09-22 2010-11-04 富士重工業株式会社 監視システムの距離補正装置、および監視システムの消失点補正装置
CA2327894A1 (en) * 2000-12-07 2002-06-07 Clearview Geophysics Inc. Method and system for complete 3d object and area digitizing
US7758508B1 (en) * 2002-11-15 2010-07-20 Koninklijke Philips Electronics, N.V. Ultrasound-imaging systems and methods for a user-guided three-dimensional volume-scan sequence
US7460250B2 (en) * 2003-10-24 2008-12-02 3Dm Devices Inc. Laser triangulation system
CN101156434B (zh) * 2004-05-01 2010-06-02 雅各布·伊莱泽 具有非均匀图像分辨率的数码相机
US20060239921A1 (en) * 2005-04-26 2006-10-26 Novadaq Technologies Inc. Real time vascular imaging during solid organ transplant
US20070150188A1 (en) 2005-05-27 2007-06-28 Outland Research, Llc First-person video-based travel planning system
US20060271286A1 (en) 2005-05-27 2006-11-30 Outland Research, Llc Image-enhanced vehicle navigation systems and methods
US20070271286A1 (en) 2006-05-16 2007-11-22 Khemdut Purang Dimensionality reduction for content category data
JP4670770B2 (ja) * 2006-08-09 2011-04-13 株式会社デンソー 道路地図更新システムおよびその道路地図更新システムに用いる車両側装置
JP2010533282A (ja) * 2007-06-08 2010-10-21 テレ アトラス ベスローテン フエンノートシャップ 多視点パノラマを生成する方法及び装置
GB2450143A (en) * 2007-06-13 2008-12-17 Andreas Zachariah Mode of transport determination
WO2009035694A1 (en) * 2007-09-13 2009-03-19 Lockheed Martin Corporation Facility wide mixed mail sorting and/or sequencing system and components and methods thereof
US20090115862A1 (en) 2007-11-05 2009-05-07 Sony Ericsson Mobile Communications Ab Geo-tagging of moving pictures
US8428859B2 (en) * 2007-12-14 2013-04-23 Microsoft Corporation Federated route production
US20090226152A1 (en) * 2008-03-10 2009-09-10 Hanes Brett E Method for media playback optimization
US8929877B2 (en) * 2008-09-12 2015-01-06 Digimarc Corporation Methods and systems for content processing
JP2010152139A (ja) 2008-12-25 2010-07-08 Zhencheng Hu 地図情報作成装置、地図情報作成方法、移動体位置測定装置、及び、移動体位置測定方法
JP5382770B2 (ja) 2008-12-26 2014-01-08 株式会社Ihiエアロスペース 無人移動体システム
CN101608924B (zh) 2009-05-20 2011-09-14 电子科技大学 一种基于灰度估计和级联霍夫变换的车道线检测方法
US8610741B2 (en) * 2009-06-02 2013-12-17 Microsoft Corporation Rendering aligned perspective images
JP2011050689A (ja) * 2009-09-04 2011-03-17 Gadget Co Ltd カラビナ
JP5664152B2 (ja) * 2009-12-25 2015-02-04 株式会社リコー 撮像装置、車載用撮像システム及び物体識別装置
US8954374B2 (en) * 2010-02-23 2015-02-10 International Business Machines Corporation Community-driven map creation and access
US9595127B2 (en) * 2010-12-22 2017-03-14 Zspace, Inc. Three-dimensional collaboration
EP3584682B1 (en) * 2010-12-22 2021-06-30 zSpace, Inc. Three-dimensional tracking of a user control device in a volume
CN102110370A (zh) * 2011-02-28 2011-06-29 保定维特瑞交通设施工程有限责任公司 利用摄像机等距拍照的车辆测速方法
US8788193B2 (en) * 2011-10-17 2014-07-22 Gen-9, Inc. Tracking activity, velocity, and heading using sensors in mobile devices or other systems
US9476966B2 (en) * 2011-12-05 2016-10-25 Qualcomm Incorporated Methods and apparatuses for use in selecting a transmitting device for use in a positioning function
JP2014106901A (ja) 2012-11-29 2014-06-09 Aisin Seiki Co Ltd 距離算出装置、衝突検出システム、距離算出方法、衝突検出方法、及びプログラム
US9244159B1 (en) * 2013-01-31 2016-01-26 The Boeing Company Distinguishing between maritime targets and clutter in range-doppler maps
US9606241B2 (en) * 2013-02-21 2017-03-28 Apple Inc. Sensor-assisted location fix
US8849494B1 (en) * 2013-03-15 2014-09-30 Google Inc. Data selection by an autonomous vehicle for trajectory modification
US9761002B2 (en) * 2013-07-30 2017-09-12 The Boeing Company Stereo-motion method of three-dimensional (3-D) structure information extraction from a video for fusion with 3-D point cloud data
US9591295B2 (en) * 2013-09-24 2017-03-07 Amazon Technologies, Inc. Approaches for simulating three-dimensional views
US9437038B1 (en) * 2013-09-26 2016-09-06 Amazon Technologies, Inc. Simulating three-dimensional views using depth relationships among planes of content
GB201409202D0 (en) * 2014-05-23 2014-07-09 Ffei Ltd Improvements in imaging microscope samples
US20150348496A1 (en) * 2014-05-30 2015-12-03 Pixtronix, Inc. Systems and methods for selecting display operation modes
GB201410612D0 (en) * 2014-06-13 2014-07-30 Tomtom Int Bv Methods and systems for generating route data
US9157757B1 (en) * 2014-09-03 2015-10-13 Sharp Laboratories Of America, Inc. Methods and systems for mobile-agent navigation
EP3191264A4 (en) * 2014-09-12 2018-04-25 University of Washington Integration of auxiliary sensors with point cloud-based haptic rendering and virtual fixtures
WO2016115203A1 (en) * 2015-01-13 2016-07-21 Massachusetts Institute Of Technology Circular scanning technique for large area inspection
CA2976344A1 (en) * 2015-02-10 2016-08-18 Mobileye Vision Technologies Ltd. Sparse map for autonomous vehicle navigation
US20160287211A1 (en) * 2015-03-31 2016-10-06 Ralph S. DaCosta System and Method for Multi-Modal in Vivo Imaging
AU2017214547B2 (en) * 2016-02-04 2020-02-06 Apple Inc. Controlling electronic devices and displaying information based on wireless ranging
US10269166B2 (en) * 2016-02-16 2019-04-23 Nvidia Corporation Method and a production renderer for accelerating image rendering
US10026230B2 (en) * 2016-03-30 2018-07-17 Daqri, Llc Augmented point cloud for a visualization system and method
WO2017166089A1 (en) * 2016-03-30 2017-10-05 Intel Corporation Techniques for determining a current location of a mobile device
US9563852B1 (en) * 2016-06-21 2017-02-07 Iteris, Inc. Pest occurrence risk assessment and prediction in neighboring fields, crops and soils using crowd-sourced occurrence data
US11317805B2 (en) * 2017-09-13 2022-05-03 Battelle Memorial Institute Wearable health monitoring device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130266175A1 (en) * 2012-04-09 2013-10-10 GM Global Technology Operations LLC Road structure detection and tracking

Also Published As

Publication number Publication date
WO2015189375A2 (en) 2015-12-17
US10768006B2 (en) 2020-09-08
US20230400317A1 (en) 2023-12-14
EP3155375B1 (en) 2019-05-29
CN106574841B (zh) 2021-01-15
JP2017528772A (ja) 2017-09-28
GB201410612D0 (en) 2014-07-30
US11740099B2 (en) 2023-08-29
CN106574841A (zh) 2017-04-19
WO2015189375A3 (en) 2016-02-11
KR20170016473A (ko) 2017-02-13
US20200400454A1 (en) 2020-12-24
EP3155375A2 (en) 2017-04-19
US20170122762A1 (en) 2017-05-04

Similar Documents

Publication Publication Date Title
KR102362714B1 (ko) 경로 데이터를 생성하는 방법들 및 시스템들
US11482008B2 (en) Directing board repositioning during sensor calibration for autonomous vehicles
CN110174093B (zh) 定位方法、装置、设备和计算机可读存储介质
US10223829B2 (en) Method and apparatus for generating a cleaned object model for an object in a mapping database
US10817735B2 (en) Need-sensitive image and location capture system and method
KR101269981B1 (ko) 부감 화상 생성장치, 부감 화상 생성방법 및 기록매체
US10997740B2 (en) Method, apparatus, and system for providing real-world distance information from a monocular image
US20160110918A1 (en) System and Method for Producing Multi-Angle Views of an Object-of-Interest from Images in an Image Dataset
EP3650814A1 (en) Vision augmented navigation
US20130162665A1 (en) Image view in mapping
CN104280036A (zh) 一种交通信息的检测与定位方法、装置及电子设备
KR20110044217A (ko) 3차원으로 내비게이션 데이터를 디스플레이하는 방법
WO2011023244A1 (en) Method and system of processing data gathered using a range sensor
CN111275818A (zh) 提供实时特征三角测量的方法和装置
JP6773473B2 (ja) 測量情報管理装置および測量情報管理方法
US20230334850A1 (en) Map data co-registration and localization system and method
KR100981588B1 (ko) 특징점 픽셀의 크기와 방향 정보를 이용하는 벡터 변환에 기초한 도시공간 지리정보 생성 시스템
KR20060067033A (ko) 영상인식을 이용한 항법정보 갱신 장치 및 그 방법
CN201503271U (zh) 具有即时信息显示的导航装置
US20220128433A1 (en) Imaging parameter output method and imaging parameter output device
KR100959246B1 (ko) 스테레오 영상 및 gps 좌표를 이용하여 도시공간의 지리정보를 생성하는 방법 및 시스템
KR101016071B1 (ko) 이동측량장치의 이동경로에 따른 스테레오 영상으로부터 벡터변환을 이용하여 대응영역을 추출하는 도시공간 영상처리장치

Legal Events

Date Code Title Description
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant