KR20210154833A - 교통 참가자를 안내하기 위한 컴퓨터 구현 방법 - Google Patents

교통 참가자를 안내하기 위한 컴퓨터 구현 방법 Download PDF

Info

Publication number
KR20210154833A
KR20210154833A KR1020217037675A KR20217037675A KR20210154833A KR 20210154833 A KR20210154833 A KR 20210154833A KR 1020217037675 A KR1020217037675 A KR 1020217037675A KR 20217037675 A KR20217037675 A KR 20217037675A KR 20210154833 A KR20210154833 A KR 20210154833A
Authority
KR
South Korea
Prior art keywords
modal
dimensional map
guiding
view
implemented method
Prior art date
Application number
KR1020217037675A
Other languages
English (en)
Inventor
두아르테 푸르타도 휴고 코레이아
Original Assignee
드림웨이브즈 게엠베하
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 드림웨이브즈 게엠베하 filed Critical 드림웨이브즈 게엠베하
Publication of KR20210154833A publication Critical patent/KR20210154833A/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • G01C21/3638Guidance using 3D or perspective road maps including 3D objects and buildings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/06Walking aids for blind persons
    • A61H3/061Walking aids for blind persons with electronic detecting or guiding means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3461Preferred or disfavoured areas, e.g. dangerous zones, toll or emission zones, intersections, manoeuvre types, segments such as motorways, toll roads, ferries
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3629Guidance using speech or audio output, e.g. text-to-speech
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/367Details, e.g. road map scale, orientation, zooming, illumination, level of detail, scrolling of road map or positioning of current position marker
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3841Data obtained from two or more sources, e.g. probe vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3852Data derived from aerial or satellite images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5007Control means thereof computer controlled
    • A61H2201/501Control means thereof computer controlled connected to external computer devices or networks

Abstract

적어도 두 장소 사이에서 교통 참가자, 특히 보행자, 특히 시각 장애인 및 맹인을 안내하기 위한, 특히 도시 환경에서 안내하기 위한 컴퓨터 구현 방법은:
A. 멀티-모달 3차원 맵을 제공하는 단계,
B. 적어도 하나의 중간 웨이포인트를 통해 상기 적어도 두 장소를 연결하는 멀티-모달 3차원 맵을 기반으로 하여 루트를 계산하는 단계,
C. 바람직하게는 멀티-모달 3차원 맵을 사용하여 교통 참가자의 정확한 위치를 결정하는 단계,
D. 웨이포인트들에서 경로(path)를 따라 비콘들을 설정하는 단계를 포함한다.

Description

교통 참가자를 안내하기 위한 컴퓨터 구현 방법
본 발명은 교통 참가자, 특히 보행자, 특히 시각 장애인 또는 맹인, 특히 도시 환경에서 적어도 두 개의 장소 사이를 안내하기 위한 컴퓨터 구현 방법에 관한 것이다.
GPS(Global Positioning System)의 대중 접근성과 스마트폰과 같은 지속적으로 더 강력하고 이동 가능한 계산 장치의 개발로 인해, 전산화된 네비게이션 시스템들의 사용은 전동 및 무동력 교통 참가자 모두에게 널리 보급되었다.
그러나, 교통 상황을 네비게이팅할 때 아마 가장 도움이 필요한 시각 장애인 및 맹인들은 현재의 네비게이션 시스템들을 사용할 수 없다.
따라서, 본 발명의 목적은 전술한 장애물 및 단점을 극복하고 임의의 교통 참가자, 특히 시각 장애인 및 맹인이 사용할 수 있는 네비게이션 시스템을 제공하는 것이다.
이 문제는 청구항 1에 기재된 방법에 의해 해결된다.
본 발명의 더욱 바람직하고 유리한 실시예들은 종속항의 대상이다.
다음에서 본 발명의 바람직한 실시예의 묘사 및 현재 기술 내의 문제점이 설명된다.
설명된 실시예 및 양상은 단지 본 발명 및 그와 관련된 문제점을 예시하기 위한 것이며, 도시된 예시에 제한되지 않고 광범위한 응용으로 구현될 수 있다.
도 1은 문제점을 예시하는 도시 장면 초안(a draft urban scene)을 도시한다.
도 2는 본 발명에 따라 생성된(generated) 경로(a path)를 갖는 도 1의 장면을 도시한다
도 3은 본 발명에 따라 생성된 경로가 있는 다른 도시 장면을 도시한다.
도 4는 2차원 맵을 도시한다.
도 5는 도 4에 도시된 영역의 조감도를 도시한다.
도 6은 도 4에 도시된 영역의 종래의 3차원 맵을 도시한다.
도 7은 도 4에 도시된 대략적인 영역의 깊이 이미지(a depth image)를 도시한다.
도 8은 도 4에 도시된 영역 섹션에 대한 멀티-모달 3차원 맵(a multi-modal three-dimensional map)을 도시한다.
도 9는 본 발명에 따라 생성된 경로를 갖는 도 8의 멀티-모달 3차원 맵을 도시한다.
도 10은 시스템의 사용자를 로컬라이징하는 방법을 개략적으로 도시하는 흐름도.
도 1은 보도(2), 도로에 더 가깝게 지어진 건물(3), 도로에서 더 멀리 지어진 건물(4), 화단(5), 가로등 기둥들(6), 및 주차된 자동차들(7)이 있는 도시 장면(1)을 도시한다. 도 1은 또한 종래의 네비게이션 시스템에 의해 계산될 수 있는 예시적인 경로(8)를 도시한다. 보행자가 정상적으로 이동하는 실제 경로는 표시된 직선에서 벗어나 도로에 더 가까운 건물(3) 및 화단(5)을 고려한다는 것을 분명히 알 수 있다. 그러나, 이러한 액션은 보행자가 화단(5)이나 불규칙하게 배치된 집들(3, 4)에 대해 알아야 할 것을 요구한다. 이 정보는 단순히 현장에 있으면서 앞서 언급한 도시 요소들(urban elements)의 배치를 보는 것으로 쉽게 얻을 수 있다. 그러나, 장면을 평가할 시각적 정보가 부족하기 때문에, 주어진 경로(8)는 불충분하고, 예를 들어, 맹인이 때때로 흰 지팡이로도 감지할 수 없는 화단(5)의 엣지에 걸려 넘어지게 하여 심지어 위험할 수도 있다.
도 2에 도시된 장면은 개선된 경로(9)가 있는 도 1과 동일하며, 보행자가 따라갈 경우 장애물로 인한 조정이 필요하지 않다. 화단(5) 및 달리 배치된 건물들(3, 4)은 더 이상 위험하지 않다.
도 3에는 다른 두 가지 문제점이 예시되어 있다. 첫째, 시각 장애인 보행자가 도로(10)를 횡단하려고 할 때 발생하는 문제점이 있다. 안전이 가장 중요하다는 점을 감안할 때, 도로들 횡단을 요구하는 임의의 루트(route)는 횡단보도(11)가 항상 다른 루트들보다 우선 순위가 높도록 구성되어야 한다. 둘째, 특히 도시 환경에서, 볼라드(12), 가로등 기둥(6)(도 1 참조), 쓰레기통(13), 도로 표지판(14) 등과 같은 고정 설치물들은 우회해야 하는 안전 위험요소(safety hazards)이다. 이러한 요구 사항들을 충족시키는 최적화된 경로(15)도 도 3에 도시된다.
이러한 최적화된 경로(9, 15)를 조성(create)하고 효율적으로 사용하기 위해, 시스템의 3가지 주요 속성들이 매우 유리한다. 첫째, 가능한 한 정확하고 세밀한 루트가 맵에 규정되어야 한다. 둘째, 사용자가 루트를 따라갈 수 있도록 사용자의 위치는 대략 몇 센티미터 이내의 매우 정밀한 측정 범위 내에서 매우 높은 정확도로 알려져 있어야 한다. GPS 또는 마그네틱 센서들(모바일 기기 나침반들)과 같은 현재 기술이 제공하는 일반적인 "미터 단위(couple of meters)" 정확도는 충분하지 않다. 셋째, 맹인 또는 시각장애인이 경로 정보를 이용하기 위해서는, 그러한 사람이 이용할 수 있도록 전달되어야 한다.
이 작업을 달성하기 위해, 본 발명에 따른 시각 장애인 또는 맹인을 위한 안내 시스템은 다음 단계들을 실행하는 것을 포함해야 한다. 즉,
A. 멀티-모달 3차원 맵을 제공하는 단계,
B. 적어도 하나의 중간 웨이포인트(waypoint)를 통해 적어도 두 장소를 연결하는 멀티-모달 3차원 맵을 기반으로 하여 루트를 계산하는 단계,
C. 바람직하게는 멀티-모달 3차원 맵을 사용하여 교통 참가자의 정확한 위치를 결정하는 단계,
D. 웨이포인트들에서 경로를 따라 비콘들을 설정하는 단계.
A 단계에서 제공되는 멀티-모달 3차원 맵은 두 개 이상의 상이한 소스들로부터 파생되며 각 소스는 또다른 정보 계층을 추가한다. 정확하지만 종래의 맵은 보도들 및 도로들의 위치에 대한 정보가 포함될 수 있지만 아마 도로와 화단을 구분하지 못할 것이다. (시의(municipal)) 나무 목록은 나무들의 위치에 대한 정보를 제공할 수 있다; 이것은 종종 공공 화단의 정확한 위치가 차트로 표시된 정원 및 공원 부서와 결합된다. 시의 공공사업부는 전기(가로등) 및 물(소화전, 맨홀)에 대한 정보를 제공할 수 있다. 교통 담당 부서는 신호등들, 횡단보도들 등이 위치하는 플랜(plan)들을 제공할 수 있다.
앞서 언급한 지도 제작(cartographic) 및 측지(geodetic) 정보 옆에, 영역 뷰(areal views), 위성 사진, 표면 텍스처(surface texture) 데이터 또는 종래의 3D 데이터와 같은 다른 소스들을 멀티-모달 3차원 맵에 추가할 수 있다. 후자는 예를 들어 집들의 형상 및 위치와 같은 3차원 객체들에 대한 단순한 기하학적 정보이다.
멀티-모달 3차원 맵을 조성하기 위해 가능한 소스들 목록은 완전하지 않으며, 예를 들어 보도의 자전거 트랙, 마차 전용 공간, 트램웨이 트랙, 계단, 포장 유형(특히 자갈), 기념물, (공원)벤치, 식수대, 쓰레기통, 자전거 거치대, 레스토랑의 야외 식사 공간 또는 제세동기와 같이 도시나 지역의 독특한 특성을 반영하도록 확장될 수 있다.
도 4 내지 도 6은 자유롭게 이용 가능한 맵들 및 멀티-모달 3차원 맵에 결합될 수 있는 정보에 대한 상이한 예시들을 도시한다. 도 4는 2차원 맵을 도시한다. 도 5는 상이한 센서들을 가진 상이한 위성들로부터 다수의 상이한 데이터 세트들을 가진 위성 사진들로부터 파생되는 재구성된 영역 뷰를 도시한다. 도 6은 도 4 및 도 5에 묘사된 지역의 3차원 모델을 도시한다. 도 7은 도 4 내지 도 6에 도시된 지역의 소위 "깊이 이미지"를 도시한다. 깊이 이미지는 규정된 축을 따른 거리(distance)들을 도시하며, 일반적으로 더 먼 표면은 더 어둡게 묘사되고 더 가까운 표면은 더 밝게 묘사된다. 도시된 예시에서, 규정된 축은 수직이다. 깊이 이미지의 밝은 부분은 결론적으로 더 높고 어두운 부분은 평평하거나 더 낮다. 따라서, 도시 장면의 경우 도 7의 깊이 이미지는 건물들 및 다른 구조물들의 높이를 도시한다.
모든 데이터 계층들은 다수의 이용 가능한 소스들로부터 얻어질 수 있다. 데이터를 얻는 바람직한 방법은 오픈 소스들을 통하는 것이다. 예를 들어, 2차원 맵 데이터, 조감도/맵 및 종래의 3차원 맵 데이터는, 대부분의 경우 어떤 사용 제한 없이 예를 들어, OSMF(OpenStreetMap Foundation)로부터 이용 가능하다. 더욱이, 정부 기관들과 같은 다른 소스들은 도시들에 대해 공개적으로 이용 가능한 지리 데이터를 갖는다.
예를 들어, 비엔나 시는 맵의 각 포인트에 존재하는 객체들의 높이를 추출할 수 있는 앞서 언급한 표면 모델 뿐만 아니라 앞서 언급한 3개의 소스들을 갖는다. 전체적으로 비엔나 시는 멀티-모달 3차원 맵을 조성하기 위해 사용될 수 있는 여러 수준의 세부 정보가 포함된 50개 이상의 상이한 데이터세트들을 갖고 있다.
본 발명의 바람직한 실시예에서, 멀티-모달 3차원 맵의 상이한 계층들은 공간적으로 일관된 방식으로 결합된다. 예를 들어 공간 일관성(spatial coherence)은 공통 좌표 시스템에서 집들과 같은 객체들 및 피처들을 규정하는 것으로 달성될 수 있다. 이 단계만 실행하는 것에 의해 계층들은 이미 어느 정도 정렬된다. 또한, 본 기술 분야에 잘 알려진 두 맵 계층들에 존재하는 피처들(예를 들어, 조감도 및 2차원 계층에서의 건물들)을 기반으로 하는 이미지 등록 방법을 사용하여 보다 정확한 정렬을 얻을 수 있다. 이러한 정렬로, 일부 계층들에만 존재하는 객체들(예: 도로 제한 또는 소화전)의 위치는 멀티-모달 맵의 모든 다른 맵 피처들과 상관될 수 있다.
결합하면, 도 4 내지 도 7에 도시된 상이한 예시적 유형의 데이터 세트들로부터 다음 정보를 추출할 수 있다.
예를 들어, 3차원 계층은 건물 벽(19)(도 8 참조) 또는 엣지(20)(도 8 참조)의 정확한 위치에 대한 정보를 산출할 수 있다. 보도(2)와 도로(10) 사이의 경계(22)는 조감도로부터 추출될 수 있다(도 9 참조). 깊이 이미지와 3차원 맵 사이의 결합은 예를 들어 나무들의 정확한 위치에 대한 매우 우수한 추정치를 산출한다(도 8의 장애물(21) 참조). 비엔나 시에 위치하는 이 예시에서 언급되는 모든 정보 소스들은 시 정부 및 다른 비정부 소스들로부터 자유롭게 이용할 수 있는 오픈 데이터이다.
멀티-모달 3차원 맵은 또한 예를 들어 자율주행 차량을 자동으로 안내하거나 도로에서 큰 객체들의 운송을 계획할 때 본 발명과 독립적으로 매우 유용할 수 있다.
본 발명의 다른 실시예에 따르면, 적어도 하나의 보행 가능 공간이 멀티-모달 3차원 맵 내에 규정된다. 보행 가능 공간은 매우 간단한 예시에 따라 모든 보도에서 보도가 아닌 모든 것, 예를 들어, 보도에서 모든 벤치, 쓰레기통, 싱포스트, 가로등 기둥, 볼라드, 화단 등을 뺀 것이다. 이 경우 보행 가능 공간은 자동으로 규정된다. 물론 보행 가능 공간은 수동으로도 규정될 수 있다.
본질적으로 고정되어 있는 앞서 언급한 객체들 외에 다른 양상들도 고려될 수 있다. 예를 들어, 매우 붐비는 상점의 입구 영역은 보행 가능 공간에서 제외되고 우회될 수 있다.
따라서 B 단계는 특히 보행 가능 공간을 기반으로 하는 멀티-모달 3차원 맵을 기반으로 하여 실행되는 것이 바람직하다.
또한, B 단계(경로 계산)를 실행할 때 두 개의 보행 가능 공간들이 적어도 하나의 웨이포인트를 통해 연결될 수 있다. 또한, 둘 이상의 보행 가능 공간들이 멀티-모달 3차원 맵 내에서 서로 경계를 이루지 않는 경우, 적어도 하나의 전이 공간(transitioning space)이 규정되고 전이 공간은 상기 둘 이상의 보행 가능 공간들 사이의 갭을 브릿징(bridge)한다.
이것은 도 3에 나와 있다. 보도(2)는 다른 원격 보도(16)와 직접 접하지 않는다. 두 개의 웨이포인트(17, 18)를 통해 연결된다. 그 사이에는 횡단보도(11)가 있다. 이 경우 횡단보도(11)가 두 보도(2, 16) 사이의 갭을 브릿징하는 전이 공간이다. 다른 유형의 전이 공간들은 예를 들어 그들 사이의 신호등들과 길일 수 있다. 그러나, 계단이나 자갈과 같은 어려운 보도 공간이 안전한 보행 공간으로 간주되지 않으면, 이 계단이나 자갈과 같은 어려운 보도 공간조차도 전이 공간이 될 수 있다.
본 발명의 다른 양상은 도 8 및 도 9에 예시되어 있다. 이들은 멀티-모달 3차원 맵의 2차원 뷰의 매우 단순화된 예시를 도시한다.
멀티-모달 3차원 맵은 일반 맵에서 보여지는 것처럼 건물(3), 도로(10), 및 보도(2)를 보여준다. 그러나, 정보의 추가적인 계층들 덕택으로, 건물의 3개 벽들(19)과 엣지들(20)의 정확한 위치는 그 실제 위치와 함께 정확하게 표시된다. 나무들(21)은 등록되고 그에 따라 배치된다. 보도(2)와 도로(10) 사이의 정확하게 표시된 경계(22)에도 동일하게 적용된다.
본 발명의 바람직한 일 실시예에 따르면, 적어도 하나의 장애물은 멀티-모달 3차원 맵에서 식별되고 마킹되고 적어도 하나의 웨이포인트는 상기 장애물을 우회하도록 설정된다.
도 9에서 볼 수 있는 바와 같이, 경로(15)는 벽들(19), 코너들(20), 나무들(21)과 같은 장애물을 우회하고 도로(10)와 보도(2) 사이의 경계(23)를 피하는 여러 웨이포인트들(23)을 따라 조성된다.
자동 또는 수동으로 웨이포인트(23)를 설정할 때, 보행 가능 공간들이 아닌 임의의 공간들과 최대 거리를 유지하는 것이 중요하다. 웨이포인트들에 적합한 장소들을 찾는 쉬운 방법은 병목 지점을 식별하고 본질적으로 병목 지점의 중간에 웨이포인트들을 배치하여 보행 가능 공간들이 아닌 모든 공간들에 대해 최대 거리를 달성하는 것이다.
이제 조성된 경로를 따르기 위해서, 사람(또는 차량/드론)의 정확한 위치를 알아야 한다. 이것은 바람직하게는 컴퓨터 구현 방법을 실행하는 데 사용되는 장치, 예를 들어 스마트폰을 로케이팅하는 것에 의해 실행될 수 있다. 그러나, 장치들을 찾는 방법들은 경로를 따라 장치가 있는 위치, 또는 경로 위 또는 근처에 있는지를 안전하게 말할 만큼 정확하지 않다.
발명의 C 단계 동안 교통 참가자의 정확한 위치를 결정하는 한 가지 가능한 방법은 도 10의 흐름도에 도시된다.
묘사된 양호한 실시예는 다음과 같은 하위 단계들을 포함한다:
a. 주변 환경의 적어도 하나의 디지털 사진을 처리함으로써 실제 뷰를 획득하는 단계,
b. 원시 위치(a raw location)에 기반하여 적어도 하나의 가능한 인공 뷰(artificial view)를 생성하고, 상기 원시 위치는 멀티-모달 3차원 맵의 일부이고 상기 인공 뷰인 장면을 제공하기 위해 묘사되는 장면을 제공하는 단계,
c. 상기 인공 뷰와 상기 실제 뷰를 비교하는 단계,
d. 상기 인공 뷰와 상기 실제 뷰가 본질적으로 동일할 경우, 생성된 인공 뷰를 뷰 포인트(the point of view)로서 위치를 제공하고 하위 프로세스를 완료하는 단계,
e. 상기 인공 뷰와 상기 실제 뷰가 본질적으로 동일하지 않을 경우, 적어도 하나의 상이한 인공 뷰로 하위 프로세스들을 반복하는 단계.
a 단계는 프로세스를 실행하는 데 사용되는 장치 앞에서 장면을 촬영하는 것으로 간단하게 실행될 수 있다. 장치가 스마트폰이면, 스마트폰 카메라가 사용될 수 있다.
촬영은 기본적으로 (더 높은) 프레임 속도로 사진을 찍는 것이기 때문에 장면을 촬영하는 것도 사진 촬영으로 간주된다.
라거 실제 뷰를 조성하기 위해 함께 연결된 일련의 사진들도 본 발명의 범위 내에 있는 것으로 간주된다.
그후 적어도 하나의 인공 뷰가 조성된다. 이것은 예를 들어 당업자에게 잘 알려진 바와 같이 레이-캐스터(a ray-caster)를 사용함으로써 실행될 수 있다. 단순한 레이-캐스터는 3D-표면을 통해 특정 뷰 포인트로부터 광선을 투사하고 광선이 만나는 첫 번째 표면을 렌더링한다. 더욱 정교한 레이-캐스터는 재료를 고려할 수 있으며 예를 들어 마치 유리를 통과한 것처럼 뷰를 렌더링할 수도 있다. 그러나, 본 발명의 이 실시예에서는 매우 단순한 레이-캐스터로 충분하다. 3D-이미지를 렌더링하는 다른 방법도 사용할 수 있다. 이 실시예의 경우 3D-표면은 멀티-모달 3차원 맵이다.
뷰 포인트는 원시 위치이다. 원시 위치는 GPS, 자기 센서 또는 가속도계 및 자이로스코프와 같은 모션 센서들을 사용하는 관성 네비게이션 시스템과 같은 알려진 임의의 로케이팅 수단(locating means)에 의해 얻어질 수 있다. 맵에서 이전에 알려진 정확한 위치들의 일부 또는 전체를 고려함으로써 원시 위치 추정이 개선될 수도 있다. 이 정보는 맵의 기하학적 제약(예: 벽)과 함께 센서로부터 추정된 현재 원시 위치의 불확실성을 줄이는 데 사용될 수 있다. 예를 들어, 사람은 건물이나 나무가 있는 곳에 서 있을 수 없다.
그런 다음 인공 뷰와 실제 뷰를 비교한다. 그것들이 본질적으로 동일하다면, 인공 뷰의 뷰 포인트는 교통 참가자의 위치로 간주된다. 그것들이 동일하지 않다면, 위치가 결정될 때까지 또다른 인공 뷰들이 실제 뷰와 비교된다.
위의 위치 결정 방법을 방해할 수 있는 한 가지 문제는 실제 뷰를 조성하는 데 사용되는 사진을 촬영하는 카메라의 뷰가 가려진다는 것이다. 이러한 장애물들은 멀티-모달 3차원 맵과 카메라의 표면들과 객체들 사이에 있는 임의의 객체일 수 있다. 이러한 방해의 일반적인 원인들은 자동차들(24), 보행자들(25)(둘 다 도 3을 참조), 비영구적 아트 설치물 또는 A-프레임과 같은 광고와 같이 배경의 일부가 될 수 있지만 멀티-모달 3차원 맵에 포착되지 않는 동적 객체들이다.
실제 뷰와 인공 뷰를 고려하는 문턱값이 매우 거칠게 설정되어 있더라도 동적 객체들의 수가 많으면 뷰를 비교할 때 거짓 부정들(false negatives)이 발생할 수 있다. 이 문제를 피하기 위해, 디지털 사진을 처리하여 실제 뷰를 조성할 때 하위 단계 "i. 사진에서 동적 객체들을 제거"가 실행된다. 동적 객체들을 제거하는 한 가지 가능한 수단은 보행자들, 자동차들, 자전거들 등을 사진에서 식별하도록 훈련된 예를 들어, 컨벌루션 신경망(a convolutional neural network)과 같은 인공 지능으로 식별하는 것이다.
위치를 결정하는 설명된 방법은 본 발명과 독립적으로 유리하게 구현될 수 있다. 이는 전술한 본 발명의 다른 특징들과 결합하여 또는 단독으로 사용될 수 있다.
정확한 위치가 결정되면 사용자와 그 주변 환경 사이의 관계가 알려지고 실제에 정확히 맞는 증강 현실이 조성될 수 있다.
이 경우 사용자는 해당 기술 분야에 알게 될 필요가 없다. 그가 방법이 실행되는 장치를 예를 들어, 스마트폰을 사용하여 단순히 조작할 수 있다면 충분하다.
본 발명의 바람직한 실시예에 따르면, D 단계의 비콘들은 상기 증강 현실 내에서 인지할 수 있다.
예를 들어, 인지 가능한 비콘들은 위치를 결정하기 위해 찍은 사진 내 또는 앞서 언급한 장치의 카메라 뷰 내에서 스마트 안경의 시야에 중첩될 수 있다.
그러나, 이러한 수단은 시각 장애인이나 맹인 사용자에게 거의 또는 전혀 도움이 되지 않는다. 따라서, 본 발명의 또 다른 바람직한 실시예에 따르면, 방법은 증강 현실이 음향적이고 비콘들이 각각의 위치에서 가청(audible)인 것을 특징으로 한다. 이것은 예를 들어 특정 위치에서 노이즈를 시뮬레이션하는 헤드폰을 통해 실현될 수 있다. 더 간단한 예시적인 실시예에서, 장치 자체는 가장 가까운 비콘을 향할 때 더 커지고 멀리 향할 때 더 낮아지는 사운드를 생성한다. 비콘/웨이포인트에 도달하면 다음 비콘의 사운드가 지금 재생되고 있음을 나타내기 위해 사운드가 재생될 수 있다. 스테레오 기술을 사용하여, 웨이포인트가 사용자의 왼쪽에 있을 때 왼쪽 스피커에서 더 크게 들리고, 웨이포인트가 사용자의 오른쪽에 있을 때 오른쪽 스피커에서 더 크게 들릴 수도 있다. 바람직한 실시예에서, 바이노럴 가상 오디오(binaural virtual audio)(공간 오디오 또는 3D 오디오로도 알려짐)가 사용될 수 있다. 이 경우, 장치는 오디오 소스를 처리하여 사운드가 웨이포인트의 실제 공간 위치에서 나오는 것으로 사용자에게 시뮬레이션한다. 이 기술은 사람이 사운드 소스의 방향과 거리를 인지하는 방식을 시뮬레이션하므로, 공간(오디오 증강 현실)에서 가상 오디오 소스를 구현하는 진정한 수단이므로 사용자들에게 경로를 통해 안내하는 것이 이상적이다.
또한 한 번에 하나의 비콘만 활성화되는 것이 좋다. 바람직하게는 경로를 따라 가장 가까운 비콘만 활성화되고 사용자가 각 웨이포인트에 도달하면 다음 비콘으로 전환(switching)된다.
사람을 안내하기 위해 설명된 방법은 유리하게는 본 발명과 독립적으로 유리하게 구현될 수 있고, 예를 들어 건물 내에 사람을 안내하기 위한 다른 방법에 기반한 안내 시스템에 사용될 수 있다. 예를 들어, 건물 내에서 RFID 트랜스폰더들을 사용하고 사용자에게 RFID 칩을 사용하는 것이 그 주변 환경과 관련하여 사용자를 로케이팅하는 가능한 방법이 될 수 있다.
물론 증강 현실은 또다른 표시기들, 예를 들어, 전이 공간에 도달하거나 횡단할 때 또는 전이 공간의 유형(횡단보도, 신호등, 계단, 가로등, 리프트, 에스컬레이터 등)에 대한 표시기들을 포함할 수 있다.
일반적으로, 멀티-모달 3차원 맵에 표시된 모든 요소는 증강 현실의 일부가 될 수 있다.
본 발명에 따른 교통 참가자는 보행자뿐만 아니라 자전거 라이더, 드론, 자동차 등이 될 수 있다.
1 도시 장면
2 보도
3 빌딩
4 빌딩
5 화단
6 가로등 기둥
7 자동차
8 루트
9 경로
10 도로
11 횡단보도
12 볼라드
13 쓰레기통
14 도로 표지판
15 경로
16 보도(연결되지 않음)
17 웨이포인트
18 웨이포인트
19 벽
20 엣지/코너
21 나무
22 경계
23 웨이포인트
24 자동차
25 보행자

Claims (15)

  1. 적어도 두 장소 사이에서 교통 참가자, 특히 보행자, 특히 시각 장애인 및 맹인을 안내하기 위한, 특히 도시 환경에서 안내하기 위한 컴퓨터 구현 방법에 있어서:
    A. 멀티-모달 3차원 맵(a multi-modal three-dimensional map)을 제공하는 단계,
    B. 적어도 하나의 중간 웨이포인트(waypoint)를 통해 상기 적어도 두 장소를 연결하는 멀티-모달 3차원 맵을 기반으로 하여 루트(a route)를 계산하는 단계,
    C. 바람직하게는 상기 멀티-모달 3차원 맵을 사용하여 상기 교통 참가자의 정확한 위치를 결정하는 단계, 및
    D. 상기 웨이포인트들에서 경로(path)를 따라 비콘들을 설정하는 단계를 포함하는, 교통 참가자를 안내하기 위한 컴퓨터 구현 방법.
  2. 제 1 항에 있어서,
    상기 멀티-모달 3차원 맵은 적어도 두 개, 바람직하게는 두 개 이상의 소스들로부터 조성(create)되는 것을 특징으로 하는, 교통 참가자를 안내하기 위한 컴퓨터 구현 방법.
  3. 제 2 항에 있어서,
    A 단계의 상기 소스들은,
    2차원 맵 데이터, 위성 이미지들, 종래의 3차원 정보, 지형도, (시의(municipal)) 가로수 목록, 소화전 플랜, 도로 건설 플랜, 3차원 모델에 대한 표면 텍스처 및 조감도 중 적어도 하나 이상을 포함하는 것을 특징으로 하는, 교통 참가자를 안내하기 위한 컴퓨터 구현 방법.
  4. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    상기 멀티-모달 3차원 맵 내에 적어도 하나의 보행 가능 공간이 규정되는 것을 특징으로 하는, 교통 참가자를 안내하기 위한 컴퓨터 구현 방법.
  5. 제 4 항에 있어서,
    B 단계는 상기 멀티-모달 3차원 맵 내의 상기 보행 가능 공간에 기반하여 실행되는 것을 특징으로 하는, 교통 참가자를 안내하기 위한 컴퓨터 구현 방법.
  6. 제 4 항 또는 제 5 항에 있어서,
    두 개의 이웃하는 보행 가능 공간은 적어도 하나의 웨이포인트를 통해 연결되는 것을 특징으로 하는, 교통 참가자를 안내하기 위한 컴퓨터 구현 방법.
  7. 제 4 항 내지 제 6 항 중 어느 한 항에 있어서,
    A 단계 동안 상기 멀티-모달 3차원 맵 내에서 적어도 하나의 전이 공간(transitioning space)이 규정되고 전이 공간은 서로 경계를 이루지 않는 적어도 두 개의 보행 가능 공간들 사이의 갭을 브릿징(bridge)하는 것을 특징으로 하는, 교통 참가자를 안내하기 위한 컴퓨터 구현 방법.
  8. 제 1 항 내지 제 7 항 중 어느 한 항에 있어서,
    적어도 하나의 장애물이 상기 멀티-모달 3차원 맵에서 식별되고 마킹되며, 적어도 하나의 웨이포인트가 상기 장애물을 우회하도록 설정되는 것을 특징으로 하는, 교통 참가자를 안내하기 위한 컴퓨터 구현 방법.
  9. 제 1 항 내지 제 8 항 중 어느 한 항에 있어서,
    C 단계는 하위 단계들:
    a. 주변 환경의 적어도 하나의 디지털 사진을 처리함으로써 실제 뷰를 획득하는 단계,
    b. 원시 위치(a raw location)에 기반하여 적어도 하나의 가능한 인공 뷰(artificial view)를 생성(generate)하고, 상기 원시 위치는 상기 멀티-모달 3차원 맵의 일부이고 상기 인공 뷰를 제공하도록 묘사되는 장면을 제공하는 단계,
    c. 상기 인공 뷰와 상기 실제 뷰를 비교하는 단계,
    d. 상기 인공 뷰와 상기 실제 뷰가 본질적으로 동일할 경우, 생성된 인공 뷰를 뷰 포인트(the point of view)로서 위치를 제공하고 하위 프로세스를 완료하는 단계,
    e. 상기 인공 뷰와 상기 실제 뷰가 본질적으로 동일하지 않을 경우, 적어도 하나의 상이한 인공 뷰로 하위 프로세스들을 반복하는 단계를 실행하는 것을 특징으로 하는, 교통 참가자를 안내하기 위한 컴퓨터 구현 방법.
  10. 제 9 항에 있어서,
    하위 단계인 C.a 단계는 하위 단계로서,
    i. 상기 디지털 사진에서 동적 객체들을 제거하는 단계를 포함하는 것을 특징으로 하는, 교통 참가자를 안내하기 위한 컴퓨터 구현 방법.
  11. 제 10 항에 있어서,
    동적 객체들은:
    자동차들, 다른 보행자들, 동물들, 이동식 쓰레기통들, A-사인들(A-signs), 모바일 광고 설치물들, 자전거들 등을 포함하는 목록으로부터 하나 이상인 것을 특징으로 하는, 교통 참가자를 안내하기 위한 컴퓨터 구현 방법.
  12. 제 1 항 내지 제 11 항 중 어느 한 항에 있어서,
    C 단계의 상기 정확한 위치 및 A 단계로부터의 상기 멀티-모달 3차원 맵을 사용하여 사용자 주위의 증강 현실이 조성되고, D 단계로부터의 상기 비콘들이 상기 증강 현실에서 인지 가능한 것을 특징으로 하는, 교통 참가자를 안내하기 위한 컴퓨터 구현 방법.
  13. 제 12 항에 있어서,
    상기 증강 현실은 음향적이고 상기 비콘들은 그 각각의 위치에서 가청(audible)인 것을 특징으로 하는, 교통 참가자를 안내하기 위한 컴퓨터 구현 방법.
  14. 제 1 항 내지 제 13 항 중 어느 한 한에 있어서,
    하나 또는 두 개의 비콘만이 동시에 활성화되고 상기 활성 비콘 또는 비콘들이 경로 방향으로 가장 근접한 것을 특징으로 하는, 교통 참가자를 안내하기 위한 컴퓨터 구현 방법.
  15. 교통 참가자를 안내하기 위한 시스템에 있어서,
    장치는 제 1 항 내지 제 14 항 중 어느 한 항에 따른 방법을 실행하는 것을 특징으로 하는, 교통 참가자를 안내하기 위한 시스템.
KR1020217037675A 2019-04-18 2020-01-27 교통 참가자를 안내하기 위한 컴퓨터 구현 방법 KR20210154833A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
ATA141/2019 2019-04-18
ATA141/2019A AT522549B1 (de) 2019-04-18 2019-04-18 Verfahren zum Leiten von Verkehrsteilnehmern
PCT/EP2020/051939 WO2020211990A1 (en) 2019-04-18 2020-01-27 Computer implemented method for guiding traffic participants

Publications (1)

Publication Number Publication Date
KR20210154833A true KR20210154833A (ko) 2021-12-21

Family

ID=69326536

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217037675A KR20210154833A (ko) 2019-04-18 2020-01-27 교통 참가자를 안내하기 위한 컴퓨터 구현 방법

Country Status (6)

Country Link
US (1) US11835353B2 (ko)
EP (1) EP3956635A1 (ko)
JP (1) JP2022530347A (ko)
KR (1) KR20210154833A (ko)
AT (1) AT522549B1 (ko)
WO (1) WO2020211990A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112587378B (zh) * 2020-12-11 2022-06-07 中国科学院深圳先进技术研究院 基于视觉的外骨骼机器人足迹规划系统、方法及存储介质
US20230277943A1 (en) * 2022-03-03 2023-09-07 Niantic International Technology Limited Mapping traversable space in a scene using a three-dimensional mesh
WO2024075572A1 (ja) * 2022-10-06 2024-04-11 ダイナミックマッププラットフォーム株式会社 情報処理方法、プログラム、情報処理装置、及びデータ構造

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2415071B (en) * 2002-08-06 2006-05-17 Hewlett Packard Development Co Method and arrangement for guiding a user along a target path
JP2005326168A (ja) * 2004-05-12 2005-11-24 Fuji Photo Film Co Ltd 運転支援システム、車両、および運転支援方法
US20060184314A1 (en) * 2005-02-14 2006-08-17 Microsoft Corporation Multi-modal navigation system and method
JP4640146B2 (ja) * 2005-12-07 2011-03-02 株式会社日立製作所 経路生成装置及び経路生成方法
US9037400B2 (en) * 2012-06-26 2015-05-19 Jonathan Louis Tolstedt Virtual walking stick for the visually impaired
EP2711670B1 (en) 2012-09-21 2019-01-30 NavVis GmbH Visual localisation
US20150330787A1 (en) * 2014-05-19 2015-11-19 Joseph Cioffi Systems, Methods and Software for Redirecting Blind Travelers Using Dynamic Wayfinding Orientation and Wayfinding Data
KR20160001178A (ko) 2014-06-26 2016-01-06 엘지전자 주식회사 글래스 타입 단말기 및 이의 제어방법
KR20160102872A (ko) * 2015-02-23 2016-08-31 한국전자통신연구원 보행정보 데이터베이스 구축방법 및 보행정보 데이터베이스를 이용한 보행 안내장치 및 그 방법
US9464912B1 (en) * 2015-05-06 2016-10-11 Google Inc. Binaural navigation cues
FR3038101A1 (fr) 2015-06-29 2016-12-30 Orange Procede de guidage d'un individu et systeme de navigation
EP3398164B1 (en) 2015-12-30 2020-04-01 Telecom Italia S.p.A. System for generating 3d images for image recognition based positioning
US10765588B2 (en) * 2016-08-05 2020-09-08 Sony Corporation Information processing apparatus and information processing method
US20180356233A1 (en) * 2017-06-13 2018-12-13 Boutros Baqain Intelligent navigation assistance device
US11709068B2 (en) 2017-09-27 2023-07-25 Apple Inc. Spatial audio navigation

Also Published As

Publication number Publication date
EP3956635A1 (en) 2022-02-23
US11835353B2 (en) 2023-12-05
JP2022530347A (ja) 2022-06-29
WO2020211990A1 (en) 2020-10-22
US20220221296A1 (en) 2022-07-14
AT522549A3 (de) 2021-12-15
AT522549B1 (de) 2022-09-15
AT522549A2 (de) 2020-11-15

Similar Documents

Publication Publication Date Title
CN113614609B (zh) 虚拟现实中的现实引导的漫游
Golledge et al. A geographical information system for a GPS based personal guidance system
JP6749363B2 (ja) 進路変更方向プレビューの生成
JP2020101833A (ja) 装置の位置特定のための幾何学的指紋法
US8417446B2 (en) Link-node maps based on open area maps
JP6666358B2 (ja) 装置の位置特定のための特徴ジオメトリーの選択
US11835353B2 (en) Computer implemented method for guiding traffic participants
US20140244159A1 (en) Method of Operating a Navigation System Using Images
US20150063610A1 (en) Audio rendering system categorising geospatial objects
US20150260539A1 (en) Three Dimensional Routing
US20100021013A1 (en) Open area maps with guidance
CN102003964A (zh) 操作导航系统以提供路线指引的方法
JP7061634B2 (ja) インテリジェント防災システムおよびインテリジェント防災方法
JP6975758B2 (ja) 映像と精密地図に基づいたgnss測位と精密測位間の測位差に対する配布情報生成装置および方法
Balata et al. Automatically generated landmark-enhanced navigation instructions for blind pedestrians
Somyat et al. NavTU: android navigation app for Thai people with visual impairments
Mancini et al. Point to point navigation for people with mobility impairments
Peraković et al. Model of guidance for visually impaired persons in the traffic network
KR20170015754A (ko) 스카이라인을 이용한 차량의 측위 방법
Gintner et al. Improving reverse geocoding: Localization of blind pedestrians using conversational ui
Koester et al. Mind the gap: Virtual shorelines for blind and partially sighted people
US10876854B2 (en) System and method for providing navigation service of disabled person based on image analysis
Cohen Building a weighted graph based on OpenStreetMap data for routing algorithms for blind pedestrians
US20150161446A1 (en) 2d/3d analysis and rendering of utilities, valves, information and assets into video
WO2022027731A1 (zh) 一种基于虚实融合的导航地图构建方法

Legal Events

Date Code Title Description
A201 Request for examination