KR20100138554A - 여행자용 내비게이션 방법 및 그 시스템 - Google Patents

여행자용 내비게이션 방법 및 그 시스템 Download PDF

Info

Publication number
KR20100138554A
KR20100138554A KR1020090057139A KR20090057139A KR20100138554A KR 20100138554 A KR20100138554 A KR 20100138554A KR 1020090057139 A KR1020090057139 A KR 1020090057139A KR 20090057139 A KR20090057139 A KR 20090057139A KR 20100138554 A KR20100138554 A KR 20100138554A
Authority
KR
South Korea
Prior art keywords
spatial
information
search
data
mobile terminal
Prior art date
Application number
KR1020090057139A
Other languages
English (en)
Inventor
권용진
이용
Original Assignee
한국항공대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국항공대학교산학협력단 filed Critical 한국항공대학교산학협력단
Priority to KR1020090057139A priority Critical patent/KR20100138554A/ko
Priority to PCT/KR2010/003859 priority patent/WO2010151001A2/ko
Publication of KR20100138554A publication Critical patent/KR20100138554A/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9537Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Navigation (AREA)

Abstract

상황인식 센서와 디지털 맵 검색기반으로 사용자가 모바일 단말의 카메라를 통해 실생활 환경을 바라보는 행위를 정확하게 인식함으로써, 검색하고자 하는 대상의 정보를 사용자에게 정확하게 제공해주어 여행에 편리함을 도모해주도록 한 여행자용 내비게이션 방법 및 그 시스템이 개시된다.
개시된 여행자용 내비게이션 방법은, 사용자에 의해 공간정보 요구가 발생하면 공간 검색 영역을 생성하는 단계와, 상기 생성한 공간 검색 영역에 존재하는 공간 객체를 인식하는 단계와; 상기 인식한 공간 객체와 관련된 지리 정보를 검색하는 단계와, 상기 검색한 지리정보 결과를 기반으로 공간 검색 정보를 제공해주는 를 포함한다.
여행자용 내비게이션, 실시간 공간검색, 공간정보 제공, 객체 인식, 상황인식, 디지털 맵

Description

여행자용 내비게이션 방법 및 그 시스템{Travelers navigation method and system thereof}
본 발명은 여행자용 내비게이션에 관한 것으로서, 더욱 상세하게는 상황인식 센서와 디지털 맵 검색 기반으로 사용자가 모바일 단말의 카메라를 통해 실생활 환경을 바라보는 행위를 정확하게 인식함으로써, 검색하고자 하는 대상의 정보를 사용자에게 정확하게 제공해주어 여행에 편리함을 도모해주고자 한 여행자용 내비게이션 방법 및 그 시스템에 관한 것이다.
일반적으로, 기존의 여행시 공간 정보를 획득하는 방법을 살펴보면 다음과 같다.
외국인 관광객이 역사적인 문화 예술의 도시인 경기도에 대해 투어를 계획하고 있다고 가정하자. 이 외국인은 경기도에 대한 주요 정보를 얻기 위해서 일반적인 여행객과 마찬가지로 웹 검색을 통해 도시 정보를 검색하였으며, 경기도에 관한 주요 관광 정보를 기록한 여행 지도를 통해 여행 정보를 얻고 있다. 여행 지도에는 경기도의 주요 관광 정보에 대한 자세한 정보를 기록하고 있으며, 현 위치의 주변에는 어떠한 관광지가 있는지, 해당 관광지는 어떠한 역사가 있는지 등의 간략한 정보를 얻을 수 있는 수단으로 사용된다.
도 1에 경기도를 여행할 경우 외국인 관광객이 사전에 관련 정보를 수집해야 하는 상황을 보여주고 있다.
외국인은 수집한 웹 여행 정보와 지도 정보를 비교하면서, 경기도를 여행하다가 웹 여행 정보를 통해 취득한 "행주산성" 사진과 유사하다고 생각되는 유적지 앞에 도착하게 되었다. 외국인은 해당 유적지가 찾고자 하는 목적지인지 주변 사람에게 손으로 해당 유적지를 가리키며 물어보거나, 외국어를 모르는 한국인일 경우에는 사진과 지도의 "행주산성"을 가리키면서 자신이 원하는 목적지를 확인한다.
우연히 경기도를 여행하다가 사람이 북적거리는 거리를 발견했거나, 어떤 문화재로 생각되는 절이나 종을 보았다고 했을 때, 외국인 여행자는 수집한 웹 여행 정보와 지도 정보로부터 해당 문화재와 관련된 정보를 찾게 된다. 그러기 위해서 현재 자신의 위치가 어디인지를 확인해야 하는데, 지도 정보를 자신의 주변 건물의 이름이나 도로 표지판과 일일이 확인하면서 자신의 현 위치를 확인한다. 하지만, 지도에 외국어로 표시되어 있다고 할지라도, 현실에서는 주변 상황에 관한 정보를 습득하기 어렵기 때문에 상당한 시간을 소비하게 된다. 어떤 문화재인지 확인했다고해도 지도에 정보가 있을 경우는 상관없지만, 그렇지 않은 경우에는 다시 관련 정보를 얻기 위한 과정을 반복해야만 하는 불편함이 있다.
주지한 바와 같이, 기존의 여행시 공간 정보를 획득하는 방법은, 여행자가 직접 인터넷 등의 정보 통신 매체를 통해 사전에 여행지에 대한 정보를 획득해야하는 불편함이 있었다.
또한, 여행지에 대한 정보를 사전에 획득한 경우에도 주변 상황이 달라져있을 경우에는 주변 사람에게 다신 물어보아야 하는 불편함도 있었다.
또한, 공간 및 건물 등에 대해 안내판을 이용하여 정보가 기록된 경우에도, 자신이 사용하는 언어 이외의 외국어로 안내 정보가 기재된 경우에는 주변 사람에게 물어 확인을 해야하기 때문에, 여러 가지 불편함이 발생하였다.
이에 본 발명은 상기와 같은 종래의 여행시 발생하는 불편함을 해결하기 위해서 제안된 것으로서,
본 발명이 해결하고자 기술적 과제는, 상황인식 센서와 디지털 맵 검색 기반으로 사용자가 모바일 단말의 카메라를 통해 실생활 환경을 바라보는 행위를 정확하게 인식함으로써, 검색하고자 하는 대상의 정보를 사용자에게 정확하게 제공해주어 여행에 편리함을 도모해주고자 한 여행자용 내비게이션 방법 및 그 시스템을 제공하는 데 있다.
본 발명이 해결하고자 하는 다른 기술적 과제는, 여행자가 단순히 이동하면서 관심이 가는 건물을 카메라로 바라보는 것만으로 해당 건물의 내용을 즉시 확인할 수 있도록 해줌으로써, 여행에 더욱 편리함을 도모해주고자 한 여행자용 내비게이션 방법 및 그 시스템을 제공하는 데 있다.
본 발명이 해결하고자 하는 또 다른 기술적 과제는, 유비쿼터스 공간을 대상으로 사용자의 위치를 기반으로 공간을 검색하기 위해서 센서를 통해 사용자의 현 재 상황에 대한 상황인식 정보와 디지털 맵 검색을 기반으로 사용자가 요청한 공간을 실시간으로 검색해주고, 위치와 관련된 가상의 웹 정보를 검색, 저장할 수 있는 여행자용 내비게이션 방법 및 그 시스템을 제공하는 데 있다.
본 발명이 해결하고자 하는 또 다른 기술적 과제는, 사용자의 상황인식을 센서를 기반으로 인식하고, 수집되는 감지 데이터와 디지털 맵을 기반으로 객체를 인식하는 기하학 알고리즘을 적용하여 공간 인식의 정확성을 향상시키도록 한 여행자용 내비게이션 방법 및 그 시스템을 제공하는 데 있다.
본 발명이 해결하고자 하는 또 다른 과제는, 정보제공시 가상과 현실의 정보를 모바일 단말의 디스플레이에 동시에 혼합하여 보여줌으로써 보이지 않는 가상의 정보와 실제 눈으로 보이는 현실 정보를 더욱 실감나게 제공해주도록 한 여행자용 내비게이션 방법 및 그 시스템을 제공하는 데 있다.
상기와 같은 기술적 과제들을 해결하기 위한 본 발명에 따른 "여행자용 내비게이션 방법"은,
사용자에 의해 공간 정보 요구가 발생하면, 공간 검색 영역을 생성하는 단계와;
상기 생성한 공간 검색 영역에 존재하는 공간 객체를 인식하는 단계와;
상기 인식한 공간 객체와 관련된 지리정보를 검색하는 단계와;
상기 검색한 지리정보 결과를 기반으로 공간 검색 정보를 제공해주는 단계를 포함한다.
바람직하게 본 발명에서의 공간 검색 영역의 생성은,
사용자가 휴대한 모바일 단말에 구비된 다수의 센서를 통해 센싱된 데이터를 기반으로 공간 검색 영역을 생성하는 것을 특징으로 한다.
바람직하게 본 발명에서 공간 객체 인식은,
상기 생성한 공간 검색 영역 내의 다차원 공간 데이터에 대한 검색을 효율적으로 수행하기 위한 공간 데이터에 대한 인덱스를 생성하는 단계와;
상기 검색 영역과 건물 영역에 대한 겹침(오버랩) 관계를 계산하는 단계와;
상기 겹침 관계를 계산한 후 검색 영역을 분할하고, 상기 분할한 공간 검색 영역에 대한 검색을 반복 수행하는 단계를 포함한다.
바람직하게 본 발명에서의 지리정보 검색은 대상 객체의 이름과 위치에 대한 동영상 및 이미지 정보가 저장된 콘텍스트 데이터베이스를 검색하여 대상 객체에 대한 공간 객체를 검색하는 것을 특징으로 한다.
상기와 같은 기술적 과제들을 해결하기 위한 본 발명에 따른 "여행자용 내비게이션 시스템"은,
사용자의 상황정보를 취득하기 위한 다수의 센서를 구비하고, 유비쿼터스 공간을 대상으로 공간 정보에 대한 검색을 요청하는 모바일 단말과;
상기 모바일 단말에 의해 공간 정보에 대한 검색이 요청되면, 내장된 U-MAP을 통해 지리공간 데이터에 대한 공간 질의와 관리를 수행하는 통합 플랫폼과;
상기 통합 플랫폼과 연계되어, 상기 모바일 단말에 의해 발생한 센싱 정보를 기반으로 공간 검색 영역을 생성하고, 상기 생성한 공간 검색 영역 내의 검색 대상 객체를 인식하는 객체 인식기와;
상기 통합 플랫폼과 연계되어, 상기 인식한 공간 객체에 대한 지리정보를 검색하여 공간 정보를 제공하는 지오 서버를 포함한다.
바람직하게 다수의 센서는,
검색 대상 공간을 촬영하기 위한 카메라와;
GPS 위성으로부터 전송된 위성신호를 통해 위치와 시간 정보를 획득하기 위한 GPS와;
상기 모바일 단말의 각속도를 검출하기 위한 각속도 센서와;
상기 모바일 단말의 방위각을 검출하기 위한 전자 나침반을 포함한다.
본 발명에 따른 모바일 단말은, 상기 카메라를 통해 비추어지는 현실 공간과 인식된 공간 정보 및 상기 지오 서버로부터 제공되는 가상의 정보를 화면에 동시에 표시해주기 위한 엠비언트 브라우저를 포함한다.
또한, 본 발명에 따른 여행자용 내비게이션 시스템은,
디지털 맵의 지리공간 데이터로부터 공간 검색을 위한 Rotated R*-Tree계열의 공간 인덱스가 저장된 공간 인덱스 데이터베이스와;
원본 지리공간 데이터를 관리하는 맵 데이터베이스와;
가상의 정보가 위치를 기반으로 태깅(Tagging)되어 관리되는 콘텍스트 데이터베이스를 더 포함하는 것을 특징으로 한다.
본 발명에 따르면, 모바일 단말에서 수집되는 센싱 정보와 디지털 맵으로부터 추출한 공간 정보를 기반으로 기하학을 적용하여 실시간으로 객체를 인식할 수 있으므로, 사용자가 지리공간에 대한 정보를 시간과 공간의 제약 없이 손쉽게 검색할 수 있어 여행에 편리함을 도모해주는 장점이 있다.
또한, 본 발명에 따르면 모바일 단말에 다양한 센서를 추가하여 상황인식에 관한 센싱 데이터를 수집하고, 사용자가 카메라를 통해 현실 공간을 비추는 행위만으로 검색 대상을 인지하고 자동으로 공간 정보를 제공해줌으로써, 사용자 중심의 공간 정보 제공 서비스가 가능한 장점이 있다.
또한, 공간 정보 제공시 가상과 현실 공간 정보를 모바일 단말의 화면에 동시에 보여줌으로써, 사용자는 보이지 않는 가상의 정보와 실제 눈으로 보이는 현실 정보를 연관지어 확인할 수 있는 장점도 있다.
이하 본 발명의 바람직한 실시 예를 첨부한 도면에 의거 상세히 설명하면 다음과 같다. 본 발명을 설명하기에 앞서 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다.
본 발명을 설명하기에 앞서, 가상의 웹 공간의 여행관련 정보가 현실 공간의 특정 위치에 상호관련성 있게 축적되어 있는 공간과 사용자의 현재 위치, 주위 환경에 대한 상황정보를 취득할 수 있는 센서가 있다고 가정한다. 또한, 사용자가 휴대하고 있는 단말에는 카메라 장치 가지고 있어서, 사용자는 자신의 관심을 카메라를 통해 표출한다.
본 발명은 도 2와 같이 사용자의 위치를 파악하여 카메라 영상을 통해 비추어진 공간이나 장면을 인식할 수 있는 시스템이 있다고 한다면, 여행자는 어떠한 사전 준비 없이 도시를 자유롭게 여행하면서 인터넷이 가능한 모바일 단말을 통해 원하는 공간정보를 검색할 수 있다. 여행자는 단순히 이동하면서 관심이 가는 건물을 카메라로 바라봄으로써 해당 건물을 즉시 확인할 수 있다. GPS장치를 가지고 있는 모바일 단말을 통해 해당 위치정보도 함께 전송되어 해당 위치에 대한 주변 지도 정보 및 태깅된 가상 정보도 함께 제공받을 수 있다.
본 발명은 유비쿼터스 공간에서 객체를 사용자 상황인지와 현실 공간을 있는 그대로 표현한 디지털 맵을 기반으로 사용자가 카메라를 통해 바라보고 있는 영역의 객체들을 인식하여 해당 객체에 대한 가상의 정보를 제공해주어 여행에 편리함을 도모하기 위한 여행자용 내비게이션 시스템이다.
공간 정보를 제공해주기 위해서는, 디지털 맵으로부터 지리정보 추출, 디지털 맵의 지리공간 데이터 관리, 지리공간 객체 검색 등의 다양한 기반 기술들이 필요하다. 이를 위한 기반 기술로 본 발명에서는 제안된 U-MAP(Universal Map Access Platform)을 이용한다.
위치기반서비스는 측위 기술(LDT: Location Determine Technology), 위치 처 리 플랫폼(LEP: Location Enabled Platform), 위치 응용 프로그램(LAP: Location Application Program)의 3가지 부분으로 구성된다.
LDT는 사용자의 위치정보를 결정하는 기술이고, LEP는 위치정보를 기반으로 주변의 공간정보를 제공하기 위한 처리 기술이며, LAP는 LBS사용자의 위치와 주변 공간정보를 활용한 다양한 응용 서비스를 말한다. 이 중에서 LEP는 LBS 서비스를 위한 핵심기술로써 공간정보 데이터베이스와 공간객체 관리를 위한 DBMS(DataBase Management Systems)가 중요하다.
대부분의 공간정보 데이터베이스는 디지털 맵을 이용하는데, 디지털 맵은 포맷이 다양하고, 상이한 구조로 이루어져 있다. 그래서 공간정보를 추출하기 위해서는 개별적인 공간정보 추출기가 필요하고, 추출된 공간정보 데이터를 저장하고 관리하기 위한 관리 모델이 지도마다 필요하다. 하지만, 공간객체의 속성정보를 이용하면 상이한 포맷의 공간정보라 할지라도 속성정보의 유사성을 이용하여 하나의 관리 모델로 통합할 수 있다.
상이한 지도에서 공간정보를 추출하는데, 추출된 공간정보의 유사한 속성정보를 활용하여 통합 데이터베이스를 구축한다. 또한, 구축된 데이터베이스를 활용하여 LBS 응용서비스 개발 지원하는 API(Application Program Interface)를 포함하고 있는 통합 플랫폼인 U-MAP을 구성한다.
핵심 구성 플랫폼 중에서 Universal Map DBMS는 공간정보 추출 플랫폼을 이용하여 여러 지도 데이터 포맷들로부터 추출된 공간정보를 관리한다. 추출된 공간정보들은 디지털 맵 원본 데이터의 벡터정보를 가감 없이 저장하여 공간 객체정보 의 추가, 변경, 삭제에 빠르게 대응할 수 있도록 하는 원본 데이터 데이터베이스, 원본 데이터베이스를 기반으로 LBS 사용자의 공간 객체에 대한 질의 처리를 빠르게 하기 위해 R-Tree 인덱스 구조를 사용하여 건물 객체에 대한 공간정보를 데이터베이스화한 건물 대상 Roated-R*-Tree 데이터베이스를 가지고 있다. 도 3에 U-MAP의 전체 구조가 개시된다.
공간정보 추출 플랫폼을 살펴보면, LBS 사용자에게 제공하는 공간정보는 일반적으로 디지털 맵으로부터 얻을 수 있는데, 이러한 디지털 맵은 다양한 종류의 포맷이 존재하며 각 포맷은 현실공간의 객체를 서로 다른 방법으로 표현하고 있다.
예를 들어 DXF(Drawing eXchange Format)는 ASCII 텍스트 파일이며, 두 줄로 구성된 여러 개의 연속된 그룹들이 공간 객체를 표현한다. 또한, GDF(Geographic Data Files)는 식별자를 이용하여 여러 줄로 구성된 하나의 레코드가 공간 객체를 표현하고 있다.
이와 같이 상이한 방법으로 공간 객체를 표현하고 있기 때문에, 각 포맷으로부터 공간정보를 추출하기 위해서는 각 포맷별로 정의된 데이터 접근 방법을 이용해야 한다. DXF 포맷은 한 줄씩 읽으며 읽혀진 내용에 따라서 데이터를 정규화된 코드별로 분류하여 저장하며, GDF는 블록 단위로 데이터를 읽어 들인 뒤 내용을 분석하여 분류하고 저장한다.
이러한 상이한 방법으로 추출된 공간 정보들은 위치정보뿐만 아니라 산, 강, 도로, 건물 등과 같은 속성정보를 가지고 있다. 이 속성정보는 상이한 포맷들로부터 추출되지만 공간객체 간의 속성정보의 유사성을 이용하여 공간객체를 클러스터 링할 수 있다.
U-MAP의 공간정보 추출 플랫폼은 위의 예시에서 설명한 각 포맷들로부터 공간정보를 추출하는 공간정보 추출기와 추출된 공간정보 데이터들의 속성정보의 유사성을 이용하여 공간객체들을 관리하는 공간객체 관리모델로 구성되어있다. 공간정보 추출 플랫폼의 각 포맷별 공간정보 추출기는 플러그인 형태로써 새로운 지도 데이터 포맷에 대한 공간정보가 필요할 경우 추출기만 새롭게 추가하여 전체 시스템의 변경 없이 사용이 가능하다.
도 4는 공간정보 추출 플랫폼의 구성도를 나타낸다.
도 4에 개시된 바와 같은 공간정보 추출 플랫폼을 이용하여 여러 지도 데이터 포맷들로부터 추출된 공간정보들은 Universal Map DBMS에서 관리한다. 추출된 공간정보들은 디지털 맵 원본 데이터의 벡터정보를 가감 없이 저장하여 공간 객체정보의 추가, 변경, 삭제에 빠르게 대응할 수 있도록 하는 원본 데이터 데이터베이스, 원본 데이터베이스를 기반으로 LBS 사용자의 공간 객체에 대한 질의 처리를 빠르게 하기 위해 Roated-R*-Tree 인덱스 구조를 사용하여 건물 객체에 대한 공간정보를 데이터베이스화한 건물 대상 Roated-R*-Tree 데이터베이스, 또한 원본 데이터베이스를 기반으로 사용자에게 보다 빠른 공간정보를 표현하기 위해 벡터 형태의 공간정보 데이터를 래스터(Raster) 형태의 비트맵 형태로 변경하여 데이터베이스화한 고속 드로윙(Drawing)용 비트맵 데이터 데이터베이스의 세 가지 종류의 데이터베이스로 관리한다. 도 5에 디지털 맵으로부터 추출되는 공간정보들을 각각의 데이터베이스로 관리하는 것이 개시된다.
그리기(Drawing) 및 검색 엔진(Search Engine)에서는 공간정보들이 3가지의 형태로 저장되어 있는 Universal Map DBMS로부터 위치 응용 프로그램에 제공할 Drawing 및 Search API를 정의한다. Drawing API는 비트맵을 이용하여 고속으로 공간정보를 표현하는 것 이외에 유사한 속성정보별로 구분되어 저장돼 있는 공간 객체정보들을 선택적으로 표현할 수 있는 기능을 제공한다. 예를 들어 차량용 내비게이션 사용자에게 공간정보를 제공할 때는 도로정보, 건물정보, 행정구역정보 등은 제공하되 등고선 정보 등 필요하지 않은 정보들은 제공하지 않아 최소한의 필수적인 공간정보만을 제공할 수 있다. 도 6은 Drawing API를 이용하여 사용자에게 유사한 속성정보를 가지는 공간정보를 선택적으로 보여주는 모습을 도시한 것이다.
Search API는 Roated-R*-Tree 인덱스 구조를 사용하여 구축되어 있는 건물 대상 Roated-R*-Tree DB를 이용하여 사용자의 건물 대상 질의를 빠르게 처리할 수 있는 기능을 제공한다. 또한, 공간정보가 추가, 변경, 삭제될 경우에 Modifying API를 이용하여 DB에 저장된 데이터를 갱신할 수 있는 기능을 제공한다.
본 발명은 가상과 현실이 혼합된 유비쿼터스 공간을 대상으로 카메라 영상을 통해 들어오는 사용자의 정보 요구를 정확하게 인식하기 위해 모바일 단말에 부착되어 있는 센서로부터 수집되는 데이터를 어떻게 이용하여, 디지털 맵 검색 기반으로 영상의 공간 객체를 검색하여 이를 사용자에게 화면으로 제공해주기 위한 것이다.
도 30은 본 발명에 따른 여행자용 내비게이션 방법을 보인 흐름도로서, S는 단계(Step)를 나타낸다.
이에 도시된 바와 같이, 사용자에 의해 공간 정보 요구가 발생하면, 공간 검색 영역을 생성하는 단계(S101 ~ S103)와; 상기 생성한 공간 검색 영역에 존재하는 공간 객체를 인식하는 단계(S105)와; 상기 인식한 공간 객체와 관련된 지리정보를 검색하는 단계(S107)와; 상기 검색한 지리정보 결과를 기반으로 공간 검색 정보를 제공해주는 단계(S109)로 이루어진다.
여기서 공간 객체 인식 단계(S105)는, 생성한 공간 검색 영역 내의 다차원 공간 데이터에 대한 검색을 효율적으로 수행하기 위한 공간 데이터에 대한 인덱스를 생성하는 단계(S105a)와; 상기 검색 영역과 건물 영역에 대한 겹침(오버랩) 관계를 계산하는 단계(S105b)와; 상기 겹침 관계를 계산한 후 검색 영역을 분할하고, 상기 분할한 공간 검색 영역에 대한 검색을 반복 수행하는 단계(S105c)를 포함한다.
여행자용 내비게이션 방법은, 도 7에 도시한 것처럼, 사용자는 카메라를 통해 공간을 비추는 행위로 검색하고자 하는 정보요구를 발생시킴과 동시에, 모바일 단말로부터 취득된 센싱 정보를 통해 정확한 검색 대상 공간을 인식한다. 또한, 센싱 정보를 기반으로 디지털 맵과 본 발명에서 제안하는 검색 방법을 통해 영상에 비추어진 객체를 검색한다. 사용자가 검색된 공간 객체에 대한 웹 정보를 요청하면, 서버로부터 위치를 기반으로 정보를 검색해서 사용자에게 제공해준다. 이때, 가상의 정보는 현실 공간의 입력 영상 화면상에 합성되어 표시함으로써, 현실과 가상의 정보가 공존하도록 보여준다.
모바일 단말에 부착되어 있는 카메라는 사용자가 가상과 현실이 혼합되어 존 재하는 유비쿼터스 공간을 바라보는 매개체로, 사용자의 정보요구를 표현하는 수단이다. 즉, 유비쿼터스 공간을 대상으로 사용자의 정보요구가 발생할 경우, 어느 부분에 해당하는지를 입력하는 부분으로 정보검색 시스템에서는 사용자가 입력하는 키워드에 해당한다. 카메라를 통해 검색대상을 바라본다는 것은 현실공간의 검색 영역을 정확히 포커싱하고, 검색 질의의 요청과 동시에 검색하여, 사용자에게 결과를 보여주는 4개의 과정이 동시에 일어나는 것이다.
예를 들어, 어떤 위치에서 건물명을 검색하기 위해 카메라로 비추는 행위, "남대문" 앞에서 관련된 가상 정보를 얻기 위해 비추는 것과 같다. 이와 같이 현실 공간에 대한 사용자의 정보요구를 카메라를 통해 키워드가 아닌 시각적이고, 공간적인 정보요구로 표현하는 것이다. 이러한 정보요구 표현의 장점은 정보검색 시스템을 이용하는 방법보다, 정보요구를 해결하기 위한 테일러의 정보요구 구체화단계와 같은 문제해결을 위해 명확한 키워드를 생성하는 과정을 거치지 않고, 공간을 비추는 행위 자체가 정보요구를 표현하고 있기 때문에 사용자는 키워드 입력 및 정보를 비교해서 키워드를 구체화하는 노력 없이 공간 정보를 검색할 수 있다.
모바일 단말에 부착되어 있는 상황인식 정보 취득 센서로는 GPS, 각속도센서(혹은, 자이로센서), 전자 나침반이 있다. 각각의 기능을 살펴보면, GPS는 사용자 혹은 단말의 현재 위치 정보를 측정하는 것이고, 각속도센서는 모바일 단말이 수평선을 기준으로 기울어진 각도를 계산함으로써 공간 객체를 바라보는 사용자의 시야, 즉 카메라의 방향이 어디를 향하고 있는지 구체적으로 확인할 수 있다, 전자나침반은 북위를 기준으로 방위각 정보를 계산하여 사용자가 휴대하고 있는 단말이 어느 방향을 비추고 있는지 측량하는 수단이 된다. 이러한 정보를 기반으로 사용자의 정보요구 영역을 생성하여 영역 내의 공간 객체를 인식하는 과정을 수행하게 되는데, 이때 공간 영역을 생성하는 과정은 다음과 같다.
사용자가 휴대하고 있는 모바일 단말을 통해 현실 공간의 어떤 공간 혹은 공간 객체에 대해서 정보를 검색하고자 할 경우, 모바일 장치의 카메라를 대상을 향해 비추면 GPS로 사용자의 현재 위치, 자이로센서로 모바일 장치의 기울기와 전자나침반으로 방위각 정보를 취득한다. 이때 모바일 단말의 카메라는 최대 어떤 범위까지 영상을 취득할 수 있는지에 대한 시야각 범위와 거리가 존재하는데, 이렇게 취득한 값을 2차원의 (x, y) 좌표값이 있는 디지털 맵에 적용하면 삼각형 모양의 검색 영역을 생성할 수 있다. 이렇게 생성된 삼각형 영역이 곧 사용자의 정보요구를 표현한 검색 영역이 된다. 도 8의 상부 도면은 모바일 단말을 이용한 센싱 기반의 정보를 수집하고, 이를 검색 영역으로 생성하는 과정을 간략히 보여준 도면이고, 하부 도면은 검색 영역 생성을 계산하기 위해 각각의 센싱 정보를 기반으로 좌표공간에 데이터를 표현한 도면이다.
모바일 단말로부터 취득되는 센싱정보 중 검색 영역 생성에 필요한 정보는 사용자의 현재 위치(Point), 카메라의 시야각(Angle)과 북위를 기준으로 한 방위각(Azimuth)이다. 또한, 사용자가 검색하고자 하는 범위를 사전에 설정한 거리(Distance) 값이다. 이 4개의 정보로부터 시스템은 삼각형 검색 영역을 생성할 수 있는데, 이를 위해서는 점A, B, C에 대한 좌표값을 구해야 한다.
점O(Cx, Cy)는 사용자(모바일 단말)의 현재 위치, θazimuth는 방위각, θ angle은 카메라 시야각, d는 사용자의 현재 위치로부터 최대 검색 거리, 점O, A, B는 검색 영역을 구성하는 세 점을 각각 나타낸다.
도 8에서 카메라의 앵글로 생성되는 검색 영역의 모양은 삼각형이기 때문에 점A와 B에 대한 좌표값을 구해야한다. 이 좌표값을 구하는 과정은 다음과 같다.
점O의 좌표값(Cx, Cy), θazimuth, d로부터 점C의 (x, y) 좌표는 점O로부터 θazimuth의 각도로 거리 d만큼 떨어진 점E 좌표이다. 따라서 각각의 좌표는, x = Cx + d·cosθazimuth, y = Cy + d·sinθazimuth이다.
다음으로, θangle과 d로부터 선분AC의 거리를 구한다. 이때 선분AC의 거리는 선분BC의 거리와 같다. 선분AC의 거리 = d·tan(θangle/2).
다음으로, 점A의 좌표값을 구하기 위해서는 선분OA의 길이를 구해야 한다. 선분OA의 길이는 sin(θangle/2) = 선분AC의 길이/선분OA의 길이로부터 다음과 같이 구할 수 있다. 선분OA의 길이 = 선분AC의 길이/ sin(θangle/2).
다음으로, 선분AC의 길이와 θazimuth와 θangle로부터 점A의 좌표값은 다음과 같다. 점A의 x좌표 = Cx + (선분OA의 길이)·cos(θazimuth-θangle/2), 점A의 y좌표 = Cy + (선분OA의 길이)·sin(θazimuth-θangle/2).
다음으로, 점B의 좌표값도 점A의 좌표값을 구하는 과정을 반복하여 다음과 같이 산출한다. 점B의 x좌표 = Cx + (선분OB의 길이)·cos(θazimuth+θangle/2), 점B의 y좌표 = Cy + (선분OB의 길이)·sin(θazimuth+θangle/2).
이러한 과정을 통해 점O, A, B로 이루어진 검색 영역을 생성할 수 있으며, 검색 영역의 각 점은 (x, y)의 좌표값으로 구성되어 있기 때문에, 디지털 맵의 공 간 정보로부터 Overlap 연산을 수행하여 영역 내의 공간 객체를 인식할 수 있다.
디지털 맵의 장점은 현실 세계를 있는 그대로 표현하고 있다는 것이다. 따라서, 현실 세계에서 바라보고 있는 대상을 검색한다는 것은 디지털 맵 상에서 바라보는 대상을 검색하는 것과 동일하다. 이러한 일대일 대응되는 현실 세계와 디지털 맵의 장점을 활용하여 모바일 단말로부터 수집한 센싱 정보를 기반으로 카메라 영상에 비추어진 건물에 대한 검색 알고리즘을 적용하고 있다. 그런데 현실 공간의 객체의 수는 방대하고 무수히 많은 좌표의 집합으로 이루어져 있다. 실제로 경기도 고양시 디지털 맵으로부터 공간 객체를 추출하면 20만 개의 건물 데이터가 추출되며, 각각의 건물을 이루는 좌표의 개수도 수십 개에 이른다. 따라서, 이러한 복잡한 형태의 공간 객체로부터 검색을 효율적으로 수행하기 위해서는 인덱스 및 단순화 작업이 필요하다.
본 발명에서는 디지털 맵으로부터 U-MAP을 활용하여 공간 데이터를 추출하여 데이터베이스로 구축하고, 이 데이터베이스를 기반으로 공간 검색 방법을 수행하고 있다. 그런데 현실 공간을 표현하는 데이터의 양은 매우 방대하고, 다차원으로 구성되어 있기 때문에 공간 검색 질의와 같은 공간 인식 알고리즘 과정에 필요한 질의를 효율적으로 처리하기 위해서는 다차원 공간 데이터에 대한 인덱스가 필요하며, 일반적으로 공간 데이터에 대한 인덱스로는 R-Tree 인덱스를 주로 사용한다.
R-Tree는 B-Tree와 비슷하지만, 다차원의 공간 데이터를 저장하는 색인이다. 이를테면, 지리학에서 R-Tree는 "현재 위치에서 200Km이내의 모든 도시를 찾아라."와 같은 질의에 대해 빠르게 답을 줄 수 있다.
이 자료구조는 도 9와 같이 공간을 최소 경계 사각형(MBR)들로 공간 객체를 분할하여 저장한다. 이러한 MBR은 서로 겹칠 수도 있으며, 상위 레벨의 MBR은 하위 레벨의 MBR들을 포함하는 계층적인 트리 구조로 구성되어 있다. R-Tree의 각 노드는 미리 정의된 범위 내에서 유동적인 개수의 자식 노드들의 정보로 MBR과 포인터를 가진다.
R-Tree는 전체 구조를 재구성하지 않고도 데이터를 추가하거나 삭제할 수 있기 때문에 동적인 구조라는 장점이 있지만, 비효율적인 인덱스 구조로 인해 질의 처리를 위해서는 불필요한 노드에 대한 많은 접근이 발생한다.
본 발명에서는 다차원 공간 데이터의 효율적인 질의 처리를 위해서 R-Tree보다 질의 처리의 효율성 측면에서 구조를 효율적으로 만든 Rotated R*-Tree를 구축하여 공간 검색 알고리즘에 이용한다. 일반적으로 R*-Tree의 단점이 현실 공간 객체들의 구조와는 상관없이 MBR을 구성하기 때문에 공간 객체를 근사하는 과정에서 빈 공간이 많이 발생한다.
현실 공간의 객체의 모양은 아파트, 수도관, 가스관 등 한쪽 방향으로 긴 Line이나 LineString형태의 객체가 많이 존재한다. 이렇게 빈 공간이 많이 발생하게 되면 영역 질의 등의 공간 질의 수행시 결과가 필요 이상으로 많이 리턴되며, 이로 인해 실제 데이터의 접근횟수가 필요 이상으로 많이 리턴되므로 결과적으로 실제 데이터의 접근횟수가 많아지게 된다. 또한, 빈 공간은 노드 간의 겹침 영역을 증가시켜 결과적으로 트리의 검색 성능을 저하시키게 된다는 문제점도 함께 나타내게 된다.
도 10은 경기도 고양시 지역의 항공사진을 이용하여 실제 건물의 모양과 구조가 어떻게 이루어지고 있는지 보여주고 있다. 도면과 같이 실제 건물의 구조는 직사각형 모양을 이루고 있으며 대각선으로 기울어져 있는 것을 확인할 수 있다. 이러한 실제 건물의 모양에 MBR을 구성해보면 도면과 같이 빈 공간이 많이 발생하게 되며, 도면의 우측 MBR에서처럼 실제 건물의 영역은 겹치지 않지만 MBR로 구성할 경우에는 겹침이 발생함을 확인할 수 있다.
이러한 MBR로 구성된 R*-Tree의 문제점은 본 발명에서 제안하는 여행자용 내비게이션 시스템에서는 중요한 문제가 된다. 왜냐하면, 본 발명의 공간 인식 알고리즘에 사용되는 기본 방법은 공간 객체의 MBR과 생성한 삼각형 모양의 검색 영역의 Overlap을 관계를 계산하는 것이다. 따라서, 현실 세계의 건물 모양을 고려하지 않고 MBR을 구성할 경우에는 도 11(a)(b)와 같은 문제가 발생하게 된다.
도 11a를 살펴보면 건물B에 대해서 MBR을 생성하고, 검색 영역과 Overlap관계를 살펴보면 영역이 겹침을 확인할 수 있다. 하지만, 실제 사용자의 시야에는 건물B는 보이지 않는 건물이다. 따라서, 공간 인식 알고리즘 상에서는 검색 결과에 포함되어서는 안 된다. 이는 현실 공간의 공간 객체의 모양을 고려하지 않고 MBR을 구성했기 때문에 발생한 문제이다. 그런데 만약 건물B의 MBR을 11b와 같이 건물B의 모양과 거의 동일하게 MBR을 생성하여 공간 인식 알고리즘에 적용한다면, 건물B는 영역에 포함되지 않음을 확인할 수 있다.
이에 본 발명에서는 R*-Tree를 구성하는 알고리즘을 기반으로 하지만, 공간 객체의 MBR을 구하는 과정에서 공간 객체의 구조적 모양을 고려한 Rotated-MBR를 제안하고, 이를 기반으로 생성된 Rotated R*-Tree를 구성하여 검색 결과의 정확도를 높인다.
도 12(a)(b)는 실제 한국항공대학교 주변에 대한 공간 데이터에 대해서 MBR과 Rotated-MBR을 구성한 경우이다. 두 그림을 비교해보면, Rotated-MBR은 현실 공간의 객체의 모양을 고려하고 있기 때문에, 11(a)의 MBR보다 훨씬 더 빈 공간이 없는 최소 경계 사각형을 생성할 수 있다.
즉, 기존의 MBR은 디지털 맵으로부터 추출된 공간 객체들은 점들의 집합으로 표현된다. 이 점들의 집합으로부터 MBR을 생성하는 방법은 매우 간단하다. 공간 객체를 MBR로 구성하기 위해서는 2개의 점에 대한 좌표값만을 알고 있으면 된다. 즉, 최대 및 최소값에 해당하는 X, Y좌표값을 구하면 그 값이 MBR을 이루는 2개의 좌표가 된다.
그러나 R-MBR(Rotated-MBR)은 MBR에 비해 다소 복잡한 과정을 통해 4개의 점으로 구성되는데, Roated-MBR을 생성하는 원리는 도 13에 도시한 바와 같이, "공간 객체가 Convex일 때, 이 Convex를 포함하는 사각형은 Convex를 이루는 한 직선을 반드시 포함한다."이다. 그리고 생성되는 MBR중에서 면적이 최소가 되는 것을 공간 객체의 Roated-MBR로 한다.
이러한 Roated-MBR을 구하는 알고리즘은 다음과 같다.
(a) 공간 객체는 N개의 Node로 Polygon이다.
(b) N개의 노드로부터 Graham Scan Method를 적용하여 Convex를 생성하고, Convex는 m개의 Node를 가지고 있다.
(c) m개의 Node 중 최대·최소의 X, Y 좌표값을 가지는 Node를 검색하고, 도 16의 ①과 같이 검색된 Node(0, 1, 3, 4)을 지나는 직선을 생성하고, 각각의 직선이 만나는 교점으로 이루어진 사각형이 시작 Rotated-MBR이며, 사각형의 면적을 계산한다.
(d) 도 17과 같이 Rotated-MBR의 Edge와 Convex가 만나는 Node와 이 Node를 포함하는 Convex의 Edge를 검색하고, Roated-MBR의 Edge와 Convex의 Edge가 이루는 각을 계산한다.
(e) 도 13의 ②와 같이 최소의 값을 가지는 각이 Convex의 Edge(0, 4)일 경우, Roated-MBR의 각각의 Edge를 각만큼 회전한다. 회전 후 Roated-MBR을 이루는 직선이 만나는 교점을 구하고 사각형의 면적을 계산한다.
(f) 최소 면적보다 작을 경우, 값을 업데이트 하고 (d) 단계부터 반복한다.
(g) 회전 각도의 총합이 180°이상이면 알고리즘을 종료한다.
검색 영역을 모바일 단말로부터 취득한 위치와 기울기, 그리고 방위각 정보를 활용하여 사용자가 현재 검색하고자 하는 공간 영역을 삼각형 모양의 검색 영역으로 생성한다. 또한, 현실 공간의 공간 객체를 R*-Tree로 구성하기 위해 MBR, Rotated-MBR을 생성했다. 이 두 영역의 겹침(Overlap) 관계를 계산하여, 검색 영역 내에 포함되어 있는 객체를 인식하게 된다.
공간 검색 알고리즘을 수행하는 기본 원리는 사용자의 현재 위치로부터 가장 가까운 공간 객체를 검색한 후, 해당 공간 객체가 이루는 방위각 범위가, 생성된 검색 영역의 방위각 범위 안에 포함될 경우, 즉 Overlap될 경우가 현재 사용자가 찾고자 하는 건물에 해당한다. 일반적인 MBR기반의 R*-Tree에서는 Overlap되는 경우의 수는 다음과 같다.
검색 영역 안에 공간 객체의 MBR이 완전히 포함되는 경우, 일부 포함되는 경우, 포함되지 않는 경우이다. 만약 검색 영역이 MBR간의 포함관계라면 도 15와 같이 MBR이루는 (x, y)의 범위로 간단히 계산할 수 있지만, 본 발명에서는 삼각형 모양의 검색 영역과 MBR, Rotated-MBR이기 때문에 새로운 방법을 적용해야 한다.
본 발명에서는 생성된 검색 영역을 사용하는데 사용자가 현재 북위를 기준으로 어느 정도의 방향을 바라보고 있는지에 대한 정보인 방위각 정보와 카메라 앵글 범위를 알고 있기 때문에 검색 영역의 최소·최대 방위각을 계산할 수 있다. 이로부터, R*-Tree의 MBR과 생성된 검색 영역에 대해 겹침 관계를 수행하는 알고리즘은 다음과 같다.
(a) R*-Tree로부터 현재 위치와 가장 가까운 거리에 존재하는 공간 객체 검색
(b) 현재 위치와 각각의 공간 객체의 MBR 혹은 Rotated MBR이 이루는 최소 및 최대 방위각 계산
(c) 검색 영역의 방위각 범위에 각각의 공간 객체의 방위각이 포함관계가 있다면, 해당 공간 객체를 검색하고 새로운 검색 영역 생성
(d) 생성되는 검색 영역은 포함된 방위각 범위를 제외한 나머지 영역이며, 여러 개의 검색 영역이 생성될 수 있음
(e) 검색 영역의 방위각 범위가 0°혹은 Overlap되는 건물이 없는 경우까지 위의 과정을 반복
도 16은 이러한 기본 알고리즘에 대해서 (a) 검색 영역 범위 안에 완전히 포함된 경우, (b) 일부 포함되는 경우, (c) 포함되지 않는 경우에 대한 도면이다. 본 알고리즘은 리커시브로 수행되므로 도 16의 (a), (b)와 같이 공간 객체가 포함될 경우 새로운 검색 영역으로 양분되는데, 이 영역의 범위는 Overlap된 방위각 범위를 제외한 영역이 된다.
결국, 방위각과 카메라 앵글각으로 현재 검색 영역의 최소 및 최대 방위각을 계산하고, 이 방위각 범위 내에 사용자의 현재 위치와 건물이 이루는 방위각의 범위가 포함되는지를 계산하여 Overlap 여부를 확인할 수 있다.
도 17에서 점O (Cx, Cy)은 사용자(모바일 단말)의 현재 위치, θazimuth는 방위각, θangle은 카메라 시야각, d는 사용자의 현재 위치로부터 최대 검색 거리, MBR_Xmin, MBR_Xmax은 MBR의 최소/최대 X좌표, MBR_Ymin, MBR_Ymax은 MBR의 최소/최대 Y좌표, d1, d2, d3, d4는 점O와 MBR을 이루는 좌표 간의 거리를 각각 나타낸다.
공간 검색 알고리즘의 (b) 단계에서 사용자의 현재위치와 건물의 좌표값을 이용한 건물의 최소 및 최대 방위각을 계산하는 방법은 다음과 같다. 이때, Rotated-MBR의 경우도 이와 동일한 방법으로 계산할 수 있으므로, 건물의 영역이 MBR(Minimum Boundary Rectanlge)인 경우에 대해서만 설명한다.
사용자의 현재 위치로부터 공간 객체를 이루는 MBR 좌표 간의 방위각은 점O와 각각의 MBR좌표의 직선거리(d1, d2, d3, d4)와 MBR의 x좌표와 점O의 x좌표의 거 리차이를 삼각함수 공식에 적용하여 다음과 같이 구할 수 있다. 예를 들어, 점O와 (MBR_Xmin, MBR_Ymin)이 이루는 방위각을 계산해보자.
점O와 (MBR_Xmin, MBR_Ymin)의 방위각 = asin((MBR_Xmin - Cx)/d1)이고, d1은 점O와 MBR좌표 간의 거리이므로,
Figure 112009038686004-PAT00001
이다.
동일한 방법으로 각 MBR 노드에 대해 방위각 구하고, 오름차순으로 정렬하면, 사용자의 현재 위치를 기준으로 건물의 방위각 범위가 구해진다. 계산된 값의 범위와 검색 영역의 범위를 비교하여 겹침 영역이 있는지를 확인함으로써 건물에 대한 인식과정이 이루어진다.
검색 영역에는 다수의 공간 객체가 포함되는데, 공간 객체를 인식하는 순서가 사용자의 현재 위치에서 가장 가까운 객체를 우선 수행하고 검색 과정은 겹침 영역 확인 과정을 리커시브로 수행하게 된다. 도 18a에서와 같이 공간 객체 A와 B가 있을 경우 사용자의 현재위치로부터 객체 A가 더 가까운 위치에 있으므로 공간 검색 알고리즘이 우선적으로 실행된다. 객체 A에 대해서 알고리즘이 수행된 후 검색 영역의 분할은 포함되는 방위각의 범위를 제외한 나머지 영역이며 도 18b처럼 된다.
영역의 겹침 관계를 계산한 후 검색 영역의 분할 과정은 다음과 같다.
(a) 현재 위치로부터 검색 영역에 포함되고, 가장 가까운 거리에 있는 공간 객체 검색
(b) 현재 위치와 검색된 건물의 최소 및 최대 방위각을 계산
(c) 검색 영역의 방위각과 (b)에서 구한 방위각을 제외한 나머지 영역을 새로운 검색 영역으로 생성
(d) 분할된 검색 영역에 대해서 위의 과정을 반복
(e) Overlap되는 건물이 없거나, 검색 영역의 방위각 범위가 0°인 경우 종료
도 19는 경기도 고양시 항공대 주변의 공간 객체에 대한 MBR의 Rotated R*-Tree를 구성한 다음 본 발명에서 제안한 여행자용 내비게이션 알고리즘을 수행한 결과이다.
객체 인식 과정에 의해서 검색된 공간 객체에 대한 정보는 정보 요청이 있을 경우에만, 인터넷을 통해 GeoServer에 접속하여 해당 객체와 관련된 정보를 가져와서 사용자에게 제공한다. 카메라 영상에 비추어지는 영역은 사용자가 모바일 단말의 카메라를 이용해 현실 공간을 비추고 있으며, 현실 공간 객체의 인식과정을 실행한 결과, 검색된 객체 이름이 Overlap으로 표시되고 있다. 또한, 정보의 종류가 이미지, 동영상, 텍스트 형태로 다양하기 때문에 모바일 단말의 디스플레이 화면에 다양한 서브 메뉴로 구성하였다. 해당 공간 객체에 대한 정보를 얻기 위해서는 공간 객체 영역을 터치하면 관련 정보가 검색된다.
본 발명은 카메라에 비치는 영상 자체에 관련된 가상의 정보들이 임베딩되어 있도록 하여, 사용자가 현실 세계를 바라보고 있지만, 보이지 않는 가상의 관련 정보도 함께 표현되도록 해줌으로써 리얼리티를 극대화하고 있다.
상술한 바는 센싱정보와 디지털 맵을 기반으로 공간 객체를 인식하고, 사용자에게 공간 정보를 실시간으로 실감 있게 제공해주는 공간 검색 방법을 설명한 것이며, 이하에서는 상기 공간 검색 방법을 기반으로 한 차세대 모바일 단말과 실시간 공간 정보 시스템을 포함한 여행자용 내비게이션 시스템의 전체 구조를 설명한다.
본 발명에 따른 여행자용 내비게이션 시스템은, 도 20에 도시한 바와 같이, 모바일 단말(110), 공간 인덱스 데이터베이스(121), 맵 데이터베이스(122), 콘텍스트 데이터베이스(123), 지오(Geo)-서버(130), 객체 인식부(140), 통합 플랫폼(150) 및 브라우저(160)와 같은 다양한 구성요소로 구성된다.
모바일 단말(Mobile Device)(110)은 유비쿼터스 공간을 대상으로 공간 정보를 검색하기 위해 사용자가 휴대하는 단말로써, 사용자의 상황정보를 취득하기 위해 다양한 센서(예를 들어, GPS센서, 자이로센서, 전자나침반)와 카메라가 내장되어 있으며, 사용자는 단말의 카메라를 통해 현실 세계를 비추는 것으로 검색 요구를 표현하게 된다.
공간 인덱스 데이터베이스(121)는 방대한 디지털 맵의 지리공간 데이터로부터 공간 검색을 위한 Rotated R*-Tree의 인덱스가 저장되며, 맵 데이터베이스(122)는 원본 지리공간 데이터를 관리하게 되고, 콘텍스트 데이터베이스(123)는 가상의 정보가 위치를 기반으로 tagging되어 관리된다.
지오 서버(Geo-Server)(130)는 위치를 기반으로 tagging된 콘텍스트 데이터베이스(123)로부터 사용자의 정보요구가 있을 경우 관련 정보를 검색, 저장해주는 기능을 수행한다.
객체 인식부(140)는 모바일 단말로부터 생성된 검색 영역에 존재하는 공간 객체 인식을 수행하는 역할을 한다.
브라우저(160)는 카메라를 통해 비추어지는 현실 공간과 인식된 공간 정보, 그리고 지오 서버(130)로부터 제공되는 가상의 정보를 사용자에게 실감 있게 브라우징해주는 기능을 수행한다.
통합 플랫폼(Integration Platform)은 상기 각각의 구성요소를 관리하는 플랫폼으로, 내부적으로는 U-MAP을 포함하고 있으며, 각 구성요소 간의 모든 메시지 및 전송데이터를 관리해주는 기능을 수행한다.
이하 상기와 같이 구성된 여행자용 내비게이션 시스템의 동작을 각 구성요소별 및 유기적인 연결 관계를 고려하여 설명하면 다음과 같다.
먼저, 모바일 단말(110)은 유비쿼터스 공간을 대상으로 사용자가 휴대하며 사용하는 단말기로서, 사용자의 상황정보를 취득하기 위한 다양한 센서가 내장되어 있다. 사용자는 모바일 단말(110)의 카메라를 통해 현실 세계를 바라봄으로써 검색 요구를 표현한다. 모바일 단말(110)에 부착되어 있는 센서들은 각각 사용자 혹은 모바일 단말(110)의 상황인식에 필요한 정보를 취득하게 되며, 객체 인식의 데이터로 사용된다. 부착된 센서들은 각각 GPS, 자이로센서 및 전자나침반이다. 각각의 센서로부터 데이터 추출 프로그램은 Visual C++로 구현하였으며, 실시간 공간 검색 시스템에 추가하였다.
상기 GPS는 위치와 시간을 얻기 위한 용도로 사용된다. 24개의 GPS 위성이 서로 다른 궤도로 지구 대기권을 계속 회전하고 있다. 이는 지구상 어느 시간, 어느 곳에서도 4개 이상의 위성신호를 얻을 수 있도록 하기 위함이다. 위치를 측정하기 위해서는 동시에 최소 4개의 위성으로부터 신호를 받아야 한다. 물론 더 많은 위성으로부터 신호를 받으면 더욱 정확한 위치 값을 얻을 수 있다.
GPS 위치측정 데이터는 민간에 제공되는 SPS(Standard Positioning Service)로 200m이내의 오차범위를 가진다. 이러한 오차를 보정하는 방법으로 특정 위치의 좌표값과 그곳의 측정값과의 차이를 이용하여 보정된 데이터를 반영하는 DGPS(Differential GPS)가 사용된다. DGPS를 사용하면 오차범위를 5m이내로 줄일 수 있다. 여기서 DGPS에 대해서는 당해 분야에 공지된 기술이므로 자세한 언급은 생략한다.
도 21은 여행자용 내비게이션 정보 제공을 위해 사용되는 모바일 단말에 실제 GPS를 장착하여 한국항공대학교 주변을 이동하면서 위치 데이터를 기록하고, 항공사진에 드로윙한 결과의 예시이다.
각속도 센서는 자이로 센서로서 각속도를 검출하는 센서이며, 이것의 측정 단위는 당연히 각도/시간이다. 일반적으로 deg/sec인데, 일반적인 자이로는 상대적인 각도정보만을 얻을 수 있다. 따라서, 초기 각도가 주어져야만 얼마만큼의 각도가 변화하였는지를 정확히 알 수 있다.
예를 들어, 이동체의 경우로 가정하면 기준으로 되는 자세 각은 흔히 가속도계(accelerometer)를 이용하고 있다. 이것이 출력하는 가속도신호는, 가감속에 의한 운동가속도 성분과, 경사에 의한 중력가속도 성분의 두 가지가 혼합된 신호로 이해할 수 있다. 운동가속도 성분은 주파수 영역에서 고주파 성분에 위치하고, 중력가속도 성분은 저주파 성분에 위치하므로 자세 각을 산출하기 위해서는, 얻어진 가속도계신호로부터 저주파성분을 추출하고, 추출된 저주파 신호로부터 자세 각을 계산하면 된다.
가속도계는 위와 같이 하면 중력가속도를 검출할 수 있으므로, θ기울기 때의 중력 가속도는 g*SIN(θ)로 된다. 단, g는 중력가속도이다. 따라서, 만일 가속도계가 α가 되는 중력가속도를 검출한 때에는 기울기 각도(자세 각의 정적 성분) θ= SIN-1(α/θ)로 구할 수 있다.
한편, 가속도계는 운동에 따라 발생하는 가속도도 검출하기 때문에, 시간 평균한 운동가속도성분을 적분하여 자세 각을 구하므로, 응답성에 문제가 발생하게 된다. 여기서 자이로와 조합하여 응답성의 문제를 해결할 수 있다.
자이로의 각속도로부터 계산된 자세 각의 동적 부분과, 가속도계의 가속도로부터 계산된 자세 각의 정적부분으로부터, 이동체의 응답성이 빠른 부분은 자이로로 구한 자세 각을, 느린 부분은 가속도계로부터 구한 자세 각을 선택하여 실제의 자세각을 출력하면, 응답성이 좋은 각도 출력을 얻을 수 있게 됩니다. 도 22는 실제 자이로 센서를 모바일 단말에 부착하여 실험한 화면이다. 도 22에서 보는 바와 같이 모바일 단말이 기울어진 상황을 센서로부터 취득하여 각각 미분한 결과로 위, 아래, 수평과 같은 모바일 단말의 기울기를 인지할 수 있다.
전자 나침반은 크게 지자기를 이용한 자기나침반과 회전체의 원리를 이용한 자이로컴파스(gyrocompass)로 나눠지는데, 자이로컴파스는 고속으로 회전하는 자이 로스코프 축에 추를 달게 되면 지구 자전의 영향으로 이 축이 자동으로 지구의 자전축인 진북을 가리키게 되어 자기컴퍼스에서 발생되는 편차의 수정 없이 사용할 수 있다.
컴퓨터나 휴대전화에서도 전자장치로 방위를 알 수 있는 전자나침반이 개발되어 실용화되고 있다. 이 나침반은 자기나침반과는 달리 자기센서를 이용해 지자기의 강도를 검출하여 북쪽 방향을 계산해 내기 때문에 주위의 자기 영향에 강하고, 또 자기의 영향을 받더라도 신속히 그것을 분석하여 보정하는 기능이 있어 어디에서나 정확한 방위를 구하는 장점이 있다.
또 방위각을 데이터로 취득할 수 있어 이 데이터를 컴퓨터나 내비게이션 시스템과 연계하면 다방면에 쓰임새가 많아진다. 휴대전화에 전자나침반을 탑재하면 휴대전화로 자기가 가고자하는 방향을 알 수 있을 뿐 아니라 지도 표시를 진행방향에 맞추면 헤드업도 가능해진다. 이 밖에 손목시계, GPS단말기, 쌍안경, 디지털 카메라 등 모바일 단말기에도 탑재되어 아웃도어 스포츠는 물론 자동차나 레저 보트, 소형 비행기에 이르기까지 그 활용도가 점차 확대되어 가고 있다.
도 23은 모바일 단말에 전자나침반을 부착하여 북위를 기준으로 모바일 단말의 카메라가 어느 방향을 바라보고 있는지 측정한 결과이다.
본 발명에서 사용되는 데이터베이스는 세 종류로 구분된다. 방대한 공간 데이터의 효율적 관리와 공간 검색 알고리즘에 사용되는 공간 인덱스 DB(121)와, 디지털 맵으로부터 U-MAP을 통해 추출한 원천의 지리공간 데이터베이스인 맵 데이터베이스(122), 그리고 가상의 정보를 위치기반의 tagging을 통해 구축한 위치기반의 공간 정보가 저장된 콘텍스트 데이터베이스(123)이다.
공간 인덱스 데이터베이스(121)는 Rotated-MBR기반의 Rotated R*-Tree로 구성되어 있다. 이 공간 인덱스 DB(121)는 공간 질의에 대한 빠른 검색이 가능한 구조이다. 콘텍스트 DB(123)에는 POI(Point of Interest) 데이터, 즉 관심지역의 위치 데이터와 관심 정보가 저장되어 있다. 지리공간 데이터(122)는 파일DB이며, 고속의 Drawing을 위한 Bitmap 데이터도 함께 가지고 있다. 각각의 테이블 구조는 다음과 같다.
도 24는 Rotated R*-Tree의 인덱스 구조를 저장하고 있는 테이블의 구조로 노드ID, 노드 종류 및 자식 노드 ID에 대한 값을 저장하고 있다.
노드 ID의 값은 0, 1, 2, 3의 값을 가진다. 0은 Inter Node, 1은 Leaf Node, 2는 Root Node이며 3은 Element Node를 의미한다. 노드 종류는 공간 객체의 모양을 의미하며 0부터 5까지의 값을 가진다. 0은 MBR, 1은 SPHERE, 2는 POINT, 3은 OPEN_TRIANGLE, 4는 CLOSE_TRIANGLE, 5는 Roated-MBR에 해당한다.
맵 데이터베이스(122)의 기본적인 공간 정보를 표현하는 방법은 Point, Polyline, Polygon 등의 형태로 정해져 있다.
도 25는 디지털 맵으로부터 공간 정보를 추출하여 분류한 테이블 구조이다.
여기서 Map Info Table은 수치지도에 대한 기본 정보를 관리하는 테이블이다. 이 테이블은 Map_ID, Map_Name, Level, Map_Unit_ID, Path, 위도/경도로 구성되어 있다.
Map_ID는 Map Info Table의 Index이다. 다른 테이블에서 각각의 행의 값들이 어느 지도에 속하는지에 대한 정보를 확인할 수 있도록 연결키 역할을 하게 된다. Map_Name 열은 국토지리원, 미국지도, 유럽지도 등의 정보를 담고 있다. 즉, 어느 나라에서 사용하고 관리하는 지도인지에 대한 정보를 담고 있다. 이유는, 해당 국가마다 사용하는 지도 포맷이 서로 다르기 때문에 하나의 데이터베이스에서 관리하기 위해서는 구별해줄 필요가 있다. Level열은 축척 정보를 가지고 있다. 수치지도는 크게 1:1,000, 1:5,000, 1:25,000 지도를 주로 사용하게 된다. Map_Unit_ID는 도엽 번호를 가지게 된다. 도엽 번호는 위도정보를 기반으로 기본적인 이름이 정해지게 되고, 축척의 크기가 변함에 따라 숫자가 덧붙여지게 된다. Path는 원본 수치지도를 저장하고 있는 폴더 경로를 저장하고 있다. 마지막으로 위도/경도 열은 각 수치지도의 우상단 및 좌하단 Point좌표값을 가지고 있다. 즉, 해당 수치지도가 가지는 최대, 최소의 범위를 뜻하게 된다.
Object Table은 각각의 수치지도가 가지고 있는 공간정보에 대한 데이터를 저장하고 있는 테이블이다. 테이블 구성은 GID, Layer_ID, Map_ID, Object_Type, Object_Info로 구성되어 있다.
GID는 Object Table의 Index의 역할을 하게 된다. Layer_ID는 Object Table의 데이터가 어느 레이어에 속하는지에 대한 정보를 가지게 된다. 이값으로부터 Layer Table에서 레이어와 관련된 데이터를 가져올 수 있도록 연결키 역할을 하게 된다. Map_ID는 해당 Object가 속하는 지도의 ID값이 오게 된다. Object Type은 점, 선, 면의 데이터 타입을 나타낸다. 마지막으로 Object Info는 해당 데이터 타입이 폴리곤, 스트링인지에 대한 값을 가지게 된다. 위와 같은 구조를 가지는 Object Table은 데이터의 종류에 따라 도 26과 같은 종류를 가지게 된다. 분류 기준은 레이어 정보가 행정구역, 고도, 농작물배치, 건물, 건물기호, 상업시설, 문화 및 오락 등에서 어떤 종류에 속하는지에 따라 분류하였다. 이렇게 분류한 이유는 공간 정보의 분산으로 확대, 축소 비율이나 사용자가 선택적으로 공간정보를 보기 위해서이다.
Object Name Table은 Object에 해당하는 좌표값을 관리하는 테이블로 TID, GID, Name_String, Coordinate로 구성된다. TID값은 Index의 역할을 한다. GID는 Object Table의 GID값을 가지며, 연결키 역할을 한다. Name_String은 텍스트 명의 값으로 수치지도가 가지는 텍스트 값을 가지게 된다. 예를 들어 해당 Object가 건물이면, 그 건물에 해당하는 건물명을 가진다. 마지막으로 Coordinate는 좌표값이다. Object가 가지는 좌표값들을 스트링 형태로 관리하고 있다.
Layer Table은 레이어와 관련된 기본적인 정보를 관리하고 있다. 레이어는 크게 레이어명과 색깔 정보를 기본정보로 하고 있다. 이러한 정보에 Object_Table명을 추가하고 있다. 즉, 앞에서 설명한 Object_Table명에서 각각의 Object가 가지는 Layer_ID값으로 이 테이블과 연결하고 있다. Layer_ID는 Index의 역할을 하며, Layer_Name은 레이어명이다. Layer_Color은 레이어가 가지는 색깔 정보를 담고 있다.
User Map Table은 디지털 맵이 가지고 있는 데이터를 바탕으로 사용자가 직접 Object를 추가할 경우 원본 지도의 데이터를 관리하는 테이블을 손상하지 않고 관리할 수 있도록 하기 위해서이다. GID는 Index, Layer_ID는 레이어명, Map_ID는 Map Info Table의 Map_ID값이다. Object Type은 점, 선, 면의 값을 가지며, Object Info는 폴리곤, 스트링 등의 형태가 있다.
콘텍스트 DB(123)에는 도 27과 같이 모바일 단말의 공간 검색 테스트를 위해 사용되는 Geo_Objects테이블과 공간 객체의 POI(Point of Interest) 데이터, 즉 관심지역의 관심 정보를 저장하고 있는 Real_Media 테이블로 이루어져 있다.
Geo_Objectc 테이블의 세부구조는 도 28과 같다. 식별 값, 디지털 맵 ID, 공간 객체 종류, 이름, 공간 객체를 이루는 Vertex 총 개수 및 데이터로 구성되어 있다. Real_Media 테이블의 구조는 도 29와 같다.
지오 서버(130)는 위치를 기반으로 tagging된 콘텍스트 데이터베이스(123)로부터 사용자의 정보요구가 있을 경우 관련 정보를 검색 및 저장하는 서버이다. 사용자는 모바일 단말(110)을 통해 현실 공간의 이미지, 동영상 등을 실시간으로 취득할 수 있다. 예를 들어 특정 건물 앞에서 사진을 찍을 경우 해당 건물의 이름과 위치를 검색하여 콘텍스트 DB(123)에 동영상, 이미지와 함께 저장하여, 사진에 대한 별도의 tagging작업 없이 사진을 찍은 장소와 위치가 자동으로 정확하게 기록된다. 이러한 사용자의 검색 및 저장에 대한 요청을 처리해주는 역할을 한다.
객체 인식부(140)는 사용자의 정보요구가 발생하면, 센싱 정보를 기반으로 공간 검색 영역을 생성하고, 맵 데이터베이스(122)와 공간 인덱스 DB(121)를 기반으로 공간 객체를 인식하는 과정을 수행한다.
엠비언트 브라우저(160)는 카메라를 통해 비추어지는 현실 공간과 알고리즘을 통해 인식된 공간 정보, 그리고 지오 서버(130)로부터 제공되는 가상의 정보를 사용자에게 실감 있게 보여주는 브라우저이다.
통합 플랫폼(150)은 여행 내비게이션 시스템의 모든 구성요소를 관리하는 플랫폼으로, 내부적으로 주지한 U-MAP을 포함하고 있어 지리공간 데이터에 대한 공간 질의 등의 전반적인 처리를 담당하게 된다.
이상 상술한 본 발명은, 가상의 정보가 위치를 기반으로 태깅되어 있고, 공간 객체를 자동으로 인식하는 과정이 기존의 이미지로부터 특징 정보를 추출하여 검색하는 방법이 아닌 모바일 단말에서 수집되는 센싱 정보와 디지털 맵으로부터 추출한 공간 정보를 기반으로 기하학을 적용하여 실시간으로 객체를 인식하고 있다.
따라서, 사용자는 지리공간에 대한 정보를 시간과 공간의 제약 없이 손쉽게 검색할 수 있다. 특히, 사용자의 상황인식을 통해 사용자 중심의 정보 제공 서비스를 위해 모바일 단말에 다양한 센서를 추가하여 상황인식에 관한 센싱 데이터를 수집하고 있기 때문에, 사용자가 카메라를 통해 현실 공간을 비추는 행위만으로 사용자가 어떤 방향으로, 어떤 대상을 검색하고자 하는지 자동으로 인지하여 공간 정보를 자동으로 제공해주고 있다. 또한, 가상과 현실 공간 정보를 모바일 단말의 화면에 동시에 보여줌으로써 보이지 않는 가상의 정보와 실제 눈으로 보이는 현실 정보를 연관지어 확인할 수 있는 장점이 있다.
본 발명은 상술한 특정의 바람직한 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형실시가 가능한 것은 물론이고, 그 와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.
도 1은 종래 지도와 웹을 이용한 여행 정보 검색 방법을 설명하기 위한 설명도.
도 2는 본 발명에서 실시간 공간 검색 시나리오의 예시도.
도 3은 본 발명에 적용된 U-MAP 구조도.
도 4는 도 3의 공간정보 추출 플랫폼의 구성도.
도 5는 도 3의 공간정보를 관리하는 Universal Map DBMS의 구성도.
도 6은 본 발명에서 드로잉 API를 이용한 선택적 공간정보 표현 예시도.
도 7은 본 발명의 여행자용 내비게이션 방법의 개요도.
도 8은 검색 영역 생성을 위한 좌표공간 표현 방법의 예시도.
도 9는 R-Tree의 자료 구조도.
도 10은 MBR로 구성된 현실 공간 객체의 예시도.
도 11a 및 도 11b는 MBR로 구성할 경우 공간 인식의 문제점을 설명하기 위한 설명도.
도 12a는 항공대 주변 지역에 대한 MBR이고, 도 12b는 항공대 주변 지역에 대한 Rotated-MBR.
도 13은 공간 객체의 Convex 및 Rotated-MBR의 예시도.
도 14는 Rotated-MBR과 Convex의 에지간 각 계산 예시도.
도 15는 MBR의 오버랩 관계도.
도 16은 검색영역과 건물MBR의 오버랩 관계도.
도 19은 검색영역과 건물MBR의 오버랩 관계도.
도 18a 및 도 18b는 검색 영역의 분할 과정도.
도 19는 공간검색 결과의 일례도.
도 20은 본 발명에 따른 여행자용 내비게이션 시스템의 구성도.
도 21은 GPS센서를 이용한 위치 측위 예시도.
도 22는 각속도 센서를 활용한 모바일 단말이 기울기 측위 예시도.
도 23은 전자나침반을 활용한 방위각 측위 예시도.
도 24는 공간 인덱스 DB 테이블 구조도.
도 25는 Map DB 테이블 종류 및 구조도.
도 26은 Object Table 종류 및 분류 기준표
도 27은 Context DB 테이블 구조도.
도 28는 Geo_Objects 테이블 구조도.
도 29는 Real_Media 테이블 구조도.
도 30은 본 발명에 따른 여행자용 내비게이션 방법을 보인 흐름도.
<도면의 주요 부분에 대한 부호의 설명>
110… 모바일 단말
121… 공간 인덱스 데이터베이스
122… 맵 데이터베이스
123… 콘텍스트 데이터베이스
130… 지오 서버
140… 객체 인식기
150… 통합 플랫폼
160… 엠비언트 브라우저

Claims (13)

  1. 사용자에 의해 공간 정보 요구가 발생하면 공간 검색 영역을 생성하는 단계와;
    상기 생성한 공간 검색 영역에 존재하는 공간 객체를 인식하는 단계와;
    상기 인식한 공간 객체와 관련된 지리정보를 검색하는 단계와;
    상기 검색한 지리정보 결과를 기반으로 공간 검색 정보를 제공해주는 단계를 포함하는 것을 특징으로 하는 여행자용 내비게이션 방법.
  2. 제1항에 있어서, 상기 공간 검색 영역의 생성은,
    사용자가 휴대한 모바일 단말에 구비된 다수의 센서를 통해 센싱된 데이터를 기반으로 공간 검색 영역을 생성하는 것을 특징으로 하는 여행자용 내비게이션 방법.
  3. 제2항에 있어서, 상기 센싱된 데이터는,
    모바일 단말의 현재 위치 데이터, 상기 모바일 단말의 기울기 및 카메라의 시야각과 북위를 기준으로 한 방위각 데이터를 포함하는 것을 특징으로 하는 여행자용 내비게이션 방법.
  4. 제2항에 있어서, 상기 공간 검색 영역의 생성은,
    상기 센싱된 데이터를 2차원의 좌표값이 있는 디지털 맵에 적용하여 삼각형 모양의 검색 영역을 추출하여 공간 검색 영역으로 생성하는 것을 특징으로 하는 여행자용 내비게이션 방법.
  5. 제1항에 있어서, 상기 공간 객체 인식은,
    상기 생성한 공간 검색 영역 내의 다차원 공간 데이터에 대한 검색을 효율적으로 수행하기 위한 공간 데이터에 대한 인덱스를 생성하는 단계와;
    상기 검색 영역과 건물 영역에 대한 겹침(오버랩) 관계를 계산하는 단계와;
    상기 겹침 관계를 계산한 후 검색 영역을 분할하고, 상기 분할한 공간 검색 영역에 대한 검색을 반복 수행하는 단계를 포함하는 것을 특징으로 하는 여행자용 내비게이션 방법.
  6. 제1항에 있어서, 상기 지리정보 검색은 대상 객체의 이름과 위치에 대한 동영상 및 이미지 정보가 저장된 콘텍스트 데이터베이스를 검색하여 대상 객체에 대한 공간 객체를 검색하는 것을 특징으로 하는 여행자용 내비게이션 방법.
  7. 제1항에 있어서, 상기 공감 검색 정보의 제공은,
    브라우저를 이용 가상과 현실의 정보를 혼합하여 화면에 표시해주는 것을 특징으로 하는 여행자용 내비게이션 방법.
  8. 사용자의 상황정보를 취득하기 위한 다수의 센서를 구비하고, 유비쿼터스 공간을 대상으로 공간 정보에 대한 검색을 요청하는 모바일 단말과;
    상기 모바일 단말에 의해 공간 정보에 대한 검색이 요청되면, 내장된 U-MAP을 통해 지리공간 데이터에 대한 공간 질의와 관리를 수행하는 통합 플랫폼과;
    상기 통합 플랫폼과 연계되어, 상기 모바일 단말에 의해 발생한 센싱 정보를 기반으로 공간 검색 영역을 생성하고, 상기 생성한 공간 검색 영역 내의 검색 대상 객체를 인식하는 객체 인식기와;
    상기 통합 플랫폼과 연계되어, 상기 인식한 공간 객체에 대한 지리정보를 검색하여 공간 정보를 제공하는 지오 서버를 포함하는 것을 특징으로 하는 여행자용 내비게이션 시스템.
  9. 제8항에 있어서, 상기 다수의 센서는,
    검색 대상 공간을 촬영하기 위한 카메라와;
    GPS 위성으로부터 전송된 위성신호를 통해 위치와 시간 정보를 획득하기 위한 GPS와;
    상기 모바일 단말의 각속도를 검출하기 위한 각속도 센서와;
    상기 모바일 단말의 방위각을 검출하기 위한 전자 나침반을 포함하는 것을 특징으로 하는 여행자용 내비게이션 시스템.
  10. 제8항에 있어서, 상기 모바일 단말은,
    상기 카메라를 통해 비추어지는 현실 공간과 인식된 공간 정보 및 상기 지오 서버로부터 제공되는 가상의 정보를 화면에 동시에 표시해주기 위한 엠비언트 브라우저를 포함하는 것을 특징으로 하는 여행자용 내비게이션 시스템.
  11. 제8항에 있어서, 상기 통합 플랫폼은,
    각 포맷들로부터 공간정보를 추출하는 공간정보 추출기와 추출된 공간정보 데이터들의 속성정보의 유사성을 이용하여 공간객체들을 관리하는 공간객체 관리모델로 이루어진 공간정보 추출 플랫폼을 포함하는 것을 특징으로 하는 여행자용 내비게이션 시스템.
  12. 제8항에 있어서,
    디지털 맵의 지리공간 데이터로부터 공간 검색을 위한 Rotated R*-Tree 공간 인덱스가 저장된 공간 인덱스 데이터베이스와;
    원본 지리공간 데이터를 관리하는 맵 데이터베이스를 더 포함하는 것을 특징으로 하는 여행자용 내비게이션 시스템.
  13. 제12항에 있어서,
    가상의 정보가 위치를 기반으로 태깅(Tagging)되어 관리되는 콘텍스트 데이터베이스를 더 포함하는 것을 특징으로 하는 여행자용 내비게이션 시스템.
KR1020090057139A 2009-06-25 2009-06-25 여행자용 내비게이션 방법 및 그 시스템 KR20100138554A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020090057139A KR20100138554A (ko) 2009-06-25 2009-06-25 여행자용 내비게이션 방법 및 그 시스템
PCT/KR2010/003859 WO2010151001A2 (ko) 2009-06-25 2010-06-16 여행자용 내비게이션 방법 및 그 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090057139A KR20100138554A (ko) 2009-06-25 2009-06-25 여행자용 내비게이션 방법 및 그 시스템

Publications (1)

Publication Number Publication Date
KR20100138554A true KR20100138554A (ko) 2010-12-31

Family

ID=43387008

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090057139A KR20100138554A (ko) 2009-06-25 2009-06-25 여행자용 내비게이션 방법 및 그 시스템

Country Status (2)

Country Link
KR (1) KR20100138554A (ko)
WO (1) WO2010151001A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12014703B2 (en) 2022-01-28 2024-06-18 Samsung Electronics Co., Ltd. Electronic device and operation method of electronic device for controlling screen display

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015119371A1 (ko) * 2014-02-05 2015-08-13 에스케이플래닛 주식회사 Poi 그룹화를 이용한 poi 정보 제공 장치 및 방법
US10303733B2 (en) 2016-09-27 2019-05-28 International Business Machines Corporation Performing context-aware spatial, temporal, and attribute searches for providers or resources
CN111737127B (zh) 2020-06-19 2024-04-09 北京百度网讯科技有限公司 用于测试地图服务的方法和装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100679864B1 (ko) * 2005-10-22 2007-02-07 이정웅 지역정보의 표시가 가능한 이동통신 단말기 및 그 지역정보표시방법
WO2008107876A1 (en) * 2007-03-05 2008-09-12 Link It Ltd. Method for providing photographed image-related information to user, and mobile system therefor
KR100897436B1 (ko) * 2008-06-20 2009-05-14 김한준 지리정보 확인시스템의 제어방법 및 이동단말기

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12014703B2 (en) 2022-01-28 2024-06-18 Samsung Electronics Co., Ltd. Electronic device and operation method of electronic device for controlling screen display

Also Published As

Publication number Publication date
WO2010151001A2 (ko) 2010-12-29
WO2010151001A3 (ko) 2011-03-24

Similar Documents

Publication Publication Date Title
US8718922B2 (en) Variable density depthmap
US8954275B2 (en) Schematic maps
US11151905B2 (en) Navigable topological maps
US9449228B1 (en) Inferring locations from an image
KR102308960B1 (ko) 실내를 포함하는 지구상의 위치를 특정하는 방법과 이를 이용하는 데이터베이스
EP2273337B1 (en) Generating a graphic model of a geographic object and systems thereof
US9171011B1 (en) Building search by contents
US20070083557A1 (en) Geometry-based search engine for navigation systems
US8688377B1 (en) System and method of using automatically-identified prominent establishments in driving directions
US11486711B2 (en) Methods of specifying global locations including indoor locations and database using the same
US8341156B1 (en) System and method for identifying erroneous business listings
KR20100138554A (ko) 여행자용 내비게이션 방법 및 그 시스템
JP7513990B2 (ja) 地図表現データ処理装置、対応情報の生産方法、およびプログラム
KR102157999B1 (ko) 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치 및 방법
Beeharee et al. Filtering location-based information using visibility
Fang et al. A data model for organizing relative semantics as images to support pedestrian navigation computations
US20210207972A1 (en) Architecture recognition method and identification system
Rahim et al. GNSS-and-GIS based android integration of mobile based virtual guide application ExpLahore for walled city Lahore, Pakistan
Bartie Advances in visibility modelling in urban environments to support location based services
Păunescu et al. General Topography
Bartelme Geographic I
AR AUGMENTED REALITY ON ANDROID OPERATING SYSTEM-BASED DEVICE; CASE STUDY: MOSQUE FINDER
Hendrianto AUGMENTED REALITY ON ANDROID OPERATING SYSTEM-BASED DEVICE; CASE STUDY: MOSQUE FINDER
Haig Using landmarks to facilitate pedestrian wayfinding with mobile maps

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application