KR101639312B1 - 측위 네비게이션 방법, 장치, 프로그램 및 기록매체 - Google Patents

측위 네비게이션 방법, 장치, 프로그램 및 기록매체 Download PDF

Info

Publication number
KR101639312B1
KR101639312B1 KR1020147026581A KR20147026581A KR101639312B1 KR 101639312 B1 KR101639312 B1 KR 101639312B1 KR 1020147026581 A KR1020147026581 A KR 1020147026581A KR 20147026581 A KR20147026581 A KR 20147026581A KR 101639312 B1 KR101639312 B1 KR 101639312B1
Authority
KR
South Korea
Prior art keywords
user
coordinate
relative position
coordinates
absolute
Prior art date
Application number
KR1020147026581A
Other languages
English (en)
Other versions
KR20150124372A (ko
Inventor
펭 조우
얀빈 유안
Original Assignee
시아오미 아이엔씨.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 시아오미 아이엔씨. filed Critical 시아오미 아이엔씨.
Publication of KR20150124372A publication Critical patent/KR20150124372A/ko
Application granted granted Critical
Publication of KR101639312B1 publication Critical patent/KR101639312B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0257Hybrid positioning
    • G01S5/0263Hybrid positioning by combining or switching between positions derived from two or more separate positioning systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • G01C21/3638Guidance using 3D or perspective road maps including 3D objects and buildings
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/485Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals

Abstract

본 발명은, 지도 측위분야에 속하며, 측위 네비게이션 방법 및 장치에 관한 것이다. 상기 방법은, 사용자의 초기 좌표를 취득하는 단계, 초기 좌표에 대응되는 예정된 지리적 범위내의 예정된 장수의 환경 이미지를 취득하고, 미리 설정된 환경 이미지와 절대 좌표 간의 대응 관계에 기반하여 각 환경 이미지에 대응되는 절대 좌표를 각각 취득하는 단계, 각 환경 이미지별로 당해 환경 이미지중의 물체와 사용자 간의 상대 위치를 취득하는 단계, 상대 위치 및 절대 좌표에 기반하여 사용자의 지리적 위치 정보를 확정하는 단계, 를 포함한다. 본 발명은, 배경기술에 있어서, 자이로 스코프, 혹은 전자 나침반과 같은 하드웨어 어셈블리를 채용하여 사용자가 마주하는 방향을 취득함에 따라 전자 기기의 중량, 체적 및 생산 코스트가 상승하게 되는 문제를 해결했다. 본 발명의 실시 예가 제공하는 기술방안은, 전자 기기의 내부에 자이로 스코프, 혹은 전자 나침반과 같은 하드웨어 어셈블리를 설치하지 않더라도 사용자가 마주하는 방향을 포함한 지리적 위치 정보를 취득할수 있고, 전자 기기의 중량과 체적을 줄일수 있으며, 생산 코스트를 절약할수 있다.

Description

측위 네비게이션 방법, 장치, 프로그램 및 기록매체{METHOD, APPARATUS, PROGRAM AND STORAGE MEDIUM FOR POSITIONING AND NAVIGATING}
본 발명은 지도 측위(map positioning) 분야에 관한 것으로, 특히 측위 네비게이션(positioning and navigation) 방법, 장치, 프로그램 및 기록매체에 관한 것이다.
본원 발명은, 출원 번호가 CN201410126006.3이고, 출원일자가 2014년 3월31일인 중국 특허 출원을 기초로하여 우선권을 주장하는 바, 당해 중국 특허 출원의 전부 내용은 본원 발명에 원용된다.
일상 작업 및 생활에서, 사람들은 자주 지도 측위 기능을 구비하는 어플리케이션을 이용하여 자신의 지리적 위치 및 도착하려고 하는 목적지의 지리적 위치를 확정함과 동시에, 당해 목적지까지의 경로(route)을 검색한다.
관련된 기술에 있어서, 우선, GPS(Global Positioning System), 기지국, 또는 Wi-Fi(Wireless Fidelity)와 같은 측위 방법에 의하여 사용자의 현재 위치의 좌표 정보를 취득하며, 그리고, 사용자가 입력한 목적지를 수신하고, 목적지의 좌표 정보를 취득하여, 현재 위치의 좌표 정보 및 목적지의 좌표 정보에 기반하여 당해 목적지까지의 경로를 확정하는, 측위 네비게이션 방법을 제공하였다. 이러한 측위 네비게이션 방법에 있어서, 방향감이 비교적 좋지 못한 사용자가 주변 환경의 동서남북의 방위를 구분하지 못하여 제공받은 경로에 따라 순리롭게 목적지에 도착하지 못하는 문제를 해결하기 위하여, 상기의 세 단계후에 또한 자이로 스코프, 혹은 전자 나침반을 이용하여 사용자가 마주하는 방향을 취득하여 사용자에게 통지한다. 이리 하여, 사용자로 하여금 경로에 따른 방향으로 방향을 바꾸도록 가이드하여, 순리롭게 목적지에 도착하게 한다.
배경기술에 있어서, 자이로 스코프, 혹은 전자 나침반과 같은 하드웨어 어셈블리를 채용하여 사용자가 마주하는 방향을 취득함으로 인한 전자 기기의 중량, 체적 및 생산 코스트가 상승하게 되는 문제를 해결하기 위하여, 본 발명의 실시 예는 측위 네비게이션 방법 및 장치를 제공한다. 상기의 기술방안은 이하와 같다.
본 발명의 실시 예의 제 1 측면에 따르면, 측위 네비게이션 방법을 제공하는 바, 상기 측위 네비게이션 방법은, 사용자의 초기 좌표를 취득하는 단계와, 상기 초기 좌표에 대응되는 예정된 지리적 범위내의 예정된 장수의 환경 이미지를 취득하고, 미리 설정된 환경 이미지와 절대 좌표 간의 대응 관계에 기반하여 각 환경 이미지에 대응되는 절대 좌표를 각각 취득하는 단계와, 각 환경 이미지별로 당해 환경 이미지중의 물체와 상기 사용자 간의 상대 위치를 취득하는 단계와, 상기 상대 위치 및 상기 절대 좌표에 기반하여 상기 사용자의 현재 지리적 위치 정보를 확정하는 단계를 포함한다.
옵션으로서,
상기 상대 위치 및 상기 절대 좌표에 기반하여 상기 사용자의 현재 지리적 위치 정보를 확정하는 상기 단계는, 상기 환경 이미지가 1장일 경우, 상기 상대 위치, 상기 절대 좌표 및 상기 초기 좌표에 기반하여, 상기 사용자의 현재 마주하는 방향을 확정하며, 상기 초기 좌표를 상기 사용자의 실제 좌표로 확정하는 단계와,상기 환경 이미지가 2장일 경우, 상기 상대 위치, 상기 절대 좌표 및 상기 초기 좌표에 기반하여 상기 사용자의 현재 마주하는 방향과 실제 좌표를 확정하는 단계와, 상기 환경 이미지가 3장 이상일 경우, 상기 상대 위치 및 상기 절대 좌표에 기반하여 상기 사용자의 현재 마주하는 방향과 실제 좌표를 확정하는 단계를 포함한다.
옵션으로서,
상기 환경 이미지가 1장일 경우, 상기 상대 위치, 상기 절대 좌표 및 상기 초기 좌표에 기반하여 상기 사용자의 현재 마주하는 방향을 확정하는 상기 단계는, 상기 초기 좌표의 좌표점(A)부터 상기 절대 좌표의 좌표점(B)으로 향하는 참고 방향을 취득하는 단계와, 상기 참고 방향 및 상기 상대 위치에 기반하여 상기 마주하는 방향을 확정하는 단계를 포함한다.
옵션으로서,
상기 환경 이미지가 2장일 경우, 상기 상대 위치, 상기 절대 좌표 및 상기 초기 좌표에 기반하여 상기 사용자의 현재 마주하는 방향과 실제 좌표를 확정하는 상기 단계는, 상기 초기 좌표의 좌표점(A)과 상기 절대 좌표상의 제 1의 좌표점(B1)을 통과하는 제 1 직선(AB1)을 취득하고, 상기 절대 좌표상의 제 2의 좌표점(B2), 상기 제 1 직선(AB1) 및 두개의 상기 상대 위치에 기반하여 상기 실제 좌표를 확정하며, 상기 실제 좌표 및 적어도 하나의 상기 상대 위치에 기반하여 상기 마주하는 방향을 확정하는 단계를 포함하거나,
또는,
상기 초기 좌표의 좌표점(A)과 상기 절대 좌표상의 제 1의 좌표점(B1)을 통과하는 제 1 직선(AB1)과 상기 초기 좌표의 좌표점(A)과 상기 절대 좌표상의 제 2의 좌표점(B2)을 통과하는 제 2 직선(AB2)을 각각 취득하고, 상기 제 1 직선(AB1), 상기 제 2 직선(AB2) 및 두개의 상기 상대 위치에 기반하여 상기 마주하는 방향을 확정하며, 상기 마주하는 방향 및 적어도 하나의 상기 상대 위치에 기반하여 상기 실제 좌표를 확정하는 단계를 포함한다.
옵션으로서,
상기 환경 이미지가 3장일 경우, 상기 상대 위치 및 상기 절대 좌표에 기반하여 상기 사용자의 현재 마주하는 방향과 실제 좌표를 확정하는 상기 단계는, 상기 초기 좌표의 좌표점(A)과 상기 절대 좌표상의 제 1의 좌표점(B1)을 통과하는 제 1 직선(AB1)과 상기 초기 좌표의 좌표점(A)과 상기 절대 좌표상의 제 2의 좌표점(B2)을 통과하는 제 2 직선(AB2)과 상기 초기 좌표의 좌표점(A)과 상기 절대 좌표상의 제 3의 좌표점(B3)을 통과하는 제 3 직선(AB3)을 각각 취득하는 단계와, 상기 제 1 직선(AB1), 상기 제 2 직선(AB2), 상기 제 3 직선(AB3) 및 세개의 상기 상대 위치에 기반하여 상기 마주하는 방향을 확정하는 단계와, 상기 마주하는 방향 및 적어도 하나의 상기 상대 위치에 기반하여 상기 실제 좌표를 확정하는 단계를 포함한다.
옵션으로서,
상기 환경 이미지가 3장일 경우, 상기 상대 위치 및 상기 절대 좌표에 기반하여 상기 사용자의 현재 마주하는 방향과 실제 좌표를 확정하는 상기 단계는, 세개의 상기 상대 위치가, 하나의 상기 상대 위치는 상기 물체가 상기 사용자의 앞측에 위치하는 상대 위치이고, 다른 하나의 상기 상대 위치는 상기 물체가 상기 사용자의 좌측에 위치하는 상대 위치이고, 또 다른 하나의 상기 상대 위치는 상기 물체가 상기 사용자의 우측에 위치하는 상대 위치인 예정된 조건을 만족하는지 여부를 검출하는 단계와, 상기 예정된 조건을 만족하는 것이 검출되었을 경우, 상기 상대 위치가 좌측인 물체의 절대 좌표에 대응되는 좌표점(B3)과 상기 상대 위치가 우측인 물체의 절대 좌표에 대응되는 좌표점(B2)을 통과하는 제 4 직선(B2B3)을 취득하는 단계와,상기 제 4 직선(B2B3)에 수직되며, 상기 상대 위치가 상기 앞측인 물체의 절대 좌표에 대응되는 좌표점(B1)을 통과하는 수직선(B1S)을 취득하는 단계와, 상기 제 4 직선(B2B3)과 수직선과의 교점(S)의 좌표를 상기 실제 좌표로 확정하고, 상기 수직선과의 교점(S)부터 상기 좌표점(B1)으로 향하는 방향을 상기 마주하는 방향으로 확정하는 단계를 포함한다.
옵션으로서,
상기 초기 좌표에 대응되는 예정된 지리적 범위내의 예정된 장수의 환경 이미지를 취득하는 상기 단계는, 상기 초기 좌표에 대응되는 예정된 지리적 범위내의 m장의 후보 이미지를 취득하는 단계와, 상기 m장의 후보 이미지중에서 상기 예정된 n장(m≥n>0)의 환경 이미지를 선택하는 단계를 포함한다.
옵션으로서,
상기 m장의 후보 이미지중에서 상기 예정된 n장의 환경 이미지를 선택하는 상기 단계는, 미리 설정된 우선순위에 따라 상기 m장의 후보 이미지를 소트하여 후보 이미지의 배열을 취득하고, 상기 후보 이미지의 배열에 기반하여 상기 예정된 n장의 환경 이미지를 선택하는 단계를 포함하거나,
또는,
상기 m장의 후보 이미지중의 일부 또는 전부를 표시하여, 상기 후보 이미지에 대한 선택 신호를 수신하고, 상기 선택 신호에 기반하여 상기 예정된 n장의 환경 이미지를 확정하는 단계를 포함한다.
옵션으로서,
당해 환경 이미지중의 물체와 상기 사용자 간의 상대 위치를 취득하는 상기 단계는, 상기 환경 이미지와, 상기 사용자로 하여금 상기 환경 이미지중의 물체와 마주하도록 가이드하거나 및 /또는 상기 사용자로 하여금 상기 환경 이미지중의 물체와 자신의 상대 위치에 기반하여 대응되는 방향으로 상기 환경 이미지를 이동시키도록 가이드하거나 및 /또는 상기 사용자로 하여금 상기 환경 이미지중의 물체와 자신의 상대 위치에 기반하여 대응되는 위치까지 상기 환경 이미지를 이동시키도록 가이드하기 위한 가이드 정보를 표시하는 단계와, 상기 가이드 정보에 기반하여 상기 사용자가 트리거하는 입력 신호를 수신하는 단계와, 상기 입력 신호에 기반하여 상기 환경 이미지중의 물체와 상기 사용자 간의 상대 위치를 확정하는 단계를 포함한다.
옵션으로서,
상기 측위 네비게이션 방법은, 상기 사용자가 도착하려고 하는 목적지의 목적지 좌표를 취득하는 단계와, 상기 목적지 좌표 및 상기 지리적 위치 정보에 기반하여 적어도 하나의 경로를 확정하는 단계와, 상기 지리적 위치 정보, 상기 목적지 좌표 및 상기 경로를 표시하는 단계를 더 포함한다.
본 발명의 실시 예의 제 2 측면에 따르면, 측위 네비게이션 장치를 제공하는 바, 상기 측위 네비게이션 장치는, 사용자의 초기 좌표를 취득하기 위한 초기 취득 모듈과,상기 초기 좌표에 대응되는 예정된 지리적 범위내의 예정된 장수의 환경 이미지를 취득하고, 미리 설정된 환경 이미지와 절대 좌표 간의 대응 관계에 기반하여 각 환경 이미지에 대응되는 절대 좌표를 각각 취득하기 위한 이미지 취득 모듈과, 각 환경 이미지별로 당해 환경 이미지중의 물체와 상기 사용자 간의 상대 위치를 취득하기 위한 위치 취득 모듈과, 상기 상대 위치 및 상기 절대 좌표에 기반하여 상기 사용자의 현재 지리적 위치 정보를 확정하기 위한 지도 측위 모듈을 포함한다.
옵션으로서,
상기 지도 측위 모듈은, 상기 환경 이미지가 1장일 경우, 상기 상대 위치, 상기 절대 좌표 및 상기 초기 좌표에 기반하여, 상기 사용자의 현재 마주하는 방향을 확정하며, 상기 초기 좌표를 상기 사용자의 실제 좌표로 확정하기 위한 제 1 측위 유닛,
및 /또는,
상기 환경 이미지가 2장일 경우, 상기 상대 위치, 상기 절대 좌표 및 상기 초기 좌표에 기반하여 상기 사용자의 현재 마주하는 방향과 실제 좌표를 확정하기 위한 제 2 측위 유닛,
및 /또는,
상기 환경 이미지가 3장 이상일 경우, 상기 상대 위치 및 상기 절대 좌표에 기반하여 상기 사용자의 현재 마주하는 방향과 실제 좌표를 확정하기 위한 제 3 측위 유닛을 포함한다.
옵션으로서,
상기 제 1 측위 유닛은,
상기 초기 좌표의 좌표점(A)부터 상기 절대 좌표의 좌표점(B)으로 향하는 참고 방향을 취득하기 위한 방향 취득 서브 유닛과, 상기 참고 방향 및 상기 상대 위치에 기반하여 상기 마주하는 방향을 확정하기 위한 방향 확정 서브 유닛을 포함한다.
옵션으로서,
상기 제 2 측위 유닛은, 상기 초기 좌표의 좌표점(A)과 상기 절대 좌표상의 제 1의 좌표점(B1)을 통과하는 제 1 직선(AB1)을 취득하고, 상기 절대 좌표상의 제 2의 좌표점(B2), 상기 제 1 직선(AB1) 및 두개의 상기 상대 위치에 기반하여 상기 실제 좌표를 확정하며, 상기 실제 좌표 및 적어도 하나의 상기 상대 위치에 기반하여 상기 마주하는 방향을 확정하기 위한 제 1 측위 서브 유닛,
또는,
상기 초기 좌표의 좌표점(A)과 상기 절대 좌표상의 제 1의 좌표점(B1)을 통과하는 제 1 직선(AB1)과 상기 초기 좌표의 좌표점(A)과 상기 절대 좌표상의 제 2의 좌표점(B2)을 통과하는 제 2 직선(AB2)을 각각 취득하고, 상기 제 1 직선(AB1), 상기 제 2 직선(AB2) 및 두개의 상기 상대 위치에 기반하여 상기 마주하는 방향을 확정하며, 상기 마주하는 방향 및 적어도 하나의 상기 상대 위치에 기반하여 상기 실제 좌표를 확정하기 위한 제 2 측위 서브 유닛를 포함한다.
옵션으로서,
상기 제 3 측위 유닛은, 상기 초기 좌표의 좌표점(A)과 상기 절대 좌표상의 제 1의 좌표점(B1)을 통과하는 제 1 직선(AB1)과 상기 초기 좌표의 좌표점(A) 및 상기 절대 좌표상의 제 2의 좌표점(B2)을 통과하는 제 2 직선(AB2)과 상기 초기 좌표의 좌표점(A)과 상기 절대 좌표상의 제 3의 좌표점(B3)을 통과하는 제 3 직선(AB3)을 각각 취득하기 위한 직선 취득 서브 유닛과, 상기 제 1 직선(AB1), 상기 제 2 직선(AB2), 상기 제 3 직선(AB3) 및 세개의 상기 상대 위치에 기반하여 상기 마주하는 방향을 확정하기 위한 방향 계산 서브 유닛과, 상기 마주하는 방향 및 적어도 하나의 상기 상대 위치에 기반하여 상기 실제 좌표를 확정하기 위한 좌표 계산 서브 유닛을 포함한다.
옵션으로서,
상기 제 3 측위 유닛은, 세개의 상기 상대 위치가, 하나의 상기 상대 위치는 상기 물체가 상기 사용자의 앞측에 위치하는 상대 위치이고, 다른 하나의 상기 상대 위치는 상기 물체가 상기 사용자의 좌측에 위치하는 상대 위치이고, 또 다른 하나의 상기 상대 위치는 상기 물체가 상기 사용자의 우측에 위치하는 상대 위치인 예정된 조건을 만족하는지 여부를 검출하기 위한 조건 검출 서브 유닛과, 상기 예정된 조건을 만족하는 것이 검출되었을 경우, 상기 상대 위치가 좌측인 물체의 절대 좌표에 대응되는 좌표점(B3)과 상기 상대 위치가 우측인 물체의 절대 좌표에 대응되는 좌표점(B2)을 통과하는 직선(B2B3)을 취득하기 위한 횡 방향 연결 서브 유닛, 상기 직선(B2B3)에 수직되며, 상기 상대 위치가 상기 앞측인 물체의 절대 좌표에 대응되는 좌표점(B1)을 통과하는 수직선(B1S)을 취득하기 위한 수직선 취득 서브 유닛과, 상기 직선(B2B3)과 수직선과의 교점(S)의 좌표를 상기 실제 좌표로 확정하고, 상기 수직선과의 교점(S)부터 상기 좌표점(B1)으로 향하는 방향을 상기 마주하는 방향으로 확정하기 위한 결과 확정 서브 유닛을 포함한다.
옵션으로서,
상기 이미지 취득 모듈은, 상기 초기 좌표에 대응되는 예정된 지리적 범위내의 m장의 후보 이미지를 취득하기 위한 후보 취득 유닛과, 상기 m장의 후보 이미지중에서 상기 예정된 n장(m≥n>0)의 환경 이미지를 선택하기 위한 환경 취득 유닛을 포함한다.
옵션으로서,
상기 환경 취득 유닛은, 미리 설정된 우선순위에 따라 상기 m장의 후보 이미지를 소트하여 후보 이미지의 배열을 취득하고, 상기 후보 이미지의 배열에 기반하여 상기 예정된 n장의 환경 이미지를 선택하기 위한 자동 취득 서브 유닛을 포함하거나,
또는,
상기 m장의 후보 이미지중의 일부 또는 전부를 표시하여, 상기 후보 이미지에 대한 선택 신호를 수신하고, 상기 선택 신호에 기반하여 상기 예정된 n장의 환경 이미지를 확정하기 위한 사용자 선택 서브 유닛을 포함한다.
옵션으로서,
상기 위치 취득 모듈은, 상기 환경 이미지와, 상기 사용자로 하여금 상기 환경 이미지중의 물체와 마주하도록 가이드하거나 및 /또는 상기 사용자로 하여금 상기 환경 이미지중의 물체와 자신의 상대 위치에 기반하여 대응되는 방향으로 상기 환경 이미지를 이동시키도록 가이드하거나 및 /또는 상기 사용자로 하여금 상기 환경 이미지중의 물체와 자신의 상대 위치에 기반하여 대응되는 위치까지 상기 환경 이미지를 이동시키도록 가이드하기 위한 가이드 정보를 표시하기 위한 정보 표시 유닛과, 상기 가이드 정보에 기반하여 상기 사용자가 트리거하는 입력 신호를 수신하기 위한 신호 수신 유닛과, 상기 입력 신호에 기반하여 상기 환경 이미지중의 물체와 상기 사용자 간의 상대 위치를 확정하기 위한 위치 확정 유닛을 포함한다.
옵션으로서,
상기 측위 네비게이션 장치는, 상기 사용자가 도착하려고 하는 목적지의 목적지 좌표를 취득하기 위한 목적지 취득 모듈과, 상기 목적지 좌표 및 상기 지리적 위치 정보에 기반하여 적어도 하나의 경로를 확정하기 위한 경로 확정 모듈과, 상기 지리적 위치 정보, 상기 목적지 좌표 및 상기 경로를 표시하기 위한 네비게이션 표시 모듈을 더 포함한다.
본 발명의 실시 예의 제 3 측면에 따르면, 측위 네비게이션 장치를 제공하는 바,
상기 측위 네비게이션 장치는, 프로세서와, 상기 프로세서에 의해 수행가능한 인스트럭션을 저장하기 위한 메모리를 포함하며, 상기 프로세서는, 사용자의 초기 좌표를 취득하고, 상기 초기 좌표에 대응되는 예정된 지리적 범위내의 예정된 장수의 환경 이미지를 취득하고, 미리 설정된 환경 이미지와 절대 좌표 간의 대응 관계에 기반하여 각 환경 이미지에 대응되는 절대 좌표를 각각 취득하며, 각 환경 이미지별로 당해 환경 이미지중의 물체와 상기 사용자 간의 상대 위치를 취득하고, 상기 상대 위치 및 상기 절대 좌표에 기반하여 상기 사용자의 현재 지리적 위치 정보를 확정하도록 구성된다.
본 발명의 실시 예의 제 3 측면에 따르면, 프로세서에 의해 실행되는 것을 통하여 상기 측위 네비게이션 방법을 실현하는 프로그램을 제공한다.
본 발명의 실시 예의 제 4 측면에 따르면, 상기 프로그램이 기록된 기록매체를 제공한다.
본 발명의 실시 예가 제공하는 기술방안의 유익한 효과는 아래와 같다.
사용자의 초기 좌표를 취득한 후, 초기 좌표에 대응되는 예정된 지리적 범위내의 예정된 장수의 환경 이미지를 취득하고, 미리 설정된 환경 이미지와 절대 좌표 간의 대응 관계에 기반하여 각 환경 이미지에 대응되는 절대 좌표를 각각 취득하며, 각 환경 이미지별로 당해 환경 이미지중의 물체와 사용자 간의 상대 위치를 취득하며, 그 후 상대 위치 및 절대 좌표에 기반하여 사용자의 현재 지리적 위치 정보를 확정함으로써, 배경 기술에서의 자이로 스코프, 혹은 전자 나침반과 같은 하드웨어 어셈블리를 채용하여 사용자가 마주하는 방향을 취득함으로 인한 전자 기기의 중량, 체적 및 생산 코스트가 상승하게 되는 문제를 해결했다. 본 발명의 실시 예가 제공하는 기술방안은, 전자 기기의 내부에 자이로 스코프, 혹은 전자 나침반과 같은 하드웨어 어셈블리를 설치하지 않더라도 사용자가 마주하는 방향을 포함한 지리적 위치 정보를 취득할수 있고, 전자 기기의 중량과 체적을 줄일수 있으며, 생산 코스트를 절약할수 있다.
이상의 일반적인 설명과 후술되는 세부사항은 단지 예시적인 것일뿐, 본 발명을 한정하기 위한 것이 아니라는 것을 이해해야 할 것이다.
 
이하, 본 발명의 실시예의 기술적 해결수단을 더 명확하게 설명하기 위하여, 실시예의 설명 중에 사용되는 첨부도면에 대하여 간단히 소개한다. 하기의 설명중의 첨부도면은 단지 본 발명의 일부 실시예인 바, 본 기술분야의 통상의 지식을 가진 자에게 있어서 진보성 창출에 힘쓸 필요가 없는 전제하에서 이런 첨부도면에 의하여 기타 첨부도면을 얻을 수도 있는 것은 자명하다.
도 1은, 예시적인 일 실시 예에 따른 측위 네비게이션 방법을 나타낸 예시적인 플로우 차트이고,
도 2a는, 예시적인 다른 일 실시 예에 따른 측위 네비게이션 방법을 나타낸 예시적인 플로우 차트이고,
도 2b는, 예시적인 다른 일 실시 예에 따른 측위 네비게이션 방법에 있어서 상대 위치를 취득하는 경우와 관련된 예시적인 일 모식도이고,
도 2c는, 예시적인 다른 일 실시 예에 따른 측위 네비게이션 방법에 있어서 상대 위치를 취득하는 경우와 관련된 예시적인 다른 일 모식도이고,
도 2d는, 예시적인 다른 일 실시 예에 따른 측위 네비게이션 방법에 있어서 상대 위치를 취득하는 경우와 관련된 예시적인 또 다른 일 모식도이고,
도 2e는, 예시적인 다른 일 실시 예에 따른 측위 네비게이션 방법에 있어서 상대 위치를 취득하는 경우와 관련된 예시적인 더 다른 일 모식도이고,
도 2f는, 예시적인 다른 일 실시 예에 따른 측위 네비게이션 방법에 있어서 지리적 위치 정보를 계산하는 경우와 관련된 예시적인 일 모식도이고,
도 2g는, 예시적인 다른 일 실시 예에 따른 측위 네비게이션 방법에 있어서 지리적 위치 정보를 계산하는 경우와 관련된 예시적인 다른 일 모식도이고,
도 2h는, 예시적인 다른 일 실시 예에 따른 측위 네비게이션 방법에 있어서 지리적 위치 정보를 계산하는 경우와 관련된 예시적인 또 다른 일 모식도이고,
도 2i는, 예시적인 다른 일 실시 예에 따른 측위 네비게이션 방법에 있어서 지리적 위치 정보를 계산하는 경우와 관련된 예시적인 더 다른 일 모식도이고,
도 3은, 예시적인 일 실시 예에 따른 측위 네비게이션 장치를 나타낸 모식도이고,
도 4는, 예시적인 다른 일 실시 예에 따른 측위 네비게이션 장치를 나타낸 모식도이고,
도 5는, 예시적인 일 실시 예에 따른 측위 네비게이션을 수행하기 위한 장치를 나타낸 예시적인 블록도이다.
상기 도면을 통하여 본 발명의 실시예를 예시하지만 그 구체적인 내용에 대해서는 후술하도록 한다. 이러한 도면과 문자 기재는 본 발명의 취지의 범위를 한정하려는 것이 아니라 확정된 실시예를 참고로 하여 본 기술 분야의 당업자로 하여금 본 발명의 컨셉을 이해하도록 하기 위한 것이다.
 
하기에 본 발명의 목적, 기술안 및 이점을 더욱 명확하게 하기 위하여 도면을 참조하면서 본 발명의 실시예를 더욱 상세하게 설명하도록 한다. 물론, 설명하는 실시 예는 단지 본 발명의 여러개의 실시 예에 불과할 뿐, 전부의 실시 예가 아니다. 본 기술분야의 통상의 지식을 가진 자에 있어서 본 발명의 실시 예에 기반하여 진보성 창출에 힘쓸 필요가 없는 전제하에서 얻은 기타 전부의 실시 예는 본 발명의 범위에 속한다.
우선, 본 발명의 각 실시 예에서 언급되는 전자 기기는 휴대 전화, 태블릿 PC, 전자 도서 리더, MP3 플레이어(Moving Picture Experts Group Audio Layer III), MP4(Moving Picture Experts Group Audio Layer IV)플레이어, 등일수 있다는것을 설명할 필요가 있다.
도 1은, 예시적인 일 실시 예에 따른 측위 네비게이션 방법을 나타낸 플로우 차트이고, 전자 기기에 당해 측위 네비게이션 방법을 사용하는 예를 들어, 본 실시 예를 설명한다. 당해 측위 네비게이션 방법은 이하의 단계를 포함할수 있다.
단계 102에 있어서, 사용자의 초기 좌표를 취득한다.
단계 104에 있어서, 초기 좌표에 대응되는 예정된 지리적 범위내의 예정된 장수의 환경 이미지를 취득하고, 미리 설정된 환경 이미지와 절대 좌표 간의 대응 관계에 기반하여 각 환경 이미지에 대응되는 절대 좌표를 각각 취득한다.
단계 106에 있어서, 각 환경 이미지별로 당해 환경 이미지중의 물체와 사용자 간의 상대 위치를 취득한다.
단계 108에 있어서, 상대 위치 및 절대 좌표에 기반하여 사용자의 현재 지리적 위치 정보를 확정한다.
상기와 같이, 본 실시 예가 제공하는 측위 네비게이션 방법에 따르면, 사용자의 초기 좌표를 취득한 후, 초기 좌표에 대응되는 예정된 지리적 범위내의 예정된 장수의 환경 이미지를 취득하고, 미리 설정된 환경 이미지와 절대 좌표 간의 대응 관계에 기반하여 각 환경 이미지에 대응되는 절대 좌표를 각각 취득하며, 각 환경 이미지별로 당해 환경 이미지중의 물체와 사용자 간의 상대 위치를 취득하며, 그 후 상대 위치 및 절대 좌표에 기반하여 사용자의 현재 지리적 위치 정보를 확정함으로써, 배경 기술에서의 자이로 스코프, 혹은 전자 나침반과 같은 하드웨어 어셈블리를 채용하여 사용자가 마주하는 방향을 취득함으로 인한 전자 기기의 중량, 체적 및 생산 코스트가 상승하게 되는 문제를 해결했다. 본 실시 예가 제공하는 측위 네비게이션 방법에 따르면, 전자 기기의 내부에 자이로 스코프, 혹은 전자 나침반과 같은 하드웨어 어셈블리를 설치하지 않더라도 사용자가 마주하는 방향을 포함한 지리적 위치 정보를 취득할수 있고, 전자 기기의 중량과 체적을 줄일수 있으며, 생산 코스트를 절약할수 있다.
도 2a는, 예시적인 다른 일 실시 예에 따른 측위 네비게이션 방법을 나타낸 플로우 차트이고, 전자 기기에서 당해 측위 네비게이션 방법을 사용하는 예를 들어 본 실시 예를 설명한다. 당해 측위 네비게이션 방법은 이하의 단계를 포함할수 있다.
단계201에 있어서, 사용자의 초기 좌표를 취득한다.
전자 기기는 GPS, 기지국, 또는 Wi-Fi, 등의 측위 방법에 따라, 사용자의 초기 좌표를 취득한다. 사용자의 초기 좌표는, 지구를 좌표계로 하는 절대 좌표계상의, 사용자가 현재 위치하는 지리적 위치에 대응되는 좌표이다. 상기의 세개의 방법에서는 모두 어느 정도 의 오차가 발생하기 때문에, 이 때 전자 기기가 취득한 사용자의 초기 좌표는 비교적 대략적인 수치로 인식할수 있는 바, 즉 당해 초기 좌표는 사용자가 현재 실제로 위치하는 지리적 위치의 실제 좌표와 완전히 일치하다고 말할수 없다.
예를 들면, GPS측위에 의해 취득한 초기 좌표와 사용자의 현재 실제 좌표 사이에는15미터 정도의 오차가 존재할 가능성이 있다. 그리고, 예를 들면, 기지국의 측위, 또는 Wi-Fi의 측위에 의해 취득한 초기 좌표와 사용자의 현재 실제 좌표 사이에는 수십 미터, 더욱이는 수백 미터의 오차가 존재할 가능성이 있다.
또한, 상기의 GPS, 기지국, 또는 Wi-Fi, 등의 측위 방식에 의해 취득한 사용자의 초기 좌표는 이차원의 좌표이며, 사용자가 실제로 위치하는 지리적 위치의 해발 고도는 고려하지 않았다. 일 실시 예에 있어서, 상기의 세가지 측위 방식, 또는 기압 고도계와 같은 어셈블리를 더 조합하여 삼차원의 초기 좌표를 취득할수 있다.
단계202에 있어서, 초기 좌표에 대응되는 예정된 지리적 범위내의 예정된 장수의 환경 이미지를 취득한다.
전자 기기는, 사용자의 초기 좌표를 취득한 후, 초기 좌표에 대응되는 예정된 지리적 범위내의 예정된 장수의 환경 이미지를 취득한다.
본 단계는 이하의 몇개의 서브 단계를 포함할수 있다.
첫째로, 초기 좌표에 대응되는 예정된 지리적 범위내의 m장의 후보 이미지를 취득한다.
전자 기기, 또는 본 실시 예에 따른 측위 네비게이션 방법을 제공하기 위한 어플리케이션에 대응되는 서버에는, 복수개의 후보 이미지가 미리 저장되여 있으며, 통상적으로 후보 이미지는 각 지방의 대표적 건축물, 또는 산 봉우리, 타워, 고층 빌딩, 학교, 상점과 같은 풍경 등의 이미지이다. 후보 이미지는 기술자들이 각지에 가서 채집하여 미리 취득한 이미지일수도 있고, 복수의 사용자가 업로드한 이미지를 정리하여 취득한 이미지일수도 있다.
또한, 전자 기기, 또는 본 실시 예에 따른 측위 네비게이션 방법을 제공하기 위한 어플리케이션에 대응되는 서버에는, 후보 이미지와 절대 좌표 간의 대응 관계가 더 저장되여 있으며, 당해 절대 좌표는 지구를 좌표계로 하는 절대 좌표계상의 후보 이미지내의 물체가 실제로 위치하는 지리적 위치의 좌표이다. 통상적인 상황에서, 당해 절대 좌표는 긴 기간에 걸쳐 수정 및 교정을 진행하여 얻어낸 수치이며, 모든 후보 이미지에 대응되는 절대 좌표는 정확한 것이라고 인식할수 있는 바, 즉 당해 절대 좌표는 후보 이미지내의 물체가 실제로 위치하는 지리적 위치를 정확히 반영할수 있다고 인식할수 있다.
전자 기기는, 사용자의 초기 좌표를 취득한 후, 초기 좌표에 기반하여 하나의 예정된 지리적 범위를 확정하며, 예를 들면 초기 좌표를 원점으로 하고 500미터를 반경으로 하는 원형의 구역을 예정된 지리적 범위로 확정한다. 그 후, 전자 기기는 절대 좌표가 당해 예정된 지리적 범위내에 존재하는 m장의 후보 이미지를 취득한다.
둘째로, m장의 후보 이미지중에서 예정된 n장(m≥n>0)의 환경 이미지를 선택한다.
하나의 실현가능한 양태에 있어서, 미리 설정된 우선순위에 따라 m장의 후보 이미지를 소트하여 후보 이미지의 배열을 취득하고, 후보 이미지의 배열에 기반하여 예정된 n장의 환경 이미지를 선택한다.
전자 기기는 초기 좌표에 대응되는 예정된 지리적 범위내의 m장의 후보 이미지를 취득한 후, 미리 설정된 우선순위에 따라 m장의 후보 이미지를 소트하여 후보 이미지의 배열을 취득한다. 예를 들면, 전자 기기는, 각 후보 이미지에 대응되는 절대 좌표부터 초기 좌표까지의 거리에 기반하여 후보 이미지를 소트하여, 후보 이미지의 배열을 취득한다. 여기서, 후보 이미지의 배열은, 앞에서부터 뒤의 순서로, 절대 좌표부터 초기 좌표까지의 거리가 멀어지는 m장의 후보 이미지이다.
그 후, 전자 기기는 자동적으로 후보 이미지의 배열에 기반하여 예정된 n장의 환경 이미지를 선택한다. 통상적인 정황하에서, 전자 기기는 우선순위가 비교적 높은 예정된 n장의 후보 이미지를 선택하여 환경 이미지로 설정한다. 환경 이미지는, 사용자가 현재 실제로 위치하는 지리적 위치의 주위 환경의 이미지이다. 여기서, 예정된 n장은 연구원이 미리 설정한 것으로, 본 실시 예에서는 뒤에서 제공하는 서로 다른 알고리즘에 따라 당해 예정된 n장을 1, 2, 또는 3으로 미리 설정할수 있다. 물론, 본 실시 예는 예정된 n장에 대해 한정하지 않으며, 당해 n은 기타 수치일수도 있다.
다른 하나의 실현가능한 양태에 있어서, m장의 후보 이미지중의 일부 또는 전부를 표시하여, 후보 이미지에 대한 선택 신호를 수신하고, 선택 신호에 기반하여 예정된 n장의 환경 이미지를 확정한다.
전자 기기는 m장의 후보 이미지를 취득한 후, m장의 후보 이미지중의 일부 또는 전부를 표시하며, 즉 후보 이미지를 사용자에게 보임으로써, 그 후 사용자가 이런 후보 이미지중에서 예정된 n장의 후보 이미지를 선택하여 환경 이미지로 설정할수 있다. 이러한 경우, 사용자는 현재 실제의 주위 환경에 따라 자신이 명확히 볼수 있는 물체, 또는 자신과 비교적 가까운 물체에 대응되는 환경 이미지를 선택할수 있어, 이 후의 측위의 정밀도를 어느 정도 높일수 있으며, 인터랙티브 성과 흥미도 높일수 있다.
단계203에 있어서, 미리 설정된 환경 이미지와 절대 좌표 간의 대응 관계에 기반하여 각 환경 이미지에 대응되는 절대 좌표를 각각 취득한다.
상기의 단계202에 이미 설명했듯이, 전자 기기, 또는 본 실시 예에 따른 측위 네비게이션 방법을 제공하기 위한 어플리케이션에 대응되는 서버에는, 후보 이미지와 절대 좌표간의 대응 관계도 저장되여 있으며, 당해 절대 좌표는 지구를 좌표계로 하는 절대 좌표계상의 후보 이미지내의 물체가 실제로 위치하는 지리적 위치에 대응되는 좌표이다. 전자 기기는 예정된 장수의 환경 이미지를 취득한 후, 상기의 대응 관계에 기반하여 각 환경 이미지에 대응되는 절대 좌표를 각각 취득한다.
단계204에 있어서, 각 환경 이미지별로 당해 환경 이미지중의 물체와 사용자 간의 상대 위치를 취득한다.
전자 기기는, 각 환경 이미지별로 당해 환경 이미지중의 물체와 사용자 간의 상대 위치를 취득한다. 여기서, 상대 위치는 사용자와의 인터렉션을 통하여 취득한 것이다. 본 단계는 이하의 몇개의 단계를 포함할수 있다.
첫째로, 환경 이미지와, 사용자로 하여금 환경 이미지중의 물체와 마주하도록 가이드하거나 및 /또는, 사용자로 하여금 환경 이미지중의 물체와 자신의 상대 위치에 기반하여 대응되는 방향으로 환경 이미지를 이동시키도록 가이드하거나 및 /또는, 사용자로 하여금 환경 이미지중의 물체와 자신의 상대 위치에 기반하여 대응되는 위치까지 환경 이미지를 이동시키도록 가이드하기 위한 가이드 정보를 표시한다.
둘째로, 가이드 정보에 기반하여 사용자가 트리거하는 입력 신호를 수신한다.
셋째로, 입력 신호에 기반하여 환경 이미지중의 물체와 사용자 간의 상대 위치를 확정한다.
도 2b를 참조하여, 예정된 n장이 1장일 경우, 전자 기기는 환경 이미지 (21)와 가이드 정보 (22)를 표시한다. 예를 들면, 가이드 정보 (22)는, “당신은 이미지내의 물체를 발견하여 당해 물체와 마주할수 있습나까?”라는 메시지이다. 사용자는 환경 이미지 (21)와 가이드 정보 (22)를 본 후, 가이드 정보 (21)의 제시에 따라 방향을 바꾸어 환경 이미지 (21)내의 물체와 마주하며, “확인”버튼 (23)을 누른다. 전자 기기는 사용자가 “확인”버튼 (23)을 누른 확인 신호를 수신한 후, 환경 이미지중의 물체와 사용자 간의 상대 위치를 취득하며, 즉, 환경 이미지중의 물체가 사용자의 앞측에 위치하는 상대 위치를 취득한다.
도 2c를 참조하여, 예정된 n장이 1장일 경우, 전자 기기는 여전히 환경 이미지 (21)와 가이드 정보 (22)를 표시한다. 이 때, 가이드 정보 (22)는 “이미지중의 물체와 당신자신 간의 상대 위치에 기반하여 해당되는 방향으로 이미지를 슬라이드시켜 주십시오!”라는 메시지일수도 있다. 사용자는 환경 이미지 (21)와 가이드 정보 (22)를 본 후, 우선 가이드 정보 (22)의 제시에 따라 환경 이미지 (21)내의 물체와 자신 간의 상대 위치를 체크하며, 예를 들면 환경 이미지 (21)내의 물체가 우측에 위치할 경우, 전자 기기의 스크린에서 우측으로 환경 이미지 (21)를 소정의 거리 슬라이드시킨다. 전자 기기는 사용자의 슬라이드 신호를 검출한 후, 슬라이드 궤적에 기반하여 환경 이미지중의 물체와 사용자 간의 상대 위치를 확정하며, 즉, 환경 이미지중의 물체가 사용자의 우측에 위치하는 상대 위치를 취득한다.
물론, 슬라이드 방향은 임의의 방향이며, 어느 한 슬라이드 방향도 고유하게 하나의 상대 위치에 대응된다. 예를 들면, 상측으로의 슬라이드는 환경 이미지중의 물체가 사용자의 앞측에 위치하는 경우에 대응되고, 우측으로의 슬라이드는 환경 이미지중의 물체가 사용자의 우측에 위치하는 경우에 대응되고, 좌측으로의 슬라이드는 환경 이미지중의 물체가 사용자의 좌측에 위치하는 경우에 대응되고, 하방으로의 슬라이드는 환경 이미지중의 물체가 사용자가 바로 뒤측에 위치하는 경우에 대응되고, 상우측 45°로의 슬라이드는 환경 이미지중의 물체가 사용자의 앞측에서 우측으로 45° 기울어진 경우에 대응되고, 상좌측 30°로의 슬라이드는 환경 이미지중의 물체가 사용자가 앞측에서 좌측으로 30° 기울어진 경우에 대응된다.
도 2d를 참조하여, 예정된 n장이 2장일 경우, 전자 기기는 여전히 환경 이미지 (21)와 가이드 정보 (22)를 표시한다. 이 때, 가이드 정보 (22)는 “제 1장의 이미지내의 물체와 마주한 후, 제 2장의 이미지의 물체와 당신 자신의 상대 위치에 기반하여 해당되는 방향으로 제 2장의 이미지를 슬라이드시켜 주십시오!”라는 메시지일수 있다. 사용자는 2장의 환경 이미지 (21)와 가이드 정보 (22)를 본 후, 우선, 가이드 정보 (22)의 제시에 따라 방향을 바꾸어 제 1장의 환경 이미지 (21)내의 물체와 마주한 후, 제 2장의 환경 이미지 (21)내의 물체와 자신 간의 상대 위치를 체크하여, 예를 들면, 제 2장의 환경 이미지 (21)내의 물체가 우측에 위치할 경우, 전자 기기의 스크린에서 우측으로 제 2장의 환경 이미지 (21)를 소정의 거리 슬라이드시킨다. 전자 기기는 사용자의 슬라이드 신호를 검출한 후, 2장의 환경 이미지중의 각 물체와 사용자 간의 상대 위치, 즉 제 1장의 환경 이미지중의 물체가 사용자의 앞측에 위치하는 상대위치와 제 2장의 환경 이미지중의 물체가 사용자의 우측에 위치하는 상대 위치를 각각 취득한다.
물론, 기타 가능한 실시 양태에 있어서, 예정된 장수가 2일 경우, 가이드 정보 (22)는 “이미지중의 물체와 당신자신 간의 상대 위치에 기반하여 해당되는 방향으로 이미지를 각각 슬라이드시켜 주십시오!”라는 메시지일수 있다. 이렇게 하여, 전자 기기는 두개의 슬라이드 궤적에 기반하여 상기의 2장의 환경 이미지중의 물체와 사용자 간의 상대 위치를 각각 확정할수 있다.
도 2e를 참조하여, 예정된 n장이 3장일 경우, 전자 기기는 여전히 환경 이미지 (21)와 가이드 정보 (22)를 표시한다. 이 때, 가이드 정보 (22)는 “이미지중의 물체와 당신자신 간의 상대 위치에 기반하여 이미지를 각각 해당되는 위치에 넣어 주십시오!”라는 메시지일수 있다. 사용자는 3장의 환경 이미지 (21)와 가이드 정보 (22)를 본 후, 가이드 정보 (22)의 제시에 따라 3장의 환경 이미지 (21)내의 물체와 자신 간의 상대 위치를 각각 체크하며, 즉, 앞측, 좌측 및 우측을 포함한 상대 위치를 각각 체크하여, 그 후, 상기의 3장의 환경 이미지 (21)를 각각 대응되는 사각형 틀안에 넣은 후, “확인”버튼 (23)을 누른다. 전자 기기는 사용자의 “확인”버튼 (23)을 누르는 확인 신호를 수신한 후, 환경 이미지중의 각 물체와 사용자 간의 상대 위치, 즉 제 1장의 환경 이미지중의 물체가 사용자의 앞측에 위치하는 상대위치, 제 2장의 환경 이미지중의 물체가 사용자의 우측에 위치하는 상대위치, 제 3장의 환경 이미지중의 물체가 사용자의 좌측에 위치하는 상대 위치를 각각 취득한다.
물론, 도 2e에서는 단지 비교적 간단한 실시 양태를 도시하였는 바, 기타 가능한 실시 양태에 있어서, 꼭 앞측, 좌측 및 우측의 세개의 상대 위치에 한정되지 않으며, 여전히 도 2c의 실시 양태를 참조하여, 임의의 각도로의 슬라이드 궤적에 기반하여 환경 이미지중의 물체와 사용자 간의 상대 위치를 취득할수 있으며, 여기에 대해서는 구체적으로 한정하지 않는다.
단계205에 있어서, 상대 위치 및 절대 좌표에 기반하여 사용자의 현재 지리적 위치 정보를 확정한다.
전자 기기는 모든 환경 이미지중의 물체와 사용자 간의 상대 위치 및, 모든 환경 이미지중의 물체의 절대 좌표를 취득한 후, 상대 위치 및 절대 좌표에 기반하여 사용자의 현재 실제 좌표와 방향을 포함한 지리적 위치 정보를 계산한다.
이하, 상기의 도 2b-도 2e에 도시한 다른 실시 양태에 대하여 지리적 위치 정보의 계산을 각각 상세히 설명한다.
하나의 실현 가능한 양태에 있어서, 예정된 n장이 1인 예를 들어 설명한다.
도 2b와 도 2f, 혹은 도 2c와 도 2g을 참조한다. 환경 이미지가 1장일 경우, 상대 위치, 절대 좌표 및 초기 좌표에 기반하여, 사용자현재 방향을 확정하며, 초기 좌표를 사용자의 실제 좌표로 확정한다.
첫째로, 초기 좌표를 사용자의 실제 좌표로 확정한다.
환경 이미지가 1장일 경우, 초기 좌표를 그대로 채용하여 실제 좌표로 설정한다. 초기 좌표는 그다지 정확하지 않지만, 허가하는 오차의 범위내에서 사용자가 현재 실제로 위치하는 지리적 위치를 반영한다. 더욱 중요한 것은, 알고리즘을 간단히 함과 동시에 측위 네비게이션의 효율을 높일수 있다는 것이다.
둘째로, 상대 위치, 절대 좌표 및 초기 좌표에 기반하여 사용자의 현재 마주하는 방향을 확정한다.
상기의 제 2 서브 단계는 이하의 두개의 서브 단계를 포함할수 있다.
1. 초기 좌표의 좌표점(A)부터 절대 좌표의 좌표점(B)으로 향하는 참고 방향을 취득한다.
도 2f, 또는 도 2g를 참조하여, 절대 좌표계상에서(즉, 도면 내의 이차원의 수직 좌표계상에서, 수직 방향에서 상방을 북쪽으로 하고 하방을 남쪽으로 하며, 수평 방향에서 좌측을 서쪽으로 하고 우측을 동쪽으로 한다), 초기 좌표의 좌표점(A(x1, y1))와, 절대 좌표의 좌표점(B(x2, y2))을 가정하여, 초기 좌표의 좌표점(A(x1, y1))부터 절대 좌표의 좌표점(B(x2, y2))으로 향하는 참고 방향(도면에서 파선의 화살표로 도시함)을 취득한다.
2. 참고 방향과 상대 위치에 기반하여 사용자가 마주하는 방향을 확정한다.
도 2b와 도 2f를 참조하여, 환경 이미지중의 물체와 사용자 간의 상대 위치가, 물체가 사용자의 앞측에 위치하는 상대 위치일 경우, 좌표점(A(x1, y1))부터 좌표점(B(x2, y2))으로 향하는 참고 방향이 바로 사용자가 마주하는 방향(도 2f에서 실선의 화살표로 도시함)이다. 그 후, 절대 좌표계상에서 당해 방향과 정동 방향사이에 끼인 끼인각(δ= arctan|(y2―y1)/(x2―x1)| )을 더 계산할수 있다.
도 2c와 도 2g를 참조하여, 환경 이미지중의 물체와 사용자 간의 상대 위치가, 환경 이미지중의 물체가 사용자의 우측에 위치하는 상대 위치일 경우, 사용자가 마주하는 방향은 좌표점(A(x1, y1))부터 좌표점(B(x2, y2))으로 향하는 참고 방향을 시계 반대 방향으로 90° 회전시킨 방향이다(도 2g에서 실선 화살표로 도시함). 그 후, 절대 좌표계상에서 당해 방향과 정동 방향사이에 끼인 끼인각(δ=arctan|(x2―x1)/ (y2―y1)| )을 더 계산할수 있다.
또한, 상대 위치가, 환경 이미지중의 물체가 사용자의 좌측에 위치하는 상대 위치일 경우, 사용자가 마주하는 방향은 좌표점(A)부터 좌표점(B)으로 향하는 참고 방향을 시계 방향으로 90° 회전시킨 방향이며(미도시), 혹은, 상대 위치가, 환경 이미지중의 물체가 사용자의 앞측에서 좌측으로 30° 기울어진 위치에 위치하는 상대 위치일 경우, 사용자가 마주하는 방향은, 좌표점(A)부터 좌표점(B)으로 향하는 참고 방향을 시계 방향으로 30° 회전시킨 방향이다. 이렇게, 전자 기기는 참고 방향과 상대 위치에 기반하여 사용자가 마주하는 방향을 확정할수 있다.
상기의 실시 예에서는 단지 절대 좌표계상에서 사용자가 마주하는 방향과 정동 방향사이에 끼인 끼인각(δ)의 예를 들어 설명하였지만, 실제 응용에 있어서 사용자가 마주하는 방향을 취득한 후, 절대 좌표계상에서 당해 방향과 정동 방향, 정북 방향, 정서 방향, 등을 포함한 임의의 방향사이에 끼인 끼인각을 계산할수 있다는 것을, 설명할 필요가 있다.
다른 하나의 실현 가능한 양태에 있어서, 예정된 n장이 2인 예를 들어 설명한다.
환경 이미지가 2장일 경우, 상대 위치, 절대 좌표 및 초기 좌표에 기반하여 사용자의 현재 마주하는 방향과 실제 좌표를 확정한다.
첫째로, 도 2d와 도 2h의 좌측의 부분을 참조하여, 예정된 n장이 2장일 경우, 초기 좌표의 좌표점(A)과 절대 좌표상의 제 1의 좌표점(B1)을 통과하는 직선(AB1)을 취득하며, 절대 좌표상의 제 2의 좌표점(B2), 직선(AB1) 및 두개의 상대 위치에 기반하여 실제 좌표를 확정하며, 실제 좌표와 적어도 하나의 상대 위치에 기반하여 사용자가 마주하는 방향을 확정한다.
1. 초기 좌표의 좌표점(A)과 절대 좌표상의 제 1의 좌표점(B1)을 통과하는 직선(AB1)을 취득한다.
환경 이미지의 장수가 2일 경우, 우선, 두개의 절대 좌표의 좌표점중에서 하나의 좌표점(B1(x2, y2))을 선택한 후, 초기 좌표의 좌표점(A(x1, y1))과 좌표점(B1(x2, y2))을 연결하여 직선(AB1)을 취득한다.
도 2h의 좌측 부분을 참조하여, 본 실시 예에 있어서, 선택한 절대 좌표상의 제 1의 좌표점(B1(x2, y2))에 대응되는 물체와 사용자 간의 상대 위치가, 당해 물체가 사용자의 앞측에 위치하는 상대 위치로 가정한다. 초기 좌표의 좌표점(A(x1, y1))과 절대 좌표상의 제 1의 좌표점(B1(x2, y2))을 연결하여 직선(AB1)(도면에서 파선으로 도시함)을 취득한다.
2. 절대 좌표상의 제 2의 좌표점(B2), 직선(AB1) 및 두개의 상대 위치에 기반하여 실제 좌표를 확정한다.
도 2h를 참조하여, 절대 좌표상의 제 1의 좌표점(B1(x2, y2))에 대응되는 물체와 사용자 간의 상대 위치가, 당해 물체가 사용자의 앞측에 위치하는 상대 위치이고, 절대 좌표상의 제 2의 좌표점(B2(x3, y3))에 대응되는 물체와 사용자 간의 상대 위치가, 당해 물체가 사용자의 좌측에 위치하는 상대 위치이기 때문에, 사용자의 실제 좌표의 좌표점(S(x0, y0))을 정점으로 하고 직선(SB1)과 직선(SB2)를 양변으로 하는 각도인 ∠B1SB2는 90°가 되므로, 직선(AB1)에 수직되며 좌표점(B2)을 통과하는 수직선(B2S)을 그리면, 직선(AB1)과 수직선과의 교점(S)의 좌표(x0, y0)가 바로 실제 좌표이다.
또한, 절대 좌표상의 제 1의 좌표점(B1(x2, y2))에 대응되는 물체와 사용자 간의 상대 위치가, 당해 물체가 사용자의 앞측에서 좌측으로 30° 기운 위치에 위치하는 상대 위치이고, 절대 좌표상의 제 2의 좌표점(B2(x3, y3))에 대응되는 물체와 사용자 간의 상대 위치가, 당해 물체가 사용자의 앞측에서 우측으로 45° 기운 위치에 위치하는 상대 위치일 경우, 사용자의 실제 좌표의 좌표점(S(x0, y0))을 정점으로 하고 직선(SB1)과 직선(SB2)를 양변으로 하는 각도인 ∠B1SB2는 75°가 되므로, 직선(AB1)상에서 각(∠B1SB2)이 75°로 되는 점 S을 설정할수 있으며, 점 S의 좌표(x0, y0)가 바로 실제 좌표이다.
3. 실제 좌표와 적어도 하나의 상대 위치에 기반하여 사용자가 마주하는 방향을 확정한다.
실제 좌표(S(x0, y0))을 취득한 후, 하나 또는 두개의 상대 위치에 기반하여 사용자가 마주하는 방향을 확정한다. 절대 좌표상의 제 1의 좌표점(B1(x2, y2))에 대응되는 물체와 사용자 간의 상대 위치가, 당해 물체가 사용자의 앞측에 위치하는 상대 위치이기 때문에, 사용자가 마주하는 방향은 사선(SB1)의 방향이다(도면에서 실선 화살표로 도시함). 그 후, 절대 좌표계상에서 당해 방향과 정동 방향사이에 끼인 끼인각인 δ을 더 계산할수 있다. 도 2h의 좌측의 부분에 도시한 실시 예에 있어서, δ= arctan|(y0―y1)/(x0―x1)|이다.
상기의 도 2h의 좌측의 부분에 도시하여 제공하는 계산 방법에 있어서, 두개의 절대 좌표중의 제 1의 좌표점(B1)을 선택하는 요구가 비교적 높은바, 당해 좌표점(B1)에 대응되는 물체와 사용자 간의 상대 위치의 정밀도는 최종적으로 계산해낸 실제 좌표와 방향의 정밀도에 직접 관계되므로, 통상적으로 상대 위치가 사용자의 앞측에 위치하는 물체에 대응되는 좌표점을 선택하여 제 1의 좌표점(B1)으로 설정하는 것을, 설명할 필요가 있다.
GPS, 기지국, 또는 Wi-Fi 등의 서로 다른 측위 방법에 의해 취득한 사용자의 초기 좌표도 서로 다르며, 기지국, 또는 Wi-Fi측위와 비교하면 GPS측위에 의한 정밀도가 더 높기에, 전자 기기의 GPS 측위 기능이 운행되고 있을 경우, 도 2h의 좌측의 부분에 도시한 선분AS의 중간점을 선택하여 사용자의 실제 좌표의 좌표점으로 설정하며, 전자 기기의 GPS 측위 기능이 운행되고 있지 않을 경우에는, 도 2h의 좌측의 부분에 도시한 점 S을 선택하여 사용자의 실제 좌표의 좌표점으로 설정할수 있음을, 더 설명할 필요가 있다. 실제 응용에 있어서, 실제 요구에 따라 서로 다른 알고리즘을 선택하여 사용자의 실제 좌표를 취득할수 있으며, 본 실시 예에서는, 이에 대해 구체적으로 한정하지 않는다.
상기의 도 2h의 좌측의 부분에서 도시한 것은 환경 이미지가 2장인 경우에 실현 가능한 하나의 계산방법인 바, 이하, 도 2h의 우측의 부분을 참조하여 환경 이미지가 2장인 경우에 실현가능한 다른 하나의 계산방법을 설명한다.
둘째로, 도 2d와 도 2h의 우측의 부분을 참조하여, 예정된 n장이 2장일 경우, 초기 좌표의 좌표점(A)과 절대 좌표상의 제 1의 좌표점(B1)을 통과하는 직선(AB1)과, 초기 좌표의 좌표점(A)과 절대 좌표상의 제 2의 좌표점(B2)을 통과하는 직선(AB2)을 각각 취득하고, 직선(AB1), 직선(AB2) 및 두개의 상대 위치에 기반하여 사용자가 마주하는 방향을 확정하며, 방향과 적어도 하나의 상대 위치에 기반하여 실제 좌표를 확정한다.
1. 초기 좌표의 좌표점(A)과 절대 좌표상의 제 1의 좌표점(B1)을 통과하는 직선(AB1)과, 초기 좌표의 좌표점(A)과 절대 좌표상의 제 2의 좌표점(B2)을 통과하는 직선(AB2)을 각각 취득한다.
본 실시 예에 있어서, 전자 기기가 상기의 단계203에서 취득한 제 1장의 환경 이미지중의 물체와 사용자 간의 상대 위치가, 당해 물체가 사용자의 앞측에서 좌측으로 30° 기운 위치에 위치하는 상대 위치이고, 제 2장의 환경 이미지중의 물체와 사용자 간의 상대 위치가, 당해 물체가 사용자의 앞측에서 우측으로 45° 기운 위치에 위치하는 상대 위치로 가정한다. 도 2h의 우측 부분을 참조하여, 절대 좌표상의 제 1의 좌표점(B1(x2, y2))과 초기 좌표의 좌표점(A(x1, y1))을 연결하여 직선(AB1)을 취득하며, 절대 좌표상의 제 2의 좌표점(B2(x3, y3))과 초기 좌표의 좌표점(A(x1, y1))과 연결하여 직선(AB2)(도면에서 파선으로 도시함)을 취득한다.
2. 직선(AB1), 직선(AB2) 및 두개의 상대 위치에 기반하여 사용자가 마주하는 방향을 확정한다.
우선, 직선(AB1)과 제 1장의 환경 이미지중의 물체와 사용자 간의 상대 위치에 기반하여 제 1 후보 방향을 확정한다. 예를 들면, 제 1장의 환경 이미지중의 물체와 사용자 간의 상대 위치는 당해 물체가 사용자의 앞측에서 좌측으로 30° 기운 위치에 위치하는 상대 위치이기 때문에, 좌표점(A(x1, y1))을 각도의 정점으로 하고 직선(AB1)을 각도의 일변으로 하여 시계 반대 방향으로 크기가 30°인 각(∠B1AC1)을 작성한다. 사선(AC1)의 방향이 바로 제 1 후보 방향이다.
그리고, 직선(AB2) 및 제 2장의 환경 이미지중의 물체와 사용자 간의 상대 위치에 기반하여 제 2 후보 방향을 확정한다. 예를 들면, 제 2장의 환경 이미지중의 물체와 사용자 간의 상대 위치는 당해 물체가 사용자의 앞측에서 우측으로 45° 기운 위치에 위치하는 상대 위치이기 때문에, 좌표점(A(x1, y1))을 각도의 정점으로 하고 직선(AB2)을 각도의 일변으로 하여 시계 방향으로 크기가 45°인 각(∠B2AC2)을 작성한다. 사선(AC2)의 방향이 바로 제 2 후보 방향이다.
그 후, 각(∠C1AC2)의 이등분선(AC3)을 작성하면, 사선(AC3)의 방향이 바로 사용자가 마주하는 방향이다.
3. 방향과 적어도 하나의 상대 위치에 기반하여 실제 좌표를 확정한다.
사용자가 마주하는 방향을 확정한 후, 직선(AC3)상에서 점(S1)과 점(S2)을 선택하여 ∠B1S1 C3=30°로 되고 ∠B2S2 C3=45° 로 되도록 하며, 점(S1)과 점(S2)이 겹쳐지면 점(S1), 또는 점(S2)를 선택하여 사용자의 실제 좌표의 좌표점(S(x0, y0))으로 설정하고, 점(S1)과 점(S2)이 겹쳐지지 않으면 선분(S1S2)의 중간점을 선택하여 사용자의 실제 좌표의 좌표점(S(x0, y0))으로 설정한다.
그 후, 절대 좌표계상에서 사용자가 마주하는 방향과 정동 방향사이에 끼인 끼인각인 δ을 더 계산할수 있다. 도 2h의 우측의 부분에 도시한 실시 예에 있어서, δ= arctan|(y0―y1)/(x0―x1)|이다.
상기의 도 2h의 우측의 부분에 도시하여 제공하는 계산방법에 있어서, 사용자가 마주하는 방향과 실제 좌표를 계산할 때 2장의 환경 이미지중의 물체와 사용자 간의 위치 관계를 동시에 고려하며, 또한 평균치를 계산하는 알고리즘을 채용하여 두개의 후보의 방향에 기반하여 사용자가 마주하는 방향과 실제 좌표를 확정함으로써, 계산결과의 안정성을 높일수 있음을, 설명할 필요가 있다.
또 다른 하나의 실현 가능한 양태에 있어서, 예정된 n장이 3인 예를 들어 설명한다.
첫째로, 도 2e와 도 2i의 상측을 참조하여, 예정된 n장이 3장일 경우, 초기 좌표의 좌표점(A) 과 절대 좌표상의 제 1의 좌표점(B1)을 통과하는 직선(AB1)과, 초기 좌표의 좌표점(A) 과 절대 좌표상의 제 2의 좌표점(B2)을 통과하는 직선(AB2)과, 초기 좌표의 좌표점(A) 과 절대 좌표상의 제 3의 좌표점(B3)을 통과하는 직선(AB3)을 각각 취득하며, 직선(AB1), 직선(AB2), 직선(AB3) 및 세개의 상대 위치에 기반하여 사용자가 마주하는 방향을 확정하며, 방향과 적어도 하나의 상대 위치에 기반하여 실제 좌표를 확정한다.
1. 초기 좌표의 좌표점(A)과 절대 좌표상의 제 1의 좌표점(B1)을 통과하는 직선(AB1)과, 초기 좌표의 좌표점(A) 과 절대 좌표상의 제 2의 좌표점(B2)을 통과하는 직선(AB2)과, 초기 좌표의 좌표점(A)과 절대 좌표상의 제 3의 좌표점(B3)을 통과하는 직선(AB3)을 각각 취득한다.
본 실시 예에 있어서, 전자 기기가 상기의 단계203에서 취득한 제 1장의 환경 이미지중의 물체와 사용자 간의 상대 위치는, 당해 물체가 사용자의 앞측에서 좌측으로 30° 기운 위치에 위치하는 상대 위치이고, 제 2장의 환경 이미지중의 물체와 사용자 간의 상대 위치는, 당해 물체가 사용자의 앞측에서 우측으로 45° 기운 위치에 위치하는 상대 위치이고, 제 3장의 환경 이미지중의 물체와 사용자 간의 상대 위치는, 당해 물체가 사용자의 앞측에서 좌측으로 120° 기운 위치에 위치하는 상대 위치이다. 도 2i의 상측을 참조하여, 절대 좌표상의 제 1의 좌표점(B1(x2, y2))과 초기 좌표의 좌표점(A(x1, y1))을 연결하여 직선(AB1)을 취득하며, 절대 좌표상의 제 2의 좌표점(B2(x3, y3))과 초기 좌표의 좌표점(A(x1, y1))을 연결하여 직선(AB2)을 취득하며, 절대 좌표상의 제 3의 좌표점(B3)(x4, y4)과 초기 좌표의 좌표점(A(x1, y1))을 연결하여 직선(AB3)(도면에서 파선으로 도시함)을 취득한다.
2. 직선(AB1), 직선(AB2), 직선(AB3) 및 세개의 상대 위치에 기반하여 사용자가 마주하는 방향을 확정한다.
(1) 직선(AB1) 및 제 1장의 환경 이미지중의 물체와 사용자 간의 상대 위치에 기반하여 제 1 후보 방향을 확정한다. 예를 들면, 제 1장의 환경 이미지중의 물체와 사용자 간의 상대 위치는, 당해 물체가 사용자의 앞측에서 좌측으로 30° 기운 위치에 위치하는 상대 위치이기 때문에, 좌표점(A(x1, y1))을 각도의 정점으로 하고 직선(AB1)을 각도의 일변으로 하여 시계 반대 방향으로 크기가 30°인 각(∠B1AC1)을 작성한다. 사선(AC1)의 방향이 바로 제 1 후보 방향이다.
(2) 직선(AB2) 및 제 2장의 환경 이미지중의 물체와 사용자 간의 상대 위치에 기반하여 제 2 후보 방향을 확정한다. 예를 들면, 제 2장의 환경 이미지중의 물체와 사용자 간의 상대 위치는, 당해 물체가 사용자의 앞측에서 우측으로 45° 기운 위치에 위치하는 상대 위치이기 때문에, 좌표점(A(x1, y1))을 각도의 정점으로 하고 직선(AB2)을 각도의 일변으로 하여 시계 방향으로 크기가 45°인 각(∠B2AC2)을 작성한다. 사선(AC2)의 방향이 바로 제 2 후보 방향이다.
(3) 직선(AB3) 및 제 3장의 환경 이미지중의 물체와 사용자 간의 상대 위치에 기반하여 제 3 후보 방향을 확정한다. 예를 들면, 제 3장의 환경 이미지중의 물체와 사용자 간의 상대 위치는, 당해 물체가 사용자의 앞측에서 좌측으로 120° 기운 위치에 위치하는 상대 위치이기 때문에, 좌표점(A(x1, y1))을 각도의 정점으로 하고 직선(AB3)을 각도의 일변으로 하여 시계 방향으로 크기가 120°인 각(∠B3AC3)을 작성한다. 사선(AC3)의 방향이 바로 제 3 후보 방향이다.
(4) 각(∠C2AC3)의 이등분선(AC4)을 작성하고, 각(∠C1AC4)의 이등분선(AC5)을 작성하며, 사선(AC5)의 방향이 바로 사용자가 마주하는 방향이다.
3. 방향 및 적어도 하나의 상대 위치에 기반하여 실제 좌표를 확정한다.
사용자가 마주하는 방향을 확정한 후, 직선 AC5상에서 점(S1), 점(S2) 및 점(S3)(미도시)을 선택하여, 각(∠B1S1C5)이 30°로 되고 각(∠B2S2C5)이 45°로 되며 각(∠B3S3C5)이 120°로 되도록 하여, 점(S1), 점(S2) 및 점(S3)가 겹쳐지면 점(S1), 점(S2), 또는 점(S3)을 선택하여 사용자의 실제 좌표의 좌표점(S(x0, y0))으로 설정하고, 점(S1), 점(S2) 및 점(S3)이 겹쳐지지 않으면 점(S1), 점(S2) 및 점(S3)으로 구성되는 선분의 중간점을 선택하여 사용자의 실제 좌표의 좌표점(S(x0, y0))으로 설정한다. 그리고, 절대 좌표계상에서 사용자가 마주하는 방향과 정동 방향사이에 끼인 끼인각(δ=arctan|(y0―y1)/(x0―x1)| )을 더 계산할수 있다.
상기의 환경 이미지의 장수가 3장인 경우의 제 1 계산방법은, 환경 이미지의 장수가 2장인 경우의 제 2 계산방법과 동일하거나 유사하기에, 환경 이미지의 장수가 2장인 경우의 제 2 계산방법을 참조할수 있다.
둘째로, 도 2e와 도 2i의 중간 부분을 참조하여, 예정된 n장이 3장일 경우,
1. 초기 좌표의 좌표점(A)과 절대 좌표상의 제 1의 좌표점(B1)을 통과하는 직선(AB1)을 취득한다.
도 2i의 중간 부분을 참조하여, 본 실시 예에 있어서, 선택한 절대 좌표상의 제 1의 좌표점(B1(x2, y2))에 대응되는 물체와 사용자 간의 상대 위치는, 당해 물체가 사용자의 앞측에서 좌측으로 30° 기운 위치에 위치하는 상대 위치이다. 초기 좌표의 좌표점(A(x1, y1))과 절대 좌표상의 제 1의 좌표점(B1(x2, y2))을 연결하여 직선(AB1)(도면에서 파선으로 도시함)을 취득한다.
2. 절대 좌표상의 제 2의 좌표점(B2), 제 3의 좌표점(B3), 직선(AB1) 및 세개의 상대 위치에 기반하여 실제 좌표를 확정한다.
제 1장의 환경 이미지중의 물체와 사용자 간의 상대 위치는, 당해 물체가 사용자의 앞측에서 좌측으로 30° 기운 위치에 위치하는 상대 위치이고, 제 2장의 환경 이미지중의 물체와 사용자 간의 상대 위치는, 당해 물체가 사용자의 앞측에서 우측으로 45° 기운 위치에 위치하는 상대 위치이며, 제 3장의 환경 이미지중의 물체와 사용자 간의 상대 위치는, 당해 물체가 사용자의 앞측에서 좌측으로 120° 기운 위치에 위치하는 상대 위치이기 때문에, 직선(AB1)상에서 점(S1)과 점(S2)을 선택하여 각(∠B2S1 B1)이 30°+45°=75°로 되고 각(∠B3S1 B1)이 120°- 30°=90°로 되도록 한다.
도 2i의 중간 부분을 참조하여, 점(S1)과 점(S2)을 취득한 후 각 알고리즘에 따라 선분(S1S2)의 중간점의 좌표를 선택하여 사용자의 실제 좌표(미도시)로 설정하여도 되며, 선분(B3S2)를 따라 반대되는 방향으로 연장하는 선을 작성하여 직선(B2S1)와 교차되는 점(S3)을 취득하여 삼각형(△S1S2S3)의 중간점(S)의 좌표(x0, y0)을 선택하여 사용자의 실제 좌표로 설정한다.
3. 실제 좌표 및 적어도 하나의 상대 위치에 기반하여 사용자가 마주하는 방향을 확정한다.
실제 좌표S(x0, y0)을 취득한 후 적어도 하나의 상대 위치에 기반하여 사용자가 마주하는 방향을 확정한다.
상기의 환경 이미지의 장수가 3장인 경우의 제 2 계산방법은, 환경 이미지의 장수가 2장인 경우의 제 1 계산방법과 동일하거나 유사하기에, 환경 이미지의 장수가 2장인 경우의 제 1 계산방법을 참조할수 있다.
이하, 도 2e와 도 2i의 아래 부분을 참조하여, 3장의 환경 이미지중의 물체와 사용자 간의 상대 위치가, 사용자의 앞측, 좌측 및 우측에 당해 물체가 각각 위치하는 상대 위치일 경우의 알고리즘을 제공한다.
1. 세개의 상대 위치가, 하나의 상대 위치는, 물체가 사용자의 앞측에 위치하는 상대 위치이고, 다른 하나의 상대 위치는, 물체가 사용자의 좌측에 위치하는 상대 위치이고, 또 다른 하나의 상대 위치는, 물체가 사용자의 우측에 위치하는 상대 위치인 예정된 조건을 만족하는지 아닌지를 검출한다.
2. 예정된 조건을 만족하는 것을 검출했을 경우, 상대 위치가 좌측인 물체의 절대 좌표에 대응되는 좌표점(B3)과 상대 위치가 우측인 물체의 절대 좌표에 대응되는 좌표점(B2)을 통과하는 직선(B2B3)을 취득한다.
3. 직선(B2B3)에 수직되며, 상대 위치가 앞측인 물체의 절대 좌표에 대응되는 좌표점(B1)을 통과하는 수직선(B1S)을 취득한다.
4. 직선(B2B3)와 수직선과의 교점(S)의 좌표를 실제 좌표로 확정하며, 수직선과의 교점(S)로부터 좌표점(B1)으로 향하는 방향을 사용자가 마주하는 방향으로 확정한다.
그리고, 절대 좌표계상에서 사용자가 마주하는 방향과 정동 방향사이에 끼인 끼인각( δ=arctan|(y0―y1)/(x0―x1)| )을 더 계산할수 있다.
상기의 도 2i의 아래 부분에서 도시하여 제공하는 계산방법에 있어서, 사용자의 실제 좌표와 방향을 계산하는 과정에 초기 좌표를 이용할 필요가 없기 때문에, 특히 취득한 초기 좌표가 그다지 정확하지 않을 때 사용자가 실제 위치하는 지리적 위치를 측위하는 경우에 적합하다. 또한, 상기의 실시 예가 제공하는 측위 네비게이션 방법에 기초하여 삼차원의 초기 좌표를 조합시켜, 서로 다른 해발 고도의 환경 이미지를 취득할수 있으며, 실내의 서로 다른 층의 측위와 네비게이션을 실현할수 있으며, 본 실시 예가 제공하는 측위 네비게이션 방법의 응용 범위와 사용의 용이성을 충분히 개선했다.
또한, 전자 기기는 사용자의 현재 지리적 위치 정보를 취득한 후, 이하의 몇개의 단계를 수행할수 있다.
단계206에 있어서, 사용자가 도착하려고 하는 목적지의 목적지 좌표를 취득한다.
전자 기기는 사용자가 도착하려고 하는 목적지의 목적지 좌표를 취득한다. 목적지의 명칭은 통상적으로 사용자가 입력하며, 그 후 전자 기기는 사용자가 입력한 목적지의 명칭에 따라 절대 좌표계상의 당해 목적지의 목적지 좌표를 취득한다.
단계207에 있어서, 목적지 좌표와 지리적 위치 정보에 기반하여 적어도 하나의 경로를 확정한다.
전자 기기는 목적지 좌표와 지리적 위치 정보에 기반하여 적어도 하나의 경로를 확정한다. 지리적 위치 정보에는 사용자의 현재 실제 좌표가 포함되여 있으므로, 전자 기기는 목적지 좌표와 실제 좌표를 취득한 후, 사용자를 위해 실제 좌표부터 당해 목적지 좌표까지의 적어도 하나의 경로를 확정할수 있는 바, 즉 사용자가 현재 위치하는 지리적 위치부터 사용자가 도착하려고 하는 목적지까지의 경로를 확정할수 있다.
단계208에 있어서, 지리적 위치 정보, 목적지 좌표 및 경로를 표시한다.
그 후, 전자 기기는 사용자가 마주하는 방향, 사용자의 실제 좌표, 목적지 좌표 및 경로를 표시하며, 사용자가 표시된 정보에 기반하여 목적지까지 도착할수 있도록 가이드한다.
상기와 같이, 본 실시 예가 제공하는 측위 네비게이션 방법에 따르면, 사용자의 초기 좌표를 취득한 후, 초기 좌표에 대응되는 예정된 지리적 범위내의 예정된 장수의 환경 이미지를 취득하고, 미리 설정된 환경 이미지와 절대 좌표 간의 대응 관계에 기반하여 각 환경 이미지에 대응되는 절대 좌표를 각각 취득하며, 각 환경 이미지별로 당해 환경 이미지중의 물체와 사용자 간의 상대 위치를 취득하며, 그 후 상대 위치 및 절대 좌표에 기반하여 사용자의 현재 지리적 위치 정보를 확정함으로써, 배경 기술에서의 자이로 스코프, 혹은 전자 나침반과 같은 하드웨어 어셈블리를 채용하여 사용자가 마주하는 방향을 취득함으로 인한 전자 기기의 중량, 체적 및 생산 코스트가 상승하게 되는 문제를 해결했다. 본 실시 예가 제공하는 측위 네비게이션 방법에 따르면, 전자 기기의 내부에 자이로 스코프, 혹은 전자 나침반과 같은 하드웨어 어셈블리를 설치하지 않더라도 사용자가 마주하는 방향을 포함한 지리적 위치 정보를 취득할수 있고, 전자 기기의 중량과 체적을 줄일수 있으며, 생산 코스트를 절약할수 있다.
또한, 본 실시 예에 따르면, 환경 이미지의 서로 다른 매개 장수에 대응하여, 사용자가 마주하는 방향과 실제 좌표를 계산하는 다양한 방법을 제공하였는 바, 그 중 하나의 방법은 알고리즘이 간단하고 측위 네비게이션의 효률이 높으며, 다른 하나의 방법은 평균치를 취득하는 알고리즘을 채용하여 두개 또는 세개의 후보의 방향에 기반하여 사용자가 마주하는 방향과 실제 좌표를 확정함으로써 계산결과의 안정성을 높일수 있으며, 또 다른 하나의 방법은 사용자 간의 인터랙티브 성이 높다. 실제 응용에 있어서, 다양한 요구에 따라 다양한 계산방법을 채용할수 있다.
이하는 본 발명의 장치의 실시 예이며, 본 발명의 방법의 실시 예를 수행할수 있다. 본 발명의 장치의 실시 예 내에서 기술되지 않은 세부 내용은, 본 발명의 방법의 실시 예를 참조할수 있다.
도 3는, 예시적인 일 실시 예에 따른 측위 네비게이션 장치를 나타낸 모식도이고, 당해 측위 네비게이션 장치는 소프트웨어, 하드웨어, 또는 양자의 조합에 의해 전자 기기의 일부 또는 전부를 실현할수 있다. 당해 측위 네비게이션 장치는 초기 취득 모듈(310), 이미지 취득 모듈(320), 위치 취득 모듈(330) 및 지도 측위 모듈(340)을 포함할수 있다.
초기 취득 모듈(310)은, 사용자의 초기 좌표를 취득한다.
이미지 취득 모듈(320)은, 상기 초기 좌표에 대응되는 예정된 지리적 범위내의 예정된 장수의 환경 이미지를 취득하고, 미리 설정된 환경 이미지와 절대 좌표 간의 대응 관계에 기반하여 각 환경 이미지에 대응되는 절대 좌표를 각각 취득한다.
위치 취득 모듈(330)은, 각 환경 이미지별로 당해 환경 이미지중의 물체와 상기 사용자 간의 상대 위치를 취득한다.
지도 측위 모듈(340)은, 상기 상대 위치 및 상기 절대 좌표에 기반하여 상기 사용자의 현재 지리적 위치 정보를 확정한다.
상기와 같이, 본 실시 예가 제공하는 측위 네비게이션 장치에 따르면, 사용자의 초기 좌표를 취득한 후, 초기 좌표에 대응되는 예정된 지리적 범위내의 예정된 장수의 환경 이미지를 취득하고, 미리 설정된 환경 이미지와 절대 좌표 간의 대응 관계에 기반하여 각 환경 이미지에 대응되는 절대 좌표를 각각 취득하며, 각 환경 이미지별로 당해 환경 이미지중의 물체와 사용자 간의 상대 위치를 취득하며, 그 후 상대 위치 및 절대 좌표에 기반하여 사용자의 현재 지리적 위치 정보를 확정함으로써, 배경 기술에서의 자이로 스코프, 혹은 전자 나침반과 같은 하드웨어 어셈블리를 채용하여 사용자가 마주하는 방향을 취득함으로 인한 전자 기기의 중량, 체적 및 생산 코스트가 상승하게 되는 문제를 해결했다. 본 실시 예가 제공하는 측위 네비게이션 방법에 따르면, 전자 기기의 내부에 자이로 스코프, 혹은 전자 나침반과 같은 하드웨어 어셈블리를 설치하지 않더라도 사용자가 마주하는 방향을 포함한 지리적 위치 정보를 취득할수 있고, 전자 기기의 중량과 체적을 줄일수 있으며, 생산 코스트를 절약할수 있다.
도 4은, 예시적인 다른 일 실시 예에 따른 측위 네비게이션 장치를 나타낸 모식도이고, 당해 측위 네비게이션 장치는 소프트웨어, 하드웨어, 또는 양자의 조합에 의해 전자 기기의 일부 또는 전부를 실현할수 있다. 당해 측위 네비게이션 장치는 초기 취득 모듈(310), 이미지 취득 모듈(320), 위치 취득 모듈(330), 지도 측위 모듈(340), 목적지 취득 모듈(350), 경로 확정 모듈(360) 및 네비게이션 표시 모듈(370)을 포함할수 있다. .
초기 취득 모듈(310)은, 사용자의 초기 좌표를 취득한다.
이미지 취득 모듈(320)은, 상기 초기 좌표에 대응되는 예정된 지리적 범위내의 예정된 장수의 환경 이미지를 취득하고, 미리 설정된 환경 이미지와 절대 좌표 간의 대응 관계에 기반하여 각 환경 이미지에 대응되는 절대 좌표를 각각 취득한다.
옵션으로서,
상기 이미지 취득 모듈(320)은, 후보 취득 유닛(320a) 및 환경 취득 유닛(320b)을 포함한다.
상기 후보 취득 유닛(320a)은, 상기 초기 좌표에 대응되는 예정된 지리적 범위내의 m장의 후보 이미지를 취득한다.
상기 환경 취득 유닛(320b)은, 상기 m장의 후보 이미지중에서 상기 예정된 n장(m≥n>0)의 환경 이미지를 선택한다.
옵션으로서,
상기 환경 취득 유닛(320b)은, 자동 취득 서브 유닛(320b1), 또는 사용자 선택 서브 유닛(320b2)을 포함한다.
상기 자동 취득 서브 유닛(320b1)은, 미리 설정된 우선순위에 따라 상기 m장의 후보 이미지를 소트하여 후보 이미지의 배열을 취득하고, 상기 후보 이미지의 배열에 기반하여 상기 예정된 n장의 환경 이미지를 선택한다.
상기 사용자 선택 서브 유닛(320b2)은, 상기 m장의 후보 이미지중의 일부 또는 전부를 표시하여, 상기 후보 이미지에 대한 선택 신호를 수신하고, 상기 선택 신호에 기반하여 상기 예정된 n장의 환경 이미지를 확정한다.
위치 취득 모듈(330)은, 각 환경 이미지별로 당해 환경 이미지중의 물체와 상기 사용자 간의 상대 위치를 취득한다.
옵션으로서,
상기 위치 취득 모듈(330)은, 정보 표시 유닛(330a), 신호 수신 유닛(330b) 및 위치 확정 유닛(330c)을 포함한다.
상기 정보 표시 유닛(330a)은, 상기 환경 이미지와, 상기 사용자로 하여금 상기 환경 이미지중의 물체와 마주하도록 가이드하거나 및 /또는, 상기 사용자로 하여금 상기 환경 이미지중의 물체와 자신의 상대 위치에 기반하여 대응되는 방향으로 상기 환경 이미지를 이동시키도록 가이드하거나 및 /또는, 상기 사용자로 하여금 상기 환경 이미지중의 물체와 자신의 상대 위치에 기반하여 대응되는 위치까지 상기 환경 이미지를 이동시키도록 가이드하기 위한 가이드 정보를 표시한다.
상기 신호 수신 유닛(330b)은, 상기 가이드 정보에 기반하여 상기 사용자가 트리거하는 입력 신호를 수신한다.
상기 위치 확정 유닛(330c)은, 상기 입력 신호에 기반하여 상기 환경 이미지중의 물체와 상기 사용자 간의 상대 위치를 확정한다.
지도 측위 모듈(340)은, 상기 상대 위치 및 상기 절대 좌표에 기반하여 상기 사용자의 현재 지리적 위치 정보를 확정한다.
옵션으로서,
상기 지도 측위 모듈(340)은, 제 1 측위 유닛(340a) 및 /또는, 제 2 측위 유닛(340b) 및 /또는, 제 3 측위 유닛(340c)을 포함한다.
상기 제 1 측위 유닛(340a)은, 상기 환경 이미지가 1장일 경우, 상기 상대 위치, 상기 절대 좌표 및 상기 초기 좌표에 기반하여 상기 사용자의 현재 마주하는 방향을 확정하며, 상기 초기 좌표를 상기 사용자의 실제 좌표로 확정한다.
옵션으로서,
상기 제 1 측위 유닛(340a)은, 방향 취득 서브 유닛(340a1) 및 방향 확정 서브 유닛(340a2)를 포함한다.
상기 방향 취득 서브 유닛(340a1)은, 상기 초기 좌표의 좌표점(A)부터 상기 절대 좌표의 좌표점(B)으로 향하는 참고 방향을 취득한다.
상기 방향 확정 서브 유닛(340a2)은, 상기 참고 방향 및 상기 상대 위치에 기반하여 상기 마주하는 방향을 확정한다.
상기 제 2 측위 유닛(340b)은, 상기 환경 이미지가 2장일 경우, 상기 상대 위치, 상기 절대 좌표 및 상기 초기 좌표에 기반하여 상기 사용자의 현재 마주하는 방향과 실제 좌표를 확정한다.
옵션으로서,
상기 제 2 측위 유닛(340b)은, 제 1 측위 서브 유닛(340b1), 또는 제 2 측위 서브 유닛(340b2)을 포함한다.
상기 제 1 측위 서브 유닛(340b1)은, 상기 초기 좌표의 좌표점(A)과 상기 절대 좌표상의 제 1의 좌표점(B1)을 통과하는 직선(AB1)을 취득하며, 상기 절대 좌표상의 제 2의 좌표점(B2), 상기 직선(AB1) 및 두개의 상기 상대 위치에 기반하여 상기 실제 좌표를 확정하며, 상기 실제 좌표와 적어도 하나의 상기 상대 위치에 기반하여 상기 마주하는 방향을 확정한다.
상기 제 2 측위 서브 유닛(340b2)은, 상기 초기 좌표의 좌표점(A)과 상기 절대 좌표상의 제 1의 좌표점(B1)을 통과하는 직선(AB1)과, 상기 초기 좌표의 좌표점(A)과 상기 절대 좌표상의 제 2의 좌표점(B2)을 통과하는 직선(AB2)을 각각 취득하며, 상기 직선(AB1), 상기 직선(AB2) 및 두개의 상기 상대 위치에 기반하여 상기 마주하는 방향을 확정하며, 상기 마주하는 방향 및 적어도 하나의 상기 상대 위치에 기반하여 상기 실제 좌표를 확정한다.
상기 제 3 측위 유닛(340c)은, 상기 환경 이미지가 3장 이상일 경우, 상기 상대 위치 및 상기 절대 좌표에 기반하여 상기 사용자의 현재 마주하는 방향과 실제 좌표를 확정한다.
옵션으로서,
상기 제 3 측위 유닛(340c)은, 직선 취득 서브 유닛(340c1), 방향 계산 서브 유닛(340c2) 및 좌표 계산 서브 유닛(340c3)를 포함한다.
상기 직선 취득 서브 유닛(340c1)은, 상기 초기 좌표의 좌표점(A)과 상기 절대 좌표상의 제 1의 좌표점(B1)을 통과하는 직선(AB1)과, 상기 초기 좌표의 좌표점(A)과 상기 절대 좌표상의 제 2의 좌표점(B2)을 통과하는 직선(AB2)과, 상기 초기 좌표의 좌표점(A)과 상기 절대 좌표상의 제 3의 좌표점(B3)을 통과하는 직선(AB3)을 각각 취득한다.
상기 방향 계산 서브 유닛(340c2)은, 상기 직선(AB1), 상기 직선(AB2), 상기 직선(AB3) 및 세개의 상기 상대 위치에 기반하여 상기 마주하는 방향을 확정한다.
상기 좌표 계산 서브 유닛(340c3)은, 상기 마주하는 방향 및 적어도 하나의 상기 상대 위치에 기반하여 상기 실제 좌표를 확정한다.
옵션으로서,
상기 제 3 측위 유닛(340c)은, 조건 검출 서브 유닛(340c4), 횡 방향 연결 서브 유닛(340c5), 수직선 취득 서브 유닛(340c6) 및 결과 확정 서브 유닛(340c7)을 포함한다.
상기 조건 검출 서브 유닛(340c4)은, 세개의 상기 상대 위치가, 하나의 상기 상대 위치는, 상기 물체가 상기 사용자의 앞측에 위치하는 상대 위치이고, 다른 하나의 상기 상대 위치는, 상기 물체가 상기 사용자의 좌측에 위치하는 상대 위치이며, 또 다른 하나의 상기 상대 위치는 상기 물체가 상기 사용자의 우측에 위치하는 상대 위치인 예정된 조건을 만족하는지 아닌지를 검출한다.
상기 횡 방향 연결 서브 유닛(340c5)은, 상기 예정된 조건을 만족하는 것을 검출했을 경우, 상기 상대 위치가 상기 좌측인 물체의 절대 좌표에 대응되는 좌표점(B2)과 상기 상대 위치가 상기 우측인 물체의 절대 좌표에 대응되는 좌표점(B3)을 통과하는 직선(B2B3)을 취득한다.
상기 수직선 취득 서브 유닛(340c6)은, 상기 상대 위치가 상기 앞측인 물체의 절대 좌표에 대응되는 좌표점(B1)을 통과하는 상기 직선(B2B3)의 수직선(B1S)을 취득한다.
상기 결과 확정 서브 유닛(340c7)은, 수직선과의 교점(S)의 좌표를 상기 실제 좌표로 확정하며, 상기 수직선과의 교점(S)부터 상기 좌표점(B1)으로 향하는 방향을 상기 마주하는 방향으로 확정한다.
목적지 취득 모듈(350)은, 상기 사용자가 도착하려고 하는 목적지의 목적지 좌표를 취득한다.
경로 확정 모듈(360)은, 상기 목적지 좌표와 상기 지리적 위치 정보에 기반하여 적어도 하나의 경로를 확정한다.
네비게이션 표시 모듈(370)은, 상기 지리적 위치 정보, 상기 목적지 좌표 및 상기 경로를 표시한다.
상기와 같이, 본 실시 예가 제공하는 측위 네비게이션 장치에 따르면, 사용자의 초기 좌표를 취득한 후, 초기 좌표에 대응되는 예정된 지리적 범위내의 예정된 장수의 환경 이미지를 취득하고, 미리 설정된 환경 이미지와 절대 좌표 간의 대응 관계에 기반하여 각 환경 이미지에 대응되는 절대 좌표를 각각 취득하며, 각 환경 이미지별로 당해 환경 이미지중의 물체와 사용자 간의 상대 위치를 취득하며, 그 후 상대 위치 및 절대 좌표에 기반하여 사용자의 현재 지리적 위치 정보를 확정하는 것으로 인한 배경 기술에서의 자이로 스코프, 혹은 전자 나침반과 같은 하드웨어 어셈블리를 채용하여 사용자의 방위를 취득하기때문에 전자 기기의 중량, 체적 및 생산 코스트가 상승하게 되는 문제를 해결했다. 본 실시 예가 제공하는 측위 네비게이션 방법에 따르면, 전자 기기의 내부에 자이로 스코프, 혹은 전자 나침반과 같은 하드웨어 어셈블리를 설치하지 않더라도 사용자가 마주하는 방향을 포함한 지리적 위치 정보를 취득할수 있고, 전자 기기의 중량과 체적을 줄일수 있으며, 생산 코스트를 절약할수 있다.
또한, 본 실시 예에 있어서, 환경 이미지의 서로 다른 매개 장수에 대응하여, 사용자가 마주하는 방향과 실제 좌표를 계산하는 다양한 방법을 제공하였는 바, 그 중 하나의 방법은 알고리즘이 간단하고 측위 네비게이션의 효률이 높으며, 다른 하나의 방법은 평균치를 취득하는 알고리즘을 채용하여 두개 또는 세개의 후보의 방향에 기반하여 사용자가 마주하는 방향과 실제 좌표를 확정함으로써 계산결과의 안정성을 높일수 있으며, 또 다른 일부 방법은 사용자 간의 인터랙티브 성이 높다. 실제 응용에 있어서, 다양한 요구에 따라 다양한 계산방법을 채용할수 있다.
상기 실시 예 중의 장치에 관하여, 각 모듈이 조작을 수행하는 구체적인 방법은 이미 관련된 방법의 실시 예에서 상세히 설명했기에, 여기서 상세한 설명은 생략한다.
도 5은, 예시적인 일 실시 예에 따른 측위 네비게이션 장치(500)의 블록도 이다. 예를 들면, 장치(500)은, 휴대 전화, 컴퓨터, 디지털 방송 단말기, 메시지 송수신 디바이스, 게임 콘솔, 태블릿 디바이스, 의료 기기, 피트니스 기기, 개인 디지털 보조, 등일수 있다.
도 5 에 도시된 바와 같이, 장치(500)는 프로세스 어셈블리(502), 메모리(504), 전원 어셈블리(506), 멀티미디어 어셈블리(508), 오디오 어셈블리(510), 입력/출력(I/O) 인터페이스(512), 센서 어셈블리(514) 및 통신 어셈블리(516) 등 하나 또는 복수의 어셈블리를 포함할 수 있다..
프로세스 어셈블리(502)는 통상적으로 장치(500)의 전체 조작을 제어하며, 예를 들면, 표시,전화 호출,데이터 통신,카메라 조작 및 기록 조작에 관련된 조작을 제어할 수 있다. 프로세스 소자(502)는 하나 또는 복수의 프로세서(520)를 구비하여 인스트럭션을 실행함으로써 상기 방법의 전부 혹은 일부 단계를 완성한다. 또한, 프로세스 어셈블리(502)는 하나 또는 복수의 모듈을 포함하고 있어 프로세스 어셈블리(502)와 기타 어셈블리 사이의 인트렉션에 편리하다. 예를 들면, 프로세스 어셈블리(502)는 멀티미디어 모듈을 포함고 있어 멀티미디어 어셈블리(508)와 프로세스 어셈블리(502) 사이의 인트렉션이 편리하게 된다.
메모리(504)에는 각종 유형의 데이터를 저장되어 장치(500)의 동작을 서포트한다. 이러한 데이터의 예로서 장치(500)에서 동작하는 임의의 애플리케이션 프로그램 혹은 방법을 실행하기 위한 인스트럭션,연락인 데이터,전화번호부 데이터,메시지,이미지, 비디오 등을 포함한다. 메모리(504)는 임의의 유형의 휘발성 혹은 비휘발성 메모리 혹은 양자의 조합으로 실현될 수 있으며, 예를 들면 SRAM(Static Random Access Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory) ,EPROM(Erasable Programmable Read Only Memory), PROM(Programmable Read-Only Memory), ROM(Read-Only Memory),자기 메모리,플래시 메모리,자기 디스크 혹은 콤팩트 디스크 등으로 실현될 수 있다.
전력 어셈블리(506)는 장치(500)의 각 어셈블리에 전력을 공급하기 위한 것이다. 전력 어셈블리(506)는 전원 관리 시스템,하나 또는 복수의 전원 및 장치(500)를 위하여 전력을 생성, 관리 및 분배하기 위한 기타 어셈블리를 포함할 수 있다.
멀티미디어 어셈블리(508)는 상기 장치(500)와 사용자 사이에 하나의 출력 인터페이스를 제공하는 스크린을 포함한다. 일부 실시예에 있어서, 스크린은 액정 표시 장치(LCD)와 터치 패널(TP)을 포함할 수 있다. 스크린이 터치 패널을 포함할 경우, 스크린은 사용자가 입력한 신호를 수신할 수 있는 터치 스크린을 구현할 수 있다. 터치 패널은 하나 또는 복수의 터치 센서를 포함하고 있어 터치, 슬라이딩 및 터치 패널위에서의 손 움직임을 감지할 수 있다. 상기 터치 센서는 터치 혹은 슬라이딩 동작의 경계위치를 감지할 수 있을 뿐만 아니라, 상기 터치 혹은 슬라이딩 조작에 관련된 지속시간 및 압력을 검출할 수 있다. 일부 실시예에 있어서,멀티미디어 어셈블리(508)는 하나의 프론트 카메라 및/또는 리어 카메라를 포함한다. 장치(500)가 예를 들면 촬영 모드 혹은 비디오 모드 등 조작 모드 상태에 있을 경우, 프론트 카메라 및/또는 리어 카메라는 외부로 부터의 멀티미디어 데이터를 수신할 수 있다. 프론트 카메라와 리어 카메라는 하나의 고정된 광학 렌즈 시스템일 수 있거나 또는 가변 초점거리와 광학 줌기능을 구비할 수 있다.
오디오 어셈블리(510)는 오디오 신호를 출력 및/또는 입력하기 위한 것이다. 예를 들면, 오디오 어셈블리(510)는 마이크로폰(MIC)을 포함하며, 장치(500)가 예를 들면 호출 모드, 기록 모드 및 음성 인식 모드 등 조작 모드에 있을 경우, 마이크로폰은 외부의 오디오 신호를 수신한다. 수신된 오디오 신호는 진일보 메모리(504)에 저장되거나 혹은 통신 어셈블리(516)를 통하여 송신될수 있다. 일부 실시예에 있어서,오디오 어셈블리(510)는 스피커를 더 포함할 수 있어 오디오 신호를 출력한다.
I/O 인터페이스(512)는 프로세스 어셈블리(502)와 주변 인터페이스 모듈 사이에 인터페이스를 제공하기 위한 것이다. 상기 주변 인터페이스 모듈은 키보드,휠 키,버튼 등일 수 있다. 이러한 버튼은 홈 버튼, 음량 버튼, 작동 버튼 및 잠금 버튼 등을 포함하지만 이에 한정되지 않는다.
센서 어셈블리(514)는 장치(500)에 각 방면의 상태평가를 제공하는 하나 또는 복수의 센서를 포함한다. 예를 들면,센서 어셈블리(514)는 장치(500)의 온/오프 상태,어셈블리의 상대위치결정을 검출할 수 있다. 예를 들면 상기 어셈블리가 장치(500)의 디스플레이 및 키패드일 시,센서 어셈블리(514)는 장치(500) 혹은 장치(500)의 일 어셈블리의 위치변경,사용자와 장치(500)사이의 접촉여부, 장치(500)의 방위 혹은 가속/감속 및 장치(500)의 온도 변화를 검출할 수 있다. 센서 어셈블리(514)는 근접 센서를 포함할 수 있어, 임의의 물리적 접촉이 없는 정황하에서 근처 물체의 존재를 검출할 수 있다. 센서 어셈블리(514)는 예를 들면 CMOS 혹은 CCD 이미지 센서 등 광센서를 더 포함할 수 있으며, 이미징 애플리케이션에 사용된다. 일부 실시예에 있어서, 상기 센서 어셈블리(514)는 가속 센서,자이로 센서,자기 센서,압력 센서 혹은 온도 센서를 포함할 수 있다.
통신 어셈블리(516)는 장치(500)와 기타 설비 사이의 유선 혹은 무선 통신에 사용된다. 장치(500)는 예를 들면 WiFi,2G 혹은 3G,혹은 이들의 조합 등의 통신규격에 따른 무선 네트워크에 접속할 수 있다. 일 예시적 실시예에 있어서,통신 어셈블리(516)는 방송 채널을 통하여 외부 방송 관리 시스템으로부터의 방송 신호 혹은 방송 관련 정보를 수신할 수 있다. 일 예시적 실시예에 있어서, 상기 통신 어셈블리(516)는 근거리 무선 통신(NFC)모듈을 더 포함하고 있어, 단거리 통신을 촉진할 수 있다. 예를 들면, NFC 모듈은 RFID 기술, IrDA 기술, UWB 기술,블루투스(BT)기술 및 기타 기술에 기초하여 실현될 수 있다.
예시적 실시예에 있어서, 장치(500)는 하나 또는 복수의 애플리케이션 전용 집적 회로(ASIC), 디지털 신호 프로세서(DSP), 디지털 신호 처리설비(DSPD), 프로그램 가능 논리 소자(PLD), 필드 프로그래머블 게이트 어레이(FPGA), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 혹은 기타 전자소자에 의하여 실현되어 상기 방법을 수행할 수 있다.
예시적 실시예에 있어서, 인스트럭션을 포함하는 비일시적인 컴퓨터 판독 가능한 기록 매체를 제공하는데, 예를 들면 인스트럭션을 포함하는 메모리(504) 등을 포함하며, 상기 인스트럭션은 장치(500)의 프로세서(520)에 의하여 실행되어 상기 방법을 실현할 수 있다. 예를 들면, 상기 비일시적인 컴퓨터 판독 가능한 기록 매체는 ROM, RAM, CD-ROM, 자기테이프, 플로피디스크 및 광데이터 저장 장치 등일 수 있다.
컴퓨터 판독 가능한 비 일시적인 기록 매체는, 장치(500)의 프로세서에 의해 상기 기록 매체 중의 인스트럭션이 수행될 시, 장치(500)에 상기의 도 1, 또는 도 2a에서 도시한 측위 네비게이션 방법을 수행시킬수 있다.
당업자는, 명세서를 검토하여 본 발명을 실현한 후, 본 발명의 기타 실시안을 용이하게 생각해낼수 있다. 본원 발명은, 본 발명의 모든 변형, 용도, 또는 적응적 변경을 포함하며, 이러한 변형, 용도, 또는 적응적 변경은, 본 발명의 일반적 원리에 따르며, 본 발명은 개시되지 않은 당업계의 공지의 지식 또는 통상적 기술수단을 포함한다. 명세서와 실시 예는 단지 예시일 뿐, 본 발명의 진정한 범위와 정신은 이하의 특허 청구의 범위에 기재된다.
본 발명은 상기에 기술되고 또 도면에 나타낸 정확한 구성에 한정되지 않으며, 그 범위를 초과하지 않는한 다양한 수정과 변경을 실현할수 있다는 것을 이해해야 할것이다. 본 발명의 범위는 단지 첨부되는 특허 청구의 범위에 의해 한정된다.  

Claims (23)

  1. 사용자의 초기 좌표를 취득하는 단계,
    상기 초기 좌표에 대응되는 예정된 지리적 범위내의 후보 이미지 중 예정된 장수의 환경 이미지를 취득하고, 미리 설정된 환경 이미지와 절대 좌표 간의 대응 관계에 기반하여 각 환경 이미지에 대응되는 절대 좌표를 각각 취득하는 단계,
    각 환경 이미지별로 당해 환경 이미지중의 물체와 상기 사용자 간의 상대 위치를 취득하는 단계, 및
    상기 환경 이미지중의 물체와 상기 사용자 간의 상대 위치 및 상기 각 환경 이미지에 대응되는 절대 좌표에 기반하여, 사용자가 마주하는 방향을 포함하는 상기 사용자의 현재 지리적 위치 정보를 확정하는 단계를 포함하고,
    당해 환경 이미지중의 물체와 상기 사용자 간의 상대 위치를 취득하는 상기 단계는,
    상기 환경 이미지와, 상기 사용자로 하여금 상기 환경 이미지중의 물체와 마주하도록 가이드하는 가이드 정보 및 상기 사용자로 하여금 상기 환경 이미지중의 물체와 자신의 상대 위치에 기반하여 대응되는 방향 또는 위치까지 상기 환경 이미지를 이동시키도록 가이드하는 가이드 정보 중 하나 이상을 표시하는 단계;
    상기 가이드 정보에 기반하여 상기 사용자가 트리거하는 입력 신호를 수신하는 단계; 및
    상기 입력 신호에 따라 상기 환경 이미지중의 물체와 마주하는 방향을 확정하거나, 상기 입력 신호로 슬라이드 신호가 입력되면 상기 입력된 슬라이드 궤적에 기반하여 상기 환경 이미지중의 물체와 사용자 간의 상대 위치를 확정하는 단계를 포함하는것을 특징으로 하는 측위 네비게이션 방법.
  2. 제 1 항에 있어서,
    상기 상대 위치 및 상기 절대 좌표에 기반하여 상기 사용자의 현재 지리적 위치 정보를 확정하는 단계는,
    상기 환경 이미지가 1장일 경우, 상기 상대 위치, 상기 절대 좌표 및 상기 초기 좌표에 기반하여, 상기 사용자의 현재 마주하는 방향을 확정하며, 상기 초기 좌표를 상기 사용자의 실제 좌표로 확정하는 단계,
    상기 환경 이미지가 2장일 경우, 상기 상대 위치, 상기 절대 좌표 및 상기 초기 좌표에 기반하여 상기 사용자의 현재 마주하는 방향과 실제 좌표를 확정하는 단계,
    상기 환경 이미지가 3장 이상일 경우, 상기 상대 위치 및 상기 절대 좌표에 기반하여 상기 사용자의 현재 마주하는 방향과 실제 좌표를 확정하는 단계
    를 포함하는것을 특징으로 하는 측위 네비게이션 방법.
  3. 제 2 항에 있어서,
    상기 환경 이미지가 1장일 경우, 상기 상대 위치, 상기 절대 좌표 및 상기 초기 좌표에 기반하여 상기 사용자의 현재 마주하는 방향을 확정하는 상기 단계는,
    상기 초기 좌표의 좌표점(A)부터 상기 절대 좌표의 좌표점(B)으로 향하는 참고 방향을 취득하는 단계,
    상기 참고 방향 및 상기 상대 위치에 기반하여 상기 마주하는 방향을 확정하는 단계
    를 포함하는것을 특징으로 하는 측위 네비게이션 방법.
  4. 제 2 항에 있어서,
    상기 환경 이미지가 2장일 경우, 상기 상대 위치, 상기 절대 좌표 및 상기 초기 좌표에 기반하여 상기 사용자의 현재 마주하는 방향과 실제 좌표를 확정하는 상기 단계는,
    상기 초기 좌표의 좌표점(A)과 상기 절대 좌표상의 제 1의 좌표점(B1)을 통과하는 제 1 직선(AB1)을 취득하고, 상기 절대 좌표상의 제 2의 좌표점(B2), 상기 제 1 직선(AB1) 및 두개의 상기 상대 위치에 기반하여 상기 실제 좌표를 확정하며, 상기 실제 좌표 및 적어도 하나의 상기 상대 위치에 기반하여 상기 마주하는 방향을 확정하는 단계를 포함하거나,
    또는,
    상기 초기 좌표의 좌표점(A)과 상기 절대 좌표상의 제 1의 좌표점(B1)을 통과하는 제 1 직선(AB1)과 상기 초기 좌표의 좌표점(A)과 상기 절대 좌표상의 제 2의 좌표점(B2)을 통과하는 제 2 직선(AB2)을 각각 취득하고, 상기 제 1 직선(AB1), 상기 제 2 직선(AB2) 및 두개의 상기 상대 위치에 기반하여 상기 마주하는 방향을 확정하며, 상기 마주하는 방향 및 적어도 하나의 상기 상대 위치에 기반하여 상기 실제 좌표를 확정하는 단계를 포함하는것을 특징으로 하는 측위 네비게이션 방법.
  5. 제 2 항에 있어서,
    상기 환경 이미지가 3장일 경우, 상기 상대 위치 및 상기 절대 좌표에 기반하여 상기 사용자의 현재 마주하는 방향과 실제 좌표를 확정하는 상기 단계는,
    상기 초기 좌표의 좌표점(A)과 상기 절대 좌표상의 제 1의 좌표점(B1)을 통과하는 제 1 직선(AB1)과 상기 초기 좌표의 좌표점(A)과 상기 절대 좌표상의 제 2의 좌표점(B2)을 통과하는 제 2 직선(AB2)과 상기 초기 좌표의 좌표점(A)과 상기 절대 좌표상의 제 3의 좌표점(B3)을 통과하는 제 3 직선(AB3)을 각각 취득하는 단계,
    상기 제 1 직선(AB1), 상기 제 2 직선(AB2), 상기 제 3 직선(AB3) 및 세개의 상기 상대 위치에 기반하여 상기 마주하는 방향을 확정하는 단계,
    상기 마주하는 방향 및 적어도 하나의 상기 상대 위치에 기반하여 상기 실제 좌표를 확정하는 단계
    를 포함하는것을 특징으로 하는 측위 네비게이션 방법.
  6. 제 2 항에 있어서,
    상기 환경 이미지가 3장일 경우, 상기 상대 위치 및 상기 절대 좌표에 기반하여 상기 사용자의 현재 마주하는 방향과 실제 좌표를 확정하는 상기 단계는,
    세개의 상기 상대 위치가, 하나의 상기 상대 위치는 상기 물체가 상기 사용자의 앞측에 위치하는 상대 위치이고, 다른 하나의 상기 상대 위치는 상기 물체가 상기 사용자의 좌측에 위치하는 상대 위치이고, 또 다른 하나의 상기 상대 위치는 상기 물체가 상기 사용자의 우측에 위치하는 상대 위치인 예정된 조건을 만족하는지 여부를 검출하는 단계,
    상기 예정된 조건을 만족하는 것이 검출되었을 경우, 상기 상대 위치가 좌측인 물체의 절대 좌표에 대응되는 좌표점(B3)과 상기 상대 위치가 우측인 물체의 절대 좌표에 대응되는 좌표점(B2)을 통과하는 제 4 직선(B2B3)을 취득하는 단계,
    상기 제 4 직선(B2B3)에 수직되며, 상기 상대 위치가 앞측인 물체의 절대 좌표에 대응되는 좌표점(B1)을 통과하는 수직선(B1S)을 취득하는 단계,
    상기 제 4 직선(B2B3)과 수직선과의 교점(S)의 좌표를 상기 실제 좌표로 확정하고, 상기 수직선과의 교점(S)부터 상기 좌표점(B1)으로 향하는 방향을 상기 마주하는 방향으로 확정하는 단계
    를 포함하는것을 특징으로 하는 측위 네비게이션 방법.
  7. 제 1 항 내지 제 6 항 중 어느 한 항에 있어서,
    상기 초기 좌표에 대응되는 예정된 지리적 범위내의 예정된 장수의 환경 이미지를 취득하는 상기 단계는,
    상기 초기 좌표에 대응되는 예정된 지리적 범위내의 m장의 후보 이미지를 취득하는 단계,
    상기 m장의 후보 이미지중에서 상기 예정된 n장(m≥n>0)의 환경 이미지를 선택하는 단계
    를 포함하는 것을 특징으로 하는 측위 네비게이션 방법.
  8. 제 7 항에 있어서,
    상기 m장의 후보 이미지중에서 상기 예정된 n장의 환경 이미지를 선택하는 상기 단계는,
    미리 설정된 우선순위에 따라 상기 m장의 후보 이미지를 소트하여 후보 이미지의 배열을 취득하고, 상기 후보 이미지의 배열에 기반하여 상기 예정된 n장의 환경 이미지를 선택하는 단계를 포함하거나,
    또는,
    상기 m장의 후보 이미지중의 일부 또는 전부를 표시하여, 상기 후보 이미지에 대한 선택 신호를 수신하고, 상기 선택 신호에 기반하여 상기 예정된 n장의 환경 이미지를 확정하는 단계를 포함하는것을 특징으로 하는 측위 네비게이션 방법.
  9. 삭제
  10. 제 1 항 내지 제 6 항 중 어느 한 항에 있어서,
    상기 사용자가 도착하려고 하는 목적지의 목적지 좌표를 취득하는 단계,
    상기 목적지 좌표 및 상기 지리적 위치 정보에 기반하여 적어도 하나의 경로를 확정하는 단계,
    상기 지리적 위치 정보, 상기 목적지 좌표 및 상기 경로를 표시하는 단계
    를 더 포함하는 것을 특징으로 하는 측위 네비게이션 방법.
  11. 사용자의 초기 좌표를 취득하기 위한 초기 취득 모듈,
    상기 초기 좌표에 대응되는 예정된 지리적 범위내의 후보 이미지 중 예정된 장수의 환경 이미지를 취득하고, 미리 설정된 환경 이미지와 절대 좌표 간의 대응 관계에 기반하여 각 환경 이미지에 대응되는 절대 좌표를 각각 취득하기 위한 이미지 취득 모듈,
    각 환경 이미지별로 당해 환경 이미지중의 물체와 상기 사용자 간의 상대 위치를 취득하기 위한 위치 취득 모듈, 및
    상기 환경 이미지중의 물체와 상기 사용자 간의 상대 위치 및 상기 각 환경 이미지에 대응되는 절대 좌표에 기반하여, 사용자가 마주하는 방향을 포함하는 상기 사용자의 현재 지리적 위치 정보를 확정하기 위한 지도 측위 모듈을 포함하고,
    상기 위치 취득 모듈은,
    상기 환경 이미지와, 상기 사용자로 하여금 상기 환경 이미지중의 물체와 마주하도록 가이드하는 가이드 정보 및 상기 사용자로 하여금 상기 환경 이미지중의 물체와 자신의 상대 위치에 기반하여 대응되는 방향 또는 위치까지 상기 환경 이미지를 이동시키도록 가이드하는 가이드 정보 중 하나 이상을 표시하기 위한 정보 표시 유닛,
    상기 가이드 정보에 기반하여 상기 사용자가 트리거하는 입력 신호를 수신하기 위한 신호 수신 유닛,
    상기 입력 신호에 따라 상기 환경 이미지중의 물체와 마주하는 방향을 확정하거나, 상기 입력 신호로 슬라이드 신호가 입력되면 상기 입력된 슬라이드 궤적에 기반하여 상기 환경 이미지중의 물체와 상기 사용자 간의 상대 위치를 확정하기 위한 위치 확정 유닛을 포함하는 것을 특징으로 하는 측위 네비게이션 장치.
  12. 제 11 항에 있어서,
    상기 지도 측위 모듈은,
    상기 환경 이미지가 1장일 경우, 상기 상대 위치, 상기 절대 좌표 및 상기 초기 좌표에 기반하여, 상기 사용자의 현재 마주하는 방향을 확정하며, 상기 초기 좌표를 상기 사용자의 실제 좌표로 확정하기 위한 제 1 측위 유닛,
    상기 환경 이미지가 2장일 경우, 상기 상대 위치, 상기 절대 좌표 및 상기 초기 좌표에 기반하여 상기 사용자의 현재 마주하는 방향과 실제 좌표를 확정하기 위한 제 2 측위 유닛, 및
    상기 환경 이미지가 3장 이상일 경우, 상기 상대 위치 및 상기 절대 좌표에 기반하여 상기 사용자의 현재 마주하는 방향과 실제 좌표를 확정하기 위한 제 3 측위 유닛
    중 하나 이상을 포함하는 것을 특징으로 하는 측위 네비게이션 장치.
  13. 제 12 항에 있어서,
    상기 제 1 측위 유닛은,
    상기 초기 좌표의 좌표점(A)부터 상기 절대 좌표의 좌표점(B)으로 향하는 참고 방향을 취득하기 위한 방향 취득 서브 유닛,
    상기 참고 방향 및 상기 상대 위치에 기반하여 상기 마주하는 방향을 확정하기 위한 방향 확정 서브 유닛
    을 포함하는것을 특징으로 하는 측위 네비게이션 장치.
  14. 제 12 항에 있어서,
    상기 제 2 측위 유닛은,
    상기 초기 좌표의 좌표점(A)과 상기 절대 좌표상의 제 1의 좌표점(B1)을 통과하는 제 1 직선(AB1)을 취득하고, 상기 절대 좌표상의 제 2의 좌표점(B2), 상기 제 1 직선(AB1) 및 두개의 상기 상대 위치에 기반하여 상기 실제 좌표를 확정하며, 상기 실제 좌표 및 적어도 하나의 상기 상대 위치에 기반하여 상기 마주하는 방향을 확정하기 위한 제 1 측위 서브 유닛,
    또는,
    상기 초기 좌표의 좌표점(A)과 상기 절대 좌표상의 제 1의 좌표점(B1)을 통과하는 제 1 직선(AB1)과 상기 초기 좌표의 좌표점(A)과 상기 절대 좌표상의 제 2의 좌표점(B2)을 통과하는 제 2 직선(AB2)을 각각 취득하고, 상기 제 1 직선(AB1), 상기 제 2 직선(AB2) 및 두개의 상기 상대 위치에 기반하여 상기 마주하는 방향을 확정하며, 상기 마주하는 방향 및 적어도 하나의 상기 상대 위치에 기반하여 상기 실제 좌표를 확정하기 위한 제 2 측위 서브 유닛
    을 포함하는것을 특징으로 하는 측위 네비게이션 장치.
  15. 제 12 항에 있어서,
    상기 제 3 측위 유닛은,
    상기 초기 좌표의 좌표점(A)과 상기 절대 좌표상의 제 1의 좌표점(B1)을 통과하는 제 1 직선(AB1)과 상기 초기 좌표의 좌표점(A) 및 상기 절대 좌표상의 제 2의 좌표점(B2)을 통과하는 제 2 직선(AB2)과 상기 초기 좌표의 좌표점(A)과 상기 절대 좌표상의 제 3의 좌표점(B3)을 통과하는 제 3 직선(AB3)을 각각 취득하기 위한 직선 취득 서브 유닛,
    상기 제 1 직선(AB1), 상기 제 2 직선(AB2), 상기 제 3 직선(AB3) 및 세개의 상기 상대 위치에 기반하여 상기 마주하는 방향을 확정하기 위한 방향 계산 서브 유닛,
    상기 마주하는 방향 및 적어도 하나의 상기 상대 위치에 기반하여 상기 실제 좌표를 확정하기 위한 좌표 계산 서브 유닛
    을 포함하는것을 특징으로 하는 측위 네비게이션 장치.
  16. 제 12 항에 있어서,
    상기 제 3 측위 유닛은,
    세개의 상기 상대 위치가, 하나의 상기 상대 위치는 상기 물체가 상기 사용자의 앞측에 위치하는 상대 위치이고, 다른 하나의 상기 상대 위치는 상기 물체가 상기 사용자의 좌측에 위치하는 상대 위치이고, 또 다른 하나의 상기 상대 위치는 상기 물체가 상기 사용자의 우측에 위치하는 상대 위치인 예정된 조건을 만족하는지 여부를 검출하기 위한 조건 검출 서브 유닛,
    상기 예정된 조건을 만족하는 것이 검출되었을 경우, 상기 상대 위치가 좌측인 물체의 절대 좌표에 대응되는 좌표점(B3)과 상기 상대 위치가 우측인 물체의 절대 좌표에 대응되는 좌표점(B2)을 통과하는 직선(B2B3)을 취득하기 위한 횡 방향 연결 서브 유닛,
    상기 직선(B2B3)에 수직되며, 상기 상대 위치가 앞측인 물체의 절대 좌표에 대응되는 좌표점(B1)을 통과하는 수직선(B1S)을 취득하기 위한 수직선 취득 서브 유닛,
    상기 직선(B2B3)과 수직선과의 교점(S)의 좌표를 상기 실제 좌표로 확정하고, 상기 수직선과의 교점(S)부터 상기 좌표점(B1)으로 향하는 방향을 상기 마주하는 방향으로 확정하기 위한 결과 확정 서브 유닛
    을 포함하는것을 특징으로 하는 측위 네비게이션 장치.
  17. 제 11 항 내지 제 16 항 중 어느 한 항에 있어서,
    상기 이미지 취득 모듈은,
    상기 초기 좌표에 대응되는 예정된 지리적 범위내의 m장의 후보 이미지를 취득하기 위한 후보 취득 유닛,
    상기 m장의 후보 이미지중에서 상기 예정된 n장(m≥n>0)의 환경 이미지를 선택하기 위한 환경 취득 유닛
    을 포함하는 것을 특징으로 하는 측위 네비게이션 장치.
  18. 제 17 항에 있어서,
    상기 환경 취득 유닛은,
    미리 설정된 우선순위에 따라 상기 m장의 후보 이미지를 소트하여 후보 이미지의 배열을 취득하고, 상기 후보 이미지의 배열에 기반하여 상기 예정된 n장의 환경 이미지를 선택하기 위한 자동 취득 서브 유닛을 포함하거나,
    또는,
    상기 m장의 후보 이미지중의 일부 또는 전부를 표시하여, 상기 후보 이미지에 대한 선택 신호를 수신하고, 상기 선택 신호에 기반하여 상기 예정된 n장의 환경 이미지를 확정하기 위한 사용자 선택 서브 유닛을 포함하는것을 특징으로 하는 측위 네비게이션 장치.
  19. 삭제
  20. 제 11 항 내지 제 16 항 중 어느 한 항에 있어서,
    상기 사용자가 도착하려고 하는 목적지의 목적지 좌표를 취득하기 위한 목적지 취득 모듈,
    상기 목적지 좌표 및 상기 지리적 위치 정보에 기반하여 적어도 하나의 경로를 확정하기 위한 경로 확정 모듈,
    상기 지리적 위치 정보, 상기 목적지 좌표 및 상기 경로를 표시하기 위한 네비게이션 표시 모듈
    을 더 포함하는 것을 특징으로 하는 측위 네비게이션 장치.
  21. 프로세서,
    상기 프로세서에 의해 수행가능한 인스트럭션을 저장하기 위한 메모리
    를 포함하며,
    상기 프로세서는,
    사용자의 초기 좌표를 취득하고,
    상기 초기 좌표에 대응되는 예정된 지리적 범위내의 후보 이미지 중 예정된 장수의 환경 이미지를 취득하고, 미리 설정된 환경 이미지와 절대 좌표 간의 대응 관계에 기반하여 각 환경 이미지에 대응되는 절대 좌표를 각각 취득하며,
    각 환경 이미지별로 당해 환경 이미지중의 물체와 상기 사용자 간의 상대 위치를 취득하고,
    상기 환경 이미지중의 물체와 상기 사용자 간의 상대 위치 및 상기 환경 이미지에 대응되는 절대 좌표에 기반하여, 사용자가 마주하는 방향을 포함하는 상기 사용자의 현재 지리적 위치 정보를 확정하도록 구성되고,
    상기 당해 환경 이미지중의 물체와 상기 사용자 간의 상대 위치를 취득하는 것은,
    상기 환경 이미지와, 상기 사용자로 하여금 상기 환경 이미지중의 물체와 마주하도록 가이드하는 가이드 정보 및 상기 사용자로 하여금 상기 환경 이미지중의 물체와 자신의 상대 위치에 기반하여 대응되는 방향 또는 위치까지 상기 환경 이미지를 이동시키도록 가이드하는 가이드 정보 중 하나 이상을 표시하고,
    상기 가이드 정보에 기반하여 상기 사용자가 트리거하는 입력 신호를 수신하고,
    상기 입력 신호에 따라 상기 환경 이미지중의 물체와 마주하는 방향을 확정하거나, 상기 입력 신호로 슬라이드 신호가 입력되면 상기 입력된 슬라이드 궤적에 기반하여 상기 환경 이미지중의 물체와 사용자 간의 상대 위치를 확정하는 것을 포함하는 것을 특징으로 하는 측위 네비게이션 장치.
  22. 프로세서에 의해 실행되는 것을 통하여 제 1 항 내지 제 6 항 중 임의의 한 항에 기재된 측위 네비게이션 방법을 실현하는 것을 특징으로 하는 컴퓨터로 판독가능한 기록매체에 저장된 프로그램.
  23. 제 22 항에 기재된 프로그램이 기록된 기록매체.
KR1020147026581A 2014-03-31 2014-07-24 측위 네비게이션 방법, 장치, 프로그램 및 기록매체 KR101639312B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201410126006.3A CN103968846B (zh) 2014-03-31 2014-03-31 定位导航方法和装置
CN201410126006.3 2014-03-31
PCT/CN2014/082911 WO2015149455A1 (zh) 2014-03-31 2014-07-24 定位导航方法和装置

Publications (2)

Publication Number Publication Date
KR20150124372A KR20150124372A (ko) 2015-11-05
KR101639312B1 true KR101639312B1 (ko) 2016-07-13

Family

ID=51238639

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147026581A KR101639312B1 (ko) 2014-03-31 2014-07-24 측위 네비게이션 방법, 장치, 프로그램 및 기록매체

Country Status (7)

Country Link
EP (1) EP2927638B1 (ko)
JP (1) JP6116756B2 (ko)
KR (1) KR101639312B1 (ko)
CN (1) CN103968846B (ko)
MX (1) MX350053B (ko)
RU (1) RU2608971C1 (ko)
WO (1) WO2015149455A1 (ko)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104581637A (zh) * 2015-01-20 2015-04-29 北京嘀嘀无限科技发展有限公司 定位的方法及设备
CN105992148B (zh) * 2015-02-15 2020-07-03 索尼公司 用于无线通信系统的通信设备和通信方法
CN105451179A (zh) * 2015-12-25 2016-03-30 百度在线网络技术(北京)有限公司 一种定位方法及装置
US10168173B2 (en) * 2016-10-26 2019-01-01 Google Llc Systems and methods for using visual landmarks in initial navigation
CN106658409A (zh) * 2016-12-07 2017-05-10 雷蕾 一种定位方法和系统
CN107687854A (zh) * 2017-07-20 2018-02-13 努比亚技术有限公司 一种室内导航方法、终端和计算机可读存储介质
CN107727104B (zh) * 2017-08-16 2019-04-30 北京极智嘉科技有限公司 结合标识的同时定位和地图创建导航方法、装置及系统
CN108363603B (zh) * 2018-01-29 2022-04-01 上海闻泰电子科技有限公司 信息指引方法、装置、移动终端以及存储装置
CN109146932B (zh) * 2018-07-17 2021-08-24 北京旷视科技有限公司 确定图像中目标点的世界坐标的方法、装置和系统
KR102212825B1 (ko) 2019-04-08 2021-02-08 네이버랩스 주식회사 이미지를 기반으로 포즈 계산을 위한 지도의 최신성을 유지하는 방법 및 시스템
CN110162658A (zh) * 2019-05-31 2019-08-23 广东小天才科技有限公司 位置信息获取方法、装置、终端及存储介质
KR102383567B1 (ko) * 2019-12-16 2022-04-06 네이버랩스 주식회사 시각 정보 처리 기반의 위치 인식 방법 및 시스템

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010197209A (ja) * 2009-02-25 2010-09-09 Toshiba Corp ナビゲーションシステム装置

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SU1747905A1 (ru) * 1990-10-31 1992-07-15 Botuz Sergej P Способ многоканальной регистрации результатов измерений и устройство дл его осуществлени
US5862511A (en) * 1995-12-28 1999-01-19 Magellan Dis, Inc. Vehicle navigation system and method
US5948043A (en) * 1996-11-08 1999-09-07 Etak, Inc. Navigation system using GPS data
EP1059510A1 (en) * 1999-06-10 2000-12-13 Texas Instruments Incorporated Wireless location
JP4672190B2 (ja) * 2001-04-26 2011-04-20 三菱電機株式会社 映像ナビゲーション装置
US6615135B2 (en) * 2001-05-24 2003-09-02 Prc Inc. Satellite based on-board vehicle navigation system including predictive filtering and map-matching to reduce errors in a vehicular position
US6766245B2 (en) * 2002-03-14 2004-07-20 Microsoft Corporation Landmark-based location of users
US8768617B2 (en) * 2003-10-06 2014-07-01 Csr Technology Inc. Method and system for a data interface for aiding a satellite positioning system receiver
JP4273119B2 (ja) * 2003-10-21 2009-06-03 和郎 岩根 ナビゲーション装置
US8942483B2 (en) * 2009-09-14 2015-01-27 Trimble Navigation Limited Image-based georeferencing
KR100855657B1 (ko) * 2006-09-28 2008-09-08 부천산업진흥재단 단안 줌 카메라를 이용한 이동로봇의 자기위치 추정 시스템및 방법
US20080153516A1 (en) * 2006-12-20 2008-06-26 Via Technologies, Inc. Visual Positioning System and Method for Mobile User Equipment
JP5145735B2 (ja) * 2007-03-02 2013-02-20 株式会社豊田中央研究所 測位装置及び測位システム
CN101334285B (zh) * 2007-06-29 2012-12-19 鸿富锦精密工业(深圳)有限公司 车辆导航装置及导航方法
TWI416073B (zh) * 2009-11-16 2013-11-21 Ind Tech Res Inst 移動攝影機對路景影像的處理方法及系統
CN103052151A (zh) * 2011-10-14 2013-04-17 中国电信股份有限公司 终端定位方法、装置和移动终端
KR20130089068A (ko) * 2012-02-01 2013-08-09 현대모비스 주식회사 카메라를 이용한 차량 위치 보정 장치 및 방법
KR101339354B1 (ko) * 2012-03-26 2013-12-09 한국철도기술연구원 영상을 이용한 철도차량의 위치검지 시스템 및 위치검지방법
CN102829775A (zh) * 2012-08-29 2012-12-19 成都理想境界科技有限公司 一种室内导航方法、系统及设备
CN102889892B (zh) * 2012-09-13 2015-11-25 东莞宇龙通信科技有限公司 实景导航的方法及导航终端
CN103249142B (zh) * 2013-04-26 2016-08-24 东莞宇龙通信科技有限公司 一种定位方法、系统及移动终端
CN103424113B (zh) * 2013-08-01 2014-12-31 毛蔚青 移动终端基于图像识别技术的室内定位与导航方法
CN103398717B (zh) * 2013-08-22 2016-04-20 成都理想境界科技有限公司 全景地图数据库采集系统及基于视觉的定位、导航方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010197209A (ja) * 2009-02-25 2010-09-09 Toshiba Corp ナビゲーションシステム装置

Also Published As

Publication number Publication date
MX2014011940A (es) 2016-04-26
JP2016522895A (ja) 2016-08-04
MX350053B (es) 2017-08-23
RU2608971C1 (ru) 2017-01-30
CN103968846B (zh) 2017-02-08
JP6116756B2 (ja) 2017-04-19
EP2927638A1 (en) 2015-10-07
EP2927638B1 (en) 2017-03-29
WO2015149455A1 (zh) 2015-10-08
KR20150124372A (ko) 2015-11-05
CN103968846A (zh) 2014-08-06

Similar Documents

Publication Publication Date Title
KR101639312B1 (ko) 측위 네비게이션 방법, 장치, 프로그램 및 기록매체
RU2642150C2 (ru) Способ и устройство для программируемого управления траекторией движения пользователя к лифту/эскалатору
EP3040684B1 (en) Mobile terminal and control method for the mobile terminal
US8624725B1 (en) Enhanced guidance for electronic devices having multiple tracking modes
US9818196B2 (en) Method and device for positioning and navigating
KR101667715B1 (ko) 증강현실을 이용한 경로 안내 방법 및 이를 이용하는 이동 단말기
KR102021050B1 (ko) 내비게이션 정보를 제공하는 방법, 기계로 읽을 수 있는 저장 매체, 이동 단말 및 서버
KR102037412B1 (ko) 이동 단말기와 연결된 보청기를 피팅(fitting) 하는 방법 및 이를 수행하는 이동 단말기
CN102804905A (zh) 图像数据和地理要素数据的显示
US10194273B2 (en) Positioning information processing method and apparatus
US20180088596A1 (en) Method, apparatus and system for controlling unmanned aerial vehicle
CN104990560A (zh) 导航路线生成方法及装置
TW201428236A (zh) 室內定位系統及方法
CN105758319B (zh) 通过移动终端测量目标物体高度的方法和装置
CN104105064A (zh) 定位设备的方法及装置
JP2009088903A (ja) 移動通信装置
CN107202574A (zh) 运动轨迹信息修正方法及装置
CN109696166A (zh) 一种导航方法及装置
CN103957502A (zh) 位置服务程序选择方法、装置及终端
CN104023130B (zh) 位置提醒方法和装置
CN105891706B (zh) 遥控设备上遥杆的校准方法及装置
CN112461245A (zh) 数据处理方法及装置、电子设备和存储介质
TWI572184B (zh) 位置顯示方法及使用此方法的行動通訊裝置與電腦程式產品
CN107529140A (zh) 定位方法及装置
CN105635972A (zh) 图像处理方法及装置

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant