KR101898665B1 - 사용자 단말의 위치를 판단하는 방법 - Google Patents

사용자 단말의 위치를 판단하는 방법 Download PDF

Info

Publication number
KR101898665B1
KR101898665B1 KR1020170060946A KR20170060946A KR101898665B1 KR 101898665 B1 KR101898665 B1 KR 101898665B1 KR 1020170060946 A KR1020170060946 A KR 1020170060946A KR 20170060946 A KR20170060946 A KR 20170060946A KR 101898665 B1 KR101898665 B1 KR 101898665B1
Authority
KR
South Korea
Prior art keywords
user terminal
location
objects
determining
image
Prior art date
Application number
KR1020170060946A
Other languages
English (en)
Inventor
이주형
Original Assignee
이주형
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이주형 filed Critical 이주형
Priority to KR1020170060946A priority Critical patent/KR101898665B1/ko
Application granted granted Critical
Publication of KR101898665B1 publication Critical patent/KR101898665B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06K9/20
    • G06F17/30241

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Navigation (AREA)

Abstract

사용자 단말의 위치를 판단하는 방법에 있어서, 상기 사용자 단말이, 적어도 하나의 카메라를 이용하여 하나 이상의 객체가 촬영된 이미지를 획득하는 단계, 상기 획득된 이미지로부터 상기 하나 이상의 객체를 인식하는 단계, 지도 데이터베이스로부터 상기 인식된 하나 이상의 객체가 포함된 위치를 획득하는 단계 및 상기 하나 이상의 객체의 위치관계에 기초하여 상기 사용자 단말의 위치를 판단하는 단계를 포함하는 방법이 개시된다.

Description

사용자 단말의 위치를 판단하는 방법 {METHOD FOR LOCATING A USER DEVICE}
본 발명은 사용자 단말의 위치를 판단하는 방법에 관한 것이다.
스마트폰의 보급으로, 사용자의 위치를 정확하게 판단하는 것은 사용자의 편의와 사업자들의 다양한 서비스에 있어 중요한 문제가 되었다. 나아가, 증강현실(AR)에 대한 관심이 높아지고 있으며, 증강현실이 대중화된다면 사용자 단말의 위치를 이용하여 더욱 다양한 서비스를 제공할 수 있게 될 것이다.
또한, 포켓몬 고(Pokemon GO!) 와 같은 위치기반 서비스 게임이 크게 성공하며, 사용자의 위치를 정확하게 판단하는 것은 필수적인 요소가 되었다.
현재 가장 널리 이용되고 있는 전통적인 방법으로는 GPS 위성 신호를 이용하는 것으로, 스마트폰 뿐 아니라 내비게이션 등 다양한 분야에서 활용되고 있다. 다만, GPS 위성 신호를 이용하는 경우 아주 정확한 위치를 획득하기에는 어려운 경우가 있으며, 특히 GPS 신호 수신이 어려운 실내에서는 위치를 판단할 수 없는 등 다양한 문제점 또한 존재한다.
이를 극복하기 위하여, WiFi AP로부터 수신되는 신호를 이용하거나, 비콘을 이용하여 사용자 단말의 위치를 더욱 정확하게 특정하고자 하는 다양한 시도가 있었다. 하지만, 이는 충분한 인프라가 갖추어지지 않으면 효용성이 크게 떨어지는 문제점이 존재한다.
본 발명이 해결하고자 하는 과제는 사용자 단말의 위치를 판단하는 방법을 제공하는 것이다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따라 사용자 단말의 위치를 판단하는 방법은, 상기 사용자 단말이, 적어도 하나의 카메라를 이용하여 하나 이상의 객체가 촬영된 이미지를 획득하는 단계, 상기 획득된 이미지로부터 상기 하나 이상의 객체를 인식하는 단계, 지도 데이터베이스로부터 상기 인식된 하나 이상의 객체가 포함된 위치를 획득하는 단계 및 상기 하나 이상의 객체의 위치관계에 기초하여 상기 사용자 단말의 위치를 판단하는 단계를 포함할 수 있다.
또한, 상기 하나 이상의 객체가 촬영된 이미지를 획득하는 단계는, 상기 지도 데이터베이스에 저장된 매장 또는 랜드마크의 적어도 일부가 촬영된 이미지를 획득하는 단계를 포함하고, 상기 하나 이상의 객체를 인식하는 단계는, 상기 획득된 적어도 일부가 촬영된 이미지를 이용하여 상기 매장 또는 랜드마크를 인식하는 단계를 포함할 수 있다.
또한, 상기 매장의 적어도 일부가 촬영된 이미지를 획득하는 단계는, 상기 지도 데이터베이스에 저장된 매장의 간판의 적어도 일부가 촬영된 이미지를 획득하는 단계를 포함하고, 상기 매장을 인식하는 단계는, 상기 획득된 간판의 적어도 일부가 촬영된 이미지를 이용하여 상기 간판에 대응하는 매장을 인식하는 단계를 포함할 수 있다.
또한, 상기 위치를 판단하는 단계는, 상기 하나 이상의 객체가 소정의 범위 내에 포함되어 있는 적어도 하나의 위치에 대한 정보를 획득하는 단계 및 상기 하나 이상의 객체의 위치관계에 기초하여 적어도 하나의 위치 중 하나의 위치를 결정하되, 상기 하나 이상의 객체의 위치관계는 상기 하나 이상의 객체 간의 거리 및 방향 중 적어도 하나를 포함하는 단계를 포함할 수 있다.
상술한 과제를 해결하기 위한 본 발명의 다른 일 면에 따라 사용자 단말의 위치를 판단하는 방법은, 상기 사용자 단말이, 적어도 하나의 카메라를 이용하여 복수의 간판이 촬영된 이미지를 획득하는 단계, 상기 획득된 이미지로부터 상기 복수의 간판 각각을 인식하는 단계, 상기 인식된 복수의 간판에 각각 대응하는 복수의 매장을 결정하는 단계, 지도 데이터베이스로부터 상기 복수의 매장 각각의 위치를 획득하는 단계 및 상기 복수의 매장 각각의 위치관계에 기초하여 상기 사용자 단말의 위치를 결정하는 단계를 포함할 수 있다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
개시된 실시 예에 따르면, 지도 데이터베이스에서 위치를 획득할 수 있는 객체를 카메라를 통해 인식함으로써 사용자 단말의 위치를 특정할 수 있는 방법이 제공된다. 따라서, 사전에 설치된 인프라 없이도 사용자 단말의 위치를 특정할 수 있는 효과가 있다.
또한, 개시된 실시 예에서는 GPS 신호를 이용하지 않거나, 이용하더라도 한정적, 보조적으로만 이용하므로, 실내와 실외 무관하게 사용자 단말의 위치를 판단할 수 있는 효과가 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 일 실시 예에 따라 사용자 단말의 위치를 판단하는 방법을 도시한 흐름도이다.
도 2는 일 실시 예에 따라 매장의 간판을 인식하여 사용자 단말의 위치를 결정하는 방법을 도시한 흐름도이다.
도 3은 복수의 객체를 이용하여 사용자 단말의 위치를 판단하는 일 예를 도시한 도면이다.
도 4는 복수의 객체를 이용하여 사용자 단말의 위치를 판단하는 다른 일 예를 도시한 도면이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.
본 명세서에서, 사용자 단말은 적어도 하나의 프로세서를 포함하는 컴퓨팅 장치를 의미한다. 한정되지 않는 예로서, 사용자 단말은 퍼스널 컴퓨터, 노트북, 스마트폰, 휴대전화 및 태블릿 PC 등을 의미할 수 있다.
또한, 사용자 단말은 상기 언급된 사용자 단말 내에서 구동되는 사용자 클라이언트를 의미할 수 있다.
다양한 실시 예에서, 사용자 단말은 적어도 하나의 카메라를 포함하거나, 적어도 하나의 카메라와 전기적 또는 물리적으로 연결된다.
또한, 사용자 단말은 상기 언급된 컴퓨팅 장치를 포함하거나, 컴퓨팅 장치와 연결될 수 있는 증강현실 장치, 웨어러블 장치 또는 가상현실 장치를 의미할 수 있다.
개시된 실시 예에서, "매장"은 간판이 구비된 모든 종류의 상업시설, 회사 및 사무실 등을 모두 포괄하는 개념으로 이용되며, 단순히 물건이나 음식을 판매하는 도소매점으로 한정되지 않는다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.
도 1은 일 실시 예에 따라 사용자 단말의 위치를 판단하는 방법을 도시한 흐름도이다.
단계 S110에서, 사용자 단말은 적어도 하나의 카메라를 이용하여 하나 이상의 객체가 촬영된 이미지를 획득한다.
일 실시 예에서, 객체는 매장 등의 상업시설이나, 건물, 조형물 등의 랜드마크를 포함한다. 또한, 객체는 매장 등의 상업시설이나, 건물, 조형물 등의 랜드마크의 적어도 일부를 의미할 수도 있다. 예를 들어, 객체는 상업시설의 간판 또는 간판의 적어도 일부를 의미할 수 있다.
일 실시 예에서, 객체는 하나 이상의 지도 데이터베이스에 저장된 매장 또는 랜드마크를 의미할 수 있다.
따라서, 일 실시 예에 따르면 사용자 단말은 지도 데이터베이스에 저장된 매장 또는 랜드마크의 적어도 일부가 촬영된 이미지를 획득한다.
예를 들어, 사용자 단말이 스마트폰이거나 증강현실 장치일 때, 사용자 단말은 사용자 단말에 구비되거나 사용자 단말과 연결된 카메라를 이용하여 주변의 사진 또는 영상을 촬영할 수 있다. 일 예로, 사용자 단말은 사진 또는 영상을 촬영하여 저장하지는 않고, 카메라를 이용하여 주변 모습에 대한 정보를 실시간으로 수신할 수 있다.
단계 S120에서, 사용자 단말은 단계 S110에서 획득된 이미지로부터 하나 이상의 객체를 인식한다.
일 실시 예에서, 사용자 단말은 단계 S110에서 획득된, 지도 데이터베이스에 저장된 매장 또는 랜드마크의 적어도 일부가 촬영된 이미지를 이용하여 촬영된 이미지에 포함된 매장 또는 랜드마크를 인식한다.
일 실시 예에서, 사용자 단말은 지도 데이터베이스에 저장된 매장의 간판의 적어도 일부가 촬영된 이미지를 획득하고, 획득된 이미지에 포함된 간판에 대응하는 매장을 인식한다.
단계 S130에서, 사용자 단말은 지도 데이터베이스로부터 단계 S120에서 인식된 하나 이상의 객체가 포함된 위치를 획득한다.
일 실시 예에서, 사용자 단말은 단계 S120에서 인식된 하나 이상의 객체가 포함된 위치를 각각 획득한다.
경우에 따라, 단계 S120에서 인식된 객체가 복수의 위치에 존재할 수 있다. 예를 들어, 단계 S120에서 인식된 객체가 전국에 여러 개의 지점을 가지고 있는 매장인 경우, 단계 S130에서 사용자 단말은 복수의 위치를 획득하게 된다.
일 실시 예에서, 사용자 단말은 GPS 정보, WiFi AP, 비콘 및 기지국 정보 등에 기초하여 가장 가까운 매장 또는 가까운 하나 이상의 매장의 위치를 획득할 수 있다. GPS 정보, WiFi AP, 비콘 및 기지국 정보와 같은 위치정보를 획득할 수 없는 경우, 가장 최근에 획득한 정보를 이용하여 가장 가까운 매장 또는 가까운 하나 이상의 매장의 위치를 획득할 수도 있다.
일 실시 예에서, 사용자 단말은 단계 S120에서 지도 데이터베이스에 포함된 복수의 객체를 인식한다.
단계 S130에서, 사용자 단말은 단계 S120에서 인식된 복수의 객체가 모두 포함된 위치를 지도 데이터베이스 또는 지도 데이터베이스를 이용하여 생성된 데이터베이스로부터 획득한다.
예를 들어, 사용자 단말 또는 사용자 단말과 연결된 서버는 지도 데이터베이스를 이용하여 지도 데이터베이스에 포함된 객체들 간의 위치관계를 나타내는 데이터베이스를 생성할 수 있다. 예를 들어, 서로 인접한 객체들, 서로 소정의 거리 내에 위치한 객체들, 같은 건물에 위치한 객체들 등에 대한 정보를 포함하는 데이터베이스가 사전에 생성되어 서버 또는 사용자 단말에 저장될 수 있다.
단계 S140에서, 사용자 단말은 하나 이상의 객체의 위치관계에 기초하여 사용자 단말의 위치를 판단한다.
단계 S130에서, 하나의 객체가 복수의 위치에 존재하는 경우의 실시 예에 대하여 설명하였다. 하지만, 동일한 위치 또는 소정의 범위 내에 복수의 객체가 모두 존재하는 경우로 한정하는 경우 위치를 특정할 수 있다.
또한, 복수의 객체 간의 위치관계를 이용하여 사용자 단말의 위치를 더욱 정확하게 특정할 수 있다. 객체 간의 위치관계는 하나 이상의 객체 간의 거리 및 방향 중 적어도 하나를 포함한다. 예를 들어, 객체 간의 위치관계는 서로 소정의 거리 내에 위치하는지 여부, 객채 간의 정확한 거리, 대략적인 거리 또는 거리의 범위, 인접여부, 방향(상, 하, 좌, 우, 전, 후 등), 동일한 건물에 위치하는지 여부, 같은 층에 위치하는지 여부, 서로 다른 층에 위치하는지 여부 등을 포함한다.
예를 들어, 두 개의 서로 다른 매장의 간판을 인식한 경우, 두 매장이 소정의 범위 내에 위치하는 장소에 대한 정보를 획득할 수 있다. 두 매장이 소정의 범위 내에 위치하는 장소가 복수인 경우, 두 매장이 서로 인접한 장소가 있는지, 서로 다른 층에 위치한 장소가 있는지, 어느 매장이 왼쪽에 있는지, 어느 매장이 아래에 있는지 등에 대한 정보까지 특정함으로써 사용자 단말의 위치를 정확히 판단할 수 있다.
도 1에 도시된 방법에 따른 일 실시 예를 아래와 같이 설명할 수 있다.
사용자는 사용자 단말의 카메라를 이용하여 주변의 영상을 획득한다. 사용자 단말은 사용자 주변의 매장(또는 매장의 간판) 및 랜드마크 중 적어도 하나를 인식하고, 지도 데이터베이스로부터 매장 및 랜드마크의 위치를 획득함으로써 사용자의 위치를 판단한다.
사용자 단말은 한 쪽 방향만을 촬영하여도 사용자의 위치를 판단할 수 있으나, 한 쪽 방향에서 인식되는 객체가 없거나 적은 경우, 또는 한 쪽 방향에서 인식되는 객체가 모두 포함된 위치가 많아 사용자의 위치를 특정하기 어려운 경우, 여러 방향으로 촬영할 것을 요구하거나, 상하좌우로 카메라의 촬영 방향을 이동시켜 줄 것을 요구할 수 있다. 예를 들면, 구글 카드보드 카메라의 360도 촬영방식과 같이, 360도(또는 그 이하) 회전 촬영을 요구할 수도 있다.
사용자 단말은 다양한 방향에서 촬영된 복수의 객체를 인식하고, 인식된 복수의 객체가 모두 포함된 위치에 대한 정보를 획득할 수 있다.
본 실시 예에 따르면, GPS와 같은 기존 위치정보를 활용하기 어려운 경우, 예를 들면 대형 쇼핑몰이나 백화점과 같은 실내에서 특히 사용자의 위치를 용이하게 판단할 수 있다.
도 2는 일 실시 예에 따라 매장의 간판을 인식하여 사용자 단말의 위치를 결정하는 방법을 도시한 흐름도이다.
도 2는 도 1에 도시된 방법을 매장의 간판으로 특정한 일 실시 예로서, 도 2와 관련하여 생략된 내용이라 할지라도 도 1과 관련하여 이미 설명된 내용은 도 2에도 적용된다.
단계 S210에서, 사용자 단말은 적어도 하나의 카메라를 이용하여 복수의 간판이 촬영된 이미지를 획득한다.
단계 S220에서, 사용자 단말은 단계 S210에서 획득된 이미지로부터 복수의 간판 각각을 인식한다.
단계 S230에서, 사용자 단말은 단계 S220에서 인식된 복수의 간판에 각각 대응하는 복수의 매장을 결정한다.
단계 S240에서, 사용자 단말은 지도 데이터베이스로부터 단계 S230에서 인식된 복수의 매장 각각의 위치를 획득한다.
단계 S250에서, 사용자 단말은 복수의 매장 각각의 위치관계에 기초하여 사용자 단말의 위치를 결정한다.
도 3은 복수의 객체를 이용하여 사용자 단말의 위치를 판단하는 일 예를 도시한 도면이다.
도 3을 참조하면, 사용자 단말이 획득하는 이미지(300)가 도시되어 있다. 사용자 단말은 이미지(300)로부터 "THE BODY SHOP"과 "TACO BELL"의 간판을 인식한다. 사용자 단말은 지도 데이터베이스로부터 "THE BODY SHOP"과 "TACO BELL"이 소정의 범위 내에 위치하는 장소를 탐색한다. 나아가, 사용자 단말은 지도 데이터베이스로부터 "THE BODY SHOP"과 "TACO BELL"이 인접한 장소를 탐색하고, 더 나아가서는 "THE BODY SHOP"과 "TACO BELL"이 각각 왼쪽, 오른쪽에 위치하도록 인접한 장소를 탐색함으로써 지도(310)에서 사용자 단말의 위치(312)를 특정할 수 있다.
도 4는 복수의 객체를 이용하여 사용자 단말의 위치를 판단하는 다른 일 예를 도시한 도면이다.
일 실시 예에서, 사용자 단말은 매장의 간판뿐 아니라 랜드마크도 인식할 수 있다.
도 4에 도시된 실시 예에 따르면, 사용자 단말은 이미지(400)를 획득하고, 이미지(400)에 포함된 간판(402)과 랜드마크(404)를 인식한다.
사용자 단말은 이미지(400)로부터 한국자산관리공사의 간판(402)과 랜드마크(404)인 교보타워를 인식할 수 있다.
네이버 지도를 기준으로, 한국자산관리공사는 전국에 총 50곳이 검색된다. 하지만, 교보타워는 전국에 한 곳이므로, 사용자 단말은 강남대로에 위치한 한국자산관리공사 서울지역본부 인근에 위치함을 알 수 있다.
또한, 교보타워는 한 곳뿐이지만, 높은 건물인 랜드마크의 특성상 사용자 단말의 정확한 위치는 알 수 없다. 다만 이미지(400)에 따르면 우측에 한국자산관리공사의 간판이 보이고, 왼쪽으로 멀리 교보타워가 보이므로, 사용자 단말은 강남대로에 위치하는 것으로 특정할 수 있다.
따라서, 사용자 단말은 복수의 객체 간의 위치관계를 활용하여 사용자 단말의 위치를 특정할 수 있다.
도 4에 도시된 지도(410)를 참조하면, 간판(402)에 대응하는 회사인 한국자산관리공사 서울지역본부(412)의 위치를 특정할 수 있다. 또한, 랜드마크(404)인 교보타워(414)의 위치를 특정할 수 있다.
사용자 단말은 지도(410) 상에 표시된 각 객체의 위치관계를 이용하여, 사용자 단말의 위치(416)를 특정할 수 있다.
나아가, 사용자 단말은 복수의 객체의 위치를 획득하여, 삼각측량법 등 기존에 통상의 기술자에게 알려진 위치측정 방법을 활용하여 사용자 단말의 위치를 판단할 수도 있다.
일 실시 예에서, 도 4와 같이 도로가 포함된 이미지를 획득하는 경우, 사용자 단말은 간판과 랜드마크 뿐 아니라 도로의 이정표(표지판) 또한 인식함으로써 사용자 단말의 위치를 판단하는 데 활용할 수 있다.
개시된 실시 예에서, 사용자 단말이 이미지로부터 획득할 수 있는 객체는 하나 이상의 지도 데이터베이스로부터 위치를 특정할 수 있는 모든 종류의 객체를 포함한다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.

Claims (5)

  1. 사용자 단말의 위치를 판단하는 방법에 있어서,
    상기 사용자 단말이, 적어도 하나의 카메라를 이용하여 복수의 객체가 촬영된 이미지를 획득하는 단계;
    상기 획득된 이미지로부터 상기 복수의 객체에 포함된 적어도 두 개의 객체를 인식하는 단계; 및
    상기 적어도 두 개의 객체의 위치관계에 기초하여 상기 사용자 단말의 위치를 판단하는 단계; 를 포함하고,
    상기 사용자 단말의 위치를 판단하는 단계는,
    지도 데이터베이스로부터 상기 인식된 적어도 두 개의 객체가 소정의 범위 내에 모두 포함된 위치를 획득하는 단계; 및
    상기 획득된 위치를 상기 사용자 단말의 위치로 판단하는 단계; 를 포함하는, 방법.
  2. 제1 항에 있어서,
    상기 사용자 단말의 위치를 판단하는 단계는,
    상기 획득된 위치가 복수인 경우, 상기 획득된 이미지로부터 상기 적어도 두 개의 객체의 위치관계를 판단하는 단계; 및
    상기 적어도 두 개의 객체의 위치관계에 기초하여 상기 사용자 단말의 위치를 특정하는 단계; 를 더 포함하는, 방법.
  3. 삭제
  4. 삭제
  5. 사용자 단말의 위치를 판단하는 방법에 있어서,
    상기 사용자 단말이, 적어도 하나의 카메라를 이용하여 복수의 간판이 촬영된 이미지를 획득하는 단계;
    상기 획득된 이미지로부터 상기 복수의 간판 중 적어도 두 개의 간판을 인식하는 단계;
    상기 인식된 적어도 두 개의 간판에 각각 대응하는 매장들을 결정하는 단계; 및
    상기 매장들의 위치관계에 기초하여 상기 사용자 단말의 위치를 판단하는 단계; 를 포함하고,
    상기 사용자 단말의 위치를 판단하는 단계는,
    지도 데이터베이스로부터 상기 매장들의 위치를 획득하는 단계;
    상기 매장들이 소정의 범위 내에 모두 포함된 위치를 획득하는 단계;
    상기 획득된 위치가 복수인 경우, 상기 획득된 이미지로부터 상기 매장들의 위치관계를 판단하는 단계; 및
    상기 매장들의 위치관계에 기초하여 상기 사용자 단말의 위치를 특정하는 단계; 를 포함하는, 방법.
KR1020170060946A 2017-05-17 2017-05-17 사용자 단말의 위치를 판단하는 방법 KR101898665B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170060946A KR101898665B1 (ko) 2017-05-17 2017-05-17 사용자 단말의 위치를 판단하는 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170060946A KR101898665B1 (ko) 2017-05-17 2017-05-17 사용자 단말의 위치를 판단하는 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020180107193A Division KR20180126408A (ko) 2018-09-07 2018-09-07 사용자 단말의 위치를 판단하는 방법

Publications (1)

Publication Number Publication Date
KR101898665B1 true KR101898665B1 (ko) 2018-09-13

Family

ID=63593596

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170060946A KR101898665B1 (ko) 2017-05-17 2017-05-17 사용자 단말의 위치를 판단하는 방법

Country Status (1)

Country Link
KR (1) KR101898665B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100041926A (ko) * 2008-10-15 2010-04-23 에스케이 텔레콤주식회사 위치 확인 서비스 시스템 및 방법, 그리고 이를 위한 위치정보 생성 방법
KR20150075532A (ko) * 2013-12-26 2015-07-06 한국전자통신연구원 증강 현실 제공 장치 및 방법
KR101669882B1 (ko) * 2016-01-14 2016-10-27 김영덕 증강 현실 기반 쇼핑 정보 제공 시스템 및 그의 제어 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100041926A (ko) * 2008-10-15 2010-04-23 에스케이 텔레콤주식회사 위치 확인 서비스 시스템 및 방법, 그리고 이를 위한 위치정보 생성 방법
KR20150075532A (ko) * 2013-12-26 2015-07-06 한국전자통신연구원 증강 현실 제공 장치 및 방법
KR101669882B1 (ko) * 2016-01-14 2016-10-27 김영덕 증강 현실 기반 쇼핑 정보 제공 시스템 및 그의 제어 방법

Similar Documents

Publication Publication Date Title
TWI391632B (zh) 利用識別標籤之定位導航系統與應用於其上之定位導航方法
KR20180126408A (ko) 사용자 단말의 위치를 판단하는 방법
US9824481B2 (en) Maintaining heatmaps using tagged visual data
US8718922B2 (en) Variable density depthmap
US10921127B2 (en) Augmented reality based electronic device to provide location tagging assistance in an indoor or outdoor area
US8121353B2 (en) Apparatus, system and method for mapping information
US20120270573A1 (en) Positioning system and method for single and multilevel structures
US9583074B2 (en) Optimization of label placements in street level images
CN104350524A (zh) 基于外围信息的姿势估计
CA3058243C (en) Information display method and apparatus
CN104331423A (zh) 一种基于电子地图的定位方法和装置
CN112857371A (zh) 一种导航二维码生成方法、园区导航方法及装置
JP6917936B2 (ja) 位置検出をグラフィカル表現にマッピングするための方法、装置およびシステム
KR20160009686A (ko) 증강 현실 콘텐츠를 스크리닝하는 방법, 장치, 및 시스템
US20180247122A1 (en) Method and system of providing information pertaining to objects within premises
CN107193820B (zh) 位置信息获取方法、装置及设备
TWM580186U (zh) 一種360度環繞方位及位置感知物件信息獲取系統
CN110968798A (zh) 房源显示方法、装置、可读存储介质及处理器
JP6165422B2 (ja) 情報処理システム、情報処理装置、サーバ、端末装置、情報処理方法、及びプログラム
CN107003385B (zh) 以无线信号信息标记视觉数据
US20170061699A1 (en) Digital signage for immersive views
KR101898665B1 (ko) 사용자 단말의 위치를 판단하는 방법
CN110969704A (zh) 一种基于ar导视的标记生成跟踪方法及装置
WO2016058533A1 (zh) 一种描述性位置提示信息的生成及定位方法和装置
KR20120069489A (ko) 화면 영상 내의 목표점 측정 장치 및 그 방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant