KR20180126408A - Method for locating a user device - Google Patents

Method for locating a user device Download PDF

Info

Publication number
KR20180126408A
KR20180126408A KR1020180107193A KR20180107193A KR20180126408A KR 20180126408 A KR20180126408 A KR 20180126408A KR 1020180107193 A KR1020180107193 A KR 1020180107193A KR 20180107193 A KR20180107193 A KR 20180107193A KR 20180126408 A KR20180126408 A KR 20180126408A
Authority
KR
South Korea
Prior art keywords
user terminal
objects
location
determining
store
Prior art date
Application number
KR1020180107193A
Other languages
Korean (ko)
Inventor
이주형
Original Assignee
이주형
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이주형 filed Critical 이주형
Priority to KR1020180107193A priority Critical patent/KR20180126408A/en
Publication of KR20180126408A publication Critical patent/KR20180126408A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06K9/20
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • G06F17/30241
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces

Abstract

The present invention discloses a method for determining a position of a user terminal. The method comprises the following steps of: the user terminal obtaining an image captured of one or more objects by using at least one camera; recognizing the one or more objects from the obtained image; obtaining a position in which the recognized one or more objects are included from a map database; and determining the position of the user terminal based on a position relationship of the one or more objects.

Description

사용자 단말의 위치를 판단하는 방법 {METHOD FOR LOCATING A USER DEVICE}[0001] METHOD FOR LOCATING A USER DEVICE [0002]

본 발명은 사용자 단말의 위치를 판단하는 방법에 관한 것이다. The present invention relates to a method for determining the location of a user terminal.

스마트폰의 보급으로, 사용자의 위치를 정확하게 판단하는 것은 사용자의 편의와 사업자들의 다양한 서비스에 있어 중요한 문제가 되었다. 나아가, 증강현실(AR)에 대한 관심이 높아지고 있으며, 증강현실이 대중화된다면 사용자 단말의 위치를 이용하여 더욱 다양한 서비스를 제공할 수 있게 될 것이다. Due to the spread of smart phones, it is important for the convenience of the user and various services of the operators to accurately determine the location of the user. Furthermore, interest in AR (Augmented Reality) is increasing, and if augmented reality is popularized, it will be possible to provide more various services using the location of the user terminal.

또한, 포켓몬 고(Pokemon GO!) 와 같은 위치기반 서비스 게임이 크게 성공하며, 사용자의 위치를 정확하게 판단하는 것은 필수적인 요소가 되었다.In addition, location-based service games such as Pokemon GO! Have been very successful, and it has become essential to accurately determine the user's location.

현재 가장 널리 이용되고 있는 전통적인 방법으로는 GPS 위성 신호를 이용하는 것으로, 스마트폰 뿐 아니라 내비게이션 등 다양한 분야에서 활용되고 있다. 다만, GPS 위성 신호를 이용하는 경우 아주 정확한 위치를 획득하기에는 어려운 경우가 있으며, 특히 GPS 신호 수신이 어려운 실내에서는 위치를 판단할 수 없는 등 다양한 문제점 또한 존재한다.Currently, the most widely used conventional method is to use GPS satellite signals, and it is utilized in various fields such as a smartphone as well as a navigation system. However, when using GPS satellite signals, it is difficult to acquire a very precise position. Especially, there are various problems such that the position can not be judged in a room where reception of GPS signals is difficult.

이를 극복하기 위하여, WiFi AP로부터 수신되는 신호를 이용하거나, 비콘을 이용하여 사용자 단말의 위치를 더욱 정확하게 특정하고자 하는 다양한 시도가 있었다. 하지만, 이는 충분한 인프라가 갖추어지지 않으면 효용성이 크게 떨어지는 문제점이 존재한다. In order to overcome this problem, there have been various attempts to use a signal received from a WiFi AP or to specify the position of a user terminal more accurately by using a beacon. However, there is a problem in that the efficiency is greatly deteriorated unless sufficient infrastructure is provided.

본 발명이 해결하고자 하는 과제는 사용자 단말의 위치를 판단하는 방법을 제공하는 것이다.SUMMARY OF THE INVENTION The present invention provides a method for determining the location of a user terminal.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the above-mentioned problems, and other problems which are not mentioned can be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따라 사용자 단말의 위치를 판단하는 방법은, 상기 사용자 단말이, 적어도 하나의 카메라를 이용하여 하나 이상의 객체가 촬영된 이미지를 획득하는 단계, 상기 획득된 이미지로부터 상기 하나 이상의 객체를 인식하는 단계, 지도 데이터베이스로부터 상기 인식된 하나 이상의 객체가 포함된 위치를 획득하는 단계 및 상기 하나 이상의 객체의 위치관계에 기초하여 상기 사용자 단말의 위치를 판단하는 단계를 포함할 수 있다.According to an aspect of the present invention, there is provided a method of determining a location of a user terminal, the method comprising: acquiring an image of the at least one object captured by the user terminal using at least one camera; Determining a location of the user terminal based on the positional relationship of the at least one object; determining a position of the at least one object based on the positional relationship of the at least one object; .

또한, 상기 하나 이상의 객체가 촬영된 이미지를 획득하는 단계는, 상기 지도 데이터베이스에 저장된 매장 또는 랜드마크의 적어도 일부가 촬영된 이미지를 획득하는 단계를 포함하고, 상기 하나 이상의 객체를 인식하는 단계는, 상기 획득된 적어도 일부가 촬영된 이미지를 이용하여 상기 매장 또는 랜드마크를 인식하는 단계를 포함할 수 있다.In addition, the step of acquiring the photographed image of the at least one object may include acquiring the photographed image at least a portion of the store or landmark stored in the map database, And recognizing the store or the landmark using the obtained at least a part of the photographed image.

또한, 상기 매장의 적어도 일부가 촬영된 이미지를 획득하는 단계는, 상기 지도 데이터베이스에 저장된 매장의 간판의 적어도 일부가 촬영된 이미지를 획득하는 단계를 포함하고, 상기 매장을 인식하는 단계는, 상기 획득된 간판의 적어도 일부가 촬영된 이미지를 이용하여 상기 간판에 대응하는 매장을 인식하는 단계를 포함할 수 있다.In addition, the step of acquiring the photographed image of at least a part of the store may include acquiring the photographed image, at least a part of the signboard of the store stored in the map database, And recognizing a store corresponding to the signboard using at least a part of the taken signboard image.

또한, 상기 위치를 판단하는 단계는, 상기 하나 이상의 객체가 소정의 범위 내에 포함되어 있는 적어도 하나의 위치에 대한 정보를 획득하는 단계 및 상기 하나 이상의 객체의 위치관계에 기초하여 적어도 하나의 위치 중 하나의 위치를 결정하되, 상기 하나 이상의 객체의 위치관계는 상기 하나 이상의 객체 간의 거리 및 방향 중 적어도 하나를 포함하는 단계를 포함할 수 있다.The step of determining the position may further include obtaining information on at least one position in which the at least one object is included within a predetermined range, and determining at least one of the at least one position based on the positional relationship of the at least one object. Wherein the positional relationship of the one or more objects includes at least one of a distance and a direction between the at least one object.

상술한 과제를 해결하기 위한 본 발명의 다른 일 면에 따라 사용자 단말의 위치를 판단하는 방법은, 상기 사용자 단말이, 적어도 하나의 카메라를 이용하여 복수의 간판이 촬영된 이미지를 획득하는 단계, 상기 획득된 이미지로부터 상기 복수의 간판 각각을 인식하는 단계, 상기 인식된 복수의 간판에 각각 대응하는 복수의 매장을 결정하는 단계, 지도 데이터베이스로부터 상기 복수의 매장 각각의 위치를 획득하는 단계 및 상기 복수의 매장 각각의 위치관계에 기초하여 상기 사용자 단말의 위치를 결정하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method of determining a location of a user terminal, the method comprising: acquiring a photographed image of a plurality of signboards using at least one camera; Comprising the steps of: recognizing each of the plurality of signboards from an acquired image; determining a plurality of stores each corresponding to the recognized plurality of signboards; obtaining a position of each of the plurality of stores from a map database; And determining the position of the user terminal based on the positional relationship of each of the stores.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

개시된 실시 예에 따르면, 지도 데이터베이스에서 위치를 획득할 수 있는 객체를 카메라를 통해 인식함으로써 사용자 단말의 위치를 특정할 수 있는 방법이 제공된다. 따라서, 사전에 설치된 인프라 없이도 사용자 단말의 위치를 특정할 수 있는 효과가 있다.According to the disclosed embodiments, there is provided a method of specifying a position of a user terminal by recognizing an object capable of acquiring a position in a map database through a camera. Therefore, there is an effect that the position of the user terminal can be specified without an infrastructure installed in advance.

또한, 개시된 실시 예에서는 GPS 신호를 이용하지 않거나, 이용하더라도 한정적, 보조적으로만 이용하므로, 실내와 실외 무관하게 사용자 단말의 위치를 판단할 수 있는 효과가 있다. In addition, in the disclosed embodiment, since the GPS signal is not used or is limited or supplementary even if the GPS signal is used, the position of the user terminal can be determined regardless of indoor and outdoor conditions.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood by those skilled in the art from the following description.

도 1은 일 실시 예에 따라 사용자 단말의 위치를 판단하는 방법을 도시한 흐름도이다.
도 2는 일 실시 예에 따라 매장의 간판을 인식하여 사용자 단말의 위치를 결정하는 방법을 도시한 흐름도이다.
도 3은 복수의 객체를 이용하여 사용자 단말의 위치를 판단하는 일 예를 도시한 도면이다.
도 4는 복수의 객체를 이용하여 사용자 단말의 위치를 판단하는 다른 일 예를 도시한 도면이다.
1 is a flow chart illustrating a method for determining a location of a user terminal in accordance with an embodiment.
2 is a flowchart illustrating a method of determining a location of a user terminal by recognizing a signboard of a store according to an embodiment.
3 is a diagram illustrating an example of determining a position of a user terminal using a plurality of objects.
4 is a diagram illustrating another example of determining the location of a user terminal using a plurality of objects.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. It should be understood, however, that the invention is not limited to the disclosed embodiments, but may be embodied in many different forms and should not be construed as limited to the embodiments set forth herein, Is provided to fully convey the scope of the present invention to a technician, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. The terms " comprises "and / or" comprising "used in the specification do not exclude the presence or addition of one or more other elements in addition to the stated element. Like reference numerals refer to like elements throughout the specification and "and / or" include each and every combination of one or more of the elements mentioned. Although "first "," second "and the like are used to describe various components, it is needless to say that these components are not limited by these terms. These terms are used only to distinguish one component from another. Therefore, it goes without saying that the first component mentioned below may be the second component within the technical scope of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense that is commonly understood by one of ordinary skill in the art to which this invention belongs. In addition, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.

명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.As used herein, the term "part" or "module" refers to a hardware component, such as a software, FPGA, or ASIC, and a "component" or "module" performs certain roles. However, "part" or " module " is not meant to be limited to software or hardware. A "module " or " module " may be configured to reside on an addressable storage medium and configured to play back one or more processors. Thus, by way of example, "a" or " module " is intended to encompass all types of elements, such as software components, object oriented software components, class components and task components, Microcode, circuitry, data, databases, data structures, tables, arrays, and variables, as used herein. Or " modules " may be combined with a smaller number of components and "parts " or " modules " Can be further separated.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.The terms spatially relative, "below", "beneath", "lower", "above", "upper" And can be used to easily describe a correlation between an element and other elements. Spatially relative terms should be understood in terms of the directions shown in the drawings, including the different directions of components at the time of use or operation. For example, when inverting an element shown in the figures, an element described as "below" or "beneath" of another element may be placed "above" another element . Thus, the exemplary term "below" can include both downward and upward directions. The components can also be oriented in different directions, so that spatially relative terms can be interpreted according to orientation.

본 명세서에서, 사용자 단말은 적어도 하나의 프로세서를 포함하는 컴퓨팅 장치를 의미한다. 한정되지 않는 예로서, 사용자 단말은 퍼스널 컴퓨터, 노트북, 스마트폰, 휴대전화 및 태블릿 PC 등을 의미할 수 있다.As used herein, a user terminal means a computing device comprising at least one processor. By way of example, and not limitation, a user terminal may refer to a personal computer, a notebook, a smart phone, a cell phone, a tablet PC, and the like.

또한, 사용자 단말은 상기 언급된 사용자 단말 내에서 구동되는 사용자 클라이언트를 의미할 수 있다.The user terminal may also refer to a user client running in the above-mentioned user terminal.

다양한 실시 예에서, 사용자 단말은 적어도 하나의 카메라를 포함하거나, 적어도 하나의 카메라와 전기적 또는 물리적으로 연결된다. In various embodiments, the user terminal comprises at least one camera, or is electrically or physically connected to at least one camera.

또한, 사용자 단말은 상기 언급된 컴퓨팅 장치를 포함하거나, 컴퓨팅 장치와 연결될 수 있는 증강현실 장치, 웨어러블 장치 또는 가상현실 장치를 의미할 수 있다.The user terminal may also refer to an augmented reality device, a wearable device, or a virtual reality device, which may include or be coupled to a computing device as described above.

개시된 실시 예에서, "매장"은 간판이 구비된 모든 종류의 상업시설, 회사 및 사무실 등을 모두 포괄하는 개념으로 이용되며, 단순히 물건이나 음식을 판매하는 도소매점으로 한정되지 않는다.In the disclosed embodiment, the term "store" is used to encompass all types of commercial facilities equipped with a signboard, a company, an office, and the like, and is not limited to a wholesale or retail store that simply sells goods or food.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 일 실시 예에 따라 사용자 단말의 위치를 판단하는 방법을 도시한 흐름도이다. 1 is a flow chart illustrating a method for determining a location of a user terminal in accordance with an embodiment.

단계 S110에서, 사용자 단말은 적어도 하나의 카메라를 이용하여 하나 이상의 객체가 촬영된 이미지를 획득한다.In step S110, the user terminal acquires the captured image of at least one object using at least one camera.

일 실시 예에서, 객체는 매장 등의 상업시설이나, 건물, 조형물 등의 랜드마크를 포함한다. 또한, 객체는 매장 등의 상업시설이나, 건물, 조형물 등의 랜드마크의 적어도 일부를 의미할 수도 있다. 예를 들어, 객체는 상업시설의 간판 또는 간판의 적어도 일부를 의미할 수 있다.In one embodiment, the object includes a commercial facility such as a store or a landmark such as a building, a sculpture, or the like. In addition, the object may mean at least a part of a landmark such as a commercial facility such as a store, a building, a sculpture, or the like. For example, an object may refer to at least a part of a signboard or signboard of a commercial establishment.

일 실시 예에서, 객체는 하나 이상의 지도 데이터베이스에 저장된 매장 또는 랜드마크를 의미할 수 있다. In one embodiment, an object may refer to a store or landmark stored in one or more map databases.

따라서, 일 실시 예에 따르면 사용자 단말은 지도 데이터베이스에 저장된 매장 또는 랜드마크의 적어도 일부가 촬영된 이미지를 획득한다.Thus, according to one embodiment, a user terminal obtains a photographed image of at least a portion of a store or landmark stored in a map database.

예를 들어, 사용자 단말이 스마트폰이거나 증강현실 장치일 때, 사용자 단말은 사용자 단말에 구비되거나 사용자 단말과 연결된 카메라를 이용하여 주변의 사진 또는 영상을 촬영할 수 있다. 일 예로, 사용자 단말은 사진 또는 영상을 촬영하여 저장하지는 않고, 카메라를 이용하여 주변 모습에 대한 정보를 실시간으로 수신할 수 있다.For example, when the user terminal is a smart phone or an augmented reality device, the user terminal may photograph a surrounding picture or image using a camera connected to the user terminal or a user terminal. For example, the user terminal can receive information about the surroundings in real time by using the camera without photographing or storing the photograph or image.

단계 S120에서, 사용자 단말은 단계 S110에서 획득된 이미지로부터 하나 이상의 객체를 인식한다.In step S120, the user terminal recognizes one or more objects from the image obtained in step S110.

일 실시 예에서, 사용자 단말은 단계 S110에서 획득된, 지도 데이터베이스에 저장된 매장 또는 랜드마크의 적어도 일부가 촬영된 이미지를 이용하여 촬영된 이미지에 포함된 매장 또는 랜드마크를 인식한다.In one embodiment, the user terminal recognizes the store or landmark contained in the photographed image using the photographed image of at least a portion of the store or landmark acquired in step S 110, which is stored in the map database.

일 실시 예에서, 사용자 단말은 지도 데이터베이스에 저장된 매장의 간판의 적어도 일부가 촬영된 이미지를 획득하고, 획득된 이미지에 포함된 간판에 대응하는 매장을 인식한다.In one embodiment, the user terminal obtains the photographed image of at least a portion of the signboard of the store stored in the map database, and recognizes a store corresponding to the signboard included in the acquired image.

단계 S130에서, 사용자 단말은 지도 데이터베이스로부터 단계 S120에서 인식된 하나 이상의 객체가 포함된 위치를 획득한다.In step S130, the user terminal obtains, from the map database, the location containing the one or more objects recognized in step S120.

일 실시 예에서, 사용자 단말은 단계 S120에서 인식된 하나 이상의 객체가 포함된 위치를 각각 획득한다. In one embodiment, the user terminal obtains the location containing the one or more objects recognized in step S120, respectively.

경우에 따라, 단계 S120에서 인식된 객체가 복수의 위치에 존재할 수 있다. 예를 들어, 단계 S120에서 인식된 객체가 전국에 여러 개의 지점을 가지고 있는 매장인 경우, 단계 S130에서 사용자 단말은 복수의 위치를 획득하게 된다.In some cases, the object recognized in step S120 may exist at a plurality of locations. For example, if the object recognized in step S120 is a store having multiple points in the nation, the user terminal obtains a plurality of locations in step S130.

일 실시 예에서, 사용자 단말은 GPS 정보, WiFi AP, 비콘 및 기지국 정보 등에 기초하여 가장 가까운 매장 또는 가까운 하나 이상의 매장의 위치를 획득할 수 있다. GPS 정보, WiFi AP, 비콘 및 기지국 정보와 같은 위치정보를 획득할 수 없는 경우, 가장 최근에 획득한 정보를 이용하여 가장 가까운 매장 또는 가까운 하나 이상의 매장의 위치를 획득할 수도 있다.In one embodiment, the user terminal may obtain the location of the nearest or nearest store based on GPS information, WiFi AP, beacon and base station information, and the like. If location information such as GPS information, WiFi AP, beacon and base station information can not be obtained, the location of the nearest store or one or more nearby stores may be obtained using the latest acquired information.

일 실시 예에서, 사용자 단말은 단계 S120에서 지도 데이터베이스에 포함된 복수의 객체를 인식한다. In one embodiment, the user terminal recognizes a plurality of objects included in the map database in step S120.

단계 S130에서, 사용자 단말은 단계 S120에서 인식된 복수의 객체가 모두 포함된 위치를 지도 데이터베이스 또는 지도 데이터베이스를 이용하여 생성된 데이터베이스로부터 획득한다. In step S130, the user terminal obtains the position including all of the plurality of objects recognized in step S120 from the map database or the database created using the map database.

예를 들어, 사용자 단말 또는 사용자 단말과 연결된 서버는 지도 데이터베이스를 이용하여 지도 데이터베이스에 포함된 객체들 간의 위치관계를 나타내는 데이터베이스를 생성할 수 있다. 예를 들어, 서로 인접한 객체들, 서로 소정의 거리 내에 위치한 객체들, 같은 건물에 위치한 객체들 등에 대한 정보를 포함하는 데이터베이스가 사전에 생성되어 서버 또는 사용자 단말에 저장될 수 있다.For example, a server connected to a user terminal or a user terminal may generate a database representing a positional relationship between objects included in the map database using the map database. For example, a database containing information on neighboring objects, objects located within a predetermined distance from each other, objects located in the same building, and the like may be created in advance and stored in a server or a user terminal.

단계 S140에서, 사용자 단말은 하나 이상의 객체의 위치관계에 기초하여 사용자 단말의 위치를 판단한다.In step S140, the user terminal determines the position of the user terminal based on the positional relationship of one or more objects.

단계 S130에서, 하나의 객체가 복수의 위치에 존재하는 경우의 실시 예에 대하여 설명하였다. 하지만, 동일한 위치 또는 소정의 범위 내에 복수의 객체가 모두 존재하는 경우로 한정하는 경우 위치를 특정할 수 있다. In the step S130, an example in which one object exists in a plurality of positions has been described. However, it is possible to specify the position when limiting the case where a plurality of objects exist in the same position or a predetermined range.

또한, 복수의 객체 간의 위치관계를 이용하여 사용자 단말의 위치를 더욱 정확하게 특정할 수 있다. 객체 간의 위치관계는 하나 이상의 객체 간의 거리 및 방향 중 적어도 하나를 포함한다. 예를 들어, 객체 간의 위치관계는 서로 소정의 거리 내에 위치하는지 여부, 객채 간의 정확한 거리, 대략적인 거리 또는 거리의 범위, 인접여부, 방향(상, 하, 좌, 우, 전, 후 등), 동일한 건물에 위치하는지 여부, 같은 층에 위치하는지 여부, 서로 다른 층에 위치하는지 여부 등을 포함한다.In addition, the position of the user terminal can be more accurately specified using the positional relationship between the plurality of objects. The positional relationship between the objects includes at least one of a distance and a direction between one or more objects. For example, the positional relationship between the objects may be determined based on whether or not they are located within a predetermined distance from each other, an accurate distance between the objects, a range of approximate distance or distance, proximity, direction (up, down, left, right, Whether they are located in the same building, whether they are located on the same floor, whether they are located on different floors, and the like.

예를 들어, 두 개의 서로 다른 매장의 간판을 인식한 경우, 두 매장이 소정의 범위 내에 위치하는 장소에 대한 정보를 획득할 수 있다. 두 매장이 소정의 범위 내에 위치하는 장소가 복수인 경우, 두 매장이 서로 인접한 장소가 있는지, 서로 다른 층에 위치한 장소가 있는지, 어느 매장이 왼쪽에 있는지, 어느 매장이 아래에 있는지 등에 대한 정보까지 특정함으로써 사용자 단말의 위치를 정확히 판단할 수 있다.For example, when recognizing signboards of two different stores, information about a place where two stores are located within a predetermined range can be obtained. If there are a plurality of places where two stores are located within a predetermined range, information about the places where two stores are adjacent to each other, whether there are places located on different floors, which stores are on the left, It is possible to accurately determine the position of the user terminal.

도 1에 도시된 방법에 따른 일 실시 예를 아래와 같이 설명할 수 있다.One embodiment according to the method shown in Fig. 1 can be described as follows.

사용자는 사용자 단말의 카메라를 이용하여 주변의 영상을 획득한다. 사용자 단말은 사용자 주변의 매장(또는 매장의 간판) 및 랜드마크 중 적어도 하나를 인식하고, 지도 데이터베이스로부터 매장 및 랜드마크의 위치를 획득함으로써 사용자의 위치를 판단한다. The user acquires the surrounding image using the camera of the user terminal. The user terminal recognizes at least one of the store (or the signboard of the store) and the landmark around the user, and determines the location of the user by acquiring the location of the store and the landmark from the map database.

사용자 단말은 한 쪽 방향만을 촬영하여도 사용자의 위치를 판단할 수 있으나, 한 쪽 방향에서 인식되는 객체가 없거나 적은 경우, 또는 한 쪽 방향에서 인식되는 객체가 모두 포함된 위치가 많아 사용자의 위치를 특정하기 어려운 경우, 여러 방향으로 촬영할 것을 요구하거나, 상하좌우로 카메라의 촬영 방향을 이동시켜 줄 것을 요구할 수 있다. 예를 들면, 구글 카드보드 카메라의 360도 촬영방식과 같이, 360도(또는 그 이하) 회전 촬영을 요구할 수도 있다.The user terminal can determine the user's position even if only one direction is photographed. However, when there are no or few objects recognized in one direction or because there are many locations including all the objects recognized in one direction, If it is difficult to specify, it may be required to shoot in various directions, or to move the shooting direction of the camera up, down, left, and right. For example, a 360 degree (or less) rotation shot may be required, like a 360 degree shot of a Google Cardboard camera.

사용자 단말은 다양한 방향에서 촬영된 복수의 객체를 인식하고, 인식된 복수의 객체가 모두 포함된 위치에 대한 정보를 획득할 수 있다.The user terminal can recognize a plurality of objects photographed in various directions and acquire information on locations including all the recognized plurality of objects.

본 실시 예에 따르면, GPS와 같은 기존 위치정보를 활용하기 어려운 경우, 예를 들면 대형 쇼핑몰이나 백화점과 같은 실내에서 특히 사용자의 위치를 용이하게 판단할 수 있다.According to the present embodiment, when it is difficult to utilize existing location information such as GPS, for example, it is possible to easily determine the location of a user, particularly in a room such as a large shopping mall or a department store.

도 2는 일 실시 예에 따라 매장의 간판을 인식하여 사용자 단말의 위치를 결정하는 방법을 도시한 흐름도이다.2 is a flowchart illustrating a method of determining a location of a user terminal by recognizing a signboard of a store according to an embodiment.

도 2는 도 1에 도시된 방법을 매장의 간판으로 특정한 일 실시 예로서, 도 2와 관련하여 생략된 내용이라 할지라도 도 1과 관련하여 이미 설명된 내용은 도 2에도 적용된다.FIG. 2 is a specific embodiment of the method shown in FIG. 1 as a signboard of a store. Even though the contents are omitted in relation to FIG. 2, the contents already explained in connection with FIG. 1 also apply to FIG.

단계 S210에서, 사용자 단말은 적어도 하나의 카메라를 이용하여 복수의 간판이 촬영된 이미지를 획득한다.In step S210, the user terminal acquires the photographed image using a plurality of signboards using at least one camera.

단계 S220에서, 사용자 단말은 단계 S210에서 획득된 이미지로부터 복수의 간판 각각을 인식한다. In step S220, the user terminal recognizes each of the plurality of signboards from the image obtained in step S210.

단계 S230에서, 사용자 단말은 단계 S220에서 인식된 복수의 간판에 각각 대응하는 복수의 매장을 결정한다. In step S230, the user terminal determines a plurality of stores respectively corresponding to the plurality of signboards recognized in step S220.

단계 S240에서, 사용자 단말은 지도 데이터베이스로부터 단계 S230에서 인식된 복수의 매장 각각의 위치를 획득한다.In step S240, the user terminal obtains the position of each of the plurality of stores recognized in step S230 from the map database.

단계 S250에서, 사용자 단말은 복수의 매장 각각의 위치관계에 기초하여 사용자 단말의 위치를 결정한다.In step S250, the user terminal determines the location of the user terminal based on the positional relationship of each of the plurality of stores.

도 3은 복수의 객체를 이용하여 사용자 단말의 위치를 판단하는 일 예를 도시한 도면이다.3 is a diagram illustrating an example of determining a position of a user terminal using a plurality of objects.

도 3을 참조하면, 사용자 단말이 획득하는 이미지(300)가 도시되어 있다. 사용자 단말은 이미지(300)로부터 "THE BODY SHOP"과 "TACO BELL"의 간판을 인식한다. 사용자 단말은 지도 데이터베이스로부터 "THE BODY SHOP"과 "TACO BELL"이 소정의 범위 내에 위치하는 장소를 탐색한다. 나아가, 사용자 단말은 지도 데이터베이스로부터 "THE BODY SHOP"과 "TACO BELL"이 인접한 장소를 탐색하고, 더 나아가서는 "THE BODY SHOP"과 "TACO BELL"이 각각 왼쪽, 오른쪽에 위치하도록 인접한 장소를 탐색함으로써 지도(310)에서 사용자 단말의 위치(312)를 특정할 수 있다.Referring to FIG. 3, an image 300 is shown that is acquired by a user terminal. The user terminal recognizes the signs of "THE BODY SHOP" and "TACO BELL" from image 300. The user terminal searches the map database for a location where "THE BODY SHOP" and "TACO BELL" are located within a predetermined range. Further, the user terminal searches for a place adjacent to " THE BODY SHOP "and" TACO BELL "from the map database and further searches for an adjacent place such that " THE BODY SHOP" and "TACO BELL" Thereby identifying the location 312 of the user terminal on the map 310. [

도 4는 복수의 객체를 이용하여 사용자 단말의 위치를 판단하는 다른 일 예를 도시한 도면이다.4 is a diagram illustrating another example of determining the location of a user terminal using a plurality of objects.

일 실시 예에서, 사용자 단말은 매장의 간판뿐 아니라 랜드마크도 인식할 수 있다. In one embodiment, the user terminal can recognize landmarks as well as signage of stores.

도 4에 도시된 실시 예에 따르면, 사용자 단말은 이미지(400)를 획득하고, 이미지(400)에 포함된 간판(402)과 랜드마크(404)를 인식한다.4, the user terminal obtains the image 400 and recognizes the signboard 402 and the landmark 404 included in the image 400. As shown in FIG.

사용자 단말은 이미지(400)로부터 한국자산관리공사의 간판(402)과 랜드마크(404)인 교보타워를 인식할 수 있다.From the image 400, the user terminal can recognize the signboard 402 of the Korea Asset Management Corporation and the Kyobo Tower, which is the landmark 404.

네이버 지도를 기준으로, 한국자산관리공사는 전국에 총 50곳이 검색된다. 하지만, 교보타워는 전국에 한 곳이므로, 사용자 단말은 강남대로에 위치한 한국자산관리공사 서울지역본부 인근에 위치함을 알 수 있다.Based on the Naver map, the Korea Asset Management Corporation searches 50 sites nationwide. However, since Kyobo Tower is one in the whole country, user terminal is located near the Seoul Regional Headquarters of Korea Asset Management Corporation on Gangnam Street.

또한, 교보타워는 한 곳뿐이지만, 높은 건물인 랜드마크의 특성상 사용자 단말의 정확한 위치는 알 수 없다. 다만 이미지(400)에 따르면 우측에 한국자산관리공사의 간판이 보이고, 왼쪽으로 멀리 교보타워가 보이므로, 사용자 단말은 강남대로에 위치하는 것으로 특정할 수 있다.In addition, there is only one Kyobo Tower, but the exact location of the user terminal can not be known due to the nature of the landmark, which is a high building. However, according to the image (400), the sign of the Korea Asset Management Corporation can be seen on the right side, and the Kyobo Tower can be seen on the left side, so that the user terminal can be specified as being located on Gangnam highway.

따라서, 사용자 단말은 복수의 객체 간의 위치관계를 활용하여 사용자 단말의 위치를 특정할 수 있다.Accordingly, the user terminal can specify the position of the user terminal by utilizing the positional relationship between the plurality of objects.

도 4에 도시된 지도(410)를 참조하면, 간판(402)에 대응하는 회사인 한국자산관리공사 서울지역본부(412)의 위치를 특정할 수 있다. 또한, 랜드마크(404)인 교보타워(414)의 위치를 특정할 수 있다.Referring to the map 410 shown in FIG. 4, the location of the Seoul Regional Headquarters 412 of the Korea Asset Management Corporation, which corresponds to the billboard 402, can be specified. In addition, the location of the Kyobo Tower 414, which is the landmark 404, can be specified.

사용자 단말은 지도(410) 상에 표시된 각 객체의 위치관계를 이용하여, 사용자 단말의 위치(416)를 특정할 수 있다.The user terminal can specify the location 416 of the user terminal using the positional relationship of each object displayed on the map 410. [

나아가, 사용자 단말은 복수의 객체의 위치를 획득하여, 삼각측량법 등 기존에 통상의 기술자에게 알려진 위치측정 방법을 활용하여 사용자 단말의 위치를 판단할 수도 있다.Further, the user terminal may acquire the position of a plurality of objects, and may determine the position of the user terminal using a position measurement method known to those skilled in the art, such as triangulation.

일 실시 예에서, 도 4와 같이 도로가 포함된 이미지를 획득하는 경우, 사용자 단말은 간판과 랜드마크 뿐 아니라 도로의 이정표(표지판) 또한 인식함으로써 사용자 단말의 위치를 판단하는 데 활용할 수 있다.In one embodiment, in the case of obtaining an image including roads as shown in FIG. 4, the user terminal can utilize not only signboards and landmarks but also milestones (signs) of roads to determine the location of the user terminals.

개시된 실시 예에서, 사용자 단말이 이미지로부터 획득할 수 있는 객체는 하나 이상의 지도 데이터베이스로부터 위치를 특정할 수 있는 모든 종류의 객체를 포함한다.In the disclosed embodiment, an object that a user terminal can obtain from an image includes all sorts of objects that can specify a location from one or more map databases.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with the embodiments of the present invention may be embodied directly in hardware, in software modules executed in hardware, or in a combination of both. The software module may be a random access memory (RAM), a read only memory (ROM), an erasable programmable ROM (EPROM), an electrically erasable programmable ROM (EEPROM), a flash memory, a hard disk, a removable disk, a CD- May reside in any form of computer readable recording medium known in the art to which the invention pertains.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, You will understand. Therefore, it should be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

Claims (5)

사용자 단말의 위치를 판단하는 방법에 있어서,
상기 사용자 단말이, 적어도 하나의 카메라를 이용하여 하나 이상의 객체가 촬영된 이미지를 획득하는 단계;
상기 획득된 이미지로부터 상기 하나 이상의 객체를 인식하는 단계;
지도 데이터베이스로부터 상기 인식된 하나 이상의 객체가 포함된 위치를 획득하는 단계; 및
상기 하나 이상의 객체의 위치관계에 기초하여 상기 사용자 단말의 위치를 판단하는 단계; 를 포함하는, 방법.
A method for determining a location of a user terminal,
The user terminal obtaining at least one captured image of at least one object using at least one camera;
Recognizing the one or more objects from the acquired image;
Obtaining a location including the recognized one or more objects from a map database; And
Determining a position of the user terminal based on a positional relationship of the one or more objects; / RTI >
제1 항에 있어서,
상기 하나 이상의 객체가 촬영된 이미지를 획득하는 단계는,
상기 지도 데이터베이스에 저장된 매장 또는 랜드마크의 적어도 일부가 촬영된 이미지를 획득하는 단계를 포함하고,
상기 하나 이상의 객체를 인식하는 단계는,
상기 획득된 적어도 일부가 촬영된 이미지를 이용하여 상기 매장 또는 랜드마크를 인식하는 단계를 포함하는, 방법.
The method according to claim 1,
Wherein acquiring the photographed image of the at least one object comprises:
Acquiring a photographed image of at least a portion of the store or landmark stored in the map database,
Wherein recognizing the one or more objects comprises:
And recognizing the store or landmark using the acquired at least a portion of the photographed image.
제2 항에 있어서,
상기 매장의 적어도 일부가 촬영된 이미지를 획득하는 단계는,
상기 지도 데이터베이스에 저장된 매장의 간판의 적어도 일부가 촬영된 이미지를 획득하는 단계를 포함하고,
상기 매장을 인식하는 단계는,
상기 획득된 간판의 적어도 일부가 촬영된 이미지를 이용하여 상기 간판에 대응하는 매장을 인식하는 단계를 포함하는, 방법.
3. The method of claim 2,
Wherein acquiring the photographed image of at least a portion of the store comprises:
Wherein at least a portion of the signboard of the store stored in the map database comprises a captured image,
The step of recognizing the store,
And recognizing at least a portion of the obtained signboard using a photographed image to store corresponding to the signboard.
제1 항에 있어서,
상기 위치를 판단하는 단계는,
상기 하나 이상의 객체가 소정의 범위 내에 포함되어 있는 적어도 하나의 위치에 대한 정보를 획득하는 단계; 및
상기 하나 이상의 객체의 위치관계에 기초하여 적어도 하나의 위치 중 하나의 위치를 결정하되, 상기 하나 이상의 객체의 위치관계는 상기 하나 이상의 객체 간의 거리 및 방향 중 적어도 하나를 포함하는 단계; 를 포함하는, 방법.
The method according to claim 1,
Wherein the step of determining the position comprises:
Obtaining information about at least one location in which the one or more objects are contained within a predetermined range; And
Determining one of at least one position based on a positional relationship of the at least one object, wherein the positional relationship of the at least one object includes at least one of a distance and a direction between the at least one object; / RTI >
사용자 단말의 위치를 판단하는 방법에 있어서,
상기 사용자 단말이, 적어도 하나의 카메라를 이용하여 복수의 간판이 촬영된 이미지를 획득하는 단계;
상기 획득된 이미지로부터 상기 복수의 간판 각각을 인식하는 단계;
상기 인식된 복수의 간판에 각각 대응하는 복수의 매장을 결정하는 단계;
지도 데이터베이스로부터 상기 복수의 매장 각각의 위치를 획득하는 단계; 및
상기 복수의 매장 각각의 위치관계에 기초하여 상기 사용자 단말의 위치를 결정하는 단계; 를 포함하는, 방법.
A method for determining a location of a user terminal,
The user terminal acquiring a photographed image of a plurality of signboards using at least one camera;
Recognizing each of the plurality of signboards from the obtained image;
Determining a plurality of stores corresponding to the recognized plurality of signs, respectively;
Obtaining positions of each of the plurality of stores from a map database; And
Determining a location of the user terminal based on a positional relationship of each of the plurality of stores; / RTI >
KR1020180107193A 2018-09-07 2018-09-07 Method for locating a user device KR20180126408A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180107193A KR20180126408A (en) 2018-09-07 2018-09-07 Method for locating a user device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180107193A KR20180126408A (en) 2018-09-07 2018-09-07 Method for locating a user device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020170060946A Division KR101898665B1 (en) 2017-05-17 2017-05-17 Method for locating a user device

Publications (1)

Publication Number Publication Date
KR20180126408A true KR20180126408A (en) 2018-11-27

Family

ID=64603375

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180107193A KR20180126408A (en) 2018-09-07 2018-09-07 Method for locating a user device

Country Status (1)

Country Link
KR (1) KR20180126408A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110399442A (en) * 2019-07-22 2019-11-01 国网河北省电力有限公司邢台供电分公司 Ground picture capturing method and terminal device based on transmission tower
KR20210064536A (en) * 2019-11-26 2021-06-03 서울과학기술대학교 산학협력단 Apparaus for calculating position of user
KR102382742B1 (en) * 2021-05-06 2022-04-08 (주)킨스미디어 Device and method for obtaining location information in the distribution center
WO2022097765A1 (en) * 2020-11-04 2022-05-12 주식회사 다비오 Terminal device for indoor positioning based on object recognition, service server, and method therefor

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110399442A (en) * 2019-07-22 2019-11-01 国网河北省电力有限公司邢台供电分公司 Ground picture capturing method and terminal device based on transmission tower
KR20210064536A (en) * 2019-11-26 2021-06-03 서울과학기술대학교 산학협력단 Apparaus for calculating position of user
WO2022097765A1 (en) * 2020-11-04 2022-05-12 주식회사 다비오 Terminal device for indoor positioning based on object recognition, service server, and method therefor
KR102382742B1 (en) * 2021-05-06 2022-04-08 (주)킨스미디어 Device and method for obtaining location information in the distribution center

Similar Documents

Publication Publication Date Title
TWI391632B (en) Position/navigation system using identification tag and position/navigation method
KR20180126408A (en) Method for locating a user device
US8121353B2 (en) Apparatus, system and method for mapping information
US8718922B2 (en) Variable density depthmap
US10921127B2 (en) Augmented reality based electronic device to provide location tagging assistance in an indoor or outdoor area
US9824481B2 (en) Maintaining heatmaps using tagged visual data
US9583074B2 (en) Optimization of label placements in street level images
US20120270573A1 (en) Positioning system and method for single and multilevel structures
CN104350524A (en) Pose estimation based on peripheral information
CN102037466A (en) File creation method and system
CA3058243C (en) Information display method and apparatus
CN104331423A (en) Positioning method and device based on electronic map
CN110968798B (en) House source display method and device, readable storage medium and processor
CN112857371A (en) Navigation two-dimensional code generation method, park navigation method and park navigation device
JP6917936B2 (en) Methods, devices and systems for mapping location detection to graphical representations
KR20160009686A (en) Argument reality content screening method, apparatus, and system
US20180247122A1 (en) Method and system of providing information pertaining to objects within premises
JP6165422B2 (en) Information processing system, information processing device, server, terminal device, information processing method, and program
CN107193820B (en) Position information acquisition method, device and equipment
CN107003385B (en) Tagging visual data with wireless signal information
US20170061699A1 (en) Digital signage for immersive views
KR101898665B1 (en) Method for locating a user device
CN110969704A (en) Marker generation tracking method and device based on AR guide
WO2016058533A1 (en) Method and apparatus for generating and positioning descriptive location prompt information
JP6961033B2 (en) Lot number information provision system, lot number information provision method

Legal Events

Date Code Title Description
A107 Divisional application of patent