KR20160027605A - Method for locating indoor position of user device and device for the same - Google Patents

Method for locating indoor position of user device and device for the same Download PDF

Info

Publication number
KR20160027605A
KR20160027605A KR1020140115668A KR20140115668A KR20160027605A KR 20160027605 A KR20160027605 A KR 20160027605A KR 1020140115668 A KR1020140115668 A KR 1020140115668A KR 20140115668 A KR20140115668 A KR 20140115668A KR 20160027605 A KR20160027605 A KR 20160027605A
Authority
KR
South Korea
Prior art keywords
marker
information
user equipment
image
user device
Prior art date
Application number
KR1020140115668A
Other languages
Korean (ko)
Inventor
김현
강희찬
Original Assignee
한국교통연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국교통연구원 filed Critical 한국교통연구원
Priority to KR1020140115668A priority Critical patent/KR20160027605A/en
Publication of KR20160027605A publication Critical patent/KR20160027605A/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/10Position of receiver fixed by co-ordinating a plurality of position lines defined by path-difference measurements, e.g. omega or decca systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06018Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking one-dimensional coding
    • G06K19/06028Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking one-dimensional coding using bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/242Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning

Abstract

Disclosed is a position measuring method of a user device, to measure the position of the user device using one or more markers including images containing coordinate information, which includes a step of measuring the position of the user device based on the coordinate information contained in the one or more markers included in the images taken by the user device.

Description

사용자기기의 실내 위치를 측정하기 위한 측위방법 및 이를 구현하기 위한 장치{Method for locating indoor position of user device and device for the same}Field of the Invention [0001] The present invention relates to a positioning method for measuring an indoor position of a user equipment and a device for implementing the same.

본 발명은 실내 좌표에 관한 정보를 제공하는 한 개 이상의 마커를 이용하여 사용자기기의 위치를 측정하는 방법 및 이를 구현하기 위한 장치에 관한 것이다.The present invention relates to a method for measuring the position of a user equipment using one or more markers for providing information on indoor coordinates and an apparatus for implementing the method.

실내 위치확인 시스템(Indoor Positioning System, IPS)은 WLAN, 블루투스(Bluetooth), 와이파이(WiFi), RFID(Radio Frequency Identification), 초음파, 및 적외선 등을 이용하여 건물 내부에 있는 사용자 또는 사용자기기의 위치를 파악하고, 이를 미리 제공되는 실내지도정보와 대조해 물건이나 장소의 위치를 쉽게 찾아주는 시스템이다. An Indoor Positioning System (IPS) is a system that uses a WLAN, Bluetooth, WiFi, Radio Frequency Identification (RFID), ultrasound, and infrared to locate a user or user equipment And it is a system that easily finds the location of an object or a place by comparing it with the indoor map information provided in advance.

블루투스를 이용한 실내 측위방법은 일반적으로, 수신신호강도(Received Signal Strength Indicator, RSSI)를 이용하여 계산된 블루투스 전파 발생원까지의 거리정보를 이용하여, 이미 위치를 알고 있는 블루투스 장치를 기준점으로 하는 삼각측량법을 이용한다. 블루투스를 이용한 실내측위방법은 다수의 센서 배치를 통해 서비스 커버리지를 줄이고 이로 인해 위치 정확도를 향상시킬 수 있다. The indoor positioning method using Bluetooth generally uses the distance information to the Bluetooth radio wave source calculated using the Received Signal Strength Indicator (RSSI), and uses the distance information of the Bluetooth radio wave source, . The indoor positioning method using Bluetooth can reduce the service coverage through the arrangement of multiple sensors, thereby improving the position accuracy.

그리고 초음파를 이용한 방식으로는 빠른 RF 신호와 상대적으로 느린 초음파의 전송 속도차를 이용하여 대상체의 위치를 찾아내는 방법이 있다. 이 기술을 이용하면 입체의 위치인식이 가능하고, 저전력, 저비용의 시스템을 구성할 수 있는 장점을 가진다. 또한, 초음파 기반 실내측위는 위치 정확도가 매우 정확하며 입체 측위가 가능하다. In a method using an ultrasonic wave, there is a method of locating an object by using a difference between a transmission speed of a fast RF signal and a relatively slow ultrasonic wave. By using this technology, it is possible to recognize three-dimensional position, and it is possible to construct a low-power and low-cost system. In addition, the ultrasound-based indoor positioning is highly accurate in position accuracy and is capable of stereoscopic positioning.

이하 RFID를 이용한 실내측위방법에 대해 설명한다. RFID는 크게 태그(tag)와 리더(reader)로 분류되며 리더는 다시 송신기(transmitter)와 수신기(receiver)/디코더(decoder)로 구성된다. 리더 내부의 송신기가 활성화(activation) 신호를 송출하면 리더 근방의 태그는 자신에게 할당된 고유 ID를 회신한다. 리더는 이를 읽어서 어떠한 태그들이 자신의 근방에 있는지를 판단한다. RFID 리더가 인지할 수 있는 감지거리는 약 2.5m 정도이므로 특정한 위치에 대한 근접 위치 센서(proximity location sensor)로 활용 가능하며, 한정된 실내 공간에 균등하게 배치할 경우 측위 시스템으로도 활용 가능하다. RFID 기반 실내측위의 장점은 근접의 조건을 만족하면 태그가 빠르게 움직여도 감지할 수 있으며, 태그에 읽기/쓰기 기능을 부가하여 정보 보조 기능을 추가할 수 있다. 또한, 수동형 태그의 경우 가격이 저렴하고 능동형 태그는 작은 안테나를 부착하여 신호 도달 거리를 늘릴 수 있다.Hereinafter, an indoor positioning method using RFID will be described. RFID is largely classified into a tag and a reader, and the reader is composed of a transmitter and a receiver / decoder. When the transmitter in the reader sends an activation signal, the tag near the reader returns a unique ID assigned to it. The reader reads this to determine which tags are in their vicinity. Since the detection distance of the RFID reader is about 2.5 m, it can be used as a proximity location sensor for a specific location, and can be used as a positioning system when it is evenly distributed in a limited indoor space. The advantage of RFID based indoor positioning is that it can be detected even if the tag is moved quickly if the proximity condition is satisfied and the information assist function can be added by adding the read / write function to the tag. In addition, the price of passive tag is low and the active tag can increase the signal reach distance by attaching a small antenna.

종래 기술에 따른 실내 측위 기술은 여러 가지 장점을 가지지만, 현실적으로 사용자기기의 위치에 대한 인식방법을 구현하기 어렵다.Although the indoor positioning technique according to the related art has various advantages, it is difficult to realistically realize a method of recognizing the position of the user equipment.

블루투스를 이용한 실내측위기술은, 송수신 지연이 커서 동적 환경에서 위치정확도가 떨어지며, 저전력/저속으로 설계되어 연속 측위가 불가능하다. 초음파를 이용한 실내측위기술은 고가의 인프라 설치비용이 필요하고, 송신기 위치 정보를 사전에 알고 있어야 하며, 송신기 배치에 따라 간섭 문제가 발생한다. 또한, RFID를 이용한 실내측위기술은 통신망에 의하여 수신정보가 공유되는 상황이 고려되지 않으며 신호도달거리가 2~3m 정도로 짧다.Indoor positioning technology using Bluetooth has a high transmission / reception delay, and its location accuracy is low in a dynamic environment. It is designed with low power / low speed, and continuous positioning is impossible. Indoor positioning technology using ultrasonic wave requires expensive infrastructure installation cost, and transmitter position information must be known in advance, and interference problems arise depending on the transmitter arrangement. In addition, the indoor positioning technology using RFID does not take into consideration the situation where the receiving information is shared by the communication network, and the signal arrival distance is as short as 2 to 3 m.

또한, 블루투스 및 WiFi와 같이 수신 무지향성 전파를 이용하는 경우에는 출입문의 개폐여부, 사람의 이동여부, 방해구조물의 설치 등에 의해 전파의 반사 또는 흡수가 일어나게 되며, 그 결과 전파 발생원과 전파 수신단 사이의 거리 측정에 오차가 발생할 수 있다는 문제가 있다. In the case of using non-directional radio waves such as Bluetooth and WiFi, reflection or absorption of radio waves occurs due to opening / closing of a door, movement of a person, installation of an obstacle, etc. As a result, a distance between a radio wave generating source and a radio wave receiving end There is a problem that an error may occur in the measurement.

본 발명에서는 사용자기기에서 포함된 촬영모듈을 이용한 영상인식을 통해 사용자기기의 위치를 측정하는 방법을 제공하고자 한다.The present invention provides a method for measuring a position of a user equipment through image recognition using a photographing module included in a user equipment.

본 발명의 범위가 상술한 목적에 의해 제한되는 것은 아니다.And the scope of the present invention is not limited by the above-described objects.

본 발명의 일 관점에 따라 사용자기기에 지도를 출력하는 제1 출력단계; 미리 지정된 장소에 설치되어 있는 마커를 인식하는 단계; 상기 사용자기기의 좌표값을 측정하는 단계; 상기 사용자기기의 상단측면부가 향하는 방향을 측정하는 단계; 상기 좌표값에 해당하는 위치를 상기 지도에 출력하는 제2 출력단계; 및 상기 방향의 조감도를 상기 지도에 출력하는 제3 출력단계를 포함하는, 측위방법이 제공된다.A first outputting step of outputting a map to a user device according to an aspect of the present invention; Recognizing a marker installed in a predetermined place; Measuring a coordinate value of the user equipment; Measuring a direction of an upper side portion of the user equipment; A second output step of outputting a position corresponding to the coordinate value to the map; And a third outputting step of outputting a bird's-eye view of the direction to the map.

이때, 상기 마커의 위치에 관한 정보(예컨대, 마커가 설치되어 있는 위치의 실제 설치값)가 상기 지도에 매칭되도록 되어 있을 수 있다.At this time, the information about the position of the marker (for example, the actual installation value of the position where the marker is installed) may be matched to the map.

이때, 상기 마커는 복수 개의 영역으로 나누어져 있으며, 각각의 영역에 대응되는 방향에 대한 정보가 상기 각각의 영역에 저장되어 있을 수 있다.At this time, the marker is divided into a plurality of regions, and information on a direction corresponding to each region may be stored in each of the regions.

이때, 상기 인식하는 단계에서 상기 마커는 상기 사용자기기에 탑재된 마커인식장치(예컨대, 카메라)를 통해 인식하도록 되어 있을 수 있다.In this case, in the recognizing step, the marker may be recognized through a marker recognition device (e.g., a camera) mounted on the user equipment.

이때, 상기 방향을 측정하는 단계는, 상기 인식된 마커의 각 영역의 면적을 계산하는 단계; 상기 계산된 면적 중 가장 넓은 면적을 갖는 영역에 대응되는 방향에 대한 정보를 판별하는 단계를 포함할 수 있다.The step of measuring the direction may include: calculating an area of each area of the recognized marker; And determining information on a direction corresponding to an area having the largest area among the calculated areas.

이때, 상기 좌표값을 측정하는 단계는, 미리 설정된 복수 개의 좌표값 중 상기 인식된 마커가 나타내는 좌표값을 기초로 결정하는 단계를 포함할 수 있다. The step of measuring the coordinate value may include a step of determining, based on a coordinate value indicated by the recognized marker among a plurality of predetermined coordinate values.

이때, 상기 미리 설정된 복수 개의 좌표값은 상기 지도를 기반으로 설정된 것일 수 있다.At this time, the predetermined plurality of coordinate values may be set based on the map.

이때, 상기 제2 출력단계는, 상기 좌표값에 해당하는 위치를 상기 지도에서 검색하여 출력하도록 되어 있을 수 있다.At this time, the second outputting step may search for the position corresponding to the coordinate value on the map and output it.

이때, 상기 사용자기기는 기울기 센서를 더 포함하고, 상기 기울기 센서를 이용하여 상기 마커와 상기 사용자기기의 기준점간의 거리를 측정하는 단계를 더 포함하며, 상기 측정한 거리를 이용하여 상기 사용자기기의 위치를 보정하도록 되어 있을 수 있다.The user equipment may further include a tilt sensor, and measuring the distance between the marker and the reference point of the user equipment using the tilt sensor, As shown in FIG.

이때, 상기 기울기 센서는 자이로 센서일 수 있다.At this time, the tilt sensor may be a gyro sensor.

이때, 상기 마커의 각각의 영역은 2차원 바코드 형태로 구현될 수 있다. At this time, each region of the marker may be implemented in the form of a two-dimensional bar code.

이때, 상기 마커는 정사각뿔 형태로 구현될 수 있다. At this time, the marker may be realized in the form of a square horn.

본 발명에 따르면, 스마트폰과 같이 대중화된 사용자기기에 내장된 이미지 촬영모듈을 이용한 실내 측위방법을 제공할 수 있다. 나아가, 자세센서를 이용하여 측위정보의 오차를 보정할 수 있기 때문에 측위결과를 보다 정확하게 제공할 수 있다.According to the present invention, it is possible to provide an indoor positioning method using an image capturing module built in a user equipment popularized as a smart phone. Furthermore, since the error of the positioning information can be corrected using the attitude sensor, the positioning result can be more accurately provided.

도 1은 본 발명의 일 실시예에 따른 실내 측위 시스템을 구현하는 일련의 과정을 나타낸 것이다.
도 2는 서울시 강남역 부근 지하 1층의 실내지도와 이곳의 천장에 제공된 마커들의 위치를 나타낸 것으로서, 도 1에서 설명한 실내측위 시스템을 위해 제공될 수 있다.
도 3은 본 발명의 일 실시예에 따라 실내 측위를 수행하는 사용자기기의 구성을 나타낸 것이다.
도 4는 도 3에 나타낸 사용자기기를 이용하여 본 발명의 일 실시예에 따른 실내 측위를 수행하는 방법에서, 마커가 자신이 설치된 지점의 좌표정보만을 포함하는 경우를 설명하기 위한 것이다.
도 5는 도 3에 나타낸 사용자기기를 이용하여 본 발명의 일 실시예에 따른 실내 측위를 수행하는 방법에서, 마커가 자신이 설치된 지점의 좌표정보 뿐만 아니라 방위정보도 포함하는 경우를 설명하기 위한 것이다.
도 6은 본 발명의 일 실시예에 따른 실내 측위를 수행하는 방법에서, 사용자기기의 카메라의 촬상면이 수평면과 평행하지 않은 상태로 기울어진 경우를 설명하기 위한 것이다.
도 7은 본 발명의 또 다른 실시예에 따른 실내 측위 시스템의 예상 서비스 시나리오를 설명하기 위한 것이다.
도 8은 본 발명의 또 다른 실시예에 따른 입체 마커(즉, 마커)의 다양한 형상을 나타낸 것이다.
도 9는 본 발명의 또 다른 실시예에 따른 입체 마커가 천장에 설치되어 있을 때, 사용자가 스마트폰을 들고 카메라를 통해 입체 마커를 찍은 결과를 나타낸 것이다.
도 10은 본 발명의 또 다른 실시예에 따른 입체 마커의 각 면에 실제로 인쇄될 수 있는 이미지의 예를 나타낸 것이다.
도 11은 본 발명의 또 다른 실시예에 따른 실내 측위 시스템의 설치절차 중 MAP 부분을 자세히 설명하기 위한 것이다.
도 12은 본 발명의 또 다른 실시예에 따른 실내 측위 시스템에서, 좌표인식 방법을 설명하기 위한 것이다.
도 13은 본 발명의 또 다른 실시예에 따른 실내 측위 시스템에서 좌표를 인식하는 방법을 설명하기 위한 것이다.
도 14는 본 발명의 일 실시예에 의해 얻은 실내 측위 정보를 이용하여 길 찾기 기능을 제공하는 어플리케이션 프로그램의 예를 나타낸 것이다.
도 15는 본 발명의 일 실시예에 의해 얻은 실내 측위 정보를 이용하여 친구 위치 찾기 기능을 제공하는 어플리케이션 프로그램의 예를 나타낸 것이다.
도 16은 본 발명의 일 실시에에 따른 마커를 동일 장소에서 스마트폰을 여러 방향으로 기울여 가면서 찍은 3개의 이미지를 나타낸다.
FIG. 1 shows a sequence of processes for implementing an indoor positioning system according to an embodiment of the present invention.
FIG. 2 is a view showing the indoor map of the underground floor near the Gangnam station in Seoul and the location of the markers provided on the ceiling of the indoor map, and can be provided for the indoor positioning system described in FIG.
3 illustrates a configuration of a user equipment that performs indoor positioning according to an embodiment of the present invention.
FIG. 4 is a view for explaining a case where a marker includes only coordinate information of a point where the marker is installed, in a method of performing indoor positioning according to an embodiment of the present invention using the user equipment shown in FIG.
5 is a view for explaining a case where a marker includes not only coordinate information of a point where the marker is installed but also azimuth information in a method of performing indoor positioning according to an embodiment of the present invention using the user equipment shown in Fig. .
6 is a view for explaining a case where an image pickup plane of a camera of a user equipment is inclined in a state in which it is not parallel to a horizontal plane in the method of performing indoor positioning according to an embodiment of the present invention.
FIG. 7 illustrates an expected service scenario of an indoor positioning system according to another embodiment of the present invention.
8 shows various shapes of a stereoscopic marker (i.e., a marker) according to another embodiment of the present invention.
9 is a view showing a result of a user holding a smartphone and taking a stereoscopic marker through a camera when the stereoscopic marker according to another embodiment of the present invention is installed on a ceiling.
FIG. 10 shows an example of an image that can be actually printed on each side of a stereoscopic marker according to another embodiment of the present invention.
FIG. 11 is a view for explaining a MAP part of an installation procedure of an indoor positioning system according to another embodiment of the present invention in detail.
12 is a diagram for explaining a coordinate recognition method in an indoor positioning system according to another embodiment of the present invention.
13 is a view for explaining a method of recognizing coordinates in an indoor positioning system according to another embodiment of the present invention.
14 shows an example of an application program for providing a route search function using indoor positioning information obtained by an embodiment of the present invention.
15 shows an example of an application program that provides a friend location search function using indoor location information obtained by an embodiment of the present invention.
FIG. 16 shows three images taken while the smartphone is tilted in various directions in the same place, according to an embodiment of the present invention.

이하, 본 발명의 실시예를 첨부한 도면을 참고하여 설명한다. 그러나 본 발명은 본 명세서에서 설명하는 실시예에 한정되지 않으며 여러 가지 다른 형태로 구현될 수 있다. 본 명세서에서 사용되는 용어는 실시예의 이해를 돕기 위한 것이며, 본 발명의 범위를 한정하고자 의도된 것이 아니다. 또한, 이하에서 사용되는 단수 형태들은 문구들이 이와 명백히 반대의 의미를 나타내지 않는 한 복수 형태들도 포함한다. Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. However, the present invention is not limited to the embodiments described herein, but may be implemented in various other forms. The terminology used herein is for the purpose of understanding the embodiments and is not intended to limit the scope of the present invention. Also, the singular forms as used below include plural forms unless the phrases expressly have the opposite meaning.

도 1은 본 발명의 일 실시예에 따른 실내 측위시스템을 구현하는 일련의 과정을 나타낸 것이다.FIG. 1 shows a sequence of processes for implementing an indoor positioning system according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 실내 측위를 수행하는 방법은, 사용자기기(100)에서, 좌표정보를 제공하는 한 개 이상의 마커를 이용하여 사용자기기(100)의 위치를 측정하는 방법이다. The method of performing the indoor positioning according to an embodiment of the present invention is a method of measuring the position of the user equipment 100 using one or more markers that provide coordinate information in the user equipment 100. [

상기 마커는 자신이 설치된 위치의 좌표를 제공할 수 있다. 상기 제공을 위하여 상기 마커에는 좌표 정보를 포함하는 이미지가 인쇄되어 있거나, 또는 좌표 정보를 포함하는 빛을 발산할 수 있다. 상기 빛을 발산하는 경우 이 빛의 공간적 변조 및/또는 시간적 변조에 의해 상기 좌표 정보를 제공할 수 있다.The marker may provide coordinates of the location where it is installed. In order to provide the marker, an image including coordinate information may be printed on the marker, or light including coordinate information may be emitted. When the light is diverted, the coordinate information can be provided by spatial modulation and / or temporal modulation of the light.

후술하겠지만, 상기 마커는 실체를 가진 물건으로서 사람의 키보다 높은 곳에 부착되거나 매달려 있는 임의의 형상의 물체일 수 있다. As will be described later, the marker may be any object with an entity attached or suspended above the height of a person.

사용자기기의 위치를 측정하기 위한 실내 측위 시스템은, 도 1에 도시한 바와 같이, MAP 제작 단계(S101), 설치 단계(S102), 좌표인식단계(S103), 및 위치정보 활용단계(S104)를 수행함으로써 구현될 수 있다.As shown in Fig. 1, the indoor positioning system for measuring the position of the user equipment includes a MAP producing step S101, an installing step S102, a coordinate recognizing step S103, and a position information utilizing step S104 As shown in FIG.

MAP 단계(S101)에서는 CAD 등을 이용하여 그림을 추출하고 지도를 제작한다. 그리고 지도 내에 POI(Point Of Interest)를 조사하여 추가할 수 있다. 또한 수집선(길)을 추가하여 (실내)지도를 완성할 수 있다.In the MAP step S101, a drawing is extracted using a CAD or the like, and a map is produced. You can add POI (Point Of Interest) in the map and add it. You can also complete (indoor) maps by adding collection lines (roads).

설치 단계(S102)에서는 바코드의 설치지점을 선정하여 상기 마커와 같은 구조물을 설치하고, 마커가 설치된 위치를 보정하거나 마커를 추가적으로 설치할 수 있다.In the installation step (S102), an installation point of the barcode is selected, a structure such as the marker is installed, a position where the marker is installed can be corrected, or a marker can be additionally installed.

좌표인식단계(S103)에서는 스마트폰 카메라를 이용하여 마커가 제공하는 이미지를 영상으로 인식하고, 인식된 영상을 분석하여 상기 이미지 내에 포함된 좌표정보를 획득한다. 마커가 제공하는 이미지는 예컨대, 바코드, 문자, 숫자, 또는 변조된 광과 같은 형태일 수도 있다. 나아가 스마트폰에 내장된 자이로센서 값을 적용하여 상기 획득한 좌표정보의 값을 보정하여 더 정확한 좌표값을 얻을 수 있다.In the coordinate recognition step (S103), the image provided by the marker is recognized as an image using a smartphone camera, and the recognized image is analyzed to obtain coordinate information included in the image. The image provided by the marker may be in the form of, for example, bar codes, letters, numbers, or modulated light. Further, by applying the gyro sensor value built in the smartphone, the obtained coordinates information can be corrected to obtain a more accurate coordinate value.

위치정보 활용단계(S104)에서는 추출된 좌표를 기초로 예컨대, 길안내 어플리케이션(ex: 길안내 내비게이션)을 통해 현재 위치 정보를 출력할 수 있다. 또한, 다른 스마트폰(예컨대, 타인의 스마트폰)의 위치도 찾을 수 있다.In the position information utilization step (S104), the current position information can be output based on the extracted coordinates, for example, through a guidance application (ex: guidance navigation). Also, the location of another smartphone (e.g., a smartphone of another) can be found.

도 2는 본 발명에 따른 실내 측위방법의 활용 예를 설명하기 위한 것으로서, 서울시 강남역의 지하 1층의 실내지도(160)와 이곳의 천장에 제공된 마커들의 위치(검은 점)를 나타낸 것이다. 도 2에 따른 마커들의 레이아웃은 도 1에서 설명한 실내측위 시스템을 위해 제공될 수 있다.FIG. 2 is a view for explaining an example of application of the indoor positioning method according to the present invention, which shows the indoor map 160 on the first floor underground in Gangnam Station in Seoul and the positions (black dots) of the markers provided on the ceiling. The layout of the markers according to FIG. 2 may be provided for the indoor positioning system described in FIG.

사용자기기의 스크린에는, 도 2에 도시한 실내지도(160)가 출력된 수 있지만, 강남역 지하 1층의 천장에 설치되어 있는 마커들에 관한 정보는 출력되지 않을 수 있다. 그러나 각 마커는 출력된 실내지도(160)의 특정 좌표에 매핑되어 있을 수 있다. 이때, 본 발명의 일 실시예에서는 사용자기기가 촬영한 마커가 제공하는 좌표정보 및/또는 방위정보를 이용하여 사용자기기의 위치를 상기 지도상에 표시할 수 있다.Although the indoor map 160 shown in Fig. 2 may be output on the screen of the user device, information on the markers installed on the ceiling of the first floor of the Gangnam station may not be output. However, each marker may be mapped to a specific coordinate of the displayed indoor map 160. At this time, in an embodiment of the present invention, the position of the user equipment can be displayed on the map by using the coordinate information and / or the orientation information provided by the marker taken by the user equipment.

이하, 본 발명의 일 실시예에 따른 실내 측위를 수행하는 방법에 대해 설명한다.Hereinafter, a method of performing indoor positioning according to an embodiment of the present invention will be described.

도 3은 본 발명의 일 실시예에 따라 실내 측위를 수행하는 사용자기기의 구성을 나타낸 것이다.3 illustrates a configuration of a user equipment that performs indoor positioning according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 실내 측위를 수행하는 방법에서, 사용자기기(100)는, 도 3에 도시한 바와 같이, 스크린(110) 및 카메라(120)를 포함하여 구성될 수 있다. 이때, 카메라(120)를 통해 촬영된 촬영이미지(130)는 스크린(110)을 통해 출력될 수도 있지만, 본 발명의 일 실시예에서는 사용자기기(100) 내부에서만 사용되며 사용자에게 출력되지 않을 수도 있다. 그 대신 스크린(110)에는 사용자기기가 위치한 장소의 대략적인 지도가 출력될 수 있다. 이때, 카메라(120)를 구성하는 CMOS 또는 CCD와 같은 촬상 소자의 촬상면은 스크린(110) 표면과 평행하게 배치될 수 있다. In the method of performing indoor positioning according to an embodiment of the present invention, the user equipment 100 may be configured to include the screen 110 and the camera 120, as shown in Fig. At this time, the photographed image 130 photographed through the camera 120 may be output through the screen 110, but may be used only within the user device 100 and may not be output to the user in the embodiment of the present invention . Instead, a rough map of where the user equipment is located may be displayed on the screen 110. At this time, the imaging surface of the imaging device such as a CMOS or a CCD constituting the camera 120 may be disposed in parallel with the surface of the screen 110.

이때, 사용자가 사용자기기(100)를 들고 스크린(110)을 바라보면서 걸어 다니는 상황에서 카메라(120)가 실내의 천장을 촬영하는 상황을 가정하여 설명할 수 있다. 이하, 다른 언급이 없다면, 설명의 편의를 위하여, 기본적으로는 카메라(120)의 촬상면이 수평면과 평행한 경우를 가정하여 설명한다.At this time, it is assumed that the camera 120 captures the ceiling of the room while the user holds the user device 100 and looks at the screen 110 while walking. Hereinafter, for the sake of convenience of explanation, basically, the case where the image pickup plane of the camera 120 is parallel to the horizontal plane will be described below unless otherwise noted.

이하, 도 4 및 도 5를 참고하여 본 발명의 일 실시예에 따른 실내 측위를 수행하는 방법에 대해 설명한다.Hereinafter, a method of performing indoor positioning according to an embodiment of the present invention will be described with reference to FIGS. 4 and 5. FIG.

이때, 도 4 및 도 5에서는, 사용자기기의 카메라의 촬상면이 수평면과 평행한 경우를 가정하여 설명한다. 이러한 가정에 따르면 촬영이미지(130)의 정중앙에 있는 중심점(11, 12)은 실제로 사용자기기가 위치한 지점과 직교하는 천장 부분이 된다는 것을 이해할 수 있다.
4 and 5, it is assumed that the imaging plane of the camera of the user equipment is parallel to the horizontal plane. According to this assumption, it can be understood that the center points 11 and 12 in the center of the shot image 130 are actually the ceiling portions orthogonal to the point where the user equipment is located.

<실시예: 좌표정보를 제공하는 실내 측위 방법>&Lt; Embodiment: Indoor positioning method for providing coordinate information >

도 4의 (a)와 도 4의 (b)는 도 3에 나타낸 사용자기기를 이용하여 본 발명의 일 실시예에 따른 실내 측위를 수행하는 방법에 있어서, 마커가 자신이 설치된 지점의 좌표정보(ex: (4,2), (2,1), (2,4), (8,1), (8,4)) 만을 제공하는 경우를 설명하기 위한 것이다.4A and 4B illustrate a method of performing indoor positioning according to an exemplary embodiment of the present invention using the user equipment shown in FIG. (4, 2), (2,1), (2,4), (8,1), (8,4).

본 발명의 일 실시예에 따른 실내 측위를 수행하는 방법은, 사용자기기(100)가 촬영한 촬영이미지(130)에 포함된 한 개 이상의 마커(140~144)가 제공하는 좌표정보((4,2), (2,1), (2,4), (8,1), (8,4))를 포함하는 이미지를 기초로 사용자기기(100)의 위치를 측정하는 단계를 포함한다. The method of performing indoor positioning according to an exemplary embodiment of the present invention is a method of performing indoor positioning by using coordinate information (4, 2), (2,1), (2,4), (8,1), (8,4)).

이때, 본 발명의 일 실시예에 따른 마커에는 실제로 마커의 좌표정보를 나타내는 이미지가 실제로 프린트되어 있을 수 있다. 예컨대, 도 4의 (a)에 도시한 바와 같이, 마커(140)에는 마커(140)가 설치된 위치의 좌표정보를 나타내는 '4,2'라는 글자가 적혀 있을 수 있다. 다른 예에서는 숫자가 아닌 바코드 또는 기타 암호화된 이미지가 프린트되어 있을 수 있다. 이때, 마커(140)에 프린트된 이미지는 가시광선이 아닌 다른 대역의 광선에 의해 인식되도록 구현될 수도 있다. 즉, 예컨대 마커(140)에 프린트된 이미지는 가시광선 또는 적외선을 인식하는 카메라 모듈에 의해 인식될 수 있다.At this time, the marker according to the embodiment of the present invention may actually be printed with an image showing the coordinate information of the marker. For example, as shown in FIG. 4 (a), the marker 140 may be marked with the letters '4,2' indicating coordinate information of the position where the marker 140 is installed. In another example, a non-numeric bar code or other encrypted image may be printed. At this time, the image printed on the marker 140 may be realized to be recognized by a ray of light other than visible light. That is, for example, an image printed on the marker 140 can be recognized by a camera module that recognizes visible light or infrared light.

이때, 도 4의 (a)에 도시한 바와 같이, 촬영이미지(130)에 한 개의 마커만이 포함되는 경우, 사용자기기(100)의 위치는 상기 한 개의 마커의 근처에 있다는 것으로 판단할 수 있다. 그리고 상기 한 개의 마커가 제공하는 좌표정보는 특정 지도의 좌표에 매핑되어 있을 수 있다. 따라서 상기 한 개의 마커가 제공하는 좌표정보를 기초로 사용자기기(100)가 어디에 있는지를 대략적으로 파악할 수 있다. At this time, as shown in FIG. 4A, when only one marker is included in the captured image 130, it can be determined that the position of the user device 100 is near the one marker . And the coordinate information provided by the one marker may be mapped to the coordinates of the specific map. Therefore, it is possible to roughly grasp where the user equipment 100 is based on the coordinate information provided by the one marker.

또한, 도 4의 (b)에 도시한 바와 같이, 촬영이미지(130)에 복수 개의 마커가 포함되는 경우, 사용자기기(100)의 위치는 상기 복수 개의 마커가 제공하는 각각의 좌표정보를 모두 활용하여 사용자기기(100)의 위치를 측정할 수 있다. 4B, when a plurality of markers are included in the captured image 130, the position of the user equipment 100 is determined by utilizing all the coordinate information provided by the plurality of markers So that the position of the user equipment 100 can be measured.

도 4의 (b)와 같은 경우, 도 4의 (a)와 같은 경우에 비하여 사용자기기(100)의 위치를 측정하는 경우보다 더 정밀하게 계산할 수 있다. 예컨대, 촬영이미지(130)에, 제1 좌표정보(2,1)를 포함하는 제1 마커(141)의 이미지, 제2 좌표정보(2,4)를 포함하는 제2 마커(142)의 이미지, 제3 좌표정보(8,1)를 포함하는 제3 마커(143)의 이미지, 및 제4 좌표정보(8,4)를 포함하는 제4 마커(144)의 이미지가 포함되는 경우, 중심점(12)으로 지시되는 사용자기기(100)의 위치는 상기 제1 내지 제4 좌표정보가 나타내는 4개의 좌표의 중간 근처에 있다는 것을 알 수 있다.
In the case of FIG. 4 (b), it is possible to calculate more precisely than the case of FIG. 4 (a) in comparison with the case of measuring the position of the user equipment 100. For example, in the captured image 130, an image of the first marker 141 including the first coordinate information (2,1), an image of the second marker 142 including the second coordinate information (2,4) The image of the third marker 143 including the third coordinate information 8,1 and the image of the fourth marker 144 including the fourth coordinate information 8,4 are included, 12 is near the middle of the four coordinates indicated by the first to fourth coordinate information.

<실시예: 방위정보를 제공하는 실내 측위 방법><Embodiment: Indoor positioning method for providing azimuth information>

도 5는 도 3에 나타낸 사용자기기를 이용하여 본 발명의 일 실시예에 따른 실내 측위를 수행하는 방법에서, 마커가 자신이 설치된 지점의 좌표정보 뿐만 아니라 방위정보도 제공하는 경우를 설명하기 위한 것이다.5 is a view for explaining a case in which a marker provides azimuth information as well as coordinate information of a point where the marker is installed in the method of performing indoor positioning according to an embodiment of the present invention using the user equipment shown in Fig. .

도 5의 (a) 및 도 5의 (b)에 도시한 바와 같이, 본 발명의 일 실시예에 따른 실내 측위를 수행하는 방법에서, 상기 마커가 제공하는 이미지에 포함된 상기 좌표정보와 상기 방위정보를 기초로 사용자기기(100)의 위치를 측정하는 단계를 포함한다. 5A and 5B, in the method of performing indoor positioning according to an embodiment of the present invention, the coordinate information included in the image provided by the marker and the orientation And measuring the position of the user equipment 100 based on the information.

이때, 도 5의 (a) 내지 도 5의 (c)에서 중심점(13,14,15)은 촬영된 이미지의 중심으로서, 촬상면이 수평면에 평행인 경우 사용자기기(100)는 상기 중심점으로 대표되는 실내 천장의 바로 아래에 위치하는 것으로 판단할 수 있다. 5 (a) to 5 (c), the center point 13, 14, 15 is the center of the photographed image, and when the imaging plane is parallel to the horizontal plane, the user device 100 is represented by the center point It can be judged that it is located directly under the ceiling of the room.

이때, 본 발명의 일 실시예에 따른 마커에는 마커의 좌표정보뿐만 아니라 방위정보를 나타내는 글자도 기록되어 있을 수 있다. 예컨대, 도 5의 (a)에 나타낸 마커(140)에는 도 5의 (a)에 나타낸 것과 똑같은 형태와 위치에 따라 4,2라는 글자, 그리고 N/W/S/E라는 영문자가 프린트되어 있을 수 있다. 도 5의 (a)는 이러한 마커(140)를 카메라로 찍은 결과를 나타낸 것이다. 이때, 도 5의 (a)에 도시한 바와 같이, 촬영이미지(130)에 출력된 한 개의 마커(140)에 포함되어 있는 이미지는, 좌표정보(4,2)와 방위정보(N, W, S, E)를 포함할 수 있으며, 이를 기초로 사용자기기(100)는 좌표정보(4,2)가 나타내는 위치로부터 약간 남쪽(S)에 위치하고 있다는 것으로 판단할 수 있다.At this time, in the marker according to the embodiment of the present invention, not only the coordinate information of the marker but also the character indicating the orientation information may be recorded. For example, in the marker 140 shown in FIG. 5A, letters 4,2 and letters N / W / S / E are printed according to the same shape and position as shown in FIG. 5A . 5 (a) shows the result of photographing the marker 140 with the camera. 5A, the image included in the one marker 140 output to the shot image 130 includes the coordinate information 4,2 and the azimuth information N, W, S, E), and based on this, it can be determined that the user equipment 100 is located slightly to the south (S) from the position indicated by the coordinate information (4, 2).

또한, 도 5의 (b)에 도시한 바와 같이, 촬영이미지(130)에 복수 개의 마커(141,142,143,144)가 포함되는 경우에는, 복수 개의 마커(141~144)에 포함된 좌표정보와 방위정보를 이용하여 사용자기기(100)의 위치를 더 정밀하게 계산할 수 있다. 도 5의 (b)를 보면 알 수 있듯이, 중심점(14)으로 지시되는 사용자기기(100)의 위치는, 마커(141)가 나타내는 좌표(2,1)보다 남동(SE)쪽에 있고, 마커(142)가 나타내는 좌표(2,4)보다 서남(WS)쪽에 있고, 마커(143)가 나타내는 좌표(8,1)보다 북동(NE)쪽에 있고, 마커(144)가 나타내는 좌표(8,4)보다 북서(NW)쪽에 있다. 5 (b), when the shot image 130 includes a plurality of markers 141, 142, 143, and 144, the coordinate information and the orientation information included in the plurality of markers 141 to 144 are used So that the position of the user equipment 100 can be calculated more precisely. 5B, the position of the user equipment 100 indicated by the center point 14 is located on the SE side of the coordinates 2, 1 indicated by the marker 141, (WS) side of the coordinates (2, 4) indicated by the marker 144 and the coordinates (8, 4) indicated by the marker 144 on the NE side than the coordinates (8, 1) It is on the northwest side (NW) side.

도 5의 (c)는 또 다른 촬영 예를 나타낸다. 도 5의 (c)에 도시한 바와 같이, 마커(145)의 직사각형 가장자리(boundary)는 촬영이미지(130)의 가장자리 선과 나란히 정렬되지 않을 수 있다. 즉, 사용자기기의 포지션에 따라 마커(145)는 도 3의 (a)에 도시한 마커(140)가 회전된 형태로 위치할 수 있다. 이 경우에도 중심점(15)으로 지시되는 사용자기기(100)의 위치가, 마커(145)에 표시된 좌표(4,2)의 남쪽(S)에 위치한다고 판단할 수 있다.5 (c) shows another photographing example. The rectangle boundary of the marker 145 may not be aligned with the edge line of the shot image 130, as shown in Fig. 5 (c). That is, the marker 145 may be positioned in a manner that the marker 140 shown in FIG. 3 (a) is rotated according to the position of the user equipment. In this case also, it can be determined that the position of the user equipment 100 indicated by the center point 15 is located on the south (S) of the coordinates (4, 2) indicated on the marker 145.

이때, 상기 측정하는 단계는, 촬영이미지(130) 내에 포함된 제1 마커의 촬영이미지(130) 내에서의 위치 및 자세를 기초로 사용자기기(100)의 위치를 계산하는 단계를 포함한다. 이때, 상기 제1 마커는 촬영이미지(130) 내에 포함된 한 개 이상의 마커 중 어느 하나일 수 있다. 또한, 사용자기기(100)는 자세 센서(예컨대, 자이로 센서)를 포함하며, 상기 측정하는 단계는 상기 자세 센서에 의해 측정된 사용자기기(100)의 자세를 기초로 상기 측정된 사용자기기(100)의 위치를 보정하는 단계를 포함한다. 여기서 자세라 함은, 상기 촬상면이 수평방향에 대하여 동서남북의 어느 방향으로 어느 정도 기울어져 있는지에 의해 정의될 수 있다. At this time, the measuring step includes calculating the position of the user device 100 based on the position and the posture of the first marker included in the captured image 130 in the captured image 130. Here, the first marker may be any one or more of the markers included in the captured image 130. In addition, the user device 100 may include a posture sensor (e.g., a gyro sensor), and the measuring may include measuring the posture of the user device 100 based on the posture of the user device 100 measured by the posture sensor. And correcting the position of the light source. Here, the attitude can be defined by how much the imaging surface is inclined in the direction of the north, south, east, and west with respect to the horizontal direction.

이때, 사용자기기(100)의 자세 중 두 가지 경우의 예를 도 6의 (a)와 도 6의 (b)를 참고하여 설명한다.
Here, examples of two cases of the attitude of the user equipment 100 will be described with reference to Figs. 6A and 6B.

<실시예: 사용자기기의 자세를 보정하는 실내 측위 방법><Embodiment: Indoor positioning method for correcting posture of user equipment>

도 6은 본 발명의 일 실시예에 따른 실내 측위를 수행하는 방법에서, 사용자기기의 카메라의 촬상면이 수평면과 평행하지 않은 상태로 기울어진 경우를 설명하기 위한 것이다.6 is a view for explaining a case where an image pickup plane of a camera of a user equipment is inclined in a state in which it is not parallel to a horizontal plane in the method of performing indoor positioning according to an embodiment of the present invention.

도 6의 (a)는 사용자기기(100)가 마커(140)의 바로 아래에 위치하는 상황에서, 촬상면이 수평면에 평행한 자세를 나타낸다. 이때, 촬상면에는 천장의 영역(P50)이 찍히게 되고, 마커(140)는 촬영이미지(130)의 정중앙에 위치하게 된다. 이때, 사용자기기(100)의 위치를 나타내는 중심점(16)의 위치가 촬영이미지(130)에 포함된 마커(140)의 위치와 일치하므로, 사용자기기(100)의 위치를 정확히 측정할 수 있다.6A shows a state in which the imaging surface is parallel to a horizontal plane in a situation where the user device 100 is positioned directly below the marker 140. [ At this time, a ceiling area P50 is imaged on the imaging surface, and the marker 140 is positioned in the center of the captured image 130. [ Since the position of the center point 16 indicating the position of the user device 100 coincides with the position of the marker 140 included in the captured image 130, the position of the user device 100 can be accurately measured.

도 6의 (b)는 사용자기기(100)가 마커(140)의 바로 아래에 위치하는 상황에서, 촬상면이 수평면에 대해 기울어진 자세를 나타낸다. 이때, 촬상면은 천장의 영역(P51)이 찍히게 되고, 마커(140)는 촬영이미지(130)의 정중앙(17)에서 벗어난 곳에 위치하게 된다. 이 경우 사용자기기(100)는 마커(140)가 나타내는 좌표(2,2)에서 약간 남동(SE)쪽에 위치하는 것으로 판단될 수 있는데, 이는 잘못된 결과이다. 이러한 결과는 사용자기기(100)에 포함된 자세 센서로부터 사용자기기(100)의 자세 정보를 받아들여 보정하는 단계를 거침으로써 해결될 수 있다. 이때, 상기 자세 센서는, 자이로센서일 수 있다.6B shows a state in which the imaging surface is inclined with respect to the horizontal plane in a situation where the user device 100 is positioned directly below the marker 140. [ At this time, the ceiling area P51 is imaged on the image sensing plane, and the marker 140 is positioned outside the center 17 of the captured image 130. [ In this case, it can be judged that the user equipment 100 is positioned slightly on the SE side from the coordinates (2, 2) indicated by the marker 140, which is a wrong result. This result can be solved by receiving the posture information of the user device 100 from the posture sensor included in the user device 100 and correcting it. At this time, the attitude sensor may be a gyro sensor.

이때, 본 발명의 일 실시예에 따른 사용자기기(100)의 위치를 측정하는 측위방법은, 상기 측정한 사용자기기(100)의 위치를 지도상에 표시하여 출력하는 단계를 더 포함한다. In this case, the positioning method for measuring the position of the user equipment 100 according to an embodiment of the present invention further includes the step of displaying and outputting the measured position of the user equipment 100 on a map.

이때 지도의 곳곳은 상술한 마커들에 표시된 좌표정보가 대응될 수 있다. 이때, 상기 지도에 상기 지도상에서의 사용자기기(100)의 위치가 표시되며, 촬상면에 맺힌 이미지는 따로 출력되지 않을 수 있다.At this time, coordinate information displayed on the above-mentioned markers can be corresponded in some places of the map. At this time, the position of the user device 100 on the map is displayed on the map, and an image formed on the image pickup surface may not be output separately.

또한, 사용자기기(100)가 촬영한 촬영이미지에 포함된 상기 한 개 이상의 마커가 갖는 상기 이미지의 좌표정보를 기초로, 사용자기기(100)의 상부 가장자리(621)가 향하는 방향을 측정하는 단계를 더 포함한다. The step of measuring the direction of the upper edge 621 of the user device 100 based on the coordinate information of the image included in the at least one marker included in the captured image captured by the user device 100 .

또는, 상기 제1 마커의 상기 촬영이미지 내에서의 위치 및 자세를 기초로 사용자기기(100)의 상부 가장자리(621)가 향하는 방향을 측정하는 단계를 더 포함할 수 있다. Alternatively, the method may further include measuring a direction in which the upper edge 621 of the user device 100 faces, based on the position and the posture of the first marker in the shot image.

또한, 사용자기기(100)의 위치 및 사용자기기(100)의 상부 가장자리(621)가 향하는 방향을 기초로, 사용자기기(100)의 위치에서 사용자기기(100)가 향하는 방향의 조감도를 출력하는 단계를 더 포함한다. 이때, 상기 조감도는 미리 제공된 것인 것을 특징으로 한다. 여기서 조감도라 함은, 사람이 사용자기기(100)가 위치한 자리에 서서 사용자기기(100)의 상부 가장자리(621)가 향하는 방향을 자연스럽게 바라보았을 때에 볼 수 있는 이미지를 뜻한다.Outputting a bird's-eye view in a direction in which the user equipment 100 faces from the position of the user equipment 100, based on the position of the user equipment 100 and the direction in which the top edge 621 of the user equipment 100 faces; . In this case, the bird's-eye view is provided in advance. Here, the bird's-eye view refers to an image that can be seen when a person is naturally looking at the direction of the upper edge 621 of the user device 100 in the place where the user device 100 is located.

본 발명의 다른 실시예에서, 상기 마커는 서로 다른 평면에 속해 있으며, 수평면에 평행하지 않은 복수 개의 면, 예컨대 4개의 면을 포함하는 입체적인 형상을 가질 수 있다. 그리고 이때, 상기 방위에 관한 정보 및 상기 좌표에 관한 정보는 각각 상기 4개의 면에 표시되어 있을 수 있다.In another embodiment of the present invention, the markers may have a three-dimensional shape comprising a plurality of faces, for example four faces, which are in different planes and are not parallel to the horizontal plane. At this time, the information on the orientation and the information on the coordinates may be displayed on the four faces, respectively.

이렇게 복수 개의 면 중 제1 면상에 상기 제1 면이 향하는 방향을 나타내는 제1 방위정보(ex: 북쪽, N)를 기록하는 경우, 이 제1 방위정보는 사용자기기의 위치에 따라 찍히지 않을 수 있다. 예컨대, 제1 면이 북쪽을 향한다고 가정할 때에, 만일 사용자기기가 이 마커의 남쪽에 위치해 있다면 사용자기기의 촬상 소자에는 상기 제1 면과 제1 방위정보가 찍히지 않을 수 있다. 이 경우 제1 면이 제공하는 정보를 처리할 필요가 없다는 점에서 유리할 수 있다.When first orientation information (e.g., north, N) indicating the direction in which the first surface faces the first surface among a plurality of surfaces is recorded, the first orientation information may not be taken depending on the position of the user device . For example, assuming that the first side faces north, if the user equipment is located on the south side of the marker, the first surface and the first orientation information may not be captured in the image pickup element of the user equipment. In this case, it may be advantageous in that there is no need to process the information provided by the first side.

상기 마커가 제공하는 이미지는, 예컨대, 가시광선, 적외선, 자외선 등을 통해 검출할 수 있으며, 반드시 육안으로 관찰될 필요는 없다.
The image provided by the marker can be detected through, for example, visible light, infrared light, ultraviolet light, or the like, and is not necessarily observed with the naked eye.

<실시예: 실내 측위 프로그램><Example: indoor positioning program>

이하, 본 발명의 다른 실시예에 따른 사용자기기의 위치를 측정하도록 하는 프로그램에 대해 설명한다.Hereinafter, a program for measuring the position of the user equipment according to another embodiment of the present invention will be described.

본 발명의 다른 실시예에 따른 사용자기기의 위치를 측정하도록 하는 프로그램은 좌표에 관한 이미지 정보를 포함하는 한 개 이상의 마커를 이용하여 사용자기기의 위치를 측정하도록 되어 있다. 이때, 사용자기기의 위치를 측정하도록 하는 프로그램은, 상기 사용자기기에, 상기 사용자기기가 촬영한 촬영이미지에 포함된 상기 한 개 이상의 마커가 갖는 좌표에 관한 이미지 정보를 기초로 상기 사용자기기의 위치를 측정하는 단계를 실행하도록 되어 있는 프로그램을 포함하는 컴퓨터로 읽을 수 있는 매체이다. The program for measuring the position of the user equipment according to another embodiment of the present invention is configured to measure the position of the user equipment using one or more markers including image information about the coordinates. At this time, the program for measuring the position of the user equipment may further include a step of setting the position of the user equipment on the basis of the image information about the coordinates of the one or more markers included in the shot image taken by the user equipment Readable medium that includes a program that is configured to perform a measurement step.

이때, 상기 이미지 정보는 방위에 관한 정보를 더 포함하며, 상기 프로그램은, 상기 사용자기기에, 상기 사용자기기가 촬영한 촬영이미지에 포함된 상기 한 개 이상의 마커가 갖는 좌표 및 방위에 관한 이미지 정보를 기초로 상기 사용자기기의 위치를 측정하는 단계를 실행하도록 되어 있다. 또한, 상기 이미지 정보는 방위에 관한 정보를 더 포함하며, 상기 프로그램은, 상기 사용자기기에, 상기 측정하는 단계에서, 상기 촬영이미지 내에 포함된 제1 마커의 상기 촬영이미지 내에서의 위치 및 자세를 기초로 상기 사용자기기의 위치를 계산하는 단계를 실행하도록 되어 있다.In this case, the image information may further include orientation information, and the program may cause the user device to display image information on coordinates and orientation of the one or more markers included in the captured image captured by the user device And a step of measuring the position of the user equipment based on the result of the measurement. In addition, the image information may further include information on orientation, and the program may cause the user device to determine, in the measuring step, a position and a posture of the first marker included in the captured image, And calculating a position of the user equipment based on the position information.

이때, 상기 프로그램은, 상기 사용자기기에, 상기 사용자기기가 촬영한 촬영이미지에 포함된 상기 한 개 이상의 마커가 갖는 좌표에 관한 이미지 정보를 기초로, 상기 사용자기기가 향하는 방향을 측정하는 단계를 더 실행하도록 되어 있다. 또한, 상기 프로그램은, 상기 사용자기기에, 상기 제1 마커의 상기 촬영이미지 내에서의 위치 및 자세를 기초로 상기 사용자기기가 향하는 방향을 측정하는 단계를 더 실행하도록 되어 있다.
Here, the program may further include the step of measuring, by the user equipment, a direction that the user equipment faces, based on image information about coordinates of the one or more markers included in the shot image taken by the user equipment . The program further causes the user device to perform a step of measuring a direction in which the user device faces the first marker based on the position and posture of the first marker in the captured image.

<실시예: 실내 측위용 사용자 기기>&Lt; Embodiment: User equipment for indoor positioning >

이하, 본 발명의 또 다른 실시예에 따른 사용자기기에 대해 설명한다.Hereinafter, a user equipment according to another embodiment of the present invention will be described.

본 발명의 또 다른 실시예에 따른 사용자기기는, 좌표에 관한 이미지 정보를 포함하는 한 개 이상의 마커를 이용하여 위치를 측정하는 기기로서, 촬영부 및 처리부를 포함한다. 이때, 상기 처리부는, 상기 촬영부를 이용하여 촬영한 촬영이미지에 포함된 상기 한 개 이상의 마커가 갖는 좌표에 관한 이미지 정보를 기초로 상기 사용자기기의 위치를 측정하도록 되어 있다. 이때, 상기 이미지 정보는 방위에 관한 정보를 더 포함하며, 상기 처리부는, 상기 촬영부를 이용하여 촬영한 촬영이미지에 포함된 상기 한 개 이상의 마커가 갖는 좌표 및 방위에 관한 이미지 정보를 기초로 상기 사용자기기의 위치를 측정하도록 되어 있다. 또한, 상기 처리부는, 상기 촬영부를 이용하여 촬영한 촬영이미지에 포함된 제1 마커의 상기 촬영이미지 내에서의 위치 및 자세를 기초로 상기 사용자기기의 위치를 계산하도록 되어 있다.A user equipment according to another embodiment of the present invention includes a photographing unit and a processing unit for measuring a position using one or more markers including image information about coordinates. At this time, the processing unit measures the position of the user equipment on the basis of image information about the coordinates of the one or more markers included in the shot image photographed using the photographing unit. The image processing apparatus according to claim 1, wherein the image information further includes information about a bearing, and the processing unit is configured to determine, based on the image information about the coordinates and the orientation of the one or more markers included in the captured image, And to measure the position of the device. The processing unit is configured to calculate the position of the user device based on a position and a posture of the first marker included in the captured image captured using the photographing unit in the captured image.

또한, 본 발명의 또 다른 실시예에 따른 사용자기기는, 자세 센서를 포함하며, 상기 처리부는, 상기 자세 센서에 의해 측정된 상기 사용자기기의 자세를 기초로 상기 측정된 상기 사용자기기의 위치를 보정하도록 되어 있다.
Further, the user equipment according to another embodiment of the present invention includes an attitude sensor, and the processing unit may correct the position of the user equipment measured based on the attitude of the user equipment measured by the attitude sensor .

<실시예: 실내 측위 시스템><Example: indoor positioning system>

이하, 본 발명의 또 다른 실시예에 따른 실내 측위 시스템에 대해 설명한다. 이 실시예에서는 상술한 마커를 이용한 이미지 촬영 방법과 함께 NFC 기술을 함께 사용한다. 상세히 설명하면, 상기 NFC 기술을 적용하기 어려운 경우에는 상술한 마커를 이용한 이미지 촬영 방법을 사용한다. Hereinafter, an indoor positioning system according to another embodiment of the present invention will be described. In this embodiment, the NFC technique is used together with the image capturing method using the markers described above. In detail, when it is difficult to apply the NFC technique, the image capturing method using the markers described above is used.

본 발명의 일 실시예에 있어서, 지정된 구역(Zone,존) 내에서는 스마트폰의 NFC(Near Field Communication)를 이용한 액티브 태그(Active tag) 방법을 이용하여 스마트폰에서 현재의 태깅된 RFID 장치의 신호를 읽어 현재 위치를 파악할 수 있다. 예컨대 상기 지정된 구역의 예로서, 지하철 플랫폼을 들 수 있다. 이때, 플랫폼의 통로 벽에 위치정보를 포함하는 NFC 태그를 설치하고, NFC 태그를 읽을 수 있는 스마트폰과 같은 사용자기기를 상기 NFC 태그에 근접시키면 상기 NFC 태그의 위치, 즉 상기 사용자기기의 위치를 알 수 있다. 이를 본 명세서에서는 액티브 태그라고 지칭할 수 있다.In one embodiment of the present invention, the active tag method using NFC (Near Field Communication) of a smartphone is used in a designated zone, So that the current position can be grasped. An example of such a designated area is a subway platform. At this time, an NFC tag including positional information is installed on a passage wall of the platform, and when a user device such as a smart phone capable of reading an NFC tag is brought close to the NFC tag, the position of the NFC tag, Able to know. This can be referred to herein as an active tag.

한편, 지하철 플랫폼에서 개찰구로 나가는 길목에는 반드시 통과해야만 하는 좁은 폭의 통로나 계단이 존재할 수 있다. 이러한 통로나 계단의 좌우 벽면에 인식거리가 수 m에 달하는 NFC 인식 게이트를 설치하고, 사용자기기가 이 NFC 인식 게이트 사이를 지나갈 때에 상기 NFC 인식 게이트부터 위치정보를 수신할 수 있다. On the other hand, there may be narrow passages or stairs that must pass through the way to the ticket gate from the subway platform. An NFC recognition gate having a recognition distance of several meters can be installed on the left and right wall surfaces of the passage or the stairway and the location information can be received from the NFC recognition gate when the user equipment passes between the NFC recognition gates.

따라서 본 발명의 일 실시예에 따른 실내 측위 시스템은, 상술한 지정된 구역과 상술한 통로 및 계단 이외의 장소에서는, 상술한 마커가 제공하는 정보를 영상으로 인식하는 방식을 통해 스마트폰의 위치를 파악할 수 있다. Therefore, in the indoor positioning system according to the embodiment of the present invention, the location of the smartphone can be identified through the method of recognizing the information provided by the above-mentioned markers as video in the above-mentioned designated area, .

본 발명을 위해 설계한 입체 마커(즉, 상술한 마커)를 천장에 설치하고, 스마트폰의 디스플레이 화면 쪽 카메라와 자이로스코프 센서를 이용하여 스마트폰의 위치를 측정할 수 있다. A stereoscopic marker designed for the present invention (that is, the above-described marker) can be installed on the ceiling, and the position of the smartphone can be measured using a camera and a gyroscope sensor on the display screen side of the smartphone.

나아가, 측정된 실내 위치 값을 실외 지도와 연결하여 실내외 길안내를 통합시킬 수 있다.
Furthermore, indoor and outdoor guidance can be integrated by connecting the measured indoor position value to an outdoor map.

<실내 측위 시스템의 시나리오의 예>&Lt; Example of scenario of indoor positioning system >

도 7은 본 발명의 본 발명의 실시예에 따른 실내 측위 시스템의 예상 서비스 시나리오를 설명하기 위한 것이다.FIG. 7 illustrates an expected service scenario of an indoor positioning system according to an embodiment of the present invention.

실내 측위 시스템을 제공하고자 하는 장소의 실내지도를 서버시스템에 포팅(porting)한다(S201). 상기 실내지도에 상기 마커(예컨대, 입체 마커)의 예상 설치위치를 설계한다(S202). 상기 예상 설치위치에 상기 입체 마커를 설치한다(S203). 상기 설치된 장치별로 실제적인 설치위치값(X, Y, Z 값)을 등록한다(S204). 상기 설치된 장치의 실제 설치위치값과 실내지도를 맵 매칭 시킨다(S205). The indoor map of the place where the indoor positioning system is to be provided is ported to the server system (S201). And an expected installation position of the marker (e.g., three-dimensional marker) on the indoor map is designed (S202). The stereoscopic marker is installed at the expected installation position (S203). Actual installation position values (X, Y, Z values) are registered for each of the installed devices (S204). The actual installation position value of the installed device and the indoor map are map-matched (S205).

위치 측위를 위한 장치 설치 및 사전 준비가 완료되면, 위치 측위를 수행하기 위한 스마트폰의 어플리케이션을 실행한다(S206). 이때, 스마트폰의 디스플레이 쪽 카메라와 자이로센서는 모두 온-상태이다.When installation and preliminary preparation for positioning are completed, the application of the smartphone for performing the positioning is executed (S206). At this time, the display side camera of the smartphone and the gyro sensor are both on-state.

스마트폰의 카메라를 통해 지정 장소에 설치된 입체 마커를 인식한다(S207). 이때, 바코드 인식값과 함께 자이로센서를 통해 경사도 값이 같이 측정된다. 스마트폰 어플리케이션의 인식 엔진은 상기 바코드 인식값을 기초로 현재의 위치를 찾고, 상기 경사도 값을 기초로 바코드 위치에서 스마트폰이 얼마나 떨어져 있는지를 계산한다(S208). 인식 엔진을 통해 얻어진 결과값은 스마트폰 맵 상에 현재 위치와 방향을 표시해준다(S209).
The stereoscopic marker installed at the designated place is recognized through the camera of the smartphone (S207). At this time, the inclination value is measured through the gyro sensor together with the bar code recognition value. The recognition engine of the smartphone application finds the current position based on the barcode recognition value and calculates how far the smartphone is from the barcode position based on the tilt value (S208). The resultant value obtained through the recognition engine displays the current position and direction on the smartphone map (S209).

<마커의 실시예><Example of Marker>

이하, 도 8을 참고하여 본 발명의 또 다른 실시예에 따른 마커, 예컨대 입체 마커(140')의 다양한 형상을 설명한다.Hereinafter, various shapes of the marker, for example, the three-dimensional marker 140 'according to another embodiment of the present invention will be described with reference to FIG.

도 8의 (a)에 도시한 바와 같이, 입체 마커(140')는 정사각뿔 형태로 제공될 수 있다. 이때, 천장(200)에 부착되어 있는 정사각뿔의 바닥면을 제외하고 서로 다른 평면에 속해 있는 4개의 면이 각각 삼각형 모양을 갖는 입체적인 형상을 하고 있으며, 상기 4개의 면에는 상기 좌표에 관한 정보 및 상기 방위에 관한 정보가 인쇄되어 있을 수 있다. 상기 4개의 면은 수평면과 평행하지 않은 수직면의 성분이 포함되어 있다는 점을 이해할 수 있다.As shown in Fig. 8 (a), the three-dimensional marker 140 'may be provided in the form of a square horn. At this time, except for the bottom surface of the square horn attached to the ceiling 200, four surfaces belonging to different planes have a three-dimensional shape having a triangular shape, and information on the coordinates and Information about the orientation may be printed. It is understood that the four surfaces include components of a vertical plane that is not parallel to the horizontal plane.

또한, 도 8의 (b)에 도시한 바와 같이, 입체 마커(140')는 납작한 원통형으로 제공될 수 있다. 이때, 원통형의 원형 밑면에는 좌표에 관한 정보가 인쇄되고 원통의 측면부에는 각 측면이 향하는 방향을 나타내는 방위정보가 인쇄되어 있을 수 있다. 여기서 상기 원통의 측면부는 수평면과 평행하지 않은 수직면의 성분이 포함되어 있음을 이해할 수 있다. Further, as shown in Fig. 8 (b), the three-dimensional marker 140 'may be provided in a flat cylindrical shape. At this time, the information about the coordinates may be printed on the cylindrical bottom surface, and azimuth information indicating the direction in which each side faces the side surface of the cylinder may be printed. Here, it can be understood that the side portion of the cylinder includes a component of a vertical plane that is not parallel to the horizontal plane.

또한, 도 8의 (c) 도시한 바와 같이, 입체 마커(140')는 동서남북을 바라보는 4개의 수직면을 포함하여 구성될 수도 있다. 각 면으로부터 해당 방향을 나타내는 정보가 제공될 수 있으며, 여기에 이 입체 마커(140')의 좌표정보도 함께 제공될 수도 있다. 도 8의 (c)는 표현되지 않았지만 위의 4개의 수직면 사이에 존재하는 면으로부터 입체 마커(140')의 좌표정보가 제공될 수도 있다.
8 (c), the three-dimensional marker 140 'may include four vertical surfaces facing north, south, south, and west. Information indicating a corresponding direction from each surface may be provided, and coordinate information of the stereoscopic marker 140 'may be also provided thereto. Coordinate information of the stereoscopic marker 140 'may be provided from a face that is not shown in FIG. 8 (c) but exists between the above four vertical faces.

<입체 마커의 효과>&Lt; Effect of three-dimensional marker &

한편, 본 발명의 일 실시예에 따른 실내 측위 시스템에서, 스마트폰(100)의 카메라(120)의 촬상면에 맺히는 상기 입체 마커의 이미지는, 스마트폰(100)의 위치에 따라 달라진다. 이를 도 9를 함께 참고하여 설명한다. Meanwhile, in the indoor positioning system according to the embodiment of the present invention, the image of the stereoscopic marker formed on the sensing surface of the camera 120 of the smartphone 100 varies depending on the position of the smartphone 100. This will be described with reference to FIG.

도 9는 본 발명의 또 다른 실시예에 따른 입체 마커(140')가 천장에 설치되어 있을 때, 사용자가 스마트폰(100)을 들고 카메라(120)를 통해 입체 마커(140')를 찍은 결과를 나타낸 것이다.9 is a diagram illustrating a result of a user holding a smartphone 100 and taking a stereoscopic marker 140 'through a camera 120 when the stereoscopic marker 140' according to another embodiment of the present invention is installed on a ceiling .

이때, 사용자가 스마트폰(100)을 들고 입체 마커(140')의 바로 아래에 위치하는 상황에서, 카메라(120)의 촬상면이 수평면에 평행한 자세를 유지하며 스마트폰(100)의 카메라(120)가 바로 위쪽을 바라보고 입체 마커(140')를 찍은 경우, 도 9의 (a)와 같은 결과가 나타난다.At this time, when the user holds the smartphone 100 and is positioned just below the stereoscopic marker 140 ', the image sensing plane of the camera 120 maintains a posture parallel to the horizontal plane, and the camera 120 of the smartphone 100 , The stereoscopic marker 140 'is viewed directly above and the stereoscopic marker 140' is photographed, as shown in FIG. 9 (a).

또한, 사용자가 스마트폰(100)을 들고 입체 마커(140')의 한 쪽 방향, 예컨대, 남쪽(S 방향)에 위치하는 상황에서, 카메라(120)의 촬상면이 수평면에 평행한 자세를 유지하며 스마트폰(100)의 카메라(120)가 바로 위쪽을 바라보고 입체 마커(140')를 찍은 경우, 도 9의 (b)와 같은 결과가 나타난다.Further, in a situation where the user holds the smartphone 100 and is positioned in one direction, for example, south (S direction) of the stereoscopic marker 140 ', the image sensing plane of the camera 120 maintains a posture parallel to the horizontal plane When the camera 120 of the smartphone 100 looks directly above and takes the stereoscopic marker 140 ', the result as shown in FIG. 9 (b) is displayed.

또한, 사용자가 스마트폰(100)을 들고 입체 마커(140')의 다른 한 쪽 방향, 예컨대, 남동쪽(SE 방향)에 위치하는 상황에서, 카메라(120)의 촬상면이 수평면에 평행한 자세를 유지하며 스마트폰(100)의 카메라(120)가 바로 위쪽을 바라보고 입체 마커(140')를 찍은 경우, 도 9의 (c)와 같은 결과가 나타난다.In a situation where the user holds the smartphone 100 and is located in the other direction of the stereoscopic marker 140 ', for example, in the southeast direction (SE direction), the image pickup plane of the camera 120 is maintained in a parallel posture And the camera 120 of the smartphone 100 looks directly above and takes the stereoscopic marker 140 ', the result as shown in FIG. 9C is displayed.

도 9의 (a)와 같은 상황에서는 사용자기기가 동서남북(EWSN)에 대응하는 모든 정보를 처리해야 하지만, 도 9의 (b)와 도 9의 (c)와 같은 상황에서는 사용자기기가 처리해야 하는 정보의 양이 줄어들 수 있다. 만일 마커가 도 9와 같이 입체형이 아니라 평면형으로 제공되는 경우에는 촬영위치와 관계없이 동서남북(EWSN)에 대응하는 모든 정보가 촬영되므로, 사용자기기가 언제나 많은 양의 정보를 처리해야 한다는 부담이 있다. In the situation shown in FIG. 9A, the user equipment must process all information corresponding to the east, west, north, north (EWSN). In the situation shown in FIGS. 9B and 9C, The amount of information can be reduced. If the marker is provided in a flat shape instead of a stereoscopic shape as shown in FIG. 9, all the information corresponding to the east, west, north and north (EWSN) is taken regardless of the photographing position, so that the user device always has to handle a large amount of information.

여기서 '입체'라는 것은 마커가 수평면에 평행하지 않은 수직성분을 갖는 면을 포함한다는 것을 의미한다. 이러한 수직성분의 면에 의해 상술한 입체 마커의 효과를 얻을 수 있다.
Here, 'stereoscopic' means that the marker includes a plane having a vertical component not parallel to the horizontal plane. By the surface of the vertical component, the effect of the stereoscopic marker described above can be obtained.

<입체 마커에 인쇄되는 이미지의 예><Example of image printed on stereoscopic marker>

이때, 도 9의 (a) 내지 도 9의 (c)에 도시한 입체 마커(140')의 각 면의 이미지는 여러 형태로 구현될 수 있다. 이에 대해, 도 10을 참고하여 설명한다. At this time, the image of each surface of the stereoscopic marker 140 'shown in FIGS. 9A to 9C can be implemented in various forms. This will be described with reference to FIG.

도 10은 본 발명의 또 다른 실시예에 따른 입체 마커(140')의 각 면에 실제로 인쇄될 수 있는 이미지의 예를 나타낸 것이다.FIG. 10 shows an example of an image that can be actually printed on each side of the three-dimensional marker 140 'according to another embodiment of the present invention.

도 10의 (a)와 같이, 입체 마커(140')의 각 면은 2차원 바코드 형태로 인쇄될 수 있다. 또한, 도 10의 (b)와 같이, 실제 좌표정보를 나타내는 (1,1)이라는 글자가 적혀있을 수 있으며, 도 10의 (c)와 같이, 실제 좌표정보 및 실제 방위정보를 나타내는 N,(1,1)이라는 글자가 적혀있을 수도 있다. 숫자 또는 바코드 이외에도 기타 암호화된 이미지가 인쇄되어 있을 수 있다.
As shown in FIG. 10 (a), each side of the three-dimensional marker 140 'can be printed in the form of a two-dimensional bar code. As shown in FIG. 10 (b), the letter (1, 1) indicating the actual coordinate information may be written, and as shown in FIG. 10 (c) 1,1) may be written. In addition to numbers or bar codes, other encrypted images may be printed.

도 11은 본 발명의 또 다른 실시예에 따른 실내 측위 시스템의 설치절차 중 MAP 생성 단계, 즉 맵 매칭 프로세스를 자세히 설명하기 위한 것이다. FIG. 11 is a diagram for explaining the MAP generating step, that is, the map matching process, in detail in the installation procedure of the indoor positioning system according to another embodiment of the present invention.

맵 매칭 프로세스는 실내 측위 시스템의 제작을 위한 맵 연동 프로세스이다. CAD 도면으로 그림을 추출해 지도를 제작하고, 내비게이션의 목적지인 POI를 조사/추가 한다. 그리고 사용자가 갈 수 있는 길과 신호 수집을 위한 수집선을 추가한다. 그리고 상기 마커(ex: 입체 마커) 설치지점을 예상하여 최종 맵을 제작 완료한다.The map matching process is a map interlocking process for manufacturing an indoor positioning system. Extract pictures from CAD drawings to create maps, and investigate / add POI, which is the destination of navigation. And adds a collection line for the path and signal collection that the user can go. The final map is completed by anticipating the marker (ex: stereoscopic marker) installation point.

구체적으로는, 도 11에 도시한 바와 같이, 층 레이어(Floor layer)를 여러 개의 페이지로 만들고(S301), POI를 수집하고(S302), 로드맵을 구성하고(S303), 바코드의 설치위치를 선정하고(S304), 설치를 위한 기초 구조물을 설치하고(S305), 1차 현장테스트를 수행하고(S306), DATA를 분석하고 보정하며(S307), 2차 현장테스트를 수행하고(S308), 후보정 작업을 거치면(S309), MAP 매칭 프로세스가 완료될 수 있다.Specifically, as shown in FIG. 11, a floor layer is formed into a plurality of pages (S301), POIs are collected (S302), a road map is formed (S303) (Step S304), a basic structure for installation is installed (S305), a primary field test is performed (S306), data is analyzed and corrected (S307), a secondary field test is performed (S308) After the operation (S309), the MAP matching process can be completed.

도 12은 본 발명의 또 다른 실시예에 따른 실내 측위 시스템에서, 좌표인식 방법을 설명하기 위한 것이다.12 is a diagram for explaining a coordinate recognition method in an indoor positioning system according to another embodiment of the present invention.

본 발명의 또 다른 실시예에 따른 입체 마커(140)는, 도 8의 (b)에서 설명한 바와 같이, 납작한 원통형으로 제공될 수 있다. 이때, 원통형의 원형 밑면에는 좌표를 나타내는 바코드가 인쇄되고 원통의 측면부에는 각 측면이 향하는 방향을 나타내는 방위정보가 인쇄될 수 있다. The stereoscopic marker 140 according to another embodiment of the present invention may be provided in a flat cylindrical shape as described in Fig. 8 (b). At this time, a bar code indicating coordinates is printed on the cylindrical bottom surface, and azimuth information indicating the direction in which each side faces the side surface of the cylinder can be printed.

이때, 도 12의 중앙부에 있는 스마트폰과 같은 사용자기기(100)에서 촬영모듈을 이용하여 원통형 바코드장치의 각 면에 프린트되어 있는 바코드를 찍고(스캔) 그 정보를 분석하면 바코드에 기록된 등록명, 역 이름, 위치정보, POI, WAYPOINT, 방향 등을 알아낼 수 있으며, 이러한 정보들은 도 12의 우측에 나타낸 것과 같이 고객용 스마트폰 어플리케이션을 통해 출력될 수 있다.At this time, when the bar code printed on each side of the cylindrical bar code device is scanned (scanned) and the information is analyzed using the photographing module in the user device 100 such as the smart phone at the center of FIG. 12, , Station name, location information, POI, waypoint, direction, and the like, and such information can be output through a smartphone application for a customer as shown on the right side of FIG.

도 13은 본 발명의 또 다른 실시예에 따른 실내 측위 시스템에서 좌표를 인식하는 방법을 설명하기 위한 것이다.13 is a view for explaining a method of recognizing coordinates in an indoor positioning system according to another embodiment of the present invention.

이 방법은, 어플리케이션 구동 시 스마트폰에서 초당 5프레임의 디지털 이미지 영상을 획득하는 단계(S401); 잡음 감소 프로세스를 포함하는 이미지 정보 상의 노이즈 제거용 전처리 단계(S402); 디지털 이미지 내에서 고유 바코드를 인식하기 위한 RGB 데이터 값을 추출하는 RGB 분석단계(S403); 이미지 RGB 패턴 스캐닝 등을 통한 바코드 부분역을 인식하는 인식단계(S404); 고유 바코드 인식을 위한 이미지 내 바코드 부분 이미지를 적출하는 바코드 부분영상 적출 단계(S405); pixelization 등을 이용한 고유 바코드 값 해석을 수행하는 패턴스캔 및 해석 단계(S406); 바코드 값에 따른 바코드의 위치와 자이로스코프의 값을 이용하여 삼각측량 기법을 통한 현재 위치 결정을 수행하는 맵 매핑 단계(S407); 및 위치결과를 출력하는 위치결과 출력단계(S408)를 포함할 수 있다. The method comprises: acquiring a digital image of 5 frames per second in a smartphone at the time of application driving (S401); A pre-processing step (S402) for removing noise on image information including a noise reduction process; An RGB analysis step (S403) of extracting an RGB data value for recognizing a unique bar code in the digital image; A recognition step of recognizing a barcode portion through image RGB pattern scanning or the like (S404); A barcode partial image extracting step (S405) of extracting a barcode partial image in the image for inherent barcode recognition; a pattern scanning and analyzing step (S406) for analyzing the inherent bar code value using pixelization or the like; A map mapping step (S407) for performing current positioning through a triangulation technique using the position of the bar code and the value of the gyroscope according to the bar code value; And a position result output step S408 for outputting a position result.

도 14는 본 발명의 일 실시예에 의해 얻은 실내 측위 정보를 이용하여 길 찾기 기능을 제공하는 어플리케이션 프로그램의 예를 나타낸 것이다. 이 프로그램에서는 사용자가 목적지까지 이동해야 하는 경로에 대하여 사용자의 현재 위치 및 사용자가 현재 바라보고 있는 방향에 따라 회전해야 할 방향을 안내하고 있다. 14 shows an example of an application program for providing a route search function using indoor positioning information obtained by an embodiment of the present invention. In this program, the user is guided to the direction to be rotated according to the current position of the user and the direction that the user is looking at with respect to the route that the user has to travel to the destination.

도 15는 본 발명의 일 실시예에 의해 얻은 실내 측위 정보를 이용하여 친구 위치 찾기 기능을 제공하는 어플리케이션 프로그램의 예를 나타낸 것이다. 이 프로그램에서는 자신의 현재 위치와 친구의 현재 위치가 지도상에 표시되며, 두 사람이 떨어진 직선거리도 표시된다. 또한, 자신의 현재 위치에서 친구가 위치하고 있는 장소까지의 이동 경로를 안내한다.15 shows an example of an application program that provides a friend location search function using indoor location information obtained by an embodiment of the present invention. In this program, your current location and your friend's current location are shown on the map, and the straight line distance between the two people is also displayed. Also, it guides the route from the present location to the place where the friend is located.

이와 같이, 본 발명의 일 실시예에 따른 입체 마커를 영상으로 인식하는 실내 측위 시스템은, 실내에서도 정확한 위치정보를 제공하고, 입체 2차원 바코드를 영상인식방법으로 인식하여, 실내 측위를 가능하게 하고, 자신의 위치정보도 알 수 있도록 하며, 길 찾기 기능도 제공할 수 있다.
As described above, the indoor positioning system for recognizing stereoscopic markers according to an embodiment of the present invention provides accurate position information even in the room, recognizes the stereoscopic two-dimensional barcode as an image recognition method, enables indoor positioning , The location information of the user can be known, and a route search function can be provided.

도 16은 본 발명의 일 실시에에 따른 마커를 동일 장소에서 스마트폰을 여러 방향으로 기울여 가면서 찍은 3개의 이미지를 나타낸다.FIG. 16 shows three images taken while the smartphone is tilted in various directions in the same place, according to an embodiment of the present invention.

도 16의 (a)에 나타낸 마커는 평면 형태의 형상을 하고 있으며, 복수 개의 구역(예컨대, 8개의 구역)으로 나누어 각각의 구역마다 방위정보가 기록되어 있다. 이때, 스마트폰의 기울기에 따라 촬영된 마커의 자세가 변경됨을 확인할 수 있다. 그러나 도 16의 (a)에서, 스마트폰의 자세가 변경되어도 마커에 포함되어 있는 방위정보가 모두 인식되므로 스마트폰의 위치를 측정하는 경우, 인식된 방위정보를 모두 참고하여 계산해야 하므로 계산량이 늘어난다.The marker shown in Fig. 16A has a planar shape, and is divided into a plurality of zones (for example, eight zones), and azimuth information is recorded for each zone. At this time, it can be confirmed that the posture of the photographed marker is changed according to the inclination of the smartphone. However, in (a) of FIG. 16, even if the posture of the smartphone is changed, all of the orientation information included in the marker is recognized. Therefore, when the position of the smartphone is measured, the calculation amount is increased by referring to all of the recognized orientation information .

도 16의 (b)에 나타낸 마커는 사각뿔 형태의 형상을 하고 있으며, 마커의 각 면에는 방위정보와 좌표정보가 기록되어 있다. 이때, 스마트폰의 기울기에 따라 촬영된 마커의 자세가 변경됨을 확인할 수 있다. 스마트폰의 자세가 달라짐에 따라 특정한 한 개의 면은 인식되지 않으므로 인식되지 않은 한 개의 면을 제외한 나머지 3개의 면에 포함된 정보만을 이용하여 계산하므로 계산량을 줄일 수 있다.
The marker shown in FIG. 16 (b) has a quadrangular pyramid shape, and orientation information and coordinate information are recorded on each side of the marker. At this time, it can be confirmed that the posture of the photographed marker is changed according to the inclination of the smartphone. Since a specific face is not recognized as the posture of the smartphone changes, only the information contained in the three faces except one face not recognized can be calculated using the calculation amount.

<실시예: 광원을 포함하는 마커>&Lt; Embodiment: a marker including a light source >

도 8에서 예시한 입체 마커, 또는 도 16의 (a)에서 예시한 평면형의 마커의 표면에는, 바코드나 문자 또는 이미지가 인쇄되어 있는 대신에, 한 개 이상의 발광 소자가 설치되어 있을 수 있다. 그리고 상기 마커에는 이러한 발광 소자들의 광방출을 제어하기 위한 제어부 및 전원부가 포함되어 있을 수 있다.The stereoscopic markers illustrated in Fig. 8 or the planar markers illustrated in Fig. 16 (a) may have one or more light emitting elements instead of barcodes, characters, or images printed thereon. The marker may include a control unit and a power unit for controlling the light emission of the light emitting devices.

도 17은 이러한 발광 소자들을 포함하는 마커를 설명하기 위한 것으로서, 도 8의 (c)에 제시한 마커의 제1 면(201)에 한 개 이상의 발광 소자가 설치된 예이다. 발광 소자가 복수 개 설치된 경우에는 어레이 또는 행렬형태로 배치될 수 있다. FIG. 17 is a view for explaining a marker including such light emitting elements, in which one or more light emitting elements are provided on the first surface 201 of the marker shown in FIG. 8 (c). When a plurality of light emitting devices are provided, they may be arranged in the form of an array or a matrix.

제1 면(201)에 한 개의 발광 소자만이 설치된 경우에는 발광 소자의 광 방출을 시간변조하여 좌표 정보 및/또는 방위 정보를 제공할 수 있다. 여기서 시간변조라고 하는 것은, 시간의 흐름에 따라 발광 소자의 광밝기를 변화시키는 것을 의미할 수 있다. When only one light emitting element is provided on the first surface 201, the light emission of the light emitting element can be time-modulated to provide coordinate information and / or azimuth information. Here, the term "time modulation" may mean changing the light brightness of the light emitting element with time.

제1 면(201)에 복수 개의 발광 소자가 설치된 경우에는 발광 소자들의 광방출을 공간변조하여 좌표 정보 및/또는 방위 정보를 제공할 수 있다. 여기서 공간변조라고 하는 것은, 각 발광 소자들 별로 서로 다른 광밝기를 갖도록 제어하는 것을 의미한다. 이때, 상술한 시간변조 방식을 함께 적용하여 더 많은 정보를 제공할 수도 있다. When a plurality of light emitting devices are provided on the first surface 201, the light emission of the light emitting devices may be space-modulated to provide coordinate information and / or azimuth information. Here, the term spatial modulation means controlling each light emitting element to have different light brightness. At this time, it is also possible to provide more information by applying the time modulation scheme described above together.

상술한 발광 소자로서 LED를 이용하면, 이러한 시간변조와 공간변조를 용이하게 제어할 수 있다. 시간변조와 공간변조는 각 LED를 온/오프 상태를 변화시킴으로써 달성할 수 있다. When the LED is used as the above-described light emitting element, such time modulation and spatial modulation can be easily controlled. Time modulation and spatial modulation can be achieved by varying the ON / OFF state of each LED.

위와 같이 마커에 발광 소자를 설치하는 경우는, 단순히 마커에 이미지 등을 인쇄하는 경우에 비하여 이점을 가질 수 있다. 즉, 마커가 천장에 달려 있는 경우에는 천장에 설치된 일반 실내조명에 의한 콘트라스트 레인지의 증가로, 인쇄된 이미지가 촬상 소자에 의해 인식되지 않을 수 있다. 그러나 발광 소자에 의해 빛이 방출되는 경우 일반 실내조명에 의한 빛과의 상대적인 콘트라스트 격차가 줄어들게 되므로, 촬상 소자가 상기 마커를 잘 관찰할 수 있다.When the light emitting element is mounted on the marker as described above, it can have an advantage over the case of merely printing an image or the like on the marker. That is, when the marker is attached to the ceiling, the printed image may not be recognized by the imaging device due to an increase in the contrast range due to the general indoor lighting installed on the ceiling. However, when the light is emitted by the light emitting element, the contrast difference relative to the light due to the general indoor illumination is reduced, so that the imaging element can observe the marker well.

이때, LED로서 사람의 눈에 잘 인식되지 않은 적외선 LED를 이용할 수 있다. 상술한 시간변조방식을 사용하는 경우에, LED가 온/오프를 시간에 따라 반복하게 되는데, 플리커 현상에 의해 사람의 눈이 피로해질 수 있다. 조명의 경우 플리커 현상은 매우 민감하게 다루어지는 문제이다. 따라서 사람의 눈에 보이지 않는 적외선 LED를 사용하는 경우에는, 적외선 LED의 온/오프가 사람의 눈에 인식되지 않아 플리커 문제가 해결된다. 나아가, 이러한 적외선 LED의 광방출은 일반 스마트폰의 촬상 소자에 의해서도 충분히 촬영될 수 있다는 점에서 그 산업상 이용가치가 높다. 도 18의 (a)는 리모콘에 설치된 적외선 LED로부터 적외선이 방출될 때에, 적외선 LED의 광방출을 사람의 눈으로 본 결과이고, 도 18의 (b)는 적외선 LED의 광방출을 스마트폰의 카메라로 촬영하여 실시간으로 그 스마트폰의 디스플레이에 출력한 결과를 나타낸다. 스마트폰이 어떤 대상을 촬영하는 경우 사람이 본 그대로를 출력하는 것이 바람직하겠지만, 실제로는 사람의 눈에 보이지 않는 근적외선 영역을 검출하고, 이를 증폭하여 출력함으로써 스마트폰의 디스플레이에는 적외선 LED의 온 상태가 표시되는 것을 확인할 수 있다. 이로써, 일반적인 스마트폰에 내장된 촬상 소자가 적외선 영역을 촬영할 수 있음을 알 수 있으며, 따라서 적외선 LED를 이용한 마커가 실용적으로 가치가 있음을 실증적으로 알 수 있다. 도 18의 (a)에 나타낸 적외선 LED의 밝기에 비하여 도 18의 (b)에 나타난 적외선 LED의 밝기가 압도적으로 밝다는 것을 확인할 수 있다.
At this time, an infrared LED which is not well recognized by the human eye can be used as the LED. In the case of using the time modulation method described above, the LED repeats ON / OFF with time, and the flicker phenomenon can cause the eyes of the human being to be tired. In the case of lighting, flicker is a very sensitive issue. Therefore, when an infrared LED that is invisible to the human eye is used, the on / off of the infrared LED is not recognized by the human eye, thereby solving the flickering problem. Furthermore, the light emission of such an infrared LED can be sufficiently photographed by an imaging device of a general smart phone, and thus its industrial utility value is high. 18 (a) shows a result of observing the light emission of the infrared LED by the human eye when the infrared ray is emitted from the infrared LED installed in the remote controller, and FIG. 18 (b) And displays the result on the display of the smartphone in real time. When a smartphone captures an object, it is preferable to output the light as it is seen by a person. However, in reality, a near infrared ray region which is not visible to a human being is detected and amplified and output, You can see what is displayed. As a result, it can be seen that an image pickup device built in a general smart phone can photograph an infrared region, and thus, it is evident that a marker using an infrared LED is practically worthy. It can be seen that the brightness of the infrared LED shown in FIG. 18 (b) is overwhelmingly brighter than the brightness of the infrared LED shown in FIG. 18 (a).

상술한 본 발명의 실시예들을 이용하여, 본 발명의 기술 분야에 속하는 자들은 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에 다양한 변경 및 수정을 용이하게 실시할 수 있을 것이다. 특허청구범위의 각 청구항의 내용은 본 명세서를 통해 이해할 수 있는 범위 내에서 인용관계가 없는 다른 청구항에 결합될 수 있다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the essential characteristics thereof. The contents of each claim in the claims may be combined with other claims without departing from the scope of the claims.

Claims (18)

사용자기기가 촬영한 촬영이미지에 포함된 한 개 이상의 마커가 제공하는 마커정보와 상기 마커정보에 포함된 좌표정보가 매핑된 지도를 기초로 상기 사용자기기의 위치를 측정하는 단계를 포함하는,
사용자기기의 측위방법.
And measuring a position of the user equipment based on map information on which marker information provided by one or more markers included in the shot image taken by the user equipment is mapped and coordinate information included in the marker information is mapped,
A positioning method of a user equipment.
제1항에 있어서, 상기 마커정보는 방위정보를 더 포함하며, 상기 좌표정보와 상기 방위정보를 기초로 상기 사용자기기의 위치를 측정하는 단계를 포함하는, 사용자기기의 측위방법.The positioning method of claim 1, wherein the marker information further includes azimuth information, and measuring the position of the user equipment based on the coordinate information and the azimuth information. 제1항에 있어서,
상기 마커정보는 방위정보를 더 포함하며,
상기 측정하는 단계는, 상기 촬영이미지 내에 포함된 제1 마커의 상기 촬영이미지 내에서의 위치 및 자세를 더 이용하여 상기 사용자기기의 위치를 계산하는 단계를 포함하는,
사용자기기의 측위방법.
The method according to claim 1,
Wherein the marker information further includes orientation information,
Wherein the measuring step includes calculating a position of the user equipment by further utilizing the position and the posture of the first marker included in the shot image in the shot image.
A positioning method of a user equipment.
제1항에 있어서, 상기 한 개 이상의 마커 각각은 수직 성분의 면을 포함하는 입체적인 형상을 하고 있으며, 상기 방위에 관한 정보 또는 상기 좌표에 관한 정보는 상기 수직 성분의 면에 표시되어 있는 것을 특징으로 하는, 사용자기기의 측위방법.The information processing apparatus according to claim 1, wherein each of the one or more markers has a three-dimensional shape including a surface of a vertical component, and the information about the orientation or the information about the coordinate is displayed on the surface of the vertical component Of the user equipment. 사용자기기에,
상기 사용자기기가 촬영한 촬영이미지에 포함된 한 개 이상의 마커가 제공하는 마커정보와 상기 마커정보에 포함된 좌표정보가 매핑된 지도를 기초로 상기 사용자기기의 위치를 측정하는 단계
를 실행하도록 되어 있는 프로그램을 포함하는,
컴퓨터로 읽을 수 있는 매체.
On the user device,
A step of measuring a position of the user equipment based on a map on which marker information provided by one or more markers included in the photographed image photographed by the user equipment is mapped with coordinate information included in the marker information
The program comprising:
Computer-readable medium.
제5항에 있어서,
상기 마커정보는 방위정보를 더 포함하며,
상기 프로그램은 상기 측정하는 단계에서,
상기 좌표정보와 상기 방위정보를 기초로 상기 사용자기기의 위치를 측정하도록 되어 있는,
컴퓨터로 읽을 수 있는 매체.
6. The method of claim 5,
Wherein the marker information further includes orientation information,
The program may further comprise, in the measuring step,
Wherein the position of the user equipment is measured based on the coordinate information and the azimuth information,
Computer-readable medium.
제5항에 있어서,
상기 마커정보는 방위정보를 더 포함하며,
상기 프로그램은, 상기 사용자기기에,
상기 사용자기기가 촬영한 촬영이미지에 포함된 상기 한 개 이상의 마커에 포함된 상기 방위정보를 기초로, 상기 사용자기기가 향하는 방향을 측정하는 단계
를 더 실행하도록 되어 있는, 컴퓨터로 읽을 수 있는 매체.
6. The method of claim 5,
Wherein the marker information further includes orientation information,
Wherein the program causes the user device to perform:
A step of measuring a direction of the user equipment based on the azimuth information included in the at least one marker included in the captured image taken by the user equipment
Readable medium. &Lt; / RTI &gt;
제5항 내지 제7항 중 어느 한 항에 있어서,
상기 사용자기기는 자세 센서를 포함하며,
상기 프로그램은, 상기 사용자기기에,
상기 자세 센서에 의해 측정된 상기 사용자기기의 자세를 이용하여 상기 측정된 상기 사용자기기의 위치를 보정하는 단계
를 더 실행하도록 되어 있는, 컴퓨터로 읽을 수 있는 매체.
8. The method according to any one of claims 5 to 7,
Wherein the user equipment comprises an attitude sensor,
Wherein the program causes the user device to perform:
A step of correcting a position of the user equipment measured using the attitude of the user equipment measured by the attitude sensor
Readable medium. &Lt; / RTI &gt;
제5항 내지 제8항 중 어느 한 항에 있어서,
상기 프로그램은, 상기 사용자기기에,
상기 사용자기기의 위치를 지도상에 표시하여 상기 사용자기기의 디스플레이를 통해 출력하는 단계
를 더 실행하도록 되어 있는, 컴퓨터로 읽을 수 있는 매체.
9. The method according to any one of claims 5 to 8,
Wherein the program causes the user device to perform:
Displaying the location of the user equipment on a map and outputting the location on the display of the user equipment
Readable medium. &Lt; / RTI &gt;
제7항에 있어서,
상기 프로그램은, 상기 사용자기기에,
상기 사용자기기의 위치 및 상기 사용자기기가 향하는 방향을 기초로, 상기 사용자기기의 위치에서 상기 사용자기기가 향하는 방향의 조감도를 상기 사용자기기의 디스플레이를 통해 출력하는 단계
를 더 실행하도록 되어 있으며,
상기 조감도는 미리 제공된 것인,
컴퓨터로 읽을 수 있는 매체.
8. The method of claim 7,
Wherein the program causes the user device to perform:
Outputting a bird's-eye view of a direction of the user equipment from a position of the user equipment through a display of the user equipment based on a position of the user equipment and a direction toward the user equipment
To be executed,
The bird's-eye view is provided in advance,
Computer-readable medium.
측위를 위해 사용되는 마커로서,
수직 성분을 포함하는 한 개 이상의 면을 포함하는 한 개 이상의 표면을 갖는 형상을 하고 있으며,
상기 한 개 이상의 표면 각각으로부터, 상기 마커가 설치된 장소의 좌표정보 및 상기 각각의 면이 향하는 방향에 관한 방위 정보 중 하나 이상을 포함하는 마커정보가 제공되는 것을 특징으로 하는,
마커.
As markers used for positioning,
A shape having at least one surface including at least one surface including a vertical component,
Wherein marker information is provided from each of the one or more surfaces, the marker information including at least one of coordinate information of a place where the marker is installed and orientation information about a direction in which each face faces,
Marker.
제11항에 있어서, 상기 마커정보는, 바코드, 문자, 숫자, 및 이미지 중 어느 하나에 의해 이미지 형태로 제공되는 것을 특징으로 하는, 마커.The marker according to claim 11, wherein the marker information is provided in an image form by any one of a bar code, a letter, a number, and an image. 제11항에 있어서,
상기 마커는 상기 한 개 이상의 표면 중 적어도 하나의 표면에 한 개 이상의 발광 소자를 포함하며,
상기 마커정보는 상기 한 개 이상의 발광 소자에 의해 공간변조 또는 시간변조 되어 방출되는 빛에 의해 제공되는 것을 특징으로 하는,
마커.
12. The method of claim 11,
Wherein the marker comprises one or more light emitting elements on at least one surface of the one or more surfaces,
Wherein the marker information is provided by light that is space-modulated or time-modulated and emitted by the one or more light emitting devices.
Marker.
제13항에 있어서, 상기 한 개 이상의 발광 소자는 LED인 것을 특징으로 하는, 마커.14. The marker of claim 13, wherein the one or more light emitting elements are LEDs. 제13항에 있어서, 상기 한 개 이상의 발광 소자는 적외선 LED인 것을 특징으로 하는, 마커.14. The marker of claim 13, wherein the at least one light emitting element is an infrared LED. 촬영부 및 처리부를 포함하는 사용자기기로서,
상기 처리부는,
상기 촬영부를 이용하여 촬영한 촬영이미지에 포함된 한 개 이상의 마커가 제공하는 마커정보와 상기 마커정보에 포함된 좌표정보가 매핑된 지도를 기초로 상기 사용자기기의 위치를 측정하도록 되어 있는,
사용자기기.
A user equipment including a photographing unit and a processing unit,
Wherein,
Wherein the position of the user device is measured based on a map on which marker information provided by one or more markers included in the photographed image photographed using the photographing unit is mapped with coordinate information included in the marker information,
User device.
제16항에 있어서,
상기 마커정보는 방위정보를 더 포함하며,
상기 처리부는,
상기 촬영부를 이용하여 촬영한 촬영이미지에 포함된 상기 한 개 이상의 마커에 포함된 상기 좌표정보와 상기 방위정보를 기초로 상기 사용자기기의 위치를 측정하도록 되어 있는,
사용자기기.
17. The method of claim 16,
Wherein the marker information further includes orientation information,
Wherein,
Wherein the position of the user equipment is measured based on the coordinate information and the azimuth information included in the one or more markers included in the photographed image photographed using the photographing unit,
User device.
제16항에 있어서,
상기 마커정보는 방위정보를 더 포함하며,
상기 처리부는,
상기 촬영부를 이용하여 촬영한 촬영이미지에 포함된 제1 마커의 상기 촬영이미지 내에서의 위치 및 자세를 기초로 상기 사용자기기의 위치를 계산하도록 되어 있는,
사용자기기.
17. The method of claim 16,
Wherein the marker information further includes orientation information,
Wherein,
Wherein the position of the user device is calculated based on a position and a posture of the first marker included in the captured image captured using the photographing unit in the captured image,
User device.
KR1020140115668A 2014-09-01 2014-09-01 Method for locating indoor position of user device and device for the same KR20160027605A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140115668A KR20160027605A (en) 2014-09-01 2014-09-01 Method for locating indoor position of user device and device for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140115668A KR20160027605A (en) 2014-09-01 2014-09-01 Method for locating indoor position of user device and device for the same

Publications (1)

Publication Number Publication Date
KR20160027605A true KR20160027605A (en) 2016-03-10

Family

ID=55538948

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140115668A KR20160027605A (en) 2014-09-01 2014-09-01 Method for locating indoor position of user device and device for the same

Country Status (1)

Country Link
KR (1) KR20160027605A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101858488B1 (en) * 2017-05-30 2018-06-27 홍을표 Sphere type cartesian coordinate system, method, application and server for providing location information using the same
WO2018230861A1 (en) * 2017-06-13 2018-12-20 파이키앤컴퍼니 주식회사 Printed-map-linked poi content management platform system
KR20190067558A (en) * 2017-12-07 2019-06-17 주식회사 스튜디오매크로그래프 Real-Time Indoor Positioning Method Based on Static Marker Grid and System Therefor
KR20210057586A (en) * 2019-11-12 2021-05-21 네이버랩스 주식회사 Method and system for camera-based visual localization using blind watermarking
KR20210093078A (en) 2020-01-17 2021-07-27 주식회사 에이브로스 Indoor positioning system based on user location information and its indoor positioning method
KR102447172B1 (en) * 2021-06-08 2022-09-26 주식회사 에스360브이알 Method of customizing a place shown in an initial screen of digital map and digital map system using the same
WO2024063231A1 (en) * 2022-09-22 2024-03-28 주식회사 다비오 Route guidance terminal, route guidance system, and route guidance method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101858488B1 (en) * 2017-05-30 2018-06-27 홍을표 Sphere type cartesian coordinate system, method, application and server for providing location information using the same
WO2018221950A1 (en) * 2017-05-30 2018-12-06 홍을표 Sphere-shaped coordinate system device and position information calculating method using same
WO2018230861A1 (en) * 2017-06-13 2018-12-20 파이키앤컴퍼니 주식회사 Printed-map-linked poi content management platform system
KR20190067558A (en) * 2017-12-07 2019-06-17 주식회사 스튜디오매크로그래프 Real-Time Indoor Positioning Method Based on Static Marker Grid and System Therefor
KR20210057586A (en) * 2019-11-12 2021-05-21 네이버랩스 주식회사 Method and system for camera-based visual localization using blind watermarking
KR20210093078A (en) 2020-01-17 2021-07-27 주식회사 에이브로스 Indoor positioning system based on user location information and its indoor positioning method
KR102447172B1 (en) * 2021-06-08 2022-09-26 주식회사 에스360브이알 Method of customizing a place shown in an initial screen of digital map and digital map system using the same
WO2022260390A3 (en) * 2021-06-08 2023-02-02 에스360브이알 Method for personalizing place being shown on initial screen of digital map and digital map system using same
WO2024063231A1 (en) * 2022-09-22 2024-03-28 주식회사 다비오 Route guidance terminal, route guidance system, and route guidance method

Similar Documents

Publication Publication Date Title
KR20160027605A (en) Method for locating indoor position of user device and device for the same
EP3213031B1 (en) Simultaneous localization and mapping by using earth&#39;s magnetic fields
US9250073B2 (en) Method and system for position rail trolley using RFID devices
US20170153349A1 (en) Locating System Having a Hand-Held Locating Unit
KR20130091908A (en) Apparatus and method for providing indoor navigation service
US20170046854A1 (en) Measurement device
JP5145735B2 (en) Positioning device and positioning system
WO2013057077A2 (en) Three dimensional routing
JP7113611B2 (en) LOCATION IDENTIFICATION APPARATUS, LOCATION IDENTIFICATION PROGRAM AND LOCATION IDENTIFICATION METHOD, PHOTOGRAPHED IMAGE REGISTRATION APPARATUS, PHOTOGRAPHED IMAGE REGISTRATION PROGRAM AND PHOTOGRAPHIED IMAGE REGISTRATION METHOD
CN110392908A (en) For generating the electronic equipment and its operating method of map datum
US11847741B2 (en) System and method of scanning an environment and generating two dimensional images of the environment
US10949579B2 (en) Method and apparatus for enhanced position and orientation determination
KR101720097B1 (en) User device locating method and apparatus for the same
EP3527939A1 (en) A system and method of on-site documentation enhancement through augmented reality
CN110007327A (en) Method for determining the parking stall of vehicle
KR100581086B1 (en) Method and apparatus for mobile robot localization using led of rfid tag
Patruno et al. An embedded vision system for real-time autonomous localization using laser profilometry
US11002842B2 (en) Method and apparatus for determining the location of a static object
KR101356644B1 (en) System for localization and method thereof
KR101950713B1 (en) Apparatus of detecting indoor position using lacation map image and method thereof
US20210374300A1 (en) Method and apparatus for improved position and orientation based information display
KR20120112917A (en) Apparatus, system and method for location detection
KR20090020027A (en) Apparatus and method for detecting a localization of mobility
Vandenhouten et al. A method for optical indoor localization of mobile devices using multiple identifiable landmarks
WO2022004603A1 (en) Sensing map system, and positioning method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E601 Decision to refuse application