KR101662611B1 - Method for recognizing locatioin using wall information in indoor - Google Patents

Method for recognizing locatioin using wall information in indoor Download PDF

Info

Publication number
KR101662611B1
KR101662611B1 KR1020140160365A KR20140160365A KR101662611B1 KR 101662611 B1 KR101662611 B1 KR 101662611B1 KR 1020140160365 A KR1020140160365 A KR 1020140160365A KR 20140160365 A KR20140160365 A KR 20140160365A KR 101662611 B1 KR101662611 B1 KR 101662611B1
Authority
KR
South Korea
Prior art keywords
user
information
building
measured
distance
Prior art date
Application number
KR1020140160365A
Other languages
Korean (ko)
Other versions
KR20160059095A (en
Inventor
조병모
이영민
박영섭
Original Assignee
엘아이지넥스원 주식회사
에이알비전(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘아이지넥스원 주식회사, 에이알비전(주) filed Critical 엘아이지넥스원 주식회사
Priority to KR1020140160365A priority Critical patent/KR101662611B1/en
Publication of KR20160059095A publication Critical patent/KR20160059095A/en
Application granted granted Critical
Publication of KR101662611B1 publication Critical patent/KR101662611B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C17/00Compasses; Devices for ascertaining true or magnetic north for navigation or surveying purposes
    • G01C17/02Magnetic compasses
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C19/00Gyroscopes; Turn-sensitive devices using vibrating masses; Turn-sensitive devices without moving masses; Measuring angular rate using gyroscopic effects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S367/00Communications, electrical: acoustic wave systems and devices
    • Y10S367/909Collision avoidance

Abstract

본 발명에 의한 실내에서 외벽 정보를 이용하여 위치를 인식하기 위한 방법이 개시된다. 본 발명에 따른 실내에서 위치를 인식하기 위한 방법은 착용형 장치가 실내에서 사용자의 움직임에 따라 방향 정보와 거리 정보를 측정하는 단계; 및 관리자 장치가 측정된 상기 방향 정보와 거리 정보를 제공 받아 제공 받은 상기 방향 정보와 거리 정보 및 상기 사용자가 위치하는 건물에 대해 기 저장된 모델링 데이터를 기반으로 현재 시점에서 실내에서 사용자의 위치 정보를 산출하는 단계를 포함한다.A method for recognizing a location using exterior wall information in a room according to the present invention is disclosed. A method for recognizing a position in a room according to the present invention includes the steps of measuring direction information and distance information according to a movement of a user in a room in a wearable device; And the manager device calculates the location information of the user in the room at the present time based on the direction information and the distance information, which have been measured, and the direction information, the distance information, and the modeling data pre- .

Description

실내에서 외벽 정보를 이용하여 위치를 인식하기 위한 방법{METHOD FOR RECOGNIZING LOCATIOIN USING WALL INFORMATION IN INDOOR}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for recognizing a location using indoor wall information,

본 발명은 위치 인식 기술에 관한 것으로서, 특히, 실내에서 외벽 정보를 이용하여 위치를 인식하기 위한 방법에 관한 것이다.Field of the Invention [0002] The present invention relates to a position recognition technique, and more particularly, to a method for recognizing a position by using outer wall information in a room.

최근, 무선통신 기술의 급격한 발달과 함께 유비쿼터스의 핵심 기술 중의 하나인 위치 기반 서비스(Location Based System; LBS)에 대한 관심이 높아지고 있다. 위치 기반 서비스의 핵심 기술인 측위 기술은 GPS가 실외 환경에서의 위치추적을 위해 널리 사용되고 있다.In recent years, with the rapid development of wireless communication technology, attention has been paid to a location based service (LBS), which is one of core technologies of ubiquitous computing. Positioning technology, a core technology of location - based services, is widely used for GPS positioning in outdoor environments.

하지만 실내와 같은 환경에서는 GPS의 적용이 어렵기 때문에 새로운 방식의 측위 기술이 요구되고 있는데, 현재 위치 측정과 관련된 많은 연구가 이루어지고 있다.However, since it is difficult to apply GPS in an indoor environment, a new positioning technique is required.

특히, 실내에서의 위치 인식을 위해서 WIFI와 같은 근거리 무선 통신을 이용한 방식이나, 관성 센서와 천장영역의 영상 처리를 통한 위치 인식 방식이 많이 활용되고 있다.Particularly, in order to recognize the position in the room, a method using a short distance wireless communication such as WIFI or a position recognition method using an inertial sensor and an image processing of a ceiling area are widely used.

그러나 이러한 위치 인식 방식들은 실내에서 이루어지는 특정 훈련을 위해 사용하기에는 정확도, 누적 오차, 훈련자의 움직임 제약 등에서 한계를 가지고 있다.However, such position recognition methods have limitations in accuracy, cumulative error, and constraints on the movement of the trainee for use in specific training in the room.

따라서 이러한 종래 기술의 문제점을 해결하기 위한 것으로, 본 발명의 목적은 실제 건물의 평면도를 기반으로 해당 건물에 대한 외벽 정보를 모델링하여 그 모델링된 외벽 정보와 해당 건물 내 사용자로부터 측정된 센싱값을 기반으로 현재 사용자의 위치 정보를 산출하도록 하는 실내에서 외벽 정보를 이용하여 위치를 인식하기 위한 방법을 제공하는데 있다.Accordingly, an object of the present invention is to model outer wall information of a building based on a floor plan of an actual building, The present invention provides a method for recognizing a location by using outside wall information in a room for calculating location information of a current user.

그러나 본 발명의 목적은 상기에 언급된 사항으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the objects of the present invention are not limited to those mentioned above, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.

상기 목적들을 달성하기 위하여, 본 발명의 한 관점에 따른 실내에서 위치를 인식하기 위한 방법은 착용형 장치가 실내에서 사용자의 움직임에 따라 방향 정보와 거리 정보를 측정하는 단계; 및 관리자 장치가 측정된 상기 방향 정보와 거리 정보를 제공 받아 제공 받은 상기 방향 정보와 거리 정보 및 상기 사용자가 위치하는 건물에 대해 기 저장된 모델링 데이터를 기반으로 현재 시점에서 실내에서 사용자의 위치 정보를 산출하는 단계를 포함할 수 있다.According to an aspect of the present invention, there is provided a method for recognizing a position in a room, the method comprising: measuring direction information and distance information according to a movement of a user in a room; And the manager device calculates the location information of the user in the room at the present time based on the direction information and the distance information, which have been measured, and the direction information, the distance information, and the modeling data pre- .

바람직하게, 상기 측정하는 단계는 사용자의 머리에 착용하는 착용형 장치가 사용자의 움직임에 따라 사용자의 시선이 향하는 방향 정보와 거리 정보를 측정하는 것을 특징으로 한다.Preferably, the measuring step measures the direction information and the distance information of the wearable apparatus worn by the wearer's head according to the movement of the user.

바람직하게, 상기 산출하는 단계는 제공 받은 상기 방향 정보와 거리 정보가 최초로 측정된 정보이면, 사용자의 초기 위치 및 초기 방향을 설정하고, 그 설정된 초기 위치 및 초기 방향을 기반으로 사용자의 시선의 연장선과 상기 건물의 외벽 선분과의 교점을 산출하는 것을 특징으로 한다.Preferably, the calculating step sets the initial position and the initial direction of the user if the direction information and the distance information provided are the first measured information, and based on the initial position and the initial direction of the user, And calculating an intersection point with an outer wall segment of the building.

바람직하게, 상기 산출하는 단계는 제공 받은 상기 방향 정보와 거리 정보가 최초로 측정된 정보가 아니면, 이전 주기에 기 산출된 적어도 두 개 이상의 교점과 제공 받은 상기 거리 정보를 기반으로 사용자의 현재 위치 정보를 산출하는 것을 특징으로 한다.If the direction information and the distance information are not the first measured information, the calculating step may calculate the current position information of the user on the basis of the provided distance information and at least two intersection points calculated in the previous period .

바람직하게, 상기 산출하는 단계는 사용자의 현재 위치 정보를 산출하면, 산출된 상기 사용자의 현재 위치 정보와 기 제공 받은 방향 정보를 기반으로 사용자의 시선의 연장선과 상기 건물의 외벽 선분과의 교점을 산출하는 것을 특징으로 한다.Preferably, the calculating step calculates an intersection between an extension line of the user's gaze and an outer wall segment of the building based on the calculated current location information of the user and the provided direction information, when the user's current location information is calculated .

본 발명의 다른 한 관점에 따른 실내에서 위치를 인식하기 위한 방법은 실내에서 사용자의 움직임에 따라 측정된 방향 정보와 거리 정보를 수신하는 단계; 및 수신된 상기 방향 정보와 상기 거리 정보를 제공 받아 제공 받은 상기 방향 정보와 거리 정보 및 상기 사용자가 위치하는 건물에 대해 기 저장된 모델링 데이터를 기반으로 현재 시점에서 실내에서 사용자의 위치 정보를 산출하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method for recognizing a position in a room, the method comprising: receiving direction information and distance information measured in accordance with movement of a user in a room; And calculating the location information of the user in the room at the present time based on the received direction information and the received distance information, the direction information and the distance information provided and the modeling data pre-stored in the building where the user is located . ≪ / RTI >

바람직하게, 상기 수신하는 단계는 사용자의 머리에 착용한 착용형 장비로부터 사용자의 움직임에 따라 측정된 사용자의 시선이 향하는 방향 정보와 거리 정보를 수신하는 것을 특징으로 한다.Preferably, the receiving step receives the direction information and the distance information of the user's gaze measured according to the movement of the user from the wearable equipment worn on the user's head.

바람직하게, 상기 산출하는 단계는 제공 받은 상기 방향 정보와 거리 정보가 최초로 측정된 정보이면, 사용자의 초기 위치 및 초기 방향을 설정하고, 그 설정된 초기 위치 및 초기 방향을 기반으로 사용자의 시선의 연장선과 상기 건물의 외벽 선분과의 교점을 산출하는 것을 특징으로 한다.Preferably, the calculating step sets the initial position and the initial direction of the user if the direction information and the distance information provided are the first measured information, and based on the initial position and the initial direction of the user, And calculating an intersection point with an outer wall segment of the building.

바람직하게, 상기 산출하는 단계는 제공 받은 상기 방향 정보와 거리 정보가 최초로 측정된 정보가 아니면, 이전 주기에 기 산출된 적어도 두 개 이상의 교점과 제공 받은 상기 거리 정보를 기반으로 사용자의 현재 위치 정보를 산출하는 것을 특징으로 한다.If the direction information and the distance information are not the first measured information, the calculating step may calculate the current position information of the user on the basis of the provided distance information and at least two intersection points calculated in the previous period .

바람직하게, 상기 산출하는 단계는 사용자의 현재 위치 정보를 산출하면, 산출된 상기 사용자의 현재 위치 정보와 기 제공 받은 방향 정보를 기반으로 사용자의 시선의 연장선과 상기 건물의 외벽 선분과의 교점을 산출하는 것을 특징으로 한다.Preferably, the calculating step calculates an intersection between an extension line of the user's gaze and an outer wall segment of the building based on the calculated current location information of the user and the provided direction information, when the user's current location information is calculated .

이를 통해, 본 발명은 실제 건물의 평면도를 기반으로 해당 건물에 대한 외벽 정보를 모델링하여 그 모델링된 외벽 정보와 해당 건물 내 사용자로부터 측정된 센싱값을 기반으로 현재 사용자의 위치 정보를 산출하도록 함으로써, 실내에서 위치를 정확하게 인식할 수 있는 효과가 있다.Accordingly, the present invention models exterior wall information of a building based on a floor plan of an actual building, and calculates position information of a current user based on the modeled outer wall information and a sensing value measured by a user in the building, It is possible to accurately recognize the position in the room.

또한, 건물의 외벽 정보를 이용하여 실내에서 위치를 정확하게 인식하는 것이 가능하기 때문에 실내에서 이루어지는 다양한 훈련에 적용될 수 있는 효과가 있다.In addition, since it is possible to accurately recognize the position in the room by using the outer wall information of the building, the present invention can be applied to various training in the room.

도 1은 본 발명의 일 실시예에 따른 실내 위치 인식 시스템을 나타내는 도면이다.
도 2a 내지 도 2b는 본 발명의 일 실시예에 따른 모델링 데이터 생성 원리를 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 착용형 장치의 상세한 구성을 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따른 관리자 장치의 상세한 구성을 나타내는 도면이다.
도 5는 본 발명의 일 실시예에 따른 사용자의 위치 산출 과정을 설명하기 위한 제1 도면이다.
도 6은 본 발명의 일 실시예에 따른 사용자의 위치 산출 과정을 설명하기 위한 제2 도면이다.
도 7은 본 발명의 일 실시예에 따른 사용자의 위치 산출 과정을 설명하기 위한 제3 도면이다.
도 8은 본 발명의 일 실시예에 따른 위치를 인식하기 위한 방법을 나타내는 도면이다.
도 9는 본 발명의 일 실시예에 따른 위치를 인식하기 위한 방법을 나타내는 도면이다.
1 is a view illustrating an indoor location recognition system according to an embodiment of the present invention.
2A and 2B are views for explaining the principle of generating modeling data according to an embodiment of the present invention.
3 is a view showing a detailed configuration of a wearable apparatus according to an embodiment of the present invention.
4 is a block diagram showing a detailed configuration of a manager apparatus according to an embodiment of the present invention.
5 is a first diagram illustrating a process of calculating a location of a user according to an embodiment of the present invention.
FIG. 6 is a second diagram illustrating a process of calculating a location of a user according to an embodiment of the present invention.
FIG. 7 is a third diagram illustrating a process of calculating a location of a user according to an embodiment of the present invention.
8 is a diagram illustrating a method for recognizing a position according to an embodiment of the present invention.
9 is a diagram illustrating a method for recognizing a position according to an embodiment of the present invention.

이하에서는, 본 발명의 실시예에 따른 실내에서 외벽 정보를 이용하여 위치를 인식하기 위한 방법을 첨부한 도면을 참조하여 설명한다. 본 발명에 따른 동작 및 작용을 이해하는 데 필요한 부분을 중심으로 상세히 설명한다.Hereinafter, a method for recognizing a position using outer wall information in a room according to an embodiment of the present invention will be described with reference to the accompanying drawings. The present invention will be described in detail with reference to the portions necessary for understanding the operation and operation according to the present invention.

또한, 본 발명의 구성 요소를 설명하는 데 있어서, 동일한 명칭의 구성 요소에 대하여 도면에 따라 다른 참조부호를 부여할 수도 있으며, 서로 다른 도면임에도 불구하고 동일한 참조부호를 부여할 수도 있다. 그러나, 이와 같은 경우라 하더라도 해당 구성 요소가 실시예에 따라 서로 다른 기능을 갖는다는 것을 의미하거나, 서로 다른 실시예에서 동일한 기능을 갖는다는 것을 의미하는 것은 아니며, 각각의 구성 요소의 기능은 해당 실시예에서의 각각의 구성 요소에 대한 설명에 기초하여 판단하여야 할 것이다.In describing the constituent elements of the present invention, the same reference numerals may be given to constituent elements having the same name, and the same reference numerals may be given thereto even though they are different from each other. However, even in such a case, it does not mean that the corresponding component has different functions according to the embodiment, or does not mean that the different components have the same function. It should be judged based on the description of each component in the example.

특히, 본 발명에서는 실제 건물의 평면도를 기반으로 해당 건물에 대한 외벽 정보를 모델링하여 그 모델링된 외벽 정보와 해당 건물 내 사용자로부터 측정된 센싱값을 기반으로 현재 사용자의 위치 정보를 산출하도록 하는 새로운 방안을 제안한다.In particular, in the present invention, a new method for modeling outer wall information for a building based on a floor plan of an actual building, and calculating location information of the current user based on the modeled outer wall information and a sensing value measured from a user in the building .

도 1은 본 발명의 일 실시예에 따른 실내 위치 인식 시스템을 나타내는 도면이다.1 is a view illustrating an indoor location recognition system according to an embodiment of the present invention.

도 1에 도시한 바와 같이, 본 발명에 따른 실내 위치를 인식하기 위한 시스템은 착용형 장치(100), 및 이와 유무선으로 연동하는 관리자 장치(200)를 포함할 수 있다.As shown in FIG. 1, the system for recognizing the indoor position according to the present invention may include a wearable device 100 and a manager device 200 interlocked with the wired / wireless device.

착용형 장치(100)는 사용자가 착용하는 장비로, 실내에서 사용자의 움직임에 따라 방향 정보와 거리 정보를 측정하여 측정된 방향 정보와 거리 정보를 제공할 수 있다.The wearable device 100 is equipment worn by a user and can provide direction information and distance information measured by measuring direction information and distance information according to the movement of the user in the room.

이때, 착용형 장치(100)는 사용자의 머리에 착용되는 장비로, 실내에서 사용자의 움직임에 따라 사용자의 시선이 향하는 방향 정보와 거리 정보를 측정하게 된다.At this time, the wearable apparatus 100 is worn on the head of the user, and measures direction information and distance information of the user's gaze according to the movement of the user in the room.

관리자 장치(200)는 위치 인식 이전에 사용자가 위치하는 건물에 대한 외벽 정보를 모델링하여 그 모델링한 결과로 모델링 데이터를 생성하여 관리할 수 있다.The manager device 200 can generate and manage the modeling data as a result of modeling the exterior wall information about the building in which the user is located before recognizing the location.

도 2a 내지 도 2b는 본 발명의 일 실시예에 따른 모델링 데이터 생성 원리를 설명하기 위한 도면이다.2A and 2B are views for explaining the principle of generating modeling data according to an embodiment of the present invention.

도 2a 내지 도 2b를 참조하면, 실내 환경에서 훈련하는 경우, 해당 건물에 대한 평면도와 같은 실제 설계 도면 등을 기반으로 해당 건물의 외벽 정보를 직선의 방정식 등을 이용한 수학적 모델링하여 그 모델링한 결과로 모델링 데이터를 생성할 수 있다.Referring to FIGS. 2A and 2B, when training is performed in an indoor environment, outer wall information of a building is mathematically modeled using a linear equation based on actual design drawings such as a floor plan of the building, Modeling data can be generated.

예컨대, 건물의 외벽 선분을 직선의 방정식으로 모델링하여 그 모델링한 결과로 외벽 선분을 표현하는 6개의 직선의 방정식을 A, B, C, D, E, F를 얻을 수 있다.For example, A, B, C, D, E, and F can be obtained as six straight line equations expressing the outer wall segment as a result of modeling the outer wall segment of a building as a linear equation.

관리자 장치(200)는 착용형 장치(100)로부터 방향 정보와 거리 정보를 제공 받아 제공 받은 방향 정보와 거리 정보 및 사용자가 위치하는 건물에 대해 기 저장된 모델링 데이터를 기반으로 현재 시점에서 사용자의 위치 정보를 산출할 수 있다.The manager device 200 receives direction information and distance information from the wearable device 100, and based on the received direction information, distance information, and pre-stored modeling data about the building in which the user is located, Can be calculated.

도 3은 본 발명의 일 실시예에 따른 착용형 장치의 상세한 구성을 나타내는 도면이다.3 is a view showing a detailed configuration of a wearable apparatus according to an embodiment of the present invention.

도 3에 도시한 바와 같이, 본 발명에 따른 착용형 장치(100)는 사용자의 머리에 착용하는 장비로서, 센서부(110), 제어부(120), 통신부(130)를 포함할 수 있다.3, the wearable apparatus 100 according to the present invention includes a sensor unit 110, a control unit 120, and a communication unit 130, which are worn on a user's head.

센서부(110)는 거리 정보를 측정하기 위한 거리 측정 센서와 방향 정보를 측정하기 위한 방향 인식 센서 예컨대, 자이로 센서, 지자기 센서를 포함할 수 있다.The sensor unit 110 may include a distance measurement sensor for measuring distance information and a direction recognition sensor for measuring direction information, such as a gyro sensor and a geomagnetic sensor.

제어부(120)는 실내에서 특정 훈련이 시작되는 경우 센서부(110)를 구동 시키고, 그 구동된 센서부(110)로부터 주기적으로 측정되는 거리 정보와 방향 정보를 수집하여 수집된 거리 정보와 방향 정보를 통신부(130)를 통해 전송할 수 있다.The control unit 120 drives the sensor unit 110 when a specific training is started in the room, collects distance information and direction information periodically measured from the driven sensor unit 110, Through the communication unit 130.

이때, 훈련이 시작되는 시점에 사용자의 초기 위치와 초기 방위각이 설정될 수 있다.At this time, the initial position and initial azimuth angle of the user can be set at the start of the training.

통신부(130)는 관리자 장치와 유무선으로 연동하여 각종 정보를 송수신할 수 있다. 예컨대, 통신부(130)는 거리 정보와 방향 정보를 관리자 장치에 송신할 수 있다.The communication unit 130 is capable of transmitting and receiving various kinds of information in cooperation with wired / wireless communication with the manager device. For example, the communication unit 130 can transmit the distance information and the direction information to the manager apparatus.

도 4는 본 발명의 일 실시예에 따른 관리자 장치의 상세한 구성을 나타내는 도면이다.4 is a block diagram showing a detailed configuration of a manager apparatus according to an embodiment of the present invention.

도 4에 도시한 바와 같이, 본 발명에 따른 관리자 장치(200)는 통신부(210), 입력부(220), 제어부(230), 표시부(240), 저장부(250)를 포함할 수 있다.4, the manager device 200 according to the present invention may include a communication unit 210, an input unit 220, a control unit 230, a display unit 240, and a storage unit 250.

통신부(210)는 착용형 장치와 유무선으로 연동하여 각종 정보를 송수신할 수 있다. 예컨대, 통신부(210)는 착용형 장치로부터 거리 정보와 방향 정보를 수신할 수 있다.The communication unit 210 can transmit / receive various information in cooperation with a wearable device in a wired / wireless connection. For example, the communication unit 210 can receive distance information and direction information from the wearable device.

입력부(220)는 사용자의 키 또는 메뉴 조작에 따라 정보를 입력 받을 수 있다. 예컨대, 입력부(220)는 실내에서 특정 훈련의 시작 또는 끝을 지시하기 위한 정보나 실내 위치 인식 어플리케이션을 구동하기 위한 정보를 입력 받을 수 있다.The input unit 220 can receive information according to a user's key or menu operation. For example, the input unit 220 may receive information for indicating the start or end of a specific training in the room or information for driving the indoor location recognition application.

제어부(230)는 수신된 방향 정보와 거리 정보 및 사용자가 위치하는 건물에 대해 기 저장된 모델링 데이터를 기반으로 현재 시점에서 사용자의 위치 정보를 산출할 수 있다.The control unit 230 may calculate the location information of the user at the current time based on the received direction information, the distance information, and the modeling data pre-stored in the building where the user is located.

이때, 제어부(230)는 수신된 방향 정보와 거리 정보가 최초로 측정된 정보이면, 사용자의 초기 위치 및 초기 방향을 설정하고, 그 설정된 초기 위치 및 초기 방향을 기반으로 사용자의 시선의 연장선과 외벽 선분과의 교점을 산출하게 된다.At this time, if the received direction information and the distance information are the first measured information, the controller 230 sets the initial position and the initial direction of the user, and based on the set initial position and the initial direction, And the intersection of the two points.

또한 제어부(230)는 최초로 측정된 정보가 아니면, 이전 주기에 기 산출된 적어도 두 개 이상의 교점과 제공 받은 거리 정보를 사용자의 현재 위치 정보를 산출하고, 그 산출된 현재 위치 정보와 기 제공 받은 방향 정보를 기반으로 사용자의 시선의 연장선과 외벽 선분과의 교점을 산출하여 다음 주기에 사용하게 된다.Also, if the information is not the first measured information, the controller 230 calculates the current position information of the user as at least two intersections calculated in the previous period and the provided distance information, Based on the information, the point of intersection of the line of sight of the user and the outer wall segment is calculated and used in the next cycle.

표시부(240)는 해당 건물에 대한 평면도 상에서 사용자의 현재 위치를 표시할 수 있다.The display unit 240 may display the current location of the user on the floor plan of the building.

저장부(250)는 건물에 대한 외벽 정보를 모델링한 모델링 데이터를 저장할 수 있다. 예컨대, 저장부(250)는 수학적 모델링에 따라 산출된 다수의 직선의 방정식을 저장할 수 있다.The storage unit 250 may store modeling data modeling the exterior wall information for the building. For example, the storage unit 250 may store a plurality of straight line equations calculated according to mathematical modeling.

이러한 사용자의 위치 산출 과정을 도 5 내지 도 7을 참조하여 구체적으로 설명한다.The process of calculating the position of the user will be described in detail with reference to FIGS. 5 to 7. FIG.

도 5는 본 발명의 일 실시예에 따른 사용자의 위치 산출 과정을 설명하기 위한 제1 도면이고, 도 6은 본 발명의 일 실시예에 따른 사용자의 위치 산출 과정을 설명하기 위한 제2 도면이며, 도 7은 본 발명의 일 실시예에 따른 사용자의 위치 산출 과정을 설명하기 위한 제3 도면이고, 도 8은 본 발명의 일 실시예에 따른 사용자의 위치 산출 과정을 설명하기 위한 제4 도면이다.FIG. 5 is a first diagram for explaining a process of calculating a location of a user according to an embodiment of the present invention. FIG. 6 is a second diagram illustrating a process of calculating a location of a user according to an embodiment of the present invention, FIG. 7 is a third diagram for explaining a process of calculating a location of a user according to an embodiment of the present invention. FIG. 8 is a fourth diagram illustrating a process of calculating a location of a user according to an embodiment of the present invention.

도 5를 참조하면, 제어부(230)는 최초 수신되는 방향 정보와 거리 정보를 기반으로 사용자의 초기 위치(x0, y0)와 초기 방위각(0°, 90°)을 설정할 수 있다.5, the controller 230 may set the user's initial position (x 0 , y 0 ) and the initial azimuth angle (0 °, 90 °) based on the direction information and distance information that are initially received.

도 6을 참조하면, 제어부(230)는 주기적으로 수신되는 방향 정보와 거리 정보 및 기 저장된 모델링 데이터를 기반으로 사용자의 시선의 연장선과 외벽 선분과의 교점을 획득할 수 있다.Referring to FIG. 6, the controller 230 may obtain an intersection between an extension line of the user's gaze and an outer wall segment based on periodic direction information, distance information, and pre-stored modeling data.

이때, 교점(x, y)은 사용자의 위치를 (xt, yt)라고 가정할 때, 사용자의 시선 방향을 나타내는 직선의 방정식은 다음의 [수학식 1]과 같이 나타낼 수 있다.At this time, assuming that the intersection (x, y) is the position of the user (x t , y t ), the equation of the straight line representing the direction of the user's gaze can be expressed by the following equation (1).

[수학식 1][Equation 1]

y = tan(90˚-Θ)(x-xt) + yt y = tan (90? -?) (xx t ) + y t

예컨대, Θ=0˚이고, xt=1, yt=1인 경우 외벽 선분 E: y=7.5, x[0, 4,5]이기 때문에, 사용자의 시선의 연장선과 외벽 선분 E와의 교점은 (1.0, 7.5)가 구해진다.For example, if Θ = 0˚ and x t = 1 and y t = 1, the intersection of the extension line of the user's line of sight and the outer wall line segment E is (1.0, 7.5) is obtained.

이와 동일한 방법으로, Θ=90˚인 경우 선분 B와의 교점은 (10, 1)이 구해진다.In the same manner, (10, 1) is obtained at the intersection with the line segment B when? = 90 占.

도 7을 참조하면, 이렇게 구한 2개 이상의 교점과 기 수신된 거리 정보를 기반으로 사용자의 다음 위치 (xt +1, yt +1)를 산출할 수 있다. 여기서 교점1(a1, b1), 교점2(a2, b2)라고 가정하면 사용자의 다음 위치는 다음의 [수학식 2]와 같이 나타낼 수 있다.Referring to FIG. 7, the next position (x t +1 , y t +1 ) of the user can be calculated based on the obtained two or more intersection points and the received distance information. Assuming here that the intersection 1 (a 1 , b 1 ) and the intersection 2 (a 2 , b 2 ), the next position of the user can be expressed by the following equation (2).

[수학식 2]&Quot; (2) "

(xt +1 - a1)2 + (yt +1 - b1)2 = d1 2 (x t +1 - a 1 ) 2 + (y t +1 - b 1 ) 2 = d 1 2

(xt +1 - a2)2 + (yt +1 - b2)2 = d2 2 (x t +1 - a 2 ) 2 + (y t +1 - b 2 ) 2 = d 2 2

예컨대, 사용자가 x축으로 이동하여 d1=6.5, d2=8.5로 측정 되었다면, 상기 [수학식 2]를 이용하여 xt +1=1.500, yt +1=1.019를 획득하여 다음 위치를 추정하게 된다.For example, if the user moves along the x-axis to measure d 1 = 6.5 and d 2 = 8.5, x t +1 = 1.500 and y t +1 = 1.019 are obtained using the above equation (2) .

즉, 본 발명에서는 이전 시간 t에서 산출된 교점과 현재 시간 t+1에서 측정된 거리 정보를 기반으로 현재 시간에서 사용자의 위치를 추정하게 된다.That is, in the present invention, the position of the user is estimated at the current time based on the intersection calculated at the previous time t and the distance information measured at the current time t + 1.

이러한 과정을 통해, 본 발명은 사용자의 위치를 추정하는데, 센서의 측정 주기를 빠르게 할수록 t 시간의 사용자 위치 (xt, yt)와 t+1 시간의 사용자 위치 (xt+1, yt +1)의 차이를 작게 하여 오차를 최소화할 수 있고, 매 거리 측정 값은 누적 오차를 가지지 않기 때문에 누적 오차에 의한 에러를 탐지하여 처리할 수 있다.In this way, the present invention estimates the position of the user. As the measurement period of the sensor increases, the user position (x t , y t ) at time t and the user position (x t + 1 , y t +1 ) can be minimized to minimize the error, and since each distance measurement value does not have an accumulated error, an error due to the cumulative error can be detected and processed.

이때, 사용자의 머리 숙임 등이 발생할 경우 실제 외벽과의 거리가 정확하게 측정되기 어렵기 때문에 이러한 오차를 고려하여 외벽과의 거리를 보정해야 한다.In this case, if the user's head twist occurs, it is difficult to accurately measure the distance from the actual outer wall. Therefore, the distance from the outer wall must be corrected in consideration of the error.

도 8을 참조하면, 사용자의 머리 숙임 등이 발생할 경우에는 자이로 센서를 기반으로 평행축과의 회적각 φ을 측정하고 그 측정된 회전각을 기반으로 실제 외벽과의 거리 D를 계산할 수 있는데, 다음의 [수학식 3]과 같이 나타낼 수 있다.Referring to FIG. 8, when a user's head twist occurs, a shed angle φ with respect to a parallel axis is measured based on a gyro sensor, and a distance D from the actual outer wall can be calculated based on the measured rotation angle. (3) " (3) "

[수학식 3]&Quot; (3) "

D = D' × cosφD = D 'x cos?

또한, 본 발명에서는 외벽정보와 다수의 방위로의 연장선과의 교점들을 구하고, 그 교점들과의 거리가 센서로 측정한 거리측정 값과 동일한 위치를 현재 위치로 추정할 수 있다.Also, in the present invention, intersection points between the outer wall information and extension lines to a plurality of azimuth directions can be obtained, and the same position as the distance measurement value measured by the sensor can be estimated as the current position.

도 9는 본 발명의 일 실시예에 따른 위치를 인식하기 위한 방법을 나타내는 도면이다.9 is a diagram illustrating a method for recognizing a position according to an embodiment of the present invention.

도 9에 도시한 바와 같이, 본 발명에 따른 관리자 장치는 실내에 위치하는 사용자가 착용한 착용형 장치로부터 주기적으로 측정된 거리 정보와 방향 정보를 수신할 수 있다(S910).As shown in FIG. 9, the manager apparatus according to the present invention can receive distance information and direction information periodically measured from a wearable apparatus worn by a user located in a room (S910).

다음으로, 관리자 장치는 수신된 정보가 최초로 측정된 정보인지를 확인할 수 있다(S920).Next, the manager device can confirm whether the received information is the first measured information (S920).

다음으로, 관리자 장치는 그 확인한 결과로 최초로 측정된 정보이면, 사용자의 초기 위치 및 초기 방향을 설정하고(S930), 그 설정된 초기 위치 및 초기 방향을 기반으로 사용자의 시선의 연장선과 외벽 선분과의 교점을 산출할 수 있다(S950).Next, the manager device sets the initial position and the initial direction of the user (S930), if the information is the first measured result as a result of the checking. If the extension line of the user's line of sight and the outside wall segment An intersection can be calculated (S950).

다음으로, 관리자 장치는 그 확인한 결과로 최초로 측정된 정보가 아니면, 이전 주기에 기 산출된 적어도 두 개 이상의 교점과 제공 받은 거리 정보를 기반으로 사용자의 현재 위치 정보를 산출할 수 있다(S940).Next, in step S940, the manager device may calculate the current location information of the user based on the at least two intersections computed in the previous period and the provided distance information, if the information is not the first measured information as a result of the checking.

다음으로, 관리자 장치는 산출된 현재 위치 정보와 기 제공 받은 방향 정보를 기반으로 사용자의 시선의 연장선과 외벽 선분과의 교점을 산출할 수 있다(S950).Next, the manager device can calculate an intersection between an extension line of the user's gaze and an outer wall segment based on the calculated current location information and the provided direction information (S950).

한편, 이상에서 설명한 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 또한, 이와 같은 컴퓨터 프로그램은 USB 메모리, CD 디스크, 플래쉬 메모리 등과 같은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 캐리어 웨이브 매체 등이 포함될 수 있다.It is to be understood that the present invention is not limited to these embodiments, and all of the elements constituting the embodiments of the present invention described above are described as being combined or operated together. That is, within the scope of the present invention, all of the components may be selectively coupled to one or more of them. In addition, although all of the components may be implemented as one independent hardware, some or all of the components may be selectively combined to perform a part or all of the functions in one or a plurality of hardware. As shown in FIG. In addition, such a computer program may be stored in a computer-readable medium such as a USB memory, a CD disk, a flash memory, etc., and read and executed by a computer, thereby implementing embodiments of the present invention. As the storage medium of the computer program, a magnetic recording medium, an optical recording medium, a carrier wave medium, or the like may be included.

이상에서 설명한 실시예들은 그 일 예로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.While the invention has been shown and described with reference to certain embodiments thereof, it will be apparent to those skilled in the art that various changes and modifications may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

100: 착용형 장치
200: 관리자 장치
100: Wearable device
200: manager device

Claims (10)

착용형 장치가 실내에서 사용자의 움직임에 따라 방향 정보와 거리 정보를 측정하는 단계; 및
관리자 장치가 측정된 상기 방향 정보와 거리 정보를 제공 받아 제공 받은 상기 방향 정보와 거리 정보 및 상기 사용자가 위치하는 건물에 대해 기 저장된 모델링 데이터를 기반으로 현재 시점에서 실내에서 사용자의 위치 정보를 산출하는 단계;
를 포함하되, 상기 산출하는 단계는 건물의 외벽을 직선의 방정식으로 모델링하여 그 모델링한 결과로 상기 모델링 데이터를 생성하며,
이전 주기에서 제공 받은 상기 방향 정보와 거리 정보가 최초로 측정된 정보이면, 사용자의 초기 위치 및 초기 방향을 설정하여 그 설정된 초기 위치 및 초기 방향을 기반으로 사용자의 시선의 연장선과 상기 건물의 외벽 선분과의 교점을 산출한 후,
상기 이전 주기에서 산출된 교점과 현재 주기에서 제공 받은 거리 정보를 기반으로 사용자의 위치 정보를 산출하고,
산출된 상기 사용자의 위치 정보와 현재 주기에서 제공 받은 방향 정보를 기반으로 다음 주기에서 사용할 사용자의 시선의 연장선과 상기 건물의 외벽 선분과의 교점을 산출하는 것을 특징으로 하는 실내에서 위치를 인식하기 위한 방법.
Measuring direction information and distance information according to a user's movement in a wearable device; And
The manager device calculates the location information of the user in the room at the present time based on the direction information and the distance information which are measured and provided and the direction information and the distance information provided and the modeling data preliminarily stored in the building where the user is located step;
Wherein the calculating step includes modeling the outer wall of the building by a linear equation and generating the modeling data as a result of the modeling,
If the direction information and the distance information received in the previous period are the first measured information, the initial position and the initial direction of the user are set, and an extension line of the user's gaze and an outer line segment of the building Lt; RTI ID = 0.0 >
Calculates location information of the user based on the intersection calculated in the previous period and the distance information provided in the current period,
And calculating an intersection between an extension line of a user's line of sight to be used in the next period and an outer wall segment of the building based on the calculated location information of the user and the direction information provided in the current period. Way.
제1 항에 있어서,
상기 측정하는 단계는,
사용자의 머리에 착용하는 착용형 장치가 사용자의 움직임에 따라 사용자의 시선이 향하는 방향 정보와 거리 정보를 측정하는 것을 특징으로 하는 실내에서 위치를 인식하기 위한 방법.
The method according to claim 1,
Wherein the measuring step comprises:
Wherein the wearable apparatus worn on the user's head measures direction information and distance information of the user's gaze according to the user's movement.
제1 항에 있어서,
상기 산출하는 단계는,
수학식 y = tan(90˚-Θ)(x-xt) + yt을 이용하여 상기 사용자의 시선의 연장선과 상기 건물의 외벽 선분과의 교점 (x, y)을 구하고,
여기서, (xt, yt)는 사용자의 위치이고, Θ는 방향인 것을 특징으로 하는 실내에서 위치를 인식하기 위한 방법.
The method according to claim 1,
Wherein the calculating step comprises:
(X, y) between an extension line of the user's line of sight and an exterior wall segment of the building using the equation y = tan (90 ° -Θ) (xx t ) + y t ,
Wherein (x t , y t ) is the location of the user and Θ is the direction.
제1 항에 있어서,
상기 산출하는 단계는,
사용자가 머리를 숙인 경우 자이로 센서를 기반으로 평행축과의 회전각을 측정하고, 측정된 상기 회전각을 기반으로 상기 건물의 외벽과의 거리를 계산하는 것을 특징으로 하는 실내에서 위치를 인식하기 위한 방법.
The method according to claim 1,
Wherein the calculating step comprises:
Wherein when the user bows his or her head, the angle of rotation with the parallel axis is measured based on the gyro sensor, and the distance between the parallel axis and the outer wall of the building is calculated based on the measured rotation angle. Way.
삭제delete 실내에서 사용자의 움직임에 따라 측정된 방향 정보와 거리 정보를 수신하는 단계; 및
수신된 상기 방향 정보와 상기 거리 정보를 제공 받아 제공 받은 상기 방향 정보와 거리 정보 및 상기 사용자가 위치하는 건물에 대해 기 저장된 모델링 데이터를 기반으로 현재 시점에서 실내에서 사용자의 위치 정보를 산출하는 단계;
를 포함하되, 상기 산출하는 단계는 건물의 외벽을 직선의 방정식으로 모델링하여 그 모델링한 결과로 상기 모델링 데이터를 생성하며,
이전 주기에서 제공 받은 상기 방향 정보와 거리 정보가 최초로 측정된 정보이면, 사용자의 초기 위치 및 초기 방향을 설정하여 그 설정된 초기 위치 및 초기 방향을 기반으로 사용자의 시선의 연장선과 상기 건물의 외벽 선분과의 교점을 산출한 후,
상기 이전 주기에서 산출된 교점과 현재 주기에서 제공 받은 거리 정보를 기반으로 사용자의 위치 정보를 산출하고,
산출된 상기 사용자의 위치 정보와 현재 주기에서 제공 받은 방향 정보를 기반으로 다음 주기에서 사용할 사용자의 시선의 연장선과 상기 건물의 외벽 선분과의 교점을 산출하는 것을 특징으로 하는 실내에서 위치를 인식하기 위한 방법.
Receiving direction information and distance information measured in accordance with a movement of a user in a room; And
Calculating the location information of the user in the room at the current time based on the received direction information and the received direction information and the distance information and the pre-stored modeling data about the building where the user is located;
Wherein the calculating step includes modeling the outer wall of the building by a linear equation and generating the modeling data as a result of the modeling,
If the direction information and the distance information received in the previous period are the first measured information, the initial position and the initial direction of the user are set, and an extension line of the user's gaze and an outer line segment of the building Lt; RTI ID = 0.0 >
Calculates location information of the user based on the intersection calculated in the previous period and the distance information provided in the current period,
And calculating an intersection between an extension line of a user's line of sight to be used in the next period and an outer wall segment of the building based on the calculated location information of the user and the direction information provided in the current period. Way.
제6 항에 있어서,
상기 수신하는 단계는,
사용자의 머리에 착용한 착용형 장비로부터 사용자의 움직임에 따라 측정된 사용자의 시선이 향하는 방향 정보와 거리 정보를 수신하는 것을 특징으로 하는 실내에서 위치를 인식하기 위한 방법.
The method according to claim 6,
Wherein the receiving comprises:
Wherein the direction information and the distance information of the user's gaze measured according to a user's movement are received from wearable equipment worn on the user's head.
제6 항에 있어서,
상기 산출하는 단계는,
수학식 y = tan(90˚-Θ)(x-xt) + yt을 이용하여 상기 사용자의 시선의 연장선과 상기 건물의 외벽 선분과의 교점 (x, y)을 구하고,
여기서, (xt, yt)는 사용자의 위치이고, Θ는 방향인 것을 특징으로 하는 실내에서 위치를 인식하기 위한 방법.
The method according to claim 6,
Wherein the calculating step comprises:
(X, y) between an extension line of the user's line of sight and an exterior wall segment of the building using the equation y = tan (90 ° -Θ) (xx t ) + y t ,
Wherein (x t , y t ) is the location of the user and Θ is the direction.
제6 항에 있어서,
상기 산출하는 단계는,
사용자가 머리를 숙인 경우 자이로 센서를 기반으로 평행축과의 회전각을 측정하고, 측정된 상기 회전각을 기반으로 상기 건물의 외벽과의 거리를 계산하는 것을 특징으로 하는 실내에서 위치를 인식하기 위한 방법.
The method according to claim 6,
Wherein the calculating step comprises:
Wherein when the user bows his or her head, the angle of rotation with the parallel axis is measured based on the gyro sensor, and the distance between the parallel axis and the outer wall of the building is calculated based on the measured rotation angle. Way.
삭제delete
KR1020140160365A 2014-11-17 2014-11-17 Method for recognizing locatioin using wall information in indoor KR101662611B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140160365A KR101662611B1 (en) 2014-11-17 2014-11-17 Method for recognizing locatioin using wall information in indoor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140160365A KR101662611B1 (en) 2014-11-17 2014-11-17 Method for recognizing locatioin using wall information in indoor

Publications (2)

Publication Number Publication Date
KR20160059095A KR20160059095A (en) 2016-05-26
KR101662611B1 true KR101662611B1 (en) 2016-10-06

Family

ID=56104528

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140160365A KR101662611B1 (en) 2014-11-17 2014-11-17 Method for recognizing locatioin using wall information in indoor

Country Status (1)

Country Link
KR (1) KR101662611B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102651778B1 (en) * 2023-12-20 2024-03-28 주식회사 리얼타임테크 Method For Determining Sensor Installation Location Based On Indoor Space Information To Provide Location-based Data For The Entire Indoor Space

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11287651A (en) * 1998-04-02 1999-10-19 Kaijo Corp Indoor positioning device
SE523407C2 (en) * 2001-05-18 2004-04-13 Jan G Faeger Device for determining the position and / or orientation of a creature in relation to an environment and use of such a device
KR101309291B1 (en) * 2010-07-05 2013-09-16 아주대학교산학협력단 Indoor localization system and method

Also Published As

Publication number Publication date
KR20160059095A (en) 2016-05-26

Similar Documents

Publication Publication Date Title
US20180374026A1 (en) Work assistance apparatus, work learning apparatus, and work assistance system
KR101808095B1 (en) Method and apparatus for measuring location of user terminal
CN110567491B (en) Initial alignment method and device of inertial navigation system and electronic equipment
US10070270B1 (en) Mobile device localization based on spatial derivative magnetic fingerprint
JP5760601B2 (en) Information processing apparatus, congestion map generation apparatus, information processing method, program, and recording medium
JP5915803B2 (en) Information processing apparatus, congestion map generation apparatus, information processing method, program, and recording medium
KR101527211B1 (en) Method and system for constructing map of magnetic field
KR101523147B1 (en) Indoor Positioning Device and Method
US10830593B2 (en) Cognitive fingerprinting for indoor location sensor networks
KR101662611B1 (en) Method for recognizing locatioin using wall information in indoor
KR101662610B1 (en) Indoor location sensing system
CN113610702A (en) Picture construction method and device, electronic equipment and storage medium
KR20190068006A (en) Method for providing route through marker recognition and server using the same
TW201621273A (en) Mobile positioning apparatus and positioning method thereof
TWI550256B (en) Bim-based indoor navigation method, indoor navigation information generation method, computer readable recording medium, and indoor navigation apparatus
US11620846B2 (en) Data processing method for multi-sensor fusion, positioning apparatus and virtual reality device
KR20150089366A (en) Indoor location tracking system using earth magnetic field sensor
JP6904172B2 (en) Information processing equipment, programs, and information processing systems
KR102641659B1 (en) System for object tracking in physical space with aligned reference frames
US20170211937A1 (en) Indoor Positioning System with Fast Plan Mapping
JP6972675B2 (en) Posture evaluation device, posture calculation device, posture measurement system, posture evaluation method and program
US10349221B1 (en) Method and system for mobile device processing timeout based localization
JP2022066992A (en) Positioning device, positioning method, and positioning program
JP2017003278A (en) Information processor and positional information calculation program
Scheibert et al. Error-Robust Indoor Augmented Reality Navigation: Evaluation Criteria and a New Approach

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190731

Year of fee payment: 4