KR20230114216A - 다중 신호 환경 데이터의 센서맵 이미지에 기초하여 구축된 인공지능 신경망 기반 측위 방법 및 그 장치 - Google Patents

다중 신호 환경 데이터의 센서맵 이미지에 기초하여 구축된 인공지능 신경망 기반 측위 방법 및 그 장치 Download PDF

Info

Publication number
KR20230114216A
KR20230114216A KR1020230009051A KR20230009051A KR20230114216A KR 20230114216 A KR20230114216 A KR 20230114216A KR 1020230009051 A KR1020230009051 A KR 1020230009051A KR 20230009051 A KR20230009051 A KR 20230009051A KR 20230114216 A KR20230114216 A KR 20230114216A
Authority
KR
South Korea
Prior art keywords
positioning
image
neural network
signal
information
Prior art date
Application number
KR1020230009051A
Other languages
English (en)
Other versions
KR102616201B1 (ko
Inventor
전영준
김태엽
전민준
Original Assignee
파파야 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 파파야 주식회사 filed Critical 파파야 주식회사
Publication of KR20230114216A publication Critical patent/KR20230114216A/ko
Application granted granted Critical
Publication of KR102616201B1 publication Critical patent/KR102616201B1/ko

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0205Details
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C5/00Measuring height; Measuring distances transverse to line of sight; Levelling between separated points; Surveyors' levels
    • G01C5/06Measuring height; Measuring distances transverse to line of sight; Levelling between separated points; Surveyors' levels by using barometric means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0205Details
    • G01S5/021Calibration, monitoring or correction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W1/00Meteorology
    • G01W1/02Instruments for indicating weather conditions by measuring two or more variables, e.g. humidity, pressure, temperature, cloud cover or wind speed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06Q50/40
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S2205/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S2205/01Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations specially adapted for specific applications
    • G01S2205/02Indoor
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y04INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
    • Y04SSYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
    • Y04S10/00Systems supporting electrical power generation, transmission or distribution
    • Y04S10/50Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications

Abstract

본 발명의 실시 예에 따른 측위 시스템의 동작 방법은, 복수의 휴대용 단말기로부터 수집되는 다중 신호 환경 데이터로부터 변환된 각각의 센서맵 이미지와, 상기 복수의 휴대용 단말기에 대응하는 위치 정보에 기초하여, 인공지능 위치 신경망 학습 기반의 측위 모델을 구축하는 단계;를 포함하고, 상기 인공지능 위치 신경망 학습 기반의 측위 모델은, 측위 기반 서비스가 요청된 제1 휴대용 단말기에 대응하는 제1 센서맵 이미지가 입력되면, 상기 제1 휴대용 단말기에 대응하는 제1 위치 예측 정보를 출력하도록 학습된다.

Description

다중 신호 환경 데이터의 센서맵 이미지에 기초하여 구축된 인공지능 신경망 기반 측위 방법 및 그 장치{A positioning method based on artificial intelligence neural network based on sensor map images of city data and an apparatus using it}
본 발명은 측위 시스템에 관한 것이다. 보다 구체적으로, 본 발명은 다중 신호 환경 데이터의 센서맵 이미지에 기초하여 구축된 인공지능 신경망 기반 측위 방법 및 그 장치에 관한 것이다.
최근 대부분의 스마트폰에 GPS(Global Positioning System)가 탑재되기 시작하면서 실생활의 다양한 영역에 위치기반서비스가 활용되기 시작했다. 특히 스마트폰의 각종 앱(APP)에서 GPS를 자유롭게 이용할 수 있게 되면서 위치 정보와 다양한 서비스의 결합이 이루어지게 되었다.
그러나 GPS 위성에서 발생된 신호는 2만km 가 넘는 대기를 통과하면서 매우 약해지기 때문에 건물 내부까지 침투하는 것은 불가능하다. 따라서 실내에서는 길안내(내비게이션) 서비스와 같은 위치기반 서비스를 이용할 수없는 상황이다. 왜냐하면 대부분의 위치기반 서비스가 GPS에 의존적인 상황이기 때문이다.
이를 해결하기 위해, 다양한 실내 위치 측위 방법들이 제안되고 있다. 현재까지 알려진 실내 위치 측위 기술은 무선기지국 및 실내 측위를 위해 수집된 무선랜(WiFi) AP 정보만을 이용하여 실내의 위치를 측위 하는 방식과, GPS/기지국/WiFi/자기장 정보를 이용한 실내외 위치를 연속 측위 하는 방법 등이 제안되어 있다.
또한, 실내의 위치 측위를 위한 데이터 수집은 관련된 사람 직접 수집을 하거나, 관련 소프트웨어를 이용하여 무선랜(WiFi) AP 신호 정보를 수집하여 맵을 제작하는 핑거프린팅 방식들이 예시된다.
그러나, 대형화되고 있는 건물의 증가에 따라 실내공간에서의 활동시간이 급증하고 있는 현재 시점에서도 실내 측위 기술의 정확도는 여전히 미흡한 상태이다.
특히, 실내 신호를 수집하여 맵을 구축하고 유지하는 것은 건물의 정확한 도면과 숙련된 전문가가 있어야 하므로 그 비용이 높게 소요되며, 무선 신호를 삼각측량으로 측위하더라도 그 위치 정확도가 수십미터의 오차를 가져 실 사용에는 미흡한 측면이 존재한다.
나아가 지자계를 이용한 측위기술은 범용성이 떨어지며, 위치에 따른 고유성이 없고 미리 정해진 경로로만 측위가 가능한 바, 일부의 자기장이 변경되는 경우 모든 맵을 다시 구축해야만 하는 문제점이 있다.
이러한 이유로, 한시적으로 건설된 공간이나 터널, 주차장, 전시장 등의 특수환경에서는 적용이 어려운 문제점들이 존재하고 있다.
본 발명은 상기한 바와 같은 문제점을 해결하고자 안출된 것으로, 통상의 휴대용 단말기에서 수집되는 다중 신호 환경 데이터를 수집하여 다중 복합 신호를 구성하고, 상기 다중 복합 신호의 센서맵 이미지로부터 구축되는 인공지능 신경망 기반의 측위 네트워크를 이용하여, 실외 및 실내 좌표를 저비용으로 정확하게 측위하면서도 다양한 환경에 적용시킬 수 있는 측위 시스템을 제공하는 데 그 목적이 있다.
상기한 바와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 방법은, 측위 시스템의 동작 방법에 있어서, 복수의 휴대용 단말기로부터 수집되는 다중 신호 환경 데이터로부터 변환된 각각의 센서맵 이미지와, 상기 복수의 휴대용 단말기에 대응하는 위치 정보에 기초하여, 인공지능 위치 신경망 학습 기반의 측위 모델을 구축하는 단계;를 포함하고, 상기 인공지능 위치 신경망 학습 기반의 측위 모델은, 측위 기반 서비스가 요청된 제1 휴대용 단말기에 대응하는 제1 센서맵 이미지가 입력되면, 상기 제1 휴대용 단말기에 대응하는 제1 위치 예측 정보를 출력하도록 학습된다.
또한, 상기한 바와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 시스템은, 측위 시스템에 있어서, 복수의 휴대용 단말기로부터 수집되는 다중 신호 환경 데이터로부터 변환된 각각의 센서맵 이미지를 수집하는 센서맵 이미지 수집부; 및 상기 복수의 휴대용 단말기에 대응하는 위치 정보에 기초하여, 인공지능 위치 신경망 학습 기반의 측위 모델을 구축하는 위치 신경망 학습부;를 포함하고, 상기 인공지능 위치 신경망 학습 기반의 측위 모델은, 측위 기반 서비스가 요청된 제1 휴대용 단말기에 대응하는 제1 센서맵 이미지가 입력되면, 상기 제1 휴대용 단말기에 대응하는 제1 위치 예측 정보를 출력하도록 학습된다.
본 발명의 실시 예에 따르면, 휴대 단말로부터 위치 정보에 대응하여 센싱된 다중 환경 신호를 복합 신호로 구성하여 센서맵 이미지화 처리하고, 센서맵 이미지의 학습을 기반으로 측위 정보를 출력하도록 하는 인공지능 신경망 기반의 실내 좌표 측위 모델을 구축할 수 있으며, 이에 기초한 학습 모델 기반 실내 측위 서비스를 제공할 수 있다.
이에 따라, 본 발명의 실시 예에 따르면, 통상의 휴대용 단말기에서 수집되는 다양한 신호들을 다중 복합 신호로서 수집하고, 이러한 다중 복합 신호 빅데이터를 이용하여 구축된 인공지능 신경망 기반의 측위 네트워크를 이용하여, 실외 및 실내 좌표를 저비용으로 정확하게 측위하면서도 다양한 환경에 적용시킬 수 있는 측위 시스템을 제공할 수 있다.
도 1은 본 발명의 실시 예에 따른 시스템을 개략적으로 도시한 도면이다.
도 2는 본 발명의 실시 예에 따른 측위 모델 구축 프로세스를 도시한 도면이다.
도 3은 본 발명의 실시 예에 따른 센서맵 이미지 기반 서비스 정보 제공 프로세스를 설명하기 위한 래더 다이어그램이다.
도 4 및 도 5는 본 발명의 실시 예에 따른 센서맵 이미지 기반의 위치 신경망 구축 프로세스를 보다 구체적으로 설명하기 위한 도면이다.
도 6 내지 도 9는 본 발명의 실시 예에 따른 센서맵 이미지 기반의 위치 신경망 구축을 위한 제반기술 알고리즘을 보다 구체적으로 설명하기 위한 도면이다.
도 10은 본 발명의 실시 예에 따른 상대기압맵 모델 기반 층수 측위부를 보다 구체적으로 도시한 블록도이며, 도 11 및 도 12는 본 발명의 실시 예에 따른 상대기압맵 모델 구축 과정을 나타낸다.
이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.
또한, 본 발명의 원리, 관점 및 실시예들 뿐만 아니라 특정 실시예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.
따라서, 예를 들어, 본 명세서의 블럭도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.
프로세서 또는 이와 유사한 개념으로 표시된 기능 블럭을 포함하는 도면에 도시된 다양한 소자의 기능은 전용 하드웨어뿐만 아니라 적절한 소프트웨어와 관련하여 소프트웨어를 실행할 능력을 가진 하드웨어의 사용으로 제공될 수 있다. 프로세서에 의해 제공될 때, 상기 기능은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다.
또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 다른 하드웨어도 포함될 수 있다.
본 명세서의 청구범위에서, 상세한 설명에 기재된 기능을 수행하기 위한 수단으로 표현된 구성요소는 예를 들어 상기 기능을 수행하는 회로 소자의 조합 또는 펌웨어/마이크로 코드 등을 포함하는 모든 형식의 소프트웨어를 포함하는 기능을 수행하는 모든 방법을 포함하는 것으로 의도되었으며, 상기 기능을 수행하도록 상기 소프트웨어를 실행하기 위한 적절한 회로와 결합된다. 이러한 청구범위에 의해 정의되는 본 발명은 다양하게 열거된 수단에 의해 제공되는 기능들이 결합되고 청구항이 요구하는 방식과 결합되기 때문에 상기 기능을 제공할 수 있는 어떠한 수단도 본 명세서로부터 파악되는 것과 균등한 것으로 이해되어야 한다.
상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명하기로 한다.
도 1은 본 발명의 실시 예에 따른 전체 시스템을 개략적으로 도시한 개념도이다.
본 발명의 일 실시 예에 따른 전체 시스템은 휴대용 단말기(200), 측위 시스템(100) 및 서비스 제공 장치(300)를 포함한다.
측위 시스템(100)은, 본 발명의 실시 예에 따른 측위 서비스 제공을 위해, 각 휴대용 단말기(200) 및 서비스 제공 장치(300)와 유/무선 네트워크를 통해 연결될 수 있으며, 상호간 통신을 수행할 수 있다.
여기서 상기 각 네트워크는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 개인 근거리 무선통신(Personal Area Network; PAN), 이동 통신망(mobile radiocommunication network) 또는 위성 통신망 등과 같은 모든 종류의 유/무선 네트워크로 구현될 수 있다.
그리고, 휴대용 단말기(200)는, 휴대폰, 스마트 폰(smart phone), 스마트 패드(smart pad), PDA(Personal Digital Assistants) 중 어느 하나의 개별적 기기일 수 있으며, 다중 신호 환경 데이터 환경으로부터 수집되는 다양한 센서 정보를 실내 및 실외 측위를 위한 다중 신호로 구성하고, 구성된 다중 신호를 위치 매핑 정보와 함께 측위 시스템(100)으로 전송하여, 센서맵 이미지 기반의 위치 신경망 학습 모델이 구축되도록 처리할 수 있다.
또한, 상기 다중 신호 중 기압계 신호는 별도 신호로 구성되어, 측위 시스템(100)의 상대기압맵 모델 기반 층수 측위부(150)로 전달될 수 있다.
또한, 휴대용 단말기(200)는, 다중 신호에 기초한 센서맵 이미지를 구성하고, 센서맵 이미지에 대응하는 위치 정보 기반 서비스 정보를 서비스 제공 장치(300)로 요청할 수도 있다. 이 경우, 서비스 제공 장치(300)는 측위 시스템(100)을 이용하여 상기 센서맵 이미지에 기초한 위치 신경망 학습 모델의 위치 예측 정보를 획득하고, 획득된 위치 예측 정보를 이용하여 위치 정보 기반 서비스 정보를 구성하여 휴대용 단말기(200)로 제공할 수 있다.
본 발명의 실시 예에서 상기 다중 신호는, 다양한 주변 환경의 무선 신호로부터 수집될 수 있으며, 와이파이 신호, 블루투스 신호, GPS/GLONASS 신호, 모바일 네트워크 신호, 지자기 센서 신호, 가속도 센서 신호, 기압계 신호 중 적어도 하나를 포함할 수 있는 바, 휴대용 단말기(200)에 통상적으로 구비되는 다양한 환경 센서들의 신호들을 행렬 결합하고, 정규화 등의 전처리를 수행하여 상기 다중 신호가 구성될 수 있다.
그리고, 측위 시스템(100)은, 휴대용 단말기(200)의 다중 신호에 대응하는 센서맵 이미지와, 위치 매핑 정보의 연관 학습을 통해 인공지능 신경망 기반의 측위 모델을 구축할 수 있으며, 구축된 인공지능 신경망 기반의 측위 모델을 이용하여, 이후 요청되는 센서맵 이미지에 대한 위치 예측 정보를 출력할 수 있다. 여기서 상기 위치 예측 정보는, 실내 또는 실외 좌표에 대응하는 2차원 측위 예측 정보와, 상대기압맵 모델 기반으로 예측되는 수직 측위 예측 정보 중 적어도 하나를 포함할 수 있는 바, 2차원 및 수직 예측에 따른 3차원 위치 정보 예측이 가능하게 된다.
또한, 서비스 제공 장치(300)는, 이러한 측위 시스템(100)의 측위 예측 정보를 이용하여, 다양한 측위 기반 데이터 서비스를 휴대용 단말기(200)로 제공할 수 있다. 또한, 서비스 제공 장치(300)는, 이러한 서비스 제공을 위한 서비스 제공부(미도시)를 구비할 수 있는 바, 서비스 제공부는 서비스 제공 프로세스를 처리하는 하나 이상의 프로세서로 구성될 수 있다.
보다 구체적으로, 도 1을 참조하면, 본 발명의 실시 예에 따른 측위 시스템(100)은, 센서맵 이미지 수집부(110), 위치 신경망 학습부(130), 상대기압맵 모델 기반 층수 측위부(150) 및 학습 모델 기반 측위 서비스 제공부(140)를 포함한다.
먼저, 센서맵 이미지 수집부(110)는, 휴대용 단말기(200)에서 센싱된 다중 신호와, 위치 정보에 대응하여 구성된 센서맵 이미지 데이터를 수집한다.
여기서, 상기 다중 신호는 스마트폰 등에서 수신 가능한 모든 센서 신호를 <KEY, VALUE> 페어로 변환하여 구성한 복합 위치 정보로 구성될 수 있으며, 각 센서 신호는 전처리에 따라 스마트폰 등의 단말기 기종에 무관하도록 정규화(NORMALIZATION) 처리된 센서 신호를 포함할 수 있다.
이러한 다중 신호는 휴대용 단말기(200)에서 수집되는 전파 신호 및 센서 모듈 데이터 신호를 포함할 수 있으며, 예를 들어, 와이파이 브로드캐스트 신호, 블루투스 어드버타이즈 신호, 모바일 네트워크의 기지국 신호, GPS RAW 데이터 신호 등의 전파 신호와, 가속도계, 자기장 센서, 방향 센서, 기압계 신호 등의 센서 모듈 데이터 신호를 포함할 수 있다.
그리고, 센서맵 이미지 수집부(110)는, 전처리된 다중 신호로부터 구성된 센서맵 이미지 데이터를 수집한다. 여기서, 상기 센서맵 이미지 수집부(110)는, 휴대용 단말기(200)로부터 수신되는 다중 신호에 대한 센서맵 이미지를 직접 구성하거나, 휴대용 단말기(200)에서 생성하여 전송한 상기 다중 신호에 대응하는 센서맵 이미지를 수신할 수 있다.
여기서, 상기 센서맵 이미지는, 상기 다중 신호를 이용하여 구성된 복합 신호를 이미지화 처리한 데이터로서, 특정 시점의 특정 위치에서 수집된 다중 신호를 하나의 이미지로서 나타내는 이미지 데이터를 포함할 수 있다. 여기서, 상기 센서맵 이미지는 측위 정보에 대응하여 구성되는 다중 신호의 이미지 정보로서, 복합 픽셀 위치 및 픽셀별 색상 정보를 포함하며, 센서맵 이미지는 위치 정보, 사용자 ID, 디바이스 ID, 타임스탬프 및 시스템 위치 정보와 함께 매핑되어 수집될 수 있다. 센서맵 이미지 수집부(110)는, 이러한 센서맵 이미지를 하나의 위치를 나타내는 고유의 특성 정보로서 관리하며, 이는 지문 정보(FINGER PRINT) 데이터베이스로 구성될 수 있다.
이에 따라, 위치 신경망 학습부(130)는, 상기 센서맵 이미지와 측위용 위치 정보 간 관계성을 학습하고, 상기 센서맵 이미지 간 유사도를 기반으로, 측위 정보를 출력하도록 하는 인공지능 신경망 기반의 실내 좌표 측위 모델을 구축한다. 여기서, 상기 인공지능 신경망은 CNN, DNN, RNN, LSTM 등의 알려진 신경망 학습 방법이 이용될 수 있으나, 바람직하게는 본 발명에서 제안하는 PNN(Positioning Neural Network) 모델이 이용될 수 있다.
그리고, 학습 모델 기반 측위 서비스 제공부(140)는, 상기 인공지능 신경망 기반의 측위 모델을 이용하여, 서비스 제공 장치(300)의 요청에 따른 실내 측위 정보를 제공한다.
보다 구체적으로, 상기 센서맵 이미지는, 상기 다중 신호의 종류, 개수 및 강도에 따라, 색상 크기 및 농도(또는 강도, intensity)가 상이한 별자리 이미지 객체를 포함하도록 구성될 수 있다. 여기서, 본 발명의 실시 예에 따른 별자리 이미지 객체는, 센서맵 이미지의 특징 객체로서, 이미지 프레임 내 일정 크기 또는 일정 강도 이상을 갖는 이미지 객체를 의미할 수 있으며, 별자리 이미지 객체에 대응하는 좌표 정보가 특정될 수 있다.
이러한 별자리 이미지 객체 구성에 따라, 정규화된 다중 신호는 그 종류에 따라 각각 하나의 별자리 이미지 객체로서 변환될 수 있으며, 별자리 이미지 객체들의 집합은 수집된 위치를 대표하는 신호맵 역할을 수행할 수 있다. 또한, 별자리 이미지 객체를 포함하는 센서맵 이미지는 빅데이터화되어 인공지능 신경망 구축에 효과적으로 이용될 수 있다.
그리고, 위치 신경망 학습부(130)는, 상기 별자리 이미지 객체간 유사도 비교를 위한 다차원 활성 함수를 이용하여 측위 예측 정보를 다차원으로 학습하는, 상기 별자리 이미지 객체의 딥러닝 기반 위치 신경망(Positioning Neural Network, PNN) 모델을 구축할 수 있다.
본 발명의 실시 예에 따른 위치 신경망 모델은, 별자리 이미지 비교에 특화된 퍼셉트론(PERCEPTRON) 신경망일 수 있으며, 각각의 이미지의 모든 별(이미지 객체 픽셀)에 대응하는 퍼셉트론이 존재하도록 구성될 수 있다.
또한, 별자리 이미지는 동일한 위치 정보에 매핑된 신호픽셀을 연결하는 이미지일 수 있으며, 이에 기초한 퍼셉트론 학습 및 비교 과정을 최적화함에 따라 고속화된 학습 프로세스가 수행될 수 있다.
나아가, 위치 신경망 학습부(130)는 2개의 입력에 대응하는 3차원 또는 다차원 활성화 함수를 적용하여 신경망을 구축하며, 불연속(DISCRETE)의 함수를 최적화하여 보다 정확한 측위 정보가 구성되도록 처리한다.
예를 들어, 두 별자리 이미지가 비슷할수록 그 유사도 기반 거리는 가깝게 산출될 수 있으며, 별자리 이미지 모양이 다를수록 그 유사도 기반 거리가 멀게 산출될 수 있는 바, 이러한 유사도 정보를 이용하여 구축된 신경망으로 미리 매핑된 위치 정보를 예측하도록 하는 학습을 수행하면, 다양하고 특수한 환경에서도 측위가 가능하도록 특화된 측위 서비스를 제공할 수 있게 된다.
그리고, 서비스 제공 장치(300)는, 휴대용 단말기(200)의 요청에 따라, 실내 측위 정보 기반의 다양한 서비스 정보를 휴대용 단말기(200)로 제공할 수 있다.
예를 들어, 휴대용 단말기(200)는, 현재 시점에 수집된 센서맵 이미지를 이용한 도시 정보 서비스 요청을 서비스 제공 장치(300)로 전송할 수 있으며, 서비스 제공 장치(300)는, 센서맵 이미지에 대응하는 위치 예측 정보를 측위 시스템(100)로부터 획득하고, 획득된 위치 예측 정보를 이용하여 구성되는 서비스 정보를 휴대용 단말기(200)로 제공할 수 있다.
이러한 서비스는, 특히 건물 내 위치 안내, 지하시설 공간 등 난수신 환경에서의 측위 안내, 정밀위치 안내 서비스, 도심 위치정보서비스와, 각종 CCTV와 연계한 시설물 안전관리 서비스, 사용자 긴급구조 서비스 등이 예시될 수 있다.
이와 같은 시스템 구축에 따라, 본 발명의 실시 예에 따른 측위 시스템(100)은, 다양한 건물, 특수환경에 적합한 측위 모델들을 구축할 수 있으며, 구축 비용 및 시간을 저감시킬 수 있는 장점이 있다.
한편, 본 발명의 실시 예에 따른 상대기압맵 모델 기반 층수 측위부(150)는, 상기 다중 신호 중 휴대용 단말기(200)로부터 센싱된 기압계 신호를 획득하고, 기압계 신호 학습 모델에 기초한 층수 측위를 처리하여, 학습 모델 기반 측위 서비스 제공부(140)로 전달할 수 있다.
이에 따라, 학습 모델 기반 측위 서비스 제공부(140)는, 상대기압맵 모델 기반 층수 측위부(150)에서 구축된 상대기압맵 모델에 휴대용 단말기(200)의 현재 기압 신호를 적용하여, 현재 층수 정보를 측위할 수 있다.
이에 따라, 서비스 제공 장치(300)는, 상기 현재 층수 정보를 이용하여, 수직 측위 정보를 획득하고, 이에 기초한 위치 정보 서비스 처리를 더 수행할 수 있다.
보다 구체적으로, 상대기압맵 모델 기반 층수 측위부(150)는, 상대기압 페어에 기초하여 상대기압맵을 생성하는 상대기압맵 생성기 및 상기 기압 신호와, 상기 휴대 단말의 진입층 정보를 상기 상대기압맵에 적용하여 상기 현재 층수 정보를 측위하는 층수 추정기를 포함할 수 있는 바, 보다 정밀한 층수 추정이 가능하다.
나아가, 상대기압맵 모델 기반 층수 측위부(150)는, 상기 현재 층수 정보와 상기 기압 신호를 이용하여, 상기 상대기압맵의 기준층(예를 들어, 1층) 기압 정보를 갱신할 수 있으며, 외부로부터 수신되는 날씨 정보를 이용하여, 상기 상대기압맵의 오차 보정을 실시간으로 수행할 수 있는 바, 실시간으로 갱신되는 정확한 상대기압맵 기반의 층수 측위가 가능하게 된다. 이에 대하여는 보다 구체적으로 후술하도록 한다.
도 2는 본 발명의 실시 예에 따른 측위 모델 구축 프로세스를 도시한 도면이다.
도 2를 참조하면, 먼저 휴대용 단말기(200)에서는, 실내 위치 정보 수집 어플리케이션을 실행한다(S101).
그리고, 휴대용 단말기(200)는, 실내 도면 상에서 현재 위치 정보를 지정하는 지정 신호를 획득한다(S103).
또한, 휴대용 단말기(200)는 지정된 위치 정보에 대응하는 추가 정보를 입력받을 수 있다(S105).
이후, 휴대용 단말기(200)는, 위치 정보에 대응하여 수집되는 다중 신호 환경 데이터를 전처리하여 구성된 다중 복합 신호를 구성한다(S107).
그리고, 휴대용 단말기(200)는, 다중 복합 신호와 위치 정보를 매핑하여 원시 데이터를 생성하며(S109), 생성된 원시 데이터를 이용한 센서맵 이미지를 구성한다(S111).
여기서, 상기 S111 단계는, 다중 복합 신호와 위치 정보를 휴대용 단말기(200)로부터 수집한 측위 시스템(100)에서 처리될 수도 있다.
그리고, 이와 같이 구성된 센서맵 이미지 및 원시 데이터는 측위 시스템(100)에서 인공지능 신경망 학습 기반의 측위 모델을 구축하는데 이용된다(S113).
도 3은 본 발명의 실시 예에 따른 센서맵 이미지 기반 서비스 정보 제공 프로세스를 설명하기 위한 래더 다이어그램이다.
도 3을 참조하면, 본 발명의 실시 예에서 측위 시스템(100) 및 서비스 제공 장치(300)는 하나의 서비스 제공 시스템으로서 구축되어, 휴대용 단말기(200)로 도시 정보 서비스를 제공할 수 있다. 따라서, 서비스 프로세스의 수행에 따라, 측위 시스템(100)의 각 구성 요소는 서비스 제공 장치(300)의 일 요소로서 포함되도록 구성될 수도 있다.
도 3을 참조하면, 본 발명의 실시 예에 따른 휴대용 단말기(200)는, 먼저 다중 신호 환경 데이터로부터 다중 복합 신호를 구성한다(S201).
도 3의 실시 예에서 상기 휴대용 단말기(200)는, 도 2에서의 학습 모델 구축 이후에 실제 도시 정보 서비스를 제공받는 별도의 단말기로서, 특정한 제1 휴대용 단말기라고도 지칭할 수도 있다.
이후, 휴대용 단말기(200)는, 현재 위치에 대응하는 센서맵 이미지를 생성한다(S203).
그리고, 휴대용 단말기(200)는, 센서맵 이미지를 포함하는 서비스 정보를 요청을 서비스 제공 장치(300)로 전송한다(S205).
이후, 서비스 제공 장치(300)는, 센서맵 이미지에 대응하는 위치 예측 정보를 측위 시스템(100)으로 요청한다(S207).
측위 시스템(100)은, 사전 구축된 측위 신경망 학습 모델을 이용하여, 위치 정보를 예측하며(S209), 예측된 위치 예측 정보를 서비스 제공 장치(300)로 전달한다(S211).
여기서, 상기 위치 예측 정보는, 2차원 수평 위치 정보로서 2차원 위치 좌표 정보를 포함할 수 있으며, 수직 위치 정보로서 수직 좌표 정보 또는 건물 층수 정보를 포함할 수 있다.
그리고, 서비스 제공 장치(300)는, 위치 예측 정보를 이용한 서비스 정보를 생성하며(S213), 생성된 서비스 정보를 휴대용 단말기(200)로 제공한다(S215).
도 4 및 도 5는 본 발명의 실시 예에 따른 센서맵 이미지 기반의 위치 신경망 구축 프로세스를 보다 구체적으로 설명하기 위한 도면이다.
먼저 도 4를 참조하면, 다중 신호는 다중 신호 환경 데이터로부터 휴대용 단말기(200)가 수집 가능한 실내 신호, 실외 신호, 단말기 센서 신호로 구분될 수 있으며, 각 구분된 신호는 개별 해시 처리를 기반으로 하여 전처리된 복합 위치 정보로 구성될 수 있고, 복합 위치 정보에 대응하는 색상 및 강도 정보가 결정되면, 다중 복합 신호의 센서맵 이미지가 구성될 수 있다.
보다 구체적으로, 도 4에 하단에 도시된 바와 같이, 센서맵 이미지의 스펙으로서, 가로 64픽셀, 세로 64필셀, 색상 채널(R, G, B, A) 및 밝기 값(0 내지 255)이 설정될 수 있다.
그리고, 다중 신호 환경 데이터에서 수집된 다중 복합 신호를 위치 정보로서 해시화 처리된 값은 A-25:EA:29, B-FA:25:2E, B-DE:1F:24, A-9C:FE:D7 등과 같은 키 값으로 표현될 수 있고, 그 다중 복합 신호의 강도는 각각 -20, 120, 80, 50과 같이 밸류 값이 할당되어, 키-밸류 데이터가 해시 기반 복합 위치 정보로 구성될 수 있다.
그리고, 해시 기반 복합 위치 정보에 대응하여, 키 값을 위치 정보 기반의 색상 채널 정보로 변환하는 키-좌표 변환(Key to Coordinate) 처리가 수행될 수 있으며, 강도 값은 밝기 정보로 변환하는 강도-밝기 변환(Value to Brightness) 처리가 수행될 수 있다.
이와 같이 변환 처리가 수행되면, 앞서 해시화 처리된 각 키 값들은 센서맵 이미지를 구성하는 픽셀로서, (가로 위치, 세로 위치, 색상 채널)로 변환될 수 있는 바, (47,13,R), (20,48,G), (16,30,G), (50,56,R)과 같은 좌표 변환 변수로 변환 처리될 수 있다. 각 좌표 변환 변수는, 센서맵 이미지 내 가로 픽셀 위치, 세로 픽셀 위치 및 색상 채널 정보(R, G, B, 또는 A)를 나타낼 수 있다.
또한, 각 밝기 정보는 전술한 좌표 변환 변수에 매핑될 수 있으며, 전술한 4가지 케이스에서 2, 255, 201, 131 과 같은 밝기 변수가 지정될 수 있다.
이에 따라, 측위 시스템(100)은, 좌표 변환 변수와 밝기 정보를 이용하여, 다중 복합 신호에 대응하는 하나의 센서맵 이미지 프레임을 구성할 수 있으며, 구성된 센서맵 이미지는, 특정 위치 좌표에 대응하는 다중 복합 신호의 특징을 나타낼 수 있게 된다.
또한, 도 5를 참조하면, 본 발명의 실시 예에 따른 센서맵 이미지는, 그 강도 변화에 따라 주요한 신호들을 별자리 이미지와 같은 형태로 상호 연결시킴으로써, 별자리 이미지를 구성할 수 있는 바, 이러한 별자리 이미지의 측위 신경망(PNN) 학습에 따라, 실내 측위용 빅데이터 학습 모델이 보다 효율적으로 구축될 수 있다.
특히, 도 5에서는 상기 다중 복합 신호를 센서맵 이미지로 구성하고, 이를 별자리 이미지로 변환하는 과정을 나타내는 바, 다중 신호(SIGNAL)는 KEY 값과 VALUE 값의 페어(PAIR)로 변환될 수 있다. 그리고, 다중 신호는 정규화 프로세스에 의해 정규화되며, KEY 정보는 해싱 프로세스에 의해 별자리 이미지 객체 픽셀의 X, Y좌표 및 컬러로서 변환되고, VALUE 값은 강도(INTENSITY)로 결정되어 객체의 농도(또는 강도)로 변환된 값을 나타낼 수 있다.
또한, 도 5를 참조하면, 예를 들어, 다중 복합 신호는 각 신호별로 다양한 요소 정보를 포함할 수 있다. 전파 신호의 경우, 와이 파이 신호는 AP의 개수, AP 각각의 MAC Address, 신호 강도(RSSI) 정보를 포함할 수 있으며, 모바일 네트워크 신호는 기지국의 개수, 각각의 기지국 주소, 신호 강도 정보를 포함할 수 있으며, 블루투스 신호는 블루투스 비컨의 개수, 각각의 비컨의 MAC Address, 신호 강도(RSSI) 정보를 포함할 수 있으며, GPS 신호는 GPS 신호, GLONASS 신호, NMEA 메시지 전체 정보, 위성의 개수 정보, GPS 신호에 대응하는 각각의 위성 번호 정보, 각 위성의 신호 강도 정보를 포함할 수 있다. 또한 센서 모듈 신호의 경우 지자기 센서는 x/y/z축 지자기 측정치 정보, 가속도 센서는 x/y/z축 중력 측정치 정보, 기압계 센서는 기압 정보 등을 포함할 수 있다.
이에 따라, 도 5 우측에 도시된 바와 같이, 다중 복합 신호는 픽셀 위치 좌표와 픽셀 색상 및 강도 정보로 변환되어, 실내 특정 위치 정보를 대표하는 별자리 이미지 객체로 구성된 센서맵 이미지로 구성될 수 있다. 보다 구체적으로, 각각의 센서와 신호 종류는 이미지 객체인 점의 색상으로 표현될 수 잇으며, 센서의 개수는 점의 크기로 표현되고, 센서의 강도는 점의 색상 농도(또는 강도)로서 표현될 수 있다. 이러한 별자리 이미지에 따라, 실내에서 수신가능한 복합신호는 센서맵 이미지로 구성될 수 있으며, 딥러닝 학습 프로세스에 의해 실내 위치 정보를 예측하는 위치 신경망 모델로 구축될 수 있다.
이러한 위치 신경망(Positioning Neural Network) 모델은, 센서맵 이미지의 별자리 이미지 데이터 간 특징 정보의 유사성과, 위치 정보를 학습하여 구성될 수 있다. 예를 들어, 두 위치 지점의 센서맵 이미지 간 유사도는, 별자리 이미지 객체간의 유사도 비교를 이용한 실제 유클리디안 거리(Euclidian distance)로서 산출될 수 있다.
이에 따라, 각 위치 지점별 대표 별자리 이미지가 구성될 수 있으며, 이러한 별자리 이미지를 이용하면, 센서맵 이미지 측위 모델로서 이용 가능한 위치 신경망이 구축될 수 있게 된다. 이러한 학습과정은 기존의 CNN 등의 단순 파라미터 학습 방식으로는 구현되기 어려운 구성으로서, 이미지 기반 유사도 학습 프로세스가 이용됨에 따라 그 예측 정확도가 향상될 수 있다.
도 6 내지 도 9는 본 발명의 실시 예에 따른 센서맵 이미지 기반의 위치 신경망 구축을 위한 제반기술 알고리즘을 보다 구체적으로 설명하기 위한 도면이다.
도 6을 참조하면, 본 발명의 실시 예는 위치 신경망 구축을 위한 실제 유클리디안 거리 산출 프로세스를 이용할 수 있으며, 위치 신경망은 두 별자리 이미지 간 유사도를 학습하여 구축될 수 있고, 따라서 두 별자리의 유사도는 거리 정보로서 변환되어 위치 정보의 학습에 이용될 수 있게 된다.
보다 구체적으로, 위치 신경망 학습부(130)는, 센서맵 이미지 페어 간 유사성을 학습하여, 위치 신경망을 구축한다고 할 수 있으며, 이를 위해 각 임의의 센서맵 이미지 페어로부터 별자리 이미지 객체를 특징 객체로서 추출하고, 두 별자리 이미지 객체 간 유클리디안 거리 정보를 라벨링하며, 그 페어와 라벨간 연관 함수의 파라미터가 CNN, RNN 등의 딥러닝 신경망 네트워크 데이터베이스를 통해 학습되도록 처리할 수 있다.
이에 따라, 위치 신경망 학습부(130)에서 학습된 위치 신경망은, 휴대용 단말기(200)에서 요청된 다중 복합 신호에 대응하는 제1 센서맵 이미지가 수신되면, 상기 제1 센서맵 이미지와 그 유클리디안 거리 정보가 가장 가까우면서, 임계치 이하로 식별되는 학습 센서맵 이미지를 추출하는 데 이용될 수 있다. 그리고, 학습 센서맵 이미지에 대응하여 사전 매핑된 위치 정보가, 상기 위치 신경망의 측위 정보로서 출력될 수 있는 바, 실제 위치 정보의 예측이 가능하게 된다.
또한, 도 7에 도시된 바와 같이, 센서맵 이미지 기반의 별자리 이미지(별자리형 신호 지도 이미지)는 그 별자리 이미지 상호간 산출되는 유클리디안 거리 정보를 기반으로 하는 실내별자리 측위 전용 활성 함수로 처리하여 학습에 이용될 수 있다.
이를 위해, 도 7에 도시된 바와 같이, 본 발명의 실시 예에 따른 위치 신경망 학습부(130)는, 상기 별자리 이미지 객체간 유사도 비교를 위한 다차원 활성 함수를 이용하여 측위 예측 정보를 다차원으로 학습하는, 상기 별자리 이미지 객체의 딥러닝 기반 위치 신경망(Positioning Neural Network, PNN) 모델을 구축할 수 있는 바, 본 발명의 실시 예에 따른 위치 신경망 모델은, 별자리 이미지 비교에 특화된 퍼셉트론(PERCEPTRON) 신경망일 수 있으며, 각각의 이미지의 모든 별(이미지 객체 픽셀)에 대응하는 퍼셉트론이 존재하도록 구성될 수 있다.
다만, 상호 동일한 가중치가 설정된 경우의 단순 퍼셉트론의 비교는, 일반적 인공신경망 알고리즘의 관점에서는 학습을 통해 변경시키는 값이 도출될 수 없으므로, 본 발명의 실시 예에 따른 위치 신경망은, 퍼셉트론의 활성화 함수 자체를 다차원으로 튜닝하는 방식을 이용하여, 학습을 수행할 수 있다.
보다 구체적으로, 별자리 이미지는 동일한 위치 정보에 매핑된 신호픽셀을 연결하는 이미지일 수 있으며, 각 비교되는 별자리 이미지 간 가중치는 동일하게 설정되어, 이에 기초한 퍼셉트론의 활성화 함수의 파라미터 튜닝 학습 및 비교 과정을 최적화함에 따라 고속화된 학습 프로세스가 수행될 수 있다. 또한, 측위 전용 활성화함수(Activation function)가 2개 입력에 대응하는 3차원 또는 다차원 함수로 이용됨에 따라, 성능이 최적화될 수 있다.
그리고, 도 8은 본 발명의 실시 예에 다른 다차원 활성화 함수의 구성방식을 예시한 것으로, 본 발명의 실시 예에 따른 위치 신경망은, 기존의 획일화된 활성화 함수로는 측위 불가능한 정보를, 기능마다 상이한 다차원 함수를 적용함에 따른 출력을 이용하여 정확한 위치를 예측할 수 있도록 설정될 수 있다.
보다 구체적으로, 도 8을 참조하면, 보다 구체적으로, 다중 복합 신호 기반 센서맵 이미지의 특징을 반영하는 본 발명의 실시 예에 따른 PNN(위치 신경망, Positional Neural Network)은, 활성 함수를 이용한 역전파 방식을 이용하여 구현될 수 있다.
또한, 본 발명의 실시 예에 따른 PNN 기반 위치 신경망은, 두 입력값의 입력의 크기와 차이에 따라 감소하는 출력을 갖는 3차원 전달함수를 이용하여 구축될 수 있는 바, 신경망 자체를 구성하는 연결들의 연결강도나 가중치가 모두 같은 값으로 고정하되, 이 전달함수 자체를 튜닝하는 매개변수를 가변함에 따라, 위치 신경망의 예측 정확도를 학습에 의해 향상시킬 수 있다.
일반적으로 인공신경망의 전달함수는 알려진 Sigmoid, reLu 등 고정된 비선형 함수를 사용하며, 학습을 통해 각 신경 노드의 연결 가중치를 제어함으로써 학습을 구현할 수 있다. 그러나, 본 발명의 실시 예에 따른 PNN의 학습과정에서는 각 노드의 연결 가중치를 모두 고정시키면서, 3차원 전달함수를 4가지 매개변수(1, 2, 3, 4 표시 케이스)로 정의하며, 그 전달함수를 학습 결과에 튜닝하는 역전파 함수를 이용할 수 있다.
예를 들어, 각 4가지 매개변수는, 함수 모양을 결정하는 변수일 수 있으며, 각각 실내외 측위 적용에 맞도록 측위 환경에 따라 다양하게 설정될 수 있는 바, 바람직하게는 (1)양수 출력의 최대값, (2)음수 출력의 최대값, (3)양수 출력의 기울기, (4)음수 출력의 기울기 등의 특수 설계된 4차원 변수 기반 활성화 함수가 이용될 수 있다.
이에 따른 본 발명의 실시 예에 따른 PNN 기반 위치 신경망은, 나머지 변수는 모두 동일한 픽셀로서 동등하게 학습하되, 상기 4가지 매개변수만 고려하여 학습함에 따라 매개변수의 수가 매우 적은데다 입력과 출력의 범위가 모두 명확하게 정의될 수 있다.
예를 들어, 위치 신경망 학습부(130)는, 위치 신경망의 학습을 위해, 4차원 공간에 대해 입력과 출력의 모든 범위에 대한 경사하강법 알고리즘 등을 수행할 수 있으며, 손실함수는 가장 유사한 이미지로 판정된 이미지의 거리 정보를 이용하도록 설정할 수 있으며, 상기 4가지의 매개변수를 튜닝하면서 손실함수의 총합이 가장 낮은 위치를 찾아가도록 해서 학습을 수행할 수 있는 바, 본 발명의 실시 예에 따른 학습 프로세스는, 센서맵 이미지 기반의 위치 정보를 상당한 정확도로 추정할 수 있는 적합한 알고리즘을 적용한 모델의 튜닝 값을 도출할 수 있도록 한다.
한편, 도 9를 참조하면, 도 9는 파라미터의 변화에 따른 코스트함수의 변화를 나타낸 것으로, 위치 신경망 학습부(130)는, 학습 모델의 구현을 위하여, 코스트 최소화 알고리즘을 이용할 수 있으며, 이러한 코스트 함수는 입력된 센서맵 이미지와 가장 가까운 것으로 선정된 센서맵 이미지 간 실제 거리 정보로서 설정될 수 있다. 결과적으로, 학습된 위치 신경망은 입력된 센서맵 이미지에 대응하여 선정된 제1 센서맵 이미지를 제외한 모든 센서맵 이미지에 대응하여, 유사도를 분석하고, 가장 가까운 이미지를 선정하여 출력할 수 있다.
다만, 학습을 통해 더 작은 거리의 코스트가 도출되도록 지속적으로 학습할 수는 있으나, 수학적 수식이 아닌 변수의 정의로서 구성된 코스트 함수이기 때문에, 그 변화를 예측하거나 최적화하는 것이 용이하지 않을 수 있다. 또한, 결과적으로 각 4가지 파라미터들을 조합한 5차원 변수에 대한 종합적 최적화가 필요하다.
예를 들어, 도 9에 도시된 바와 같이, 전술한 4가지 매개변수의 파라미터 중 (3)양수 출력의 기울기 변화에 따른 코스트 함수의 변화를 참고하면, 기울기를 이용하지 않는 최적화 방식이 효율적임을 파악할 수 있다. 이에 따라, 본 발명의 실시 예에 따른 코스트 함수의 최적화는 정의역이 명확하면서 차원 수가 높지 않은 상태에서의 최적화 방식으로서, Exhaustive Search 또는 Simulated Annealing 알고리즘이 이용되는 것이 바람직할 수 있다.
따라서, 이러한 본 발명의 실시 예에 따른 위치 신경망은, 각 건물이나 주변 환경에 따라 구조적인 특성과 및 신호 전파 특성에 맞는 임의의 전달함수를 구축할 수 있게 하므로, 실제 환경에 따라 적합한 다차원함수를 정의할 수 있도록, 각 실내 또는 실외 환경에 맞는 매개변수의 종류와 개수가 각각 상이하게 설정될 수 있다.
도 10은 본 발명의 실시 예에 따른 상대기압맵 모델 기반 층수 측위부를 보다 구체적으로 도시한 블록도이며, 도 11 및 도 12는 본 발명의 실시 예에 따른 상대기압맵 모델 구축 과정을 나타낸다.
도 10에 도시된 바와 같이, 상대기압맵 모델 기반 층수 측위부(150)는, 상대기압맵 생성기(151), 층수 추정기(153), 기준층기압 최적화기(155)를 포함하여 구성될 수 있다.
먼저, 상대기압맵 생성기(151)는, 상대기압 페어에 기초하여 상대기압맵을 생성한다.
도 11을 참조하면, 상대기압맵(Relative pressure map)을 구축하는 경우, 기압을 두 층의 페어(pair)로 측정함으로써, 최소 비용의 기압 페어만 수집하면 정확도 높은 층수 예측이 가능하게 된다. 이에 따라 최소한의 비용으로 상대기압맵 구축이 가능하며, 상대기압맵에 의한 수직 측정 정확도는, 페어 병합 알고리즘에 따라 100%까지 높일 수 있다.
그리고, 다시 도 10을 참조하면, 층수 추정기(153)는, 휴대용 단말기(200)의 기압 신호와, 상기 휴대용 단말기(200)의 센서맵 이미지 기반의 진입 층 정보를 추출하고, 추출된 진입 층 정보를 상기 상대기압맵에 적용하여, 현재 층수를 추정하는 상대기압맵 측위 모델을 구축할 수 있다.
여기서, 상기 층수 추정기(153)는 기준층기압 최적화기에서 최적화된 기준층기압 변수와, 센서맵 이미지로부터 추출되는 진입 층 정보를 이용하여, 현재 층수(curr_floor)를 추정하는 연산식에 적용함에 따라, 현재 층수 정보를 예측할 수 있다.
그리고, 기준층기압 최적화기(155)는, 상기 산출된 현재 층수 정보(진입층 정보)와 휴대용 단말기(200)의 기압계로부터 획득되는 상기 기압 신호를 이용하여, 상기 상대기압맵의 기준층 기압 정보를 최적화 갱신할 수 있다.
또한, 도 12를 참조하면, 이러한 기준층기압 최적화기는, 외부로부터 수신되는 날씨 정보를 이용하여, 상기 상대기압맵의 오차 보정을 실시간으로 수행할 수도 있다.
보다 구체적으로, 본 발명의 실시 예에 다른 기준층기압 최적화기는, 기압이 실시간으로 변화하는 것을 보정하기 위한 EM (Expectation maximization 기대값 최대화) 알고리즘을 이용하여 상대기압맵을 최적화할 수 있다.
이러한 기준층기압 최적화기는 현재 층수 정보와 기압 정보를 이용하여, 기준층(1층)의 실제 기압을 갱신하고, 날씨 변화로 인한 오차를 보정함에 따라, 실시간으로 지속가능한 수직정밀도를 보장할 수 있다.
상술한 본 발명에 따른 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다.
컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.

Claims (20)

  1. 측위 시스템의 동작 방법에 있어서,
    복수의 휴대용 단말기로부터 수집되는 다중 신호 환경 데이터로부터 변환된 각각의 센서맵 이미지와, 상기 복수의 휴대용 단말기에 대응하는 위치 정보에 기초하여, 인공지능 위치 신경망 학습 기반의 측위 모델을 구축하는 단계;를 포함하고,
    상기 인공지능 위치 신경망 학습 기반의 측위 모델은, 측위 기반 서비스가 요청된 제1 휴대용 단말기에 대응하는 제1 센서맵 이미지가 입력되면, 상기 제1 휴대용 단말기에 대응하는 제1 위치 예측 정보를 출력하도록 학습되는
    측위 시스템의 동작 방법.
  2. 제1항에 있어서,
    상기 센서맵 이미지는,
    상기 다중 신호 환경 데이터로부터 전처리된 다중 복합 신호 데이터의 종류, 개수 및 강도 중 적어도 하나에 따라, 색상, 크기 및 밝기 중 적어도 하나가 상이하게 결정되는 하나 이상의 이미지 객체를 포함하는
    측위 시스템의 동작 방법.
  3. 제2항에 있어서,
    상기 다중 복합 신호 데이터는,
    상기 휴대용 단말기에서 수집되는 상기 다중 신호 환경 데이터를 해시 기반 좌표 데이터로 전처리한 데이터를 포함하는
    측위 시스템의 동작 방법.
  4. 제2항에 있어서,
    상기 센서맵 이미지는,
    상기 다중 신호 환경 데이터의 신호 종류가 이미지 객체인 점의 색상으로 표현되며, 상기 다중 신호 환경 데이터의 종류 별 개수는 점의 크기로 표현되고, 신호의 강도는 점의 색상 강도 또는 밝기로 표현되는 이미지 프레임을 포함하는
    측위 시스템의 동작 방법.
  5. 제2항에 있어서,
    상기 인공지능 위치 신경망 학습 기반 측위 모델은, 상기 센서맵 이미지 간 이미지 유사도 학습 프로세스에 따라 구성되며, 상기 유사도는, 센서맵 이미지 페어로부터 획득되는 하나 이상의 특징 이미지 객체 간 유클리디안 거리(Euclidian distance)에 따라 산출되는
    측위 시스템의 동작 방법.
  6. 제5항에 있어서,
    상기 특징 이미지 객체는,
    상기 센서맵 이미지의 특징 객체로서, 이미지 프레임 내 일정 크기 또는 일정 강도 이상을 갖는 별자리 이미지 객체를 포함하는
    측위 시스템의 동작 방법.
  7. 제5항에 있어서,
    상기 인공지능 위치 신경망 학습 기반 측위 모델은, 각각의 센서맵 이미지의 별자리 이미지 객체를 이용하여 이미지간 거리 정보를 산출하기 위해, 센서맵 이미지의 특징 정보를 추출하는 퍼셉트론(PERCEPTRON) 프로세스를 이용하여 구축되며,
    상기 퍼셉트론 프로세스는, 학습 과정에 의해 사전 설정된 일정 개수의 매개 변수가 튜닝되는 다차원 활성화함수가 할당된 신경망 학습 프로세스를 포함하는
    측위 시스템의 동작 방법.
  8. 제7항에 있어서,
    상기 신경망 학습 프로세스는,
    각 센서맵 이미지 간 거리 정보를 코스트로 설정하여, 상기 코스트를 최소화하는 방향으로 상기 다차원 활성화함수의 매개 변수를 최적화하는 튜닝 프로세스를 포함하는
    측위 시스템의 동작 방법.
  9. 제7항에 있어서,
    상기 다차원 활성화함수에서 튜닝되는 매개 변수는,
    양수 출력의 최대값, 음수 출력의 최대값, 양수 출력의 기울기 및 음수 출력의 기울기 중 적어도 하나를 포함하는
    측위 시스템의 동작 방법.
  10. 제9항에 있어서,
    상기 튜닝되는 매개 변수의 종류 및 개수는 실내 또는 실외 측위 환경에 따라 상이하게 결정되는
    측위 시스템의 동작 방법.
  11. 제1항에 있어서,
    상기 제1 휴대용 단말기의 센서맵 이미지에 대응하여 획득되는 기압 신호를 이용하여, 상기 제1 휴대용 단말기의 현재 층수 정보를 측위하는 상대기압맵 측위 모델을 구축하는 단계를 더 포함하고,
    상기 상대기압맵 측위 모델을 구축하는 단계는,
    상기 복수의 휴대용 단말기로부터 수집되는 기압 신호로부터 획득되는, 상대기압 페어에 기초하여, 상대기압맵을 생성하는 단계; 및
    상기 기압 신호와 매핑되어 상기 복수의 휴대용 단말기로부터 수집되는 진입 층 정보를 상기 상대기압맵에 매핑하여, 측위 대상 기압 신호가 입력되면 현재 층수 정보를 예측하는 상기 상대기압맵 측위 모델을 생성하는 단계를 포함하는
    측위 시스템의 동작 방법.
  12. 제11항에 있어서,
    상기 상대기압맵 측위 모델을 구축하는 단계는,
    외부로부터 획득되는 현재 날씨 정보를 이용하여, 상기 상대기압맵의 실시간 오차 보정을 수행하는 단계를 더 포함하는
    측위 시스템의 동작 방법.
  13. 측위 시스템에 있어서,
    복수의 휴대용 단말기로부터 수집되는 다중 신호 환경 데이터로부터 변환된 각각의 센서맵 이미지를 수집하는 센서맵 이미지 수집부; 및
    상기 복수의 휴대용 단말기에 대응하는 위치 정보에 기초하여, 인공지능 위치 신경망 학습 기반의 측위 모델을 구축하는 위치 신경망 학습부;를 포함하고,
    상기 인공지능 위치 신경망 학습 기반의 측위 모델은, 측위 기반 서비스가 요청된 제1 휴대용 단말기에 대응하는 제1 센서맵 이미지가 입력되면, 상기 제1 휴대용 단말기에 대응하는 제1 위치 예측 정보를 출력하도록 학습되는
    측위 시스템.
  14. 제13항에 있어서,
    상기 센서맵 이미지는,
    상기 다중 신호 환경 데이터로부터 전처리된 다중 복합 신호 데이터의 종류, 개수 및 강도 중 적어도 하나에 따라, 색상, 크기 및 밝기 중 적어도 하나가 상이하게 결정되는 하나 이상의 이미지 객체를 포함하는
    측위 시스템.
  15. 제14항에 있어서,
    상기 다중 복합 신호 데이터는,
    상기 휴대용 단말기에서 수집되는 상기 다중 신호 환경 데이터를 해시 기반 좌표 데이터로 전처리한 데이터를 포함하는
    측위 시스템.
  16. 제14항에 있어서,
    상기 센서맵 이미지는,
    상기 다중 신호 환경 데이터의 신호 종류가 이미지 객체인 점의 색상으로 표현되며, 상기 다중 신호 환경 데이터의 종류 별 개수는 점의 크기로 표현되고, 신호의 강도는 점의 색상 강도 또는 밝기로 표현되는 이미지 프레임을 포함하는
    측위 시스템.
  17. 제14항에 있어서,
    상기 인공지능 위치 신경망 학습 기반 측위 모델은, 상기 센서맵 이미지 간 이미지 유사도 학습 프로세스에 따라 구성되며, 상기 유사도는, 센서맵 이미지 페어로부터 획득되는 하나 이상의 특징 이미지 객체 간 유클리디안 거리(Euclidian distance)에 따라 산출되는
    측위 시스템.
  18. 제17항에 있어서,
    상기 특징 이미지 객체는,
    상기 센서맵 이미지의 특징 객체로서, 이미지 프레임 내 일정 크기 또는 일정 강도 이상을 갖는 별자리 이미지 객체를 포함하며,
    상기 인공지능 위치 신경망 학습 기반 측위 모델은, 각각의 센서맵 이미지의 별자리 이미지 객체를 이용하여 이미지간 거리 정보를 산출하기 위해, 센서맵 이미지의 특징 정보를 추출하는 퍼셉트론(PERCEPTRON) 프로세스를 이용하여 구축되며,
    상기 퍼셉트론 프로세스는, 학습 과정에 의해 사전 설정된 일정 개수의 매개 변수가 튜닝되는 다차원 활성화함수가 할당된 신경망 학습 프로세스를 포함하는
    측위 시스템.
  19. 제18항에 있어서,
    상기 신경망 학습 프로세스는,
    각 센서맵 이미지 간 거리 정보를 코스트로 설정하여, 상기 코스트를 최소화하는 방향으로 상기 다차원 활성화함수의 매개 변수를 최적화하는 튜닝 프로세스를 포함하고,
    상기 다차원 활성화함수에서 튜닝되는 매개 변수는,
    양수 출력의 최대값, 음수 출력의 최대값, 양수 출력의 기울기 및 음수 출력의 기울기 중 적어도 하나를 포함하며,
    상기 튜닝되는 매개 변수의 종류 및 개수는 실내 또는 실외 측위 환경에 따라 상이하게 결정되는
    측위 시스템.
  20. 제13항에 있어서,
    상기 제1 휴대용 단말기의 센서맵 이미지에 대응하여 획득되는 기압 신호를 이용하여, 상기 제1 휴대용 단말기의 현재 층수 정보를 측위하는 상대기압맵 측위 모델을 구축하는 상대기압맵 모델 기반 층수 측위부를 더 포함하고,
    상대기압맵 모델 기반 층수 측위부는,
    상기 복수의 휴대용 단말기로부터 수집되는 기압 신호로부터 획득되는, 상대기압 페어에 기초하여, 상대기압맵을 생성하는 상대기압맵 생성기; 및
    상기 기압 신호와 매핑되어 상기 복수의 휴대용 단말기로부터 수집되는 진입 층 정보를 상기 상대기압맵에 매핑하여, 측위 대상 기압 신호가 입력되면 현재 층수 정보를 예측하는 상기 상대기압맵 측위 모델을 생성하는 층수 추정기를 포함하는
    측위 시스템.
KR1020230009051A 2022-01-24 2023-01-20 다중 신호 환경 데이터의 센서맵 이미지에 기초하여 구축된 인공지능 신경망 기반 측위 방법 및 그 장치 KR102616201B1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR1020220009695 2022-01-24
KR1020220009696 2022-01-24
KR20220009695 2022-01-24
KR20220009696 2022-01-24

Publications (2)

Publication Number Publication Date
KR20230114216A true KR20230114216A (ko) 2023-08-01
KR102616201B1 KR102616201B1 (ko) 2023-12-20

Family

ID=87348588

Family Applications (7)

Application Number Title Priority Date Filing Date
KR1020230009053A KR20230114218A (ko) 2022-01-24 2023-01-20 다중 신호 환경 데이터의 센서맵 이미지에 기초하여 구축된 인공지능 신경망 기반 측위 시스템을 이용한, 지하철 역사 가이드 서비스 제공 방법 및 그 장치
KR1020230009051A KR102616201B1 (ko) 2022-01-24 2023-01-20 다중 신호 환경 데이터의 센서맵 이미지에 기초하여 구축된 인공지능 신경망 기반 측위 방법 및 그 장치
KR1020230009052A KR20230114217A (ko) 2022-01-24 2023-01-20 다중 신호 환경 데이터의 센서맵 이미지에 기초하여 구축된 인공지능 신경망 기반 측위 시스템을 이용한, 시설 안전 관리 서비스 제공 방법 및 그 장치
KR1020230009056A KR20230114221A (ko) 2022-01-24 2023-01-20 다중 신호 환경 데이터의 센서맵 이미지에 기초하여 구축된 인공지능 신경망 기반 측위 시스템을 이용한, 사용자 위치 정보 공유 서비스 제공 방법 및 그 장치
KR1020230009057A KR20230114222A (ko) 2022-01-24 2023-01-20 다중 신호 환경 데이터의 센서맵 이미지에 기초하여 구축된 인공지능 신경망 기반 측위 시스템을 이용한, 건설 현장 관리 서비스 제공 방법 및 그 장치
KR1020230009055A KR20230114220A (ko) 2022-01-24 2023-01-20 다중 신호 환경 데이터의 센서맵 이미지에 기초하여 구축된 인공지능 신경망 기반 측위 시스템을 이용한, 다중 로봇 통합 관제 서비스 제공 방법 및 그 장치
KR1020230009054A KR20230114219A (ko) 2022-01-24 2023-01-20 다중 신호 환경 데이터의 센서맵 이미지에 기초하여 구축된 인공지능 신경망 기반 측위 시스템을 이용한, 발전소 내 사용자 위치 관리 서비스 제공 방법 및 그 장치

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020230009053A KR20230114218A (ko) 2022-01-24 2023-01-20 다중 신호 환경 데이터의 센서맵 이미지에 기초하여 구축된 인공지능 신경망 기반 측위 시스템을 이용한, 지하철 역사 가이드 서비스 제공 방법 및 그 장치

Family Applications After (5)

Application Number Title Priority Date Filing Date
KR1020230009052A KR20230114217A (ko) 2022-01-24 2023-01-20 다중 신호 환경 데이터의 센서맵 이미지에 기초하여 구축된 인공지능 신경망 기반 측위 시스템을 이용한, 시설 안전 관리 서비스 제공 방법 및 그 장치
KR1020230009056A KR20230114221A (ko) 2022-01-24 2023-01-20 다중 신호 환경 데이터의 센서맵 이미지에 기초하여 구축된 인공지능 신경망 기반 측위 시스템을 이용한, 사용자 위치 정보 공유 서비스 제공 방법 및 그 장치
KR1020230009057A KR20230114222A (ko) 2022-01-24 2023-01-20 다중 신호 환경 데이터의 센서맵 이미지에 기초하여 구축된 인공지능 신경망 기반 측위 시스템을 이용한, 건설 현장 관리 서비스 제공 방법 및 그 장치
KR1020230009055A KR20230114220A (ko) 2022-01-24 2023-01-20 다중 신호 환경 데이터의 센서맵 이미지에 기초하여 구축된 인공지능 신경망 기반 측위 시스템을 이용한, 다중 로봇 통합 관제 서비스 제공 방법 및 그 장치
KR1020230009054A KR20230114219A (ko) 2022-01-24 2023-01-20 다중 신호 환경 데이터의 센서맵 이미지에 기초하여 구축된 인공지능 신경망 기반 측위 시스템을 이용한, 발전소 내 사용자 위치 관리 서비스 제공 방법 및 그 장치

Country Status (2)

Country Link
KR (7) KR20230114218A (ko)
WO (1) WO2023140711A1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170040652A (ko) * 2015-10-05 2017-04-13 인하대학교 산학협력단 센서 영상에 기반한 실내측위 장치 및 실내측위 방법
KR20190107692A (ko) * 2017-02-24 2019-09-20 히어 그로벌 비. 브이. 옥내 위치 결정을 위한 정확한 고도 추정
KR20210048697A (ko) * 2019-10-24 2021-05-04 파파야 주식회사 실내측위 장치 및 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102579650B1 (ko) * 2015-12-29 2023-09-15 에스케이플래닛 주식회사 무선 핑거프린트 맵 구축 및 위치 측위 방법 및 이를 위한 장치, 이를 수행하는 컴퓨터 프로그램을 기록한 기록 매체
US11874387B2 (en) * 2020-05-01 2024-01-16 At&T Intellectual Property I, L.P. Mobile device three-dimensional location service

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170040652A (ko) * 2015-10-05 2017-04-13 인하대학교 산학협력단 센서 영상에 기반한 실내측위 장치 및 실내측위 방법
KR20190107692A (ko) * 2017-02-24 2019-09-20 히어 그로벌 비. 브이. 옥내 위치 결정을 위한 정확한 고도 추정
KR20210048697A (ko) * 2019-10-24 2021-05-04 파파야 주식회사 실내측위 장치 및 방법

Also Published As

Publication number Publication date
KR20230114218A (ko) 2023-08-01
KR20230114222A (ko) 2023-08-01
KR20230114221A (ko) 2023-08-01
KR20230114217A (ko) 2023-08-01
WO2023140711A1 (ko) 2023-07-27
KR20230114219A (ko) 2023-08-01
KR102616201B1 (ko) 2023-12-20
KR20230114220A (ko) 2023-08-01

Similar Documents

Publication Publication Date Title
CN110118549B (zh) 一种多源信息融合定位方法和装置
CN110856112B (zh) 一种群智感知的多源信息融合室内定位方法及系统
KR102116824B1 (ko) 딥러닝 기반 측위 시스템 및 이의 구축 방법
Zhang et al. DeepPositioning: Intelligent fusion of pervasive magnetic field and WiFi fingerprinting for smartphone indoor localization via deep learning
CN111464938B (zh) 定位方法、装置、电子设备和计算机可读存储介质
CN107113764B (zh) 提高人工神经网络定位性能的方法和装置
US10677883B2 (en) System and method for automating beacon location map generation using sensor fusion and simultaneous localization and mapping
Cengiz Comprehensive analysis on least-squares lateration for indoor positioning systems
CN108120436A (zh) 一种iBeacon辅助地磁室内实景导航方法
KR102304466B1 (ko) 실내 측위용 데이터베이스 구축, 실내 측위 방법 및 시스템
KR20190014907A (ko) 액세스 포인트의 신호 세기를 이용하여 위치를 측정하는 장치 및 방법
JP2008039603A (ja) 測位装置
Zhou et al. IMLours: Indoor mapping and localization using time-stamped WLAN received signal strength
WO2018211261A1 (en) Method of mapping indoor region
KR102616201B1 (ko) 다중 신호 환경 데이터의 센서맵 이미지에 기초하여 구축된 인공지능 신경망 기반 측위 방법 및 그 장치
KR20210048697A (ko) 실내측위 장치 및 방법
KR20230096523A (ko) 실내 측위 방법 및 그 장치
Agrawal et al. Smart phone based indoor pedestrian localization system
Zhang et al. Integrated iBeacon/PDR Indoor Positioning System Using Extended Kalman Filter
US20220413512A1 (en) Information processing device, information processing method, and information processing program
CN114758364A (zh) 基于深度学习的工业物联网场景融合定位方法及系统
KR20230113888A (ko) 스마트 폰의 다중 신호와 기압신호를 이용한 위치 및 층수 측위 시스템 및 그 동작 방법
KR20230113889A (ko) 기압계 기반 추락 감지 시스템 및 그 동작방법
KR20230113890A (ko) 대형 실내 문화공간에서의 위치확인 서비스 시스템 및 그 동작방법
KR20230113886A (ko) 다중신호 센서 맵 이미지를 이용하는 실내 좌표 측위 시스템의 동작 방법

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right