KR102277503B1 - 객체 인식 기반 실내 측위를 위한 단말장치, 서비스 서버 및 그 방법 - Google Patents

객체 인식 기반 실내 측위를 위한 단말장치, 서비스 서버 및 그 방법 Download PDF

Info

Publication number
KR102277503B1
KR102277503B1 KR1020190093758A KR20190093758A KR102277503B1 KR 102277503 B1 KR102277503 B1 KR 102277503B1 KR 1020190093758 A KR1020190093758 A KR 1020190093758A KR 20190093758 A KR20190093758 A KR 20190093758A KR 102277503 B1 KR102277503 B1 KR 102277503B1
Authority
KR
South Korea
Prior art keywords
indoor
virtual space
objects
user
location
Prior art date
Application number
KR1020190093758A
Other languages
English (en)
Other versions
KR20210015226A (ko
Inventor
박주흠
Original Assignee
주식회사 다비오
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 다비오 filed Critical 주식회사 다비오
Priority to KR1020190093758A priority Critical patent/KR102277503B1/ko
Publication of KR20210015226A publication Critical patent/KR20210015226A/ko
Application granted granted Critical
Publication of KR102277503B1 publication Critical patent/KR102277503B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

객체 인식 기반 실내 측위를 위한 단말장치, 서비스 서버 및 그 방법이 개시된다. 본 발명의 일 측면에 따른 단말장치는 기설정된 객체별 좌표값이 매칭된 실내 지도가 저장된 저장부, 촬영부, 상기 촬영부를 통해 획득된 이미지에서 제1 및 제2 객체를 인식하고, 상기 제1 및 제2 객체의 가상공간 위치를 각각 추정하며, 상기 제1 및 제2 객체의 가상공간 위치와 사용자의 가상공간 위치를 이용하여 상기 제1 및 제2 객체 각각과 상기 사용자 간의 가상공간 거리를 각각 추정하고, 상기 가상공간 거리를 이용하여 상기 사용자의 실내 위치를 추정하는 제어부를 포함한다.

Description

객체 인식 기반 실내 측위를 위한 단말장치, 서비스 서버 및 그 방법{TERMINAL DEVICEM, SERVICE SERVER AND METHOD FOR INDOOR POSITIONING BASED ON OBJECT DETECTION}
본 발명은 객체 인식 기반 실내 측위를 위한 단말장치, 서비스 서버 및 그 방법에 관한 것으로서, 보다 상세하게는 단말장치의 촬영부를 통해 촬영되는 이미지에서 객체를 인식하고, 인식된 객체를 벡터화된 좌표를 가지는 실내지도 상으로 매칭시켜 사용자의 위치를 추정할 수 있는 객체 인식 기반 실내 측위를 위한 단말장치, 서비스 서버 및 그 방법에 관한 것이다.
다수의 사용자들에게 선택적 데이터를 원하는 장소에서 제공하는 여러 서비스, 즉 사용자의 현재 위치에 기초하여 다양한 위치 기반 서비스(LBS: Location-Based Services), 예컨대 실시간 데이터 팝업 서비스, 사용자 위치에 따른 선택적 데이터 전송 서비스, 실내 네비게이션 서비스가 제공되고 있다.
이러한 서비스는 사용자의 위치를 측정하는 기술을 기반으로 하는데, 위치 기반 서비스는 와이파이(WIFI), 비콘(BEACON) 등을 이용하여 사용자의 위치를 측정하여 실내 네비게이션 등의 서비스를 제공할 수 있다. 이러한 위치 기반 서비스를 적절히 제공하기 위해서는 사용자의 위치를 정확히 파악하는 것이 중요하다. 그런데, 사용자의 위치를 파악하기 위해 와이파이를 사용하는 경우 위치 계산을 위해 사용되는 와이파이 수신 신호 크기의 변동이 실내에서 굉장히 심하여, 적절한 위치 기반 서비스를 제공하는 데 어려움이 있고, 비콘 송신기들을 이용하는 경우 비콘 송신기들의 배치 간격에 따라 사용자의 위치 측정이 어려울 수 있다. 예를 들어, 비콘을 이용하여 사용자의 위치를 측정하기 위해서는 비콘과 사용자와의 거리가 정확히 측정되어야 하는데, 비콘과 사용자의 거리가 멀어질수록 오차가 커진다. 또한, 종래의 실내 위치 추정 기술들은 고가의 장비나 인프라를 구축해야 하는 문제점이 있다.
이에, 고가의 장비나 인프라를 구축하지 않아도 실내 위치를 추정할 수 있는 기술 개발이 요구되고 있다.
본 발명과 관련된 선행기술로는 대한민국 공개특허 제2011-00250250호가 있다.
본 발명은 상기와 같은 문제점들을 개선하기 위하여 안출된 것으로, 본 발명의 목적은 단말장치의 촬영부를 통해 촬영된 이미지에서 객체를 인식하고, 그 객체를 이용하여 사용자의 위치를 추정할 수 있는 객체 인식 기반 실내 측위를 위한 단말장치, 서비스 서버 및 그 방법을 제공하는 것이다.
본 발명이 해결하고자 하는 과제는 이상에서 언급한 과제(들)로 제한되지 않으며, 언급되지 않은 또 다른 과제(들)은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 측면에 따른 단말장치는, 기설정된 객체별 좌표값이 매칭된 실내 지도가 저장된 저장부, 촬영부, 상기 촬영부를 통해 획득된 이미지에서 제1 및 제2 객체를 인식하고, 상기 제1 및 제2 객체의 가상공간 위치를 각각 추정하며, 상기 제1 및 제2 객체의 가상공간 위치와 사용자의 가상공간 위치를 이용하여 상기 제1 및 제2 객체 각각과 상기 사용자 간의 가상공간 거리를 각각 추정하고, 상기 가상공간 거리를 이용하여 상기 사용자의 실내 위치를 추정하는 제어부를 포함한다.
본 발명에 있어서 표시부를 더 포함하고, 상기 제어부는, 상기 사용자의 위치를 상기 실내 지도에 표시하여 상기 촬영부를 통해 획득된 이미지와 함께 상기 표시부를 통해 디스플레이 시킬 수 있다.
본 발명에 있어서 상기 제어부는, 딥러닝을 이용하여 상기 제1 및 제2 객체를 인식하고, 가상공간 상에 생성되는 포인트 클라우드를 이용하여 상기 제1 및 제2 객체의 가상공간 위치를 각각 추정할 수 있다.
본 발명에 있어서 상기 제어부는, Dead Reckoning 알고리즘을 이용하여 상기 사용자의 가상공간 위치를 추정할 수 있다.
본 발명에 있어서 상기 제어부는, 상기 제1 객체의 가상공간 위치와 사용자의 가상공간 위치 간의 제1 유클리디안 거리를 산출하고, 상기 제2 객체의 가상공간 위치와 상기 사용자의 가상공간 위치 간의 제2 유클리디안 거리를 산출할 수 있다.
본 발명에 있어서 상기 제어부는, 상기 실내 지도로부터 상기 제1 및 제2 객체의 실내 좌표를 각각 획득하고, 상기 제1 및 제2 유클리디안 거리, 상기 제1 및 제2 객체의 실내 좌표를 이용하여 상기 사용자의 제1 실내 예측 위치 및 제2 실내 예측 위치를 추정하며, 상기 사용자의 가상공간 위치를 기준으로 상기 제1 및 제2 객체의 가상공간 위치까지의 벡터인 제1 가상벡터와 제2 가상벡터의 외적인 가상공간 외적을 구하고, 상기 제1 실내 예측 위치를 기준으로 상기 제1 및 제2 객체의 실내 좌표까지의 벡터인 제1 실제벡터와 제2 실제벡터의 외적인 제1 실내 외적 및 상기 제2 실내 예측 위치를 기준으로 상기 제1 및 제2 객체의 실내 좌표까지의 벡터인 제1 실제벡터와 제2 실제벡터의 외적인 제2 실내 외적을 구하며, 상기 제1 및 제2 실내 외적 중 상기 가상공간 외적과 부호가 일치하는 실내 외적의 실내 예측 위치를 상기 사용자의 실내 위치로 추정할 수 있다.
본 발명에 있어서 통신망을 통해 서비스 서버와 통신을 수행하는 통신부를 더 포함하고, 상기 제어부는, 상기 저장부에 저장된 이미지 수집 애플리케이션이 실행된 경우, 상기 촬영부를 통해 기선정된 객체들을 촬영하고, 상기 촬영된 각 객체의 이미지를 저장하며, 상기 저장된 각 객체의 촬영 이미지를 상기 통신부를 통해 상기 서비스 서버로 전송할 수 있다.
본 발명의 다른 측면에 따른 서비스 서버는, 실내 지도에 설정된 각 객체의 촬영 이미지를 수신하는 통신부, 상기 통신부를 통해 수신한 각 객체에서의 촬영 이미지를 학습하고, 상기 학습된 각 객체의 촬영 이미지를 통해 객체 및 그 객체의 좌표를 매칭하여 객체 인식을 위한 객체 인식 모델을 생성하는 객체 인식 모델 생성부를 포함한다.
본 발명에 있어서 서비스 서버는 상기 통신부를 통해 단말장치로부터 촬영 이미지를 포함하는 위치 추정 요청 신호가 수신되면, 상기 촬영 이미지를 상기 객체 인식 모델에 입력하여 제1 및 제2 객체를 인식하고, 상기 제1 및 제2 객체의 가상공간 위치를 각각 추정하며, 상기 제1 및 제2 객체의 가상공간 위치와 사용자의 가상공간 위치를 이용하여 상기 제1 및 제2 객체 각각과 상기 사용자 간의 가상공간 거리를 각각 추정하고, 상기 가상공간 거리를 이용하여 상기 사용자의 실내 위치를 추정하며, 상기 추정된 실내 위치를 상기 단말장치로 전송하는 위치 추정부를 더 포함할 수 있다.
본 발명의 또 다른 측면에 따른 객체 인식 기반 실내 측위 서비스 방법은, 단말장치가 촬영부를 통해 획득된 이미지에서 제1 및 제2 객체를 인식하고, 상기 제1 및 제2 객체의 가상공간 위치를 각각 추정하는 단계, 상기 단말장치가 상기 제1 및 제2 객체의 가상공간 위치와 사용자의 가상공간 위치를 이용하여 상기 제1 및 제2 객체 각각과 상기 사용자 간의 가상공간 거리를 각각 추정하는 단계, 상기 단말장치가 상기 가상공간 거리를 이용하여 상기 사용자의 실내 위치를 추정하는 단계를 포함한다.
본 발명은 상기 제1 및 제2 객체의 가상공간 위치를 각각 추정하는 단계에서, 상기 단말장치는, 딥러닝을 이용하여 상기 제1 및 제2 객체를 인식하고, 가상공간 상에 생성되는 포인트 클라우드를 이용하여 상기 제1 및 제2 객체의 가상공간 위치를 각각 추정할 수 있다.
본 발명에 있어서 상기 가상공간 거리를 각각 추정하는 단계는, 상기 단말장치가 dead Reckoning 알고리즘을 이용하여 상기 사용자의 가상공간 위치를 추정하는 단계, 상기 단말장치가 상기 제1 객체의 가상공간 위치와 사용자의 가상공간 위치 간의 제1 유클리디안 거리를 산출하고, 상기 제2 객체의 가상공간 위치와 상기 사용자의 가상공간 위치 간의 제2 유클리디안 거리를 산출하는 단계를 포함할 수 있다.
본 발명에 있어서 상기 사용자의 실내 위치를 추정하는 단계는, 상기 단말장치가 상기 실내 지도로부터 상기 제1 및 제2 객체의 실내 좌표를 각각 획득하고, 상기 제1 및 제2 유클리디안 거리, 상기 제1 및 제2 객체의 실내 좌표를 이용하여 상기 사용자의 제1 실내 예측 위치 및 제2 실내 예측 위치를 추정하는 단계, 상기 단말장치가 상기 사용자의 가상공간 위치를 기준으로 상기 제1 및 제2 객체의 가상공간 위치까지의 벡터인 제1 가상벡터와 제2 가상벡터의 외적인 가상공간 외적을 구하는 단계, 상기 단말장치가 상기 제1 실내 예측 위치를 기준으로 상기 제1 및 제2 객체의 실내 좌표까지의 벡터인 제1 실제벡터와 제2 실제벡터의 외적인 제1 실내 외적 및 상기 제2 실내 예측 위치를 기준으로 상기 제1 및 제2 객체의 실내 좌표까지의 벡터인 제1 실제벡터와 제2 실제벡터의 외적인 제2 실내 외적을 구하는 단계, 상기 단말장치가 상기 제1 및 제2 실내 외적 중 상기 가상공간 외적과 부호가 일치하는 실내 외적의 실내 예측 위치를 상기 사용자의 실내 위치로 추정하는 단계를 포함할 수 있다.
본 발명에 따르면, 실내 환경에서 사용자 단말장치의 카메라로 촬영된 이미지를 이용하여 사용자의 위치를 추정함으로써, 고가의 장비나 인프라를 구축하지 않아도 실내 위치를 정확하게 추정할 수 있다.
한편, 본 발명의 효과는 이상에서 언급한 효과들로 제한되지 않으며, 이하에서 설명할 내용으로부터 통상의 기술자에게 자명한 범위 내에서 다양한 효과들이 포함될 수 있다.
도 1은 본 발명의 일 실시예에 따른 객체 인식 기반 실내 측위를 설명하기 위한 개념도이다.
도 2는 본 발명의 일 실시예에 따른 객체 인식 기반 실내 측위 시스템을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 단말장치의 구성을 나타낸 블록도이다.
도 4는 본 발명의 일 실시예에 따른 위치 추정 화면을 설명하기 위한 예시도이다.
도 5는 본 발명의 일 실시예에 따른 외적을 이용하여 사용자의 실내 위치를 추정하는 방법을 설명하기 위한 예시도이다.
도 6은 본 발명의 일 실시예에 따른 서비스 서버의 구성을 나타낸 블록도이다.
도 7은 본 발명의 일 실시예에 따른 객체 인식 기반 실내 측위 방법을 설명하기 위한 순서도이다.
도 8은 본 발명의 일 실시예에 따른 외적을 이용하여 사용자의 위치를 추정하는 방법을 나타낸 순서도이다.
이하, 첨부된 도면들을 참조하여 본 발명의 일 실시예에 따른 객체 인식 기반 실내 측위를 위한 단말장치, 서비스 서버 및 그 방법을 설명한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다.
또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
또한, 본 명세서에서 설명된 구현은, 예컨대, 방법 또는 프로세스, 장치, 소프트웨어 프로그램, 데이터 스트림 또는 신호로 구현될 수 있다. 단일 형태의 구현의 맥락에서만 논의(예컨대, 방법으로서만 논의)되었더라도, 논의된 특징의 구현은 또한 다른 형태(예컨대, 장치 또는 프로그램)로도 구현될 수 있다. 장치는 적절한 하드웨어, 소프트웨어 및 펌웨어 등으로 구현될 수 있다. 방법은, 예컨대, 컴퓨터, 마이크로프로세서, 집적 회로 또는 프로그래밍가능한 로직 디바이스 등을 포함하는 프로세싱 디바이스를 일반적으로 지칭하는 프로세서 등과 같은 장치에서 구현될 수 있다. 프로세서는 또한 최종-사용자 사이에 정보의 통신을 용이하게 하는 컴퓨터, 셀 폰, 휴대용/개인용 정보 단말기(personal digital assistant: "PDA") 및 다른 디바이스 등과 같은 통신 디바이스를 포함한다.
도 1은 본 발명의 일 실시예에 따른 객체 인식 기반 실내 측위를 설명하기 위한 개념도이다.
도 1을 참조하면, 사용자는 단말장치(100)의 촬영부를 통해 이미지를 획득하고, 획득된 이미지에서 기선정된 제1 및 제2 객체를 인식한다. 그런 후, 단말장치(100)는 인식된 제1 및 제2 객체를 벡터화된 실내지도 상으로 매칭시켜, 사용자의 실내 위치를 추정한다.
이러한 객체 인식을 통해 사용자의 실내 위치를 추정하는 시스템에 대해 도 2를 참조하여 설명하기로 한다.
도 2는 본 발명의 일 실시예에 따른 객체 인식 기반 실내 측위 시스템을 설명하기 위한 도면이다.
도 2를 참조하면, 본 발명의 일 실시예에 따른 객체 인식 기반 실내 측위 시스템은 관리자 단말(100a), 서비스 서버(200) 및 사용자 단말(100b)을 포함한다. 이때, 관리자 단말(100a), 서비스 서버(200) 및 사용자 단말(100b)은 Wifi, 3G, LTE 등 다양한 형태의 무선 통신망으로 연결될 수 있다.
관리자 단말(100a)은 사용자 위치 추정에 사용하기 위해 선정된 객체들을 실내 지도에 매핑시킨다. 즉, 관리자는 사용자 위치 추정에 사용할 객체들을 선정할 수 있다. 이때, 객체들은 정적 객체(예컨대, 매장 간판, 표지판, 소화전 등) 중에 선택되며, 실내에서 유일한 특성을 가진 객체들을 위주로 선택될 수 있다. 그런 후, 관리자는 선정된 객체들을 사전에 제작된 실내지도에 매핑시킨다. 즉, 선정된 객체 별로 실내 지도 상에서의 좌표 값을 저장한다. 여기서, 실내 지도는 CAD 도면, Point Cloud Map, Lidar Map, 이미지 맵 등을 활용하여 제작된 디지털화(벡터화)된 지도이며, 디지털화된 지도는 관리자 단말(100a) 및 사용자 단말(100b)에서 사용할 수 있는 지도일 수 있다. 또한, 실내 지도는 해당 실내의 주요 정보를 포함할 수 있다. 예컨대, 쇼핑몰의 경우, 실내 지도는 매장을 구분 짓는 경계선, 매장명 등을 포함할 수 있다.
또한, 관리자 단말(100a)은 이미지 수집 애플리케이션이 저장되고, 객체 인식을 위한 딥러닝 네트워크 학습을 위해, 이미지 수집 애플리케이션을 통해 촬영된 객체들의 이미지들을 저장하며, 저장된 객체별 촬영 이미지를 서비스 서버(200)로 전송한다. 이때, 촬영 이미지는 객체를 포함하는 다양한 방향에서 촬영된 이미지일 수 있다.
상술한 바와 같이 관리자 단말(100a)은 기선정된 객체를 포함하는 이미지를 다양한 방향에서 촬영하고, 객체별 촬영 이미지를 객체 인식을 위한 학습 데이터로 이용하도록 서비스 서버(200)에 제공한다.
서비스 서버(200)는 관리자 단말(100a)로부터 실내 지도에 설정된 각 객체의 촬영 이미지를 수집하고, 수집된 객체별 촬영 이미지를 학습하여 객체 인식 모델을 생성한다. 이때, 서비스 서버(200)는 딥 러닝을 이용하여 객체 인식 모델을 생성할 수 있다. 구체적으로, 서비스 서버(200)는 객체별 촬영 이미지가 수신되면, 해당 객체를 포함하는 가장 작은 사각형(이하에서는 '바운딩 박스'라 칭함)의 네 꼭지점의 이미지 픽셀 상 좌표 값과 객체명을 함께 저장하는 딥러닝 네트워크를 학습하게 된다. 이때, 딥러닝 네트워크는 객체 인식 이슈와 관련된 다양한 모델들로 설계될 수 있으며, 예컨대, YOLO network를 이용할 수 있다.
또한, 서비스 서버(200)는 사용자 단말(100b)로부터 촬영 이미지를 포함하는 위치 추청 요청 신호가 수신되면, 촬영 이미지를 위치 추정 모델에 입력하여 사용자 단말(100b)의 위치를 추정한다.
이러한 서비스 서버(200)에 대한 상세한 설명은 도 6을 참조하기로 한다.
사용자 단말(100b)은 위치 추정 애플리케이션이 저장되고, 위치 추정 애플리케이션을 통해 주변 환경을 촬영하면, 촬영 이미지에서 객체(예컨대, 간판, 소화전, 액자, 문 등)를 인식하고, 인식된 객체들의 위치 좌표들과 거리 추정 값들을 이용하여 사용자의 위치를 추정한다.
한편, 본 실시예에서는 관리자 단말(100a)과 사용자 단말(100b)을 분리하여 설명하였으나, 관리자 단말(100a)과 사용자 단말(100b)은 동일한 단말일 수 있다. 따라서, 이하에서는 설명의 편의를 위해 관리자 단말(100a)과 사용자 단말(100b)을 단말장치(100)로 칭하여 설명하기로 한다.
도 3은 본 발명의 일 실시예에 따른 단말장치의 구성을 나타낸 블록도, 도 4는 본 발명의 일 실시예에 따른 위치 추정 화면을 설명하기 위한 예시도, 도 5는 본 발명의 일 실시예에 따른 외적을 이용하여 사용자의 실내 위치를 추정하는 방법을 설명하기 위한 예시도이다.
도 3을 참조하면, 본 발명의 일 실시예에 따른 단말장치(100)는 통신부(110), 저장부(120), 촬영부(130), 표시부(140), 제어부(150)를 포함한다.
통신부(110)는 통신망을 통해 서비스 서버(200)와 통신을 위한 구성으로, 촬영부(130)를 통해 획득된 이미지 등 다양한 정보를 송수신할 수 있다. 이때, 통신부(110)는 근거리 통신모듈, 무선 통신모듈, 이동통신 모듈, 유선 통신모듈 등 다양한 형태로 구현될 수 있다.
저장부(120)는 단말장치(100)의 동작과 관련된 데이터들을 저장하는 구성이다. 여기서 저장부(120)는 공지된 저장매체를 이용할 수 있으며, 예를 들어, ROM, PROM, EPROM, EEPROM, RAM 등과 같이 공지된 저장매체 중 어느 하나 이상을 이용할 수 있다. 특히, 저장부(120)에는 기선정된 객체별 좌표값이 매칭된 실내 지도가 저장될 수 있다. 또한, 저장부(120)에는 객체 인식 모델 생성을 위한 학습 데이터를 수집하기 위해, 촬영부(130)를 구동시켜 기선정된 객체별 촬영 이미지를 획득할 수 있는 이미지 수집 애플리케이션이 저장될 수 있다. 또한, 저장부(120)에는 이미지를 이용하여 현재 위치를 추정할 수 있도록 하는 위치 추정 애플리케이션이 저장될 수 있다.
촬영부(130)는 이미지 수집 애플리케이션 또는 이미지 추정 애플리케이션이 실행된 경우 이미지를 획득하고, 획득된 이미지를 제어부(150)로 전송한다. 이러한 촬영부(130)는 예컨대, 카메라일 수 있다.
표시부(140)는 단말장치(100)의 동작과 관련된 다양한 정보를 표시하는 구성이다. 특히, 표시부(140)는 이미지 수집 애플리케이션 실행 시, 이미지 수집화면을 디스플레이할 수 있고, 위치 추정 애플리케이션 실행 시 위치 추정 화면을 디스플레이할 수 있다. 이러한 표시부(140)는 사용자로부터 정보를 입력받기 위한 입력부로도 동작할 수 있다.
제어부(150)는 저장부(120)에 저장된 이미지 수집 애플리케이션이 실행되면, 촬영부(130)를 구동시키고, 촬영부(130)를 통해 촬영된 객체별 이미지를 저장하며, 저장된 각 객체의 촬영 이미지를 서비스 서버(200)로 전송한다. 즉, 제어부(150)는 기선정된 객체들에 대해 다양한 방향에서의 이미지 수집이 완료되면, 수집된 객체와 실내 지도 상 해당 객체의 좌표를 서비스 서버(200)로 전송한다. 이때, 실내 지도 상의 객체 수 및 촬영 방향 등은 관리자에 따라 사전에 설정될 수 있다.
또한, 제어부(150)는 저장부(120)에 저장된 위치 추정 애플리케이션이 실행되면, 촬영부(130)를 구동시키고, 촬영부(130)를 통해 촬영된 이미지에서 객체(예컨대, 간판, 소화전, 액자, 문 등)를 인식하며, 인식된 객체들의 위치 좌표들과 거리 추정 값들을 활용하여 사용자의 위치를 추정한다.
즉, 제어부(150)는 촬영부(130)를 통해 획득된 이미지에서 제1 객체 및 제2 객체를 인식하고, 제1 및 제2 객체의 가상공간 위치를 각각 추정하며, 제1 및 제2 객체의 가상공간 위치와 사용자의 가상공간 위치를 이용하여 제1 및 제2 객체 각각과 사용자 간의 가상공간 거리를 각각 추정하고, 가상공간 거리를 이용하여 사용자의 실내 위치를 추정한다. 여기서, 가상공간은 화면상에 보이는 공간을 의미할 수 있다.
이하, 제어부(150)가 사용자의 실내 위치를 추정하는 방법에 대해 상세히 설명하기로 한다.
제어부(150)는 위치 추정 애플리케이션의 실행으로 촬영부(130)를 통해 촬영된 이미지가 획득되면, 그 이미지의 공간(화면상에 보이는 가상의 공간, 이하 '가상공간'이라 칭함)에 포인트 클라우드(Point cloud)를 생성한다. 포인트 클라우드들은 가상공간에서 각각 좌표를 가진다. 따라서, 포인트 클라우드 맵이 생성되기 시작한 시점(즉, 사용자가 이동하기 시작한 시점)의 좌표는 [0,0]으로 설정될 수 있다. 만약, 사용자가 실내 공간의 전 지역을 돌아다니면, 실내 환경에 대한 포인트 클라우드 맵이 생성될 것이며, 각 포인트들은 가상공간의 좌표를 가질 것이다.
제어부(150)는 촬영부(130)를 통해 획득된 이미지에서 기지정된 제1 및 제2 객체를 인식하고, 가상공간 상에 생성되는 포인트 클라우드를 이용하여 제1 및 제2 객체의 가상공간 위치를 각각 추정한다.
즉, 제어부(150)는 딥러닝 기술을 이용하여 제1객체 및 제2객체를 인식하여, 제1 객체를 포함하는 제1 바운딩 박스 및 제2 객체를 포함하는 제2 바운딩 박스를 출력한다. 이때, 제어부(150)는 Yolo Network를 이용하여 제1객체 및 제2 객체를 인식할 수 있고, 제1 및 제2 바운딩 박스에는 각각 객체명, 좌표값, 바운딩 박스의 길이 중 적어도 하나가 표시될 수 있다. 제어부(150)가 제1 및 제2 객체를 인식하게 되면, 도 4에 도시된 위치 추정 화면(300)의 촬영 이미지(310)와 같은 인식결과를 출력할 수 있다. 도 4를 참조하면, '햇빛가리개'라는 객체를 포함하는 바운딩 박스(A)가 표시되고, 바운딩 박스에는 좌표 [x,y] 및 [x1,y1], 두 변 길이 d 및 h가 표시될 수 있다.
상술한 바와 같이, 제어부(150)는 학습된 객체를 포함하는 이미지가 딥러닝 네트워크의 입력으로 들어오면, 해당 객체를 포함하는 바운딩 박스의 이미지 픽셀 기준 네개의 꼭지점 좌표와 객체명을 출력한다.
그런 후, 제어부(150)는 제1 바운딩 박스 및 제2 바운딩 박스 내 가장 중심의 포인트를 각각 선택하여 제1 객체 및 제2 객체의 가상공간 위치로 추정한다. 즉, 제어부(150)는 이미지 상에 생성된 포인트 클라우드 중 제1 및 제2 객체의 바운딩 박스 내 가장 중심의 포인트를 선택하고, 그 선택된 포인트 좌표를 가상공간 좌표로 추정할 수 있다.
상기와 같이 제1 및 제2 객체의 가상공간 위치가 추정되면, 제어부(150)는 제1 및 제2 객체의 가상공간 위치와 사용자의 가상공간 위치를 이용하여 제1 및 제2 객체 각각과 사용자 간의 가상공간 거리를 각각 추정한다.
즉, 제어부(150)는 가상공간에서 [0,0]을 시작으로 단말장치(100) 내에 탑재된 센서들(예컨대, 자이로스코프, 가속도계, 지자기센서 등)을 통해 사용자의 위치를 계속적으로 추적한다. 이때, 제어부(150)는 dead Reckoning 알고리즘을 이용하여 사용자의 가상공간 위치를 추적할 수 있다. Dead Reckoning 알고리즘은 단말장치(100)에 탑재된 센서들(미도시)을 바탕으로 사용자의 이동거리와 방향을 추정하여, 사용자의 이동을 추적하는 알고리즘일 수 있다.
사용자의 가상공간 위치가 추정되면, 제어부(150)는 제1 객체의 가상공간 위치와 사용자의 가상공간 위치 간의 제1 유클리디안 거리를 산출하고, 제2 객체의 가상공간 위치와 사용자의 가상공간 위치 간의 제2 유클리디안 거리를 산출한다. 이때, 제1 유클리디안 거리 및 제2 유클리디안 거리는 스칼라 값이기에 가상공간의 거리값과 실내지도 상의 거리값은 같을 수 있다.
제어부(150)는 제1 및 제2 객체의 가상공간 위치, 사용자의 가상공간 위치, 제1 및 제2 객체의 가상공간 위치와 사용자의 가상공간 위치 간 유클리디안 거리를 이용하여, 실내지도 상 사용자의 실제 위치를 추정할 수 있다. 이때, 실내지도 상 제1 및 제2 객체의 실제 위치는 미리 설정된 좌표값일 수 있다.
따라서, 제어부(150)는 실내 지도로부터 제1 및 제2 객체의 실내 좌표(실제 위치)를 각각 획득하고, 제1 및 제2 유클리디안 거리, 제1 및 제2 객체의 실내 좌표를 이용하여 사용자의 제1 실내 예측 위치 및 제2 실내 예측 위치를 추정할 수 있다. 즉, 가상공간에서 사용자의 위치와 제1 및 제2 객체의 위치를 알기 때문에, 제어부(150)는 삼각형 모양의 도형을 그려낼 수 있다. 실내 지도 상에서는 제1 및 제2 객체의 위치와 제1 및 제2 객체로부터 사용자까지의 두 거리 값을 알 수 있다. 결국, 가상공간의 도형을 실내 공간 상으로 매칭시키면, 사용자는 실내지도에서 두 지점에만 위치할 수 있다. 두 지점 중 사용자의 위치를 선택하기 위해서는, 제1 및 제2 객체가 사용자를 중심으로 어떠한 방향에 있는지를 알아야 한다.
이에, 제어부(150)는 외적(outer product, or vector product) 개념을 이용할 수 있다. 가상공간에서 사용자를 중심으로 제1 및 제2 객체까지의 두 벡터의 외적은 방향을 가진다. 이 방향은 실내 지도에서도 동일해야 한다. 다시 말해, 가상공간의 사용자를 중심으로 제1 및 제2 객체까지의 두 벡터의 외적의 부호와 실내지도의 사용자를 중심으로 제1 및 제2 객체까지의 두 벡터의 외적의 부호가 동일해야 한다는 것이다. 결과적으로, 실내지도 상에서 사용자가 위치할 수 있는 두 지점 중 외적의 부호와 가상공간의 외적의 부호가 같은 지점을 최종적으로 사용자의 위치로 추정할 수 있다.
구체적으로, 제어부(150)는 사용자의 가상공간 위치를 기준으로 제1 및 제2 객체의 가상공간 위치까지의 벡터인 제1 가상벡터와 제2 가상벡터의 가상공간 외적을 구한다. 즉, 제어부(150)는 사용자의 가상공간 위치로부터 제1 객체의 가상공간 위치까지의 제1 가상벡터와 사용자의 가상공간 위치로부터 제2 객체의 가상공간 위치까지의 제2 가상벡터의 외적인 가상공간 외적을 구할 수 있다.
그런 후, 제어부(150)는 제1 실내 예측 위치를 기준으로 제1 및 제2 객체의 실내 좌표까지의 벡터인 제1 실제벡터와 제2 실제벡터의 외적인 제1 실내 외적 및 제2 실내 예측 위치를 기준으로 제1 및 제2 객체의 실내 좌표까지의 벡터인 제1 실제벡터와 제2 실제벡터의 외적인 제2 실내 외적을 구한다. 즉, 제어부(150)는 제1 실내 예측 위치로부터 제1 객체의 실내 좌표까지의 제1 실제벡터와 제1 실내 예측 위치로부터 제2 객체의 실내 좌표까지의 제2 실제벡터의 외적인 제1 실내 외적을 구할 수 있다. 또한, 제어부(150)는 제2 실내 예측 위치로부터 제1 객체의 실내 좌표까지의 제1 실제벡터와 제2 실내 예측 위치로부터 제2 객체의 실내 좌표까지의 제2 실제벡터의 외적인 제2 실내 외적을 구할 수 있다.
그런 후, 제어부(150)는 제1 및 제2 실내 외적 중 가상공간 외적과 부호가 일치하는 실내 외적의 실내 예측 위치를 사용자의 실내 위치로 추정할 수 잇다.
도 5를 참조하면, 제1 및 제2 객체의 실제 좌표를 p1, p2라 하고, 제1 및 제2 객체의 실제 좌표로부터의 거리를 d1, d2라 가정하여 설명하기로 한다. 이 경우, 실내지도에서 가능한 사용자의 위치는 a, b의 두 지점일 수 있고, 두 지점 중 사용자의 위치를 구해야 한다. 가능한 두 지점 중 사용자의 위치를 정하기 위해, 가상공간 상에 보이는 제1 및 제2 객체의 방향을 고려해야 한다.
가상공간에서 p2가 p1에 비해 오른쪽에 있을 경우 두 벡터의 외적 d2*d1 은 + 부호를 가질 수 있고, 가상공간에서 p2가 p1에 비해 왼쪽에 있을 경우 두 벡터의 외적 d2*d1 은 - 부호를 가질 수 있다. 실내 지도에서 가능한 사용자의 위치 a, b에 대해 두 벡터의 외적(d2*d1)을 구하고, 가상공간에서 구해진 외적의 부호가 일치하는 실내지도의 사용자 위치를 사용자로 최종 위치로 결정할 수 있다.
상술한 바와 같이 제어부(150)는 촬영부(130)를 통해 두개의 객체를 인식하고, 인식된 두 객체의 위치 좌표들과 거리 추정 값들을 활용하여 사용자의 위치를 추정할 수 있다. 이처럼, 본 발명은 사용자가 단말장치(100)의 촬영부(130)를 통해 두개의 객체만 인식해도 정확하게 자신의 위치를 추정할 수 있도록, 벡터화된 실내지도를 활용한다. 구체적으로, 사전에 사용자의 위치 추정에 활용할 객체들을 실내지도 상에 매핑시켜 놓는다. 즉, 실내지도 상 객체들의 좌표를 저장시켜 놓는다. 이후, 단말장치(100)의 화면 상에 보이는 가상공간에서 두 객체들을 인식하면, 실내지도 상에서 사용자와 두 객체가 그리는 기하학적 모양과 가상공간 상에서 사용자와 두 객체가 그리는 기하학적 모양을 매칭시켜 사용자의 위치를 추정할 수 있다.
사용자의 실내 위치가 추정되면, 제어부(150)는 실내 지도상에 사용자의 위치를 표시하여 촬영 이미지와 함께 표시부(140)를 통해 디스플레이한다. 즉, 위치 추정 애플리케이션을 통해 사용자의 위치가 추정되면, 제어부(150)는 도 4와 같이 촬영된 이미지(310)와 실내 지도(320)상에 자신의 위치(B)가 표시된 위치 추정 화면(300)을 디스플레이할 수 있다.
이러한 제어부(150)는 적어도 하나의 연산 장치를 포함할 수 있는데, 여기서 상기 연산 장치는 범용적인 중앙연산장치(CPU), 특정 목적에 적합하게 구현된 프로그래머블 디바이스 소자(CPLD, FPGA), 주문형 반도체 연산장치(ASIC) 또는 마이크로 컨트롤러 칩일 수 있다.
한편, 상기와 같이 구성된 단말장치(100)는 촬영부(130)를 통해 주변 환경의 촬영이 가능하고, 다양한 유무선 환경에 적용될 수 있는 전자 기기일 수 있다. 예컨대, 단말장치(100)는 PDA(Personal Digital Assistant), 스마트폰, 셀룰러폰, PCS(Personal Communication Service)폰, GSM(Global System for Mobile)폰, W-CDMA(Wideband CDMA)폰, CDMA-2000폰, MBS(Mobile Broadband System)폰 등을 포함한다. 여기서 단말장치(100)는 휴대용 소형기기를 나타낼 수 있지만, 캠코더 또는 랩탑 컴퓨터 등을 포함하는 경우에는 이동통신단말기로 지칭될 수 있으므로, 본 발명의 실시예에서는 이에 특별히 한정하지는 않을 것이다.
도 6은 본 발명의 일 실시예에 따른 서비스 서버의 구성을 나타낸 블록도이다.
도 6을 참조하면, 본 발명의 일 실시예에 따른 서비스 서버(200)는 통신부(210), 저장부(220), 객체 인식 모델 생성부(230) 및 제어부(250)를 포함한다.
통신부(210)는 단말장치(100)로부터 객체별 촬영 이미지를 수신한다.
저장부(220)는 서비스 서버(200)의 동작과 관련된 데이터들을 저장하는 구성이다. 특히, 저장부(220)에는 기선정된 객체별 좌표값이 저장된 실내 지도가 저장될 수 있다.
객체 인식 모델 생성부(230)는 통신부(210)를 통해 단말장치(100)로부터 객체별 촬영 이미지를 수신하고, 수신된 각 객체의 촬영 이미지를 학습하며, 객체 인식을 위한 객체 인식모델을 생성한다. 이때, 객체 인식 모델 생성부(230)는 딥 러닝을 이용하여 객체 인식 모델을 생성할 수 있다. 객체 인식 모델은 객체별 좌표값이 매핑된 형태일 수 있다. 따라서, 객체 인식 모델은 위치를 모르는 이미지가 입력되면, 그 이미지에서 객체 및 그 객체의 좌표를 출력값으로 계산할 수 있다.
한편, 본 발명에 따른 서비스 서버(200)는 통신부(210)를 통해 단말장치(100)로부터 촬영 이미지를 포함하는 위치 추정 요청 신호가 수신되면, 촬영 이미지를 객체 인식 모델에 입력하여 제1 및 제2 객체를 인식하고, 제1 및 제2 객체의 가상공간 위치를 각각 추정하며, 제1 및 제2 객체의 가상공간 위치와 사용자의 가상공간 위치를 이용하여 제1 및 제2 객체 각각과 사용자 간의 가상공간 거리를 각각 추정하고, 가상공간 거리를 이용하여 사용자의 실내 위치를 추정하며, 추정된 실내 위치를 단말장치로 전송하는 위치 추정부(240)를 더 포함할 수 있다. 위치 추정부(240)는 제1 및 제2 객체가 인식되면, 인식된 제1 및 제2 객체가 단말장치(100)의 화면상에 표시되도록 할 수 있다.
한편, 위치 추정 모델 생성부(230) 및 위치 추정부(240)는 컴퓨팅 장치상에서 프로그램을 실행하기 위해 필요한 프로세서 등에 의해 각각 구현될 수 있다. 이처럼 위치 추정 모델 생성부(230) 및 위치 추정부(240)는 물리적으로 독립된 각각의 구성에 의해 구현될 수도 있고, 하나의 프로세서 내에서 기능적으로 구분되는 형태로 구현될 수도 있다.
제어부(250)는 통신부(210), 저장부(220), 위치 추정 모델 생성부(230) 및 위치 추정부(240)를 포함하는 서비스 서버(200)의 다양한 구성부들의 동작을 제어하는 구성으로, 적어도 하나의 연산 장치를 포함할 수 있는데, 여기서 상기 연산 장치는 범용적인 중앙연산장치(CPU), 특정 목적에 적합하게 구현된 프로그래머블 디바이스 소자(CPLD, FPGA), 주문형 반도체 연산장치(ASIC) 또는 마이크로 컨트롤러 칩일 수 있다.
도 7은 본 발명의 일 실시예에 따른 객체 인식 기반 실내 측위 방법을 설명하기 위한 순서도이다.
도 7을 참조하면, 단말장치(100)는 위치 추정 애플리케이션이 실행되면 촬영부(130)를 구동시켜 이미지를 촬영하고, 촬영 이미지에서 제1 및 제2 객체를 인식한다(S510). 이때, 단말장치(100)는 딥러닝 기술을 이용하여 제1객체 및 제2객체를 인식할 수 있다.
단계 S510이 수행되면, 단말장치(100)는 제1 객체 및 제2 객체의 가상공간 위치를 각각 추정한다(S520). 이때, 단말장치(100)는 가상공간 상에 생성되는 포인트 클라우드를 이용하여 제1 및 제2 객체의 가상공간 위치를 각각 추정할 수 있다.
단계 S520이 수행되면, 단말장치(100)는 제1 및 제2 객체의 가상공간 위치와 사용자의 가상공간 위치를 이용하여 제1 및 제2 객체 각각과 사용자 간의 가상공간 거리를 각각 추정한다(S530). 이때, 단말장치(100)는 dead Reckoning 알고리즘을 이용하여 사용자의 가상공간 위치를 추적할 수 있다. 사용자의 가상공간 위치가 추정되면, 단말장치(100)는 제1 객체의 가상공간 위치와 사용자의 가상공간 위치 간의 제1 유클리디안 거리를 산출하고, 제2 객체의 가상공간 위치와 사용자의 가상공간 위치 간의 제2 유클리디안 거리를 산출할 수 있다.
단계 S530이 수행되면, 단말장치(100)는 제1 및 제2 객체의 가상공간 위치, 사용자의 가상공간 위치, 제1 및 제2 객체의 가상공간 위치와 사용자의 가상공간 위치 간 유클리디안 거리를 이용하여, 실내지도 상 사용자의 위치를 추정한다(S540). 단말장치(100)가 실내지도 상 사용자의 위치를 추정하는 방법에 대한 상세한 설명은 도 8을 참조하기로 한다.
도 8은 본 발명의 일 실시예에 따른 외적을 이용하여 사용자의 위치를 추정하는 방법을 나타낸 순서도이다.
도 8을 참조하면, 단말장치(100)는 가상공간 상에서 사용자를 중심으로 제1 및 제2 객체까지의 두 벡터의 외적을 구한다(S610). 즉, 단말장치(100)는 사용자의 가상공간 위치로부터 제1 객체의 가상공간 위치까지의 제1 가상벡터와 사용자의 가상공간 위치로부터 제2 객체의 가상공간 위치까지의 제2 가상벡터의 외적인 가상공간 외적을 구할 수 있다.
단계 S610이 수행되면, 단말장치(100)는 실내지도의 사용자를 중심으로 제1 및 제2 객체까지의 두 벡터의 외적을 구한다(S620). 즉, 단말장치(100)는 제1 실내 예측 위치를 기준으로 제1 및 제2 객체의 실내 좌표까지의 벡터인 제1 및 제2 실제벡터의 제1 실내 외적 및 제2 실내 예측 위치를 기준으로 상기 제1 및 제2 객체의 실내 좌표까지의 벡터인 제1 및 제2 실제벡터의 제2 실내 외적을 구할 수 있다.
단계 S620이 수행되면, 단말장치(100)는 실내지도 상에서 사용자가 위치할 수 있는 두 지점 중 가상공간의 외적의 부호가 같은 지점을 사용자의 위치로 추정한다(S630). 즉, 단말장치(100)는 제1 및 제2 실내 외적 중 가상공간 외적과 부호가 일치하는 실내 외적의 실내 예측 위치를 사용자의 실내 위치로 추정할 수 잇다.
상술한 바와 같이, 본 발명의 일 실시예에 따른 객체 인식 기반 실내 측위를 위한 단말장치, 서비스 서버 및 그 방법은, 실내 환경에서 사용자 단말장치의 카메라로 촬영된 이미지를 이용하여 사용자의 위치를 추정함으로써, 고가의 장비나 인프라를 구축하지 않아도 실내 위치를 정확하게 추정할 수 있다.
본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다.
따라서 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위에 의해서 정하여져야 할 것이다.
100 : 단말장치
110, 210 : 통신부
120, 220 : 저장부
130 : 촬영부
140 : 표시부
150, 250 : 제어부
200 : 서비스 서버
230 : 객체 인식 모델 생성부
240 : 위치 추정부

Claims (13)

  1. 기설정된 객체별 좌표값이 매칭된 실내 지도가 저장된 저장부;
    촬영부; 및
    상기 촬영부를 통해 획득된 이미지에서 제1 및 제2 객체를 인식하고, 상기 제1 및 제2 객체의 가상공간 위치를 각각 추정하며, 상기 제1 및 제2 객체의 가상공간 위치와 사용자의 가상공간 위치를 이용하여 상기 제1 및 제2 객체 각각과 상기 사용자 간의 가상공간 거리를 각각 추정하고, 상기 가상공간 거리를 이용하여 상기 사용자의 실내 위치를 추정하는 제어부를 포함하되,
    상기 제어부는,
    상기 제1 객체의 가상공간 위치와 사용자의 가상공간 위치 간의 제1 유클리디안 거리를 산출하고, 상기 제2 객체의 가상공간 위치와 상기 사용자의 가상공간 위치 간의 제2 유클리디안 거리를 산출하며,
    상기 제어부는,
    상기 실내 지도로부터 상기 제1 및 제2 객체의 실내 좌표를 각각 획득하고, 상기 제1 및 제2 유클리디안 거리, 상기 제1 및 제2 객체의 실내 좌표를 이용하여 상기 사용자의 제1 실내 예측 위치 및 제2 실내 예측 위치를 추정하며, 상기 사용자의 가상공간 위치를 기준으로 상기 제1 및 제2 객체의 가상공간 위치까지의 벡터인 제1 가상벡터와 제2 가상벡터의 외적인 가상공간 외적을 구하고, 상기 제1 실내 예측 위치를 기준으로 상기 제1 및 제2 객체의 실내 좌표까지의 벡터인 제1 실제벡터와 제2 실제벡터의 외적인 제1 실내 외적 및 상기 제2 실내 예측 위치를 기준으로 상기 제1 및 제2 객체의 실내 좌표까지의 벡터인 제1 실제벡터와 제2 실제벡터의 외적인 제2 실내 외적을 구하며, 상기 제1 및 제2 실내 외적 중 상기 가상공간 외적과 부호가 일치하는 실내 외적의 실내 예측 위치를 상기 사용자의 실내 위치로 추정하는 것을 특징으로 하는 단말장치.
  2. 제1항에 있어서,
    표시부를 더 포함하고,
    상기 제어부는, 상기 사용자의 위치를 상기 실내 지도에 표시하여 상기 촬영부를 통해 획득된 이미지와 함께 상기 표시부를 통해 디스플레이시키는 것을 특징으로 하는 단말장치.
  3. 제1항에 있어서,
    상기 제어부는,
    딥러닝을 이용하여 상기 제1 및 제2 객체를 인식하고, 가상공간 상에 생성되는 포인트 클라우드를 이용하여 상기 제1 및 제2 객체의 가상공간 위치를 각각 추정하는 것을 특징으로 하는 단말장치.
  4. 제1항에 있어서,
    상기 제어부는,
    Dead Reckoning 알고리즘을 이용하여 상기 사용자의 가상공간 위치를 추정하는 것을 특징으로 하는 단말장치.
  5. 삭제
  6. 삭제
  7. 제1항에 있어서,
    통신망을 통해 서비스 서버와 통신을 수행하는 통신부를 더 포함하고,
    상기 제어부는,
    상기 저장부에 저장된 이미지 수집 애플리케이션이 실행된 경우, 상기 촬영부를 통해 기선정된 객체들을 촬영하고, 상기 촬영된 각 객체의 이미지를 저장하며, 상기 저장된 각 객체의 촬영 이미지를 상기 통신부를 통해 상기 서비스 서버로 전송하는 것을 특징으로 하는 단말장치.
  8. 실내 지도에 설정된 각 객체의 촬영 이미지를 수신하는 통신부; 및
    상기 통신부를 통해 수신한 각 객체에서의 촬영 이미지를 학습하고, 상기 학습된 각 객체의 촬영 이미지를 통해 객체 및 그 객체의 좌표를 매칭하여 객체 인식을 위한 객체 인식 모델을 생성하는 객체 인식 모델 생성부를 포함하고,
    상기 통신부를 통해 단말장치로부터 촬영 이미지를 포함하는 위치 추정 요청 신호가 수신되면, 상기 촬영 이미지를 상기 객체 인식 모델에 입력하여 제1 및 제2 객체를 인식하고, 상기 제1 및 제2 객체의 가상공간 위치를 각각 추정하며, 상기 제1 및 제2 객체의 가상공간 위치와 사용자의 가상공간 위치를 이용하여 상기 제1 및 제2 객체 각각과 상기 사용자 간의 가상공간 거리인 제1 및 제2 유클리디안 거리를 각각 추정하고, 상기 제1 및 제2 유클리디안 거리를 이용하여 상기 사용자의 실내 위치를 추정하며, 상기 추정된 실내 위치를 상기 단말장치로 전송하는 위치 추정부를 더 포함하되,
    상기 위치 추정부는,
    상기 실내 지도로부터 상기 제1 및 제2 객체의 실내 좌표를 각각 획득하고, 상기 제1 및 제2 유클리디안 거리, 상기 제1 및 제2 객체의 실내 좌표를 이용하여 상기 사용자의 제1 실내 예측 위치 및 제2 실내 예측 위치를 추정하며, 상기 사용자의 가상공간 위치를 기준으로 상기 제1 및 제2 객체의 가상공간 위치까지의 벡터인 제1 가상벡터와 제2 가상벡터의 외적인 가상공간 외적을 구하고, 상기 제1 실내 예측 위치를 기준으로 상기 제1 및 제2 객체의 실내 좌표까지의 벡터인 제1 실제벡터와 제2 실제벡터의 외적인 제1 실내 외적 및 상기 제2 실내 예측 위치를 기준으로 상기 제1 및 제2 객체의 실내 좌표까지의 벡터인 제1 실제벡터와 제2 실제벡터의 외적인 제2 실내 외적을 구하며, 상기 제1 및 제2 실내 외적 중 상기 가상공간 외적과 부호가 일치하는 실내 외적의 실내 예측 위치를 상기 사용자의 실내 위치로 추정하는 것을 특징으로 하는 서비스 서버.
  9. 삭제
  10. 단말장치가 촬영부를 통해 획득된 이미지에서 제1 및 제2 객체를 인식하고, 상기 제1 및 제2 객체의 가상공간 위치를 각각 추정하는 단계;
    상기 단말장치가 상기 제1 및 제2 객체의 가상공간 위치와 사용자의 가상공간 위치를 이용하여 상기 제1 및 제2 객체 각각과 상기 사용자 간의 가상공간 거리를 각각 추정하는 단계; 및
    상기 단말장치가 상기 가상공간 거리를 이용하여 상기 사용자의 실내 위치를 추정하는 단계를 포함하되,
    상기 사용자의 실내 위치를 추정하는 단계는,
    상기 단말장치가 실내 지도로부터 상기 제1 및 제2 객체의 실내 좌표를 각각 획득하고, 상기 제1 및 제2 유클리디안 거리, 상기 제1 및 제2 객체의 실내 좌표를 이용하여 상기 사용자의 제1 실내 예측 위치 및 제2 실내 예측 위치를 추정하는 단계;
    상기 단말장치가 상기 사용자의 가상공간 위치를 기준으로 상기 제1 및 제2 객체의 가상공간 위치까지의 벡터인 제1 가상벡터와 제2 가상벡터의 외적인 가상공간 외적을 구하는 단계;
    상기 단말장치가 상기 제1 실내 예측 위치를 기준으로 상기 제1 및 제2 객체의 실내 좌표까지의 벡터인 제1 실제벡터와 제2 실제벡터의 외적인 제1 실내 외적 및 상기 제2 실내 예측 위치를 기준으로 상기 제1 및 제2 객체의 실내 좌표까지의 벡터인 제1 실제벡터와 제2 실제벡터의 외적인 제2 실내 외적을 구하는 단계; 및
    상기 단말장치가 상기 제1 및 제2 실내 외적 중 상기 가상공간 외적과 부호가 일치하는 실내 외적의 실내 예측 위치를 상기 사용자의 실내 위치로 추정하는 단계를 포함하는 것을 특징으로 하는 객체 인식 기반 실내 측위 서비스 방법.
  11. 제10항에 있어서,
    상기 제1 및 제2 객체의 가상공간 위치를 각각 추정하는 단계에서,
    상기 단말장치는, 딥러닝을 이용하여 상기 제1 및 제2 객체를 인식하고, 가상공간 상에 생성되는 포인트 클라우드를 이용하여 상기 제1 및 제2 객체의 가상공간 위치를 각각 추정하는 것을 특징으로 하는 객체 인식 기반 실내 측위 서비스 방법.
  12. 제10항에 있어서,
    상기 가상공간 거리를 각각 추정하는 단계는,
    상기 단말장치가 dead Reckoning 알고리즘을 이용하여 상기 사용자의 가상공간 위치를 추정하는 단계; 및
    상기 단말장치가 상기 제1 객체의 가상공간 위치와 사용자의 가상공간 위치 간의 제1 유클리디안 거리를 산출하고, 상기 제2 객체의 가상공간 위치와 상기 사용자의 가상공간 위치 간의 제2 유클리디안 거리를 산출하는 단계를 포함하는 것을 특징으로 하는 객체 인식 기반 실내 측위 서비스 방법.
  13. 삭제
KR1020190093758A 2019-08-01 2019-08-01 객체 인식 기반 실내 측위를 위한 단말장치, 서비스 서버 및 그 방법 KR102277503B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190093758A KR102277503B1 (ko) 2019-08-01 2019-08-01 객체 인식 기반 실내 측위를 위한 단말장치, 서비스 서버 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190093758A KR102277503B1 (ko) 2019-08-01 2019-08-01 객체 인식 기반 실내 측위를 위한 단말장치, 서비스 서버 및 그 방법

Publications (2)

Publication Number Publication Date
KR20210015226A KR20210015226A (ko) 2021-02-10
KR102277503B1 true KR102277503B1 (ko) 2021-07-15

Family

ID=74561452

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190093758A KR102277503B1 (ko) 2019-08-01 2019-08-01 객체 인식 기반 실내 측위를 위한 단말장치, 서비스 서버 및 그 방법

Country Status (1)

Country Link
KR (1) KR102277503B1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230410351A1 (en) * 2020-11-04 2023-12-21 Dabeeo Inc. Terminal device for indoor positioning based on object recognition, service server, and method therefor
KR102591370B1 (ko) * 2021-03-23 2023-10-20 주식회사 다비오 실내 측위 장치 및 그 방법
KR102612216B1 (ko) * 2021-08-19 2023-12-11 이상준 지면정보를 활용한 관심지점지도와 6자유도 단말 자세 정합 방법 및 시스템
WO2023163426A1 (ko) * 2022-02-25 2023-08-31 주식회사 펌킨컴퍼니 메타버스를 활용한 실시간 애완동물 상태확인 방법 및 이를 수행하는 디바이스

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017102861A (ja) 2015-12-04 2017-06-08 トヨタ自動車株式会社 物体認識装置
JP2019046464A (ja) * 2017-09-01 2019-03-22 株式会社コンピュータサイエンス研究所 歩道進行支援システム及び歩道進行支援ソフトウェア
JP2019087229A (ja) 2017-11-02 2019-06-06 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102362117B1 (ko) * 2014-07-01 2022-02-11 삼성전자주식회사 지도 정보를 제공하기 위한 전자 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017102861A (ja) 2015-12-04 2017-06-08 トヨタ自動車株式会社 物体認識装置
JP2019046464A (ja) * 2017-09-01 2019-03-22 株式会社コンピュータサイエンス研究所 歩道進行支援システム及び歩道進行支援ソフトウェア
JP2019087229A (ja) 2017-11-02 2019-06-06 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム

Also Published As

Publication number Publication date
KR20210015226A (ko) 2021-02-10

Similar Documents

Publication Publication Date Title
KR102277503B1 (ko) 객체 인식 기반 실내 측위를 위한 단말장치, 서비스 서버 및 그 방법
US10134196B2 (en) Mobile augmented reality system
US9641814B2 (en) Crowd sourced vision and sensor-surveyed mapping
JP5844463B2 (ja) 屋内測位のためのロゴ検出
US9304970B2 (en) Extended fingerprint generation
CN111983635B (zh) 位姿确定方法及装置、电子设备和存储介质
US20130211718A1 (en) Apparatus and method for providing indoor navigation service
CN104378735B (zh) 室内定位方法、客户端及服务器
JP2015531053A (ja) 無線マップを動的に作成するためのシステム、方法、及びコンピュータプログラム
US20160261987A1 (en) Vlc-based vector field fingerprint mapping
TWI749532B (zh) 一種定位方法及定位裝置、電子設備和電腦可讀儲存媒介
CN112433211B (zh) 一种位姿确定方法及装置、电子设备和存储介质
KR20200002219A (ko) 실내 길안내 장치 및 그 방법
CN113610702B (zh) 一种建图方法、装置、电子设备及存储介质
KR102277974B1 (ko) 이미지 기반 실내 측위 서비스 시스템 및 방법
US11864056B2 (en) Developing a fingerprint map for determining an indoor location of a wireless device
WO2023088127A1 (zh) 室内导航方法、服务器、装置和终端
CN114187509B (zh) 对象定位方法、装置、电子设备以及存储介质
EP4242967A1 (en) Terminal device for indoor positioning based on object recognition, service server, and method therefor
Zhang et al. Integrated iBeacon/PDR Indoor Positioning System Using Extended Kalman Filter
US20230354258A1 (en) Data processing method and apparatus
KR102591370B1 (ko) 실내 측위 장치 및 그 방법
US20240062541A1 (en) Detection system, detection method, and recording medium
KR20240041053A (ko) 경로 안내 단말, 경로 안내 시스템 및 경로 안내 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right