KR20190036868A - System for providing of augmented reality in indoor space using visible light communication and the method thereof - Google Patents

System for providing of augmented reality in indoor space using visible light communication and the method thereof Download PDF

Info

Publication number
KR20190036868A
KR20190036868A KR1020170126299A KR20170126299A KR20190036868A KR 20190036868 A KR20190036868 A KR 20190036868A KR 1020170126299 A KR1020170126299 A KR 1020170126299A KR 20170126299 A KR20170126299 A KR 20170126299A KR 20190036868 A KR20190036868 A KR 20190036868A
Authority
KR
South Korea
Prior art keywords
information
indoor space
key frame
augmented reality
providing
Prior art date
Application number
KR1020170126299A
Other languages
Korean (ko)
Other versions
KR101971791B1 (en
Inventor
우운택
전진우
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020170126299A priority Critical patent/KR101971791B1/en
Publication of KR20190036868A publication Critical patent/KR20190036868A/en
Application granted granted Critical
Publication of KR101971791B1 publication Critical patent/KR101971791B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B10/00Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
    • H04B10/11Arrangements specific to free-space transmission, i.e. transmission through air or vacuum
    • H04B10/114Indoor or close-range type systems
    • H04B10/116Visible light communication

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optical Communication System (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to an indoor space augmented reality system using visible light communication for providing key frame information and spatial information in a specific lighting zone by using visible light communication (Li-Fi) and providing an augmented reality experience in the lighting zone through a mobile device of a user and a method thereof. A position of the user and a posture of the mobile device can be accurately estimated as well as an indoor space can accurately be recovered.

Description

가시광 통신을 이용한 실내공간의 증강현실 제공 시스템 및 그 방법{SYSTEM FOR PROVIDING OF AUGMENTED REALITY IN INDOOR SPACE USING VISIBLE LIGHT COMMUNICATION AND THE METHOD THEREOF}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a system and method for providing an augmented reality in an indoor space using visible light communication,

본 발명은 가시광 통신을 이용한 실내공간의 증강현실 제공 시스템 및 그 방법에 관한 것으로, 보다 상세하게는 가시광 통신(Li­Fi)을 이용하여 특정 조명구역에서의 키프레임 정보 및 공간정보를 제공하며, 사용자의 모바일 디바이스를 통해 조명구역에서의 증강현실 체험을 제공하는 기술에 관한 것이다. The present invention relates to a system and method for providing an augmented reality in an indoor space using visible light communication, and more particularly, to a system and method for providing an augmented reality in an indoor space using visible light communication, and more particularly, To a technique for providing an augmented reality experience in a lighting zone via a mobile device.

증강현실(Augmented Reality; AR) 기술을 적용하기 위해서는 사용자의 위치와 증강시킬 대상의 위치 사이의 관계(위치 또는 자세)를 실시간으로 획득해야 한다. 이를 해결하기 위해서 초기의 증강현실 기술은 마커(marker)를 사용하였다.In order to apply the Augmented Reality (AR) technique, the relationship (position or attitude) between the user's position and the position of the object to be augmented must be acquired in real time. To solve this problem, early augmented reality techniques use markers.

마커 기반의 증강현실 기술은 마커를 기준으로 사용자의 위치와 자세를 빠르고 간단하게 획득하였다. 다만, SIFT(Scale Invariant Feature Transform), FAST, ORB(Oriented FAST, Rotated BRIET) 등의 특징점 기술의 발달로 인하여 마커리스(markerless) 증강현실 기술이 성행하게 되었다.Marker-based augmented reality technology quickly and simply acquires the user's position and posture based on the marker. However, markless augmented reality technology has become popular due to the development of feature point technologies such as Scale Invariant Feature Transform (SIFT), FAST, ORB (Oriented FAST, Rotated BRIET)

이러한 기술의 발달로 실내 공간을 디지털로 복원하는 SLAM(Simultaneous Localization and Mapping) 기술이 등장하였고, 마이크로소프트(Microsoft)의 키넥트(Kinect)가 등장하면서 키넥트 퓨전(Kinect Fusion)과 같은 3차원 복원(3D Reconstruction) 기술이 발전하게 되었다.Simultaneous Localization and Mapping (SLAM) technology has been introduced to digitally reconstruct the indoor space with the development of this technology. With the emergence of Microsoft's Kinect, 3D reconstruction such as Kinect Fusion (3D Reconstruction) technology has been developed.

실내 공간에서 증강현실을 적용하기 위해서는 실내 공간을 증강 공간으로 재현해야 한다. 이를 위해서, RGB 영상을 이용한 SLAM 기술과 키넥트 퓨전과 같은 3D 복원 기술이 활발히 연구되어 왔다.In order to apply the augmented reality in the indoor space, the interior space needs to be reproduced as an augmented space. For this purpose, SLAM technology using RGB images and 3D reconstruction techniques such as Kinect Fusion have been actively studied.

이 때, 실내 공간을 이해하는 기술들을 증강현실에서 효과적으로 이용하기 위해서는 실내 공간에 대한 공간정보를 유지하고, 사용자가 소지하는 디바이스(스마트폰 또는 헤드 마운트 디스플레이(Head Mounted Display; HMD 등)의 위치 및 자세를 공간정보를 통해 실시간으로 정확하게 추정해야 한다. In order to effectively utilize the techniques for understanding the indoor space in the augmented reality, it is necessary to maintain the spatial information on the indoor space and to store the location of the device (smart phone, head mounted display (HMD, etc.) The posture must be accurately estimated in real time through spatial information.

다만, 기존의 증강현실 기술과 같이, SLAM을 이용하게 되면 실내 공간의 크기에 비례하여 다량의 키프레임(key frame)의 수를 보유해야 한다는 단점이 존재하였다. 예를 들면, 사용자의 위치를 획득하기 위해서는 획득한 이미지를 SLAM에서 획득한 모든 키프레임과 개별적 비교하여 가장 근접한 키프레임을 획득한 후, 해당하는 키프레임으로부터 디바이스의 관계를 역으로 추정해야 한다. 이 때, 실내 공간이 넓을수록 키프레임의 수가 증가하게 되므로, 탐색하는 횟수 또한 증가하게 된다. 이러한 한계를 극복하기 위해 기존의 증강현실 기술은 다차원 검색(KD 트리)을 이용하여 횟수를 최소화하였으나, 유사한 이미지의 키프레임이 생성되는 경우, 동일한 탐색 공간에 배치되게 되므로 부정확한 자세를 추정할 가능성이 높아진다는 한계가 존재하였다.However, as in the existing augmented reality technology, if SLAM is used, there is a disadvantage that a large number of key frames must be held in proportion to the size of the indoor space. For example, in order to acquire the position of the user, the obtained image is individually compared with all the key frames acquired in the SLAM to acquire the closest key frame, and then the relationship of the device is estimated inversely from the corresponding key frame. In this case, since the number of key frames increases as the indoor space becomes wider, the number of searches increases. In order to overcome this limitation, the existing augmented reality technology minimizes the number of times by using multi-dimensional search (KD tree). However, when key frames of similar images are generated, they are placed in the same search space, There is a limit to the increase in

또한, 키넥트 퓨전과 같은 3D 복원 방법은 RGB­D 카메라로부터 획득된 깊이 영상에 3차원 복원 알고리즘으로부터 생성되는 모델과, ICP(Iterative Closest Points) 알고리즘을 이용하여 현재 프레임에서 획득되는 3차원 포인트들을 이용하는 것으로, 모델에 대응하는 포인트들 사이의 오차합을 최소화하여 자세를 추정한다. 다만, 기존의 3D 복원 방법은 모델이 커질수록 추정의 정확도가 낮다는 한계가 존재하였다. In addition, a 3D reconstruction method such as Kinect Fusion uses a 3D model generated from a 3D reconstruction algorithm and a 3D point obtained in a current frame using an ICP (Iterative Closest Points) algorithm on a depth image obtained from an RGBD camera , And the posture is estimated by minimizing the sum of errors between points corresponding to the model. However, existing 3D reconstruction methods have a limitation that the accuracy of estimation is low as the model size increases.

또한, 기존의 3D 복원 기술들은 획득된 3차원 포인트들이 실내 공간의 구조물인지, 고정된 물체 또는 동적 물체(비고정된 물체)인지 구분하지 못하였으며, 복셀(voxel)로 데이터를 표현하기 때문에 실내 공간을 전부 표현하는 경우 많은 양의 데이터를 필요로 하므로 비효율적이라는 단점이 존재하였다. In addition, existing 3D reconstruction techniques can not distinguish whether the acquired 3D points are a structure of an indoor space, a fixed object or a dynamic object (non-fixed object), and express data using a voxel, There is a disadvantage that it is inefficient because it requires a large amount of data.

한국공개특허 제10­2016­0001699호(2016.01.06. 공개), "증강현실 상호 작용 서비스 제공 장치 및 방법"Korean Patent Laid-Open Publication No. 1020160001699 (published on June 1, 2016), "Augmented Reality Interaction Service Providing Apparatus and Method"

본 발명의 목적은 가시광 통신(Li­Fi)을 이용하여 조명구역에 따른 키프레임 정보 및 공간정보를 제공함으로써, 정확한 실내 공간의 복원뿐만 아니라 사용자의 위치 및 모바일 디바이스의 자세를 정확하게 추정할 수 있는 기술을 제공하고자 한다. It is an object of the present invention to provide a technique for accurately estimating a user's position and a posture of a mobile device as well as restoring an accurate indoor space by providing key frame information and spatial information according to an illumination area using visible light communication (LiFi) .

또한, 본 발명의 목적은 고정된 가상의 공간이 아닌 동적 물체들의 움직임에 대응하는 증강현실 체험을 제공하고자 한다. It is also an object of the present invention to provide an augmented reality experience corresponding to the movement of dynamic objects rather than a fixed virtual space.

본 발명의 실시예에 따른 가시광 통신을 이용한 실내공간의 증강현실 제공 시스템은 실내 공간에 대한 키프레임 정보를 획득하고, 3차원 공간정보를 복원하여 배분된 조명구역에 따라 상기 키프레임 정보 및 상기 공간정보를 패킷화하는 공간정보 생성부 및 상기 패킷화된 정보를 빛으로 변환하여 상기 조명구역 내 복수의 조명들을 통해 상기 조명구역에 위치하는 사용자의 모바일 디바이스로 제공하는 데이터 제공부를 포함한다.The system for providing an augmented reality space of an indoor space using visible light communication according to an embodiment of the present invention acquires key frame information for an indoor space, restores the three-dimensional space information, and stores the key frame information and the space A spatial information generating unit for packetizing information and a data providing unit for converting the packetized information into light and providing the converted information to a mobile device of a user located in the illumination zone through a plurality of lights in the illumination zone.

상기 사용자의 모바일 디바이스는 상기 조명 구역 내 상기 임의의 조명에서 제공되는 상기 빛에 따라 상기 패킷화된 정보를 수신하며, 상기 패킷화된 정보로부터 자세 추적을 위한 상기 키프레임 정보 및 상기 공간정보를 수신할 수 있다.Wherein the user's mobile device receives the packetized information according to the light provided in the arbitrary illumination in the illumination zone and receives the key frame information for attitude tracking and the spatial information from the packetized information can do.

상기 사용자의 모바일 디바이스는 상기 패킷화된 정보로부터 상기 배분된 조명구역에서의 바닥, 벽면, 천장정보 및 고정된 물체 중 적어도 어느 하나 이상의 정보를 수신하여 상기 실내 공간을 활용한 증강현실 체험이 가능할 수 있다.The user's mobile device may receive at least one or more of the floor, wall, ceiling information, and fixed object in the allocated illumination zone from the packetized information, and experience the augmented reality using the indoor space have.

상기 사용자의 모바일 디바이스는 카메라의 6DoF(6 Degrees Of Freedom, 6 자유도) 정보를 이용하여 상기 빛에 따라 상기 패킷화된 정보를 변환하며, 상기 실내 공간 내 증강현실을 수행할 수 있다.The user's mobile device can convert the packetized information according to the light using 6DoF (6 Degrees of Freedom) information of the camera and perform the augmented reality in the indoor space.

상기 공간정보 생성부는 상기 실내 공간에 대해 SLAM(Simultaneous Localization and Mapping) 알고리즘으로부터 획득되는 키프레임 이미지 및 상기 키프레임 이미지의 특징점 정보를 추출하고, 상기 키프레임 이미지 및 상기 특징점 정보를 포함하는 상기 키프레임 정보를 획득할 수 있다.The spatial information generating unit extracts a key frame image obtained from a SLAM (Simultaneous Localization and Mapping) algorithm and minutia information of the key frame image with respect to the indoor space, and generates the key frame image and the key frame image including the minutia information Information can be obtained.

상기 공간정보 생성부는 상기 실내 공간에 대해 3차원 복원 알고리즘(또는 키넥트 퓨전(Kinect Fusion) 알고리즘)을 이용하여 상기 3차원 공간정보를 복원할 수 있다.The spatial information generating unit may reconstruct the three-dimensional spatial information using a three-dimensional reconstruction algorithm (or a Kinect Fusion algorithm) for the interior space.

상기 공간정보 생성부는 상기 키프레임 정보 및 상기 공간정보를 기반으로 상기 배분된 조명구역에 해당하는 공간의 3차원 점군 및 평면의 기하정보를 월드좌표(world coordinate)에 따라 산출한 후, 인코딩하여 패킷화할 수 있다.The space information generation unit calculates the three-dimensional point group of the space corresponding to the allocated illumination area and the geometry information of the plane according to the world coordinate based on the key frame information and the space information, It can be changed.

상기 데이터 제공부는 상기 배분된 조명구역 따라 서로 다른 상기 프레임 정보 및 상기 공간정보를 포함하여 상기 패킷화된 정보를 데이터화하여 상기 조명구역 내 LED(Light Emitting Diode) 조명을 통해 제공할 수 있다.The data provider may provide the packetized information including the frame information and the spatial information, which are different according to the allocated illumination area, through the LED (Light Emitting Diode) illumination in the illumination area.

상기 데이터 제공부는 상기 배분된 조명구역에 대응하는 바닥, 벽면, 천장정보 및 고정된 물체 중 적어도 어느 하나 이상의 정보를 포함하는 상기 패킷화된 정보를 데이터화하여 상기 배분된 조명구역 내 상기 LED 조명을 통해 제공할 수 있다.The data providing unit converts the packetized information including at least one of information about a floor, a wall, ceiling information and a fixed object corresponding to the allocated lighting area into data and transmits the packetized information through the LED lighting in the allocated lighting area .

본 발명의 다른 실시예에 따른 가시광 통신을 이용한 실내공간의 증강현실 제공 시스템은 실내 공간에 대한 키프레임 정보를 획득하고, 3차원 공간정보를 복원하여 배분된 조명구역에 따라 상기 키프레임 정보 및 상기 공간정보를 패킷화하는 공간정보 생성부, 상기 패킷화된 정보를 빛으로 변환하여 상기 조명구역 내 복수의 조명들을 통해 상기 조명구역에 위치하는 사용자의 모바일 디바이스로 제공하는 데이터 제공부 및 상기 조명구역 내 임의의 조명에서 제공하는 상기 빛을 수신하는 상기 사용자의 모바일 디바이스로부터 상기 사용자의 위치를 추적하는 위치 추적부를 포함한다.According to another embodiment of the present invention, an augmented reality providing system for an indoor space using visible light communication may be configured to acquire key frame information for an indoor space, to reconstruct three-dimensional spatial information, A data provider for converting the packetized information into light and providing the converted information to a mobile device of a user located in the lighting zone through a plurality of lights in the lighting zone, And a location tracking unit for tracking the location of the user from the mobile device of the user receiving the light provided by any of the lights.

상기 위치 추적부는 상기 사용자의 모바일 디바이스로 제공되는 상기 빛에 따른 상기 키프레임 정보를 비교하여 상기 사용자의 위치 및 자세를 추적할 수 있다.The location tracking unit may track the location and posture of the user by comparing the key frame information according to the light provided to the user's mobile device.

본 발명의 실시예에 따른 가시광 통신(Li­Fi)을 이용하여 실내 공간의 증강현실을 제공하는 시스템의 동작 방법에 있어서, 실내 공간에 대한 키프레임 정보를 획득하고, 3차원 공간정보를 복원하여 배분된 조명구역에 따라 상기 키프레임 정보 및 상기 공간정보를 패킷화하는 단계 및 상기 패킷화된 정보를 빛으로 변환하여 상기 조명구역 내 복수의 조명들을 통해 상기 조명구역에 위치하는 사용자의 모바일 디바이스로 제공하는 단계를 포함한다.A method of operating a system for providing an augmented reality of an indoor space using visible light communication (LiFi) according to an embodiment of the present invention includes: acquiring key frame information on an indoor space; restoring the three- Packetizing the key frame information and the spatial information according to an illumination zone and converting the packetized information into light to provide to a mobile device of a user located in the illumination zone through a plurality of lights in the illumination zone .

상기 패킷화하는 단계는 상기 실내 공간에 대해 SLAM(Simultaneous Localization and Mapping) 알고리즘으로부터 획득되는 키프레임 이미지 및 상기 키프레임 이미지의 특징점 정보를 추출하고, 상기 키프레임 이미지 및 상기 특징점 정보를 포함하는 상기 키프레임 정보를 획득할 수 있다.Wherein the packetizing step comprises: extracting a key frame image obtained from a SLAM (Simultaneous Localization and Mapping) algorithm and minutia information of the key frame image with respect to the indoor space, and extracting the key frame image and the minutia information Frame information can be obtained.

상기 패킷화하는 단계는 상기 실내 공간에 대해 3차원 복원 알고리즘(또는 키넥트 퓨전(Kinect Fusion) 알고리즘)을 이용하여 상기 3차원 공간정보를 복원할 수 있다.The packetizing may restore the three-dimensional spatial information using a 3D reconstruction algorithm (or a Kinect Fusion algorithm) for the interior space.

상기 패킷화하는 단계는 상기 키프레임 정보 및 상기 공간정보를 기반으로 상기 배분된 조명구역에 해당하는 공간의 3차원 점군 및 평면의 기하정보를 월드좌표(world coordinate)에 따라 산출한 후, 인코딩하여 패킷화할 수 있다.The packetizing step may calculate the 3D point cloud and the geometry information of the plane corresponding to the allocated illumination area based on the key frame information and the spatial information according to a world coordinate, Can be packetized.

상기 사용자의 모바일 디바이스로 제공하는 단계는 상기 배분된 조명구역에 따라 서로 다른 상기 프레임 정보 및 상기 공간정보를 포함하여 상기 패킷화된 정보를 데이터화하여 상기 조명구역 내 LED(Light Emitting Diode) 조명을 통해 제공할 수 있다.The providing of the user to the mobile device may include converting the packetized information into data by including LEDs (Light Emitting Diode) lights in the illumination area, including different frame information and the spatial information according to the allocated illumination area .

본 발명의 다른 실시예에 따른 가시광 통신(Li­Fi)을 이용하여 실내 공간의 증강현실을 제공하는 시스템의 동작 방법에 있어서, 실내 공간에 대한 키프레임 정보를 획득하고, 3차원 공간정보를 복원하여 배분된 조명구역에 따라 상기 키프레임 정보 및 상기 공간정보를 패킷화하는 단계, 상기 패킷화된 정보를 빛으로 변환하여 상기 조명구역 내 복수의 조명들을 통해 상기 조명구역에 위치하는 사용자의 모바일 디바이스로 제공하는 단계 및 상기 조명구역 내 임의의 조명에서 제공하는 상기 빛을 수신하는 상기 사용자의 모바일 디바이스로부터 상기 사용자의 위치를 추적하는 단계를 포함한다.A method of operating a system for providing an augmented reality of an indoor space using visible light communication (LiFi) according to another embodiment of the present invention, includes: acquiring key frame information about an indoor space; restoring the three- Packetizing the key frame information and the spatial information according to the illuminated zone, converting the packetized information into light and providing it to a user's mobile device located in the lighting zone through a plurality of lights in the lighting zone And tracking the position of the user from the mobile device of the user receiving the light provided by any illumination in the illumination zone.

상기 사용자의 위치를 추적하는 단계는 상기 사용자의 모바일 디바이스로 제공되는 상기 빛에 따른 상기 키프레임 정보를 비교하여 상기 사용자의 위치 및 자세를 추적할 수 있다. The step of tracking the position of the user may track the position and posture of the user by comparing the key frame information according to the light provided to the user's mobile device.

본 발명의 실시예에 따르면, 가시광 통신(Li­Fi)을 이용하여 조명구역에 따른 키프레임 정보 및 공간정보를 제공함으로써, 정확한 실내 공간의 복원뿐만 아니라 사용자의 위치 및 모바일 디바이스의 자세를 정확하게 추정할 수 있다.According to the embodiment of the present invention, by providing the key frame information and the spatial information according to the illumination area using the visible light communication (LiFi), it is possible to accurately estimate the user's position and the posture of the mobile device have.

또한, 본 발명의 실시예에 따르면, 고정된 가상의 공간이 아닌 동적 물체들의 움직임에 대응하는 증강현실 체험을 제공할 수 있다. In addition, according to the embodiment of the present invention, it is possible to provide an augmented reality experience corresponding to the motion of dynamic objects rather than a fixed virtual space.

또한, 본 발명의 실시예에 따르면, 조명구역 내 위치하는 사용자의 모바일 디바이스는 특정 공간에 관련된 정보만 수신하여 데이터를 산출함으로써, 빠르고 효율적인 실내공간 증강현실 체험이 가능해진다. In addition, according to the embodiment of the present invention, the user's mobile device located in the illumination area receives only the information related to the specific space and calculates data, thereby enabling quick and efficient indoor space augmented reality experience.

도 1은 본 발명의 실시예에 따른 가시광 통신을 이용한 실내공간의 증강현실 제공 시스템의 구성을 블록도로 도시한 것이다.
도 2는 본 발명의 다른 실시예에 따른 가시광 통신을 이용한 실내공간의 증강현실 제공 시스템의 구성을 블록도로 도시한 것이다.
도 3은 본 발명의 실시예에 따른 가시광 통신을 이용한 실내공간의 증강현실 제공 방법의 흐름도를 도시한 것이다.
도 4는 본 발명의 다른 실시예에 따른 가시광 통신을 이용한 실내공간의 증강현실 제공 방법의 흐름도를 도시한 것이다.
도 5는 본 발명의 실시예에 따른 증강현실 제공 과정을 도시한 것이다.
도 6은 본 발명의 실시예에 따른 실내 공간에서의 가시광 통신의 예를 설명하기 위해 도시한 것이다.
1 is a block diagram illustrating a configuration of an augmented reality providing system for an indoor space using visible light communication according to an embodiment of the present invention.
2 is a block diagram illustrating a configuration of an augmented reality providing system for an indoor space using visible light communication according to another embodiment of the present invention.
3 is a flowchart illustrating a method of providing an augmented reality space in an indoor space using visible light communication according to an embodiment of the present invention.
FIG. 4 is a flowchart illustrating a method of providing an augmented reality in an indoor space using visible light communication according to another embodiment of the present invention.
FIG. 5 illustrates a process of providing an augmented reality according to an embodiment of the present invention.
6 is a view for explaining an example of visible light communication in an indoor space according to an embodiment of the present invention.

이하, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited to or limited by the embodiments. In addition, the same reference numerals shown in the drawings denote the same members.

또한, 본 명세서에서 사용되는 용어(terminology)들은 본 발명의 바람직한 실시예를 적절히 표현하기 위해 사용된 용어들로서, 이는 시청자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. Also, terminologies used herein are terms used to properly represent preferred embodiments of the present invention, which may vary depending on the viewer, the intention of the operator, or the custom in the field to which the present invention belongs. Therefore, the definitions of these terms should be based on the contents throughout this specification.

본 발명은 SLAM(Simultaneous Localization and Mapping) 알고리즘 및 3차원 복원 알고리즘을 효율적으로 증강현실에 적용하여 사용자에게 증강현실 체험을 제공할 수 있는 방법을 제안한다.The present invention proposes a method for providing augmented reality experience to a user by applying a SLAM (Simultaneous Localization and Mapping) algorithm and a 3D reconstruction algorithm efficiently to an augmented reality.

본 발명의 실시예들은 가시광통신(Li­Fi)을 이용하여 실내 공간의 증강현실 체험에 필요한 모바일 디바이스의 자세를 추정하고, RGB­D 카메라로부터 획득한 실내 공간에 대한 공간정보를 이용할 수 있는 기술에 관한 것으로, 조명구역 내 LED(Light Emitting Diode) 조명을 통해 대용량의 데이터를 빠르고 정확하며, 안전하게 전송함으로써, 정확한 실내 공간의 복원뿐만 아니라 사용자의 위치 및 모바일 디바이스의 자세를 정확하게 추정하는 기술을 제공하고자 한다.Embodiments of the present invention relate to a technology for estimating a posture of a mobile device necessary for experiencing an augmented reality in an indoor space using visible light communication (LiFi) and using spatial information about an indoor space acquired from an RGBD camera, It is intended to provide a technology for accurately estimating the user's position and the attitude of the mobile device as well as restoring the accurate indoor space by transmitting large amount of data quickly, accurately and safely through LED (Light Emitting Diode) illumination in the lighting area.

본 명세서에서 '실내 공간'은 전시회, 박물관, 홍보관, 집 내부, 게임장, 체험실, 오락실 등의 공간을 나타낼 수 있으며, 증강현실이 적용되는 특정 공간을 의미할 수 있다.In the present specification, 'indoor space' may represent a space such as an exhibition, a museum, a public relations center, a house, a game room, an experience room, and a game room, and may mean a specific space to which the augmented reality is applied.

본 실시예들에서, '사용자'는 증강현실을 체험하기 위해 실내 공간에 위치하며, 모바일 디바이스는 스마트폰(smart phone), 태블릿(tablet), 웨어러블 디바이스(wearable device) 및 헤드 마운트 디스플레이(head mounted display) 중 적어도 어느 하나로 증강현실을 제공하는 기기일 수 있다. In the present embodiments, the 'user' is located in an indoor space for experiencing the augmented reality, and the mobile device is a smart phone, a tablet, a wearable device and a head mounted display display may be a device for providing an augmented reality.

도 1은 본 발명의 실시예에 따른 가시광 통신을 이용한 실내공간의 증강현실 제공 시스템의 구성을 블록도로 도시한 것이고, 도 3은 본 발명의 실시예에 따른 가시광 통신을 이용한 실내공간의 증강현실 제공 방법의 흐름도를 도시한 것이다.FIG. 1 is a block diagram of a system for providing an augmented reality room in an indoor space using visible light communication according to an embodiment of the present invention. FIG. 3 is a block diagram of an augmented reality providing system for an indoor space using visible light communication according to an embodiment of the present invention. ≪ / RTI >

본 발명의 실시예에 따른 가시광 통신을 이용한 실내공간의 증강현실 제공 시스템(100)은 가시광 통신(Li­Fi)을 이용하여 특정 조명구역에서의 키프레임 정보 및 공간정보를 제공하며, 사용자의 모바일 디바이스를 통해 조명구역에서의 증강현실 체험을 제공한다.The system for providing an augmented reality 100 in an indoor space using visible light communication according to an embodiment of the present invention provides key frame information and spatial information in a specific illumination zone using visible light communication LiFi, Thereby providing an augmented reality experience in the illumination area.

이에 따른, 본 발명의 실시예에 따른 가시광 통신을 이용한 실내공간의 증강현실 제공 시스템(100)은 공간정보 생성부(110) 및 데이터 제공부(120)를 포함한다. 다만, 실시예에 따른 증강현실 제공 시스템(100)은 도 1의 구성요소들보다 더 많은 메모리, 버스, 네트워크 인터페이스, 데이터베이스 및 프로세서와 같은 구성요소들을 포함할 수도 있다. Accordingly, the system 100 for providing an augmented reality space in an indoor space using visible light communication according to an embodiment of the present invention includes a spatial information generating unit 110 and a data providing unit 120. However, the augmented reality providing system 100 according to the embodiment may include components such as more memory, bus, network interface, database, and processor than the components of Fig.

메모리는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있으며, 프로그램 코드가 저장될 수 있다. 또한, 버스는 증강현실 제공 시스템(100)의 구성요소들 간의 통신 및 데이터 전송을 가능케 할 수 있으며, 고속 시리얼 버스(high­speed serial bus), 병렬 버스(parallel bus), SAN(Storage Area Network) 및/또는 다른 적절한 통신 기술로 구성될 수 있다.The memory may be a computer-readable recording medium and may include a permanent mass storage device such as a random access memory (RAM), a read only memory (ROM), and a disk drive, . The bus may also enable communication and data transmission among the components of the augmented reality providing system 100 and may include a highspeed serial bus, a parallel bus, a storage area network (SAN), and / Or other suitable communication technology.

네트워크 인터페이스는 증강현실 제공 시스템(100)을 컴퓨터 네트워크에 연결하기 위한 컴퓨터 하드웨어 구성요소일 수 있다. 또한, 데이터베이스는 실내 공간에 대한 키프레임 정보 및 공간정보를 저장하여 유지하고, 사용자 및 사용자에 관련된 정보(예컨대, 사용자의 개인 정보 및 모바일 디바이스의 기기 정보 등)를 저장 및 유지할 수 있다. 또한, 프로세서는 기본적인 산술, 로직 및 증강현실 제공 시스템(100)의 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다.The network interface may be a computer hardware component for connecting the augmented reality providing system 100 to a computer network. In addition, the database may store and maintain key frame information and spatial information about the indoor space, and may store and maintain information related to the user and the user (e.g., user's personal information and device information of the mobile device). In addition, the processor may be configured to process instructions of a computer program by performing input / output operations of the basic arithmetic, logic, and augmented reality providing system 100.

도 1에 도시된 본 발명의 실시예에 따른 가시광 통신을 이용한 실내공간의 증강현실 제공 시스템(100)의 공간정보 생성부(110) 및 데이터 제공부(120)는 도 3의 단계들(310, 320)을 수행하기 위해 구성될 수 있다.The spatial information generating unit 110 and the data providing unit 120 of the augmented reality providing system 100 for an indoor space using visible light communication according to the embodiment of the present invention shown in FIG. 320). ≪ / RTI >

단계 310에서, 공간정보 생성부(110)는 실내 공간에 대한 키프레임 정보를 획득하고, 3차원 공간정보를 복원하여 배분된 조명구역에 따라 키프레임 정보 및 공간정보를 패킷화한다. In step 310, the spatial information generating unit 110 acquires key frame information on the indoor space, restores the three-dimensional spatial information, and packetizes key frame information and spatial information according to the allocated illumination area.

공간정보 생성부(110)는 SLAM(Simultaneous Localization and Mapping) 알고리즘 및 3차원 복원 알고리즘(또는 키넥트 퓨전(Kinect Fusion) 알고리즘)을 수행하여 획득되는 출력물(output)을 배분된 조명구역에 따라 분류하여 인코딩할 수 있다. The spatial information generating unit 110 classifies the output obtained by performing SLAM (Simultaneous Localization and Mapping) algorithm and 3D reconstruction algorithm (or Kinect Fusion algorithm) according to the allocated illumination area Can be encoded.

예를 들면, 공간정보 생성부(110)는 SLAM(Simultaneous Localization and Mapping) 알고리즘을 수행하여 실내 공간에 대한 키프레임 이미지를 획득하고, 키프레임 이미지의 특징점 정보를 추출하여 키프레임 이미지 및 특징점 정보를 포함하는 키프레임 정보를 획득할 수 있다. 또한, 공간정보 생성부(110)는 실내 공간에 대해 3차원 복원 알고리즘(또는 키넥트 퓨전(Kinect Fusion) 알고리즘)을 이용하여 3차원 공간정보를 복원할 수 있다.For example, the spatial information generation unit 110 performs a SLAM (Simultaneous Localization and Mapping) algorithm to acquire a key frame image for the indoor space, extracts minutia information of the key frame image, It is possible to obtain the key frame information including the key frame information. In addition, the spatial information generating unit 110 may restore the three-dimensional spatial information using a three-dimensional reconstruction algorithm (or a Kinect Fusion algorithm) for the interior space.

이 때, 특징점 정보는 RGB­D 카메라(예컨대, 모바일 디바이스)의 조명변화에 대응하여 추출될 수 있다. 또한, 3차원 공간정보는 상기 카메라를 통해 획득되며, 컬러 영상 및 깊이 영상으로부터 벽, 바닥 및 천장 등의 실내 공간의 구조물과, 책상, 가구, 액자 등의 고정된 물체 및 책, 컵, 화분 등의 움직임이 가능한 비고정된 물체에 대해 구분 가능하다.At this time, the minutia information can be extracted corresponding to the illumination change of the RGBD camera (e.g., mobile device). The three-dimensional spatial information is obtained through the camera. The three-dimensional spatial information is obtained from the color image and the depth image, and is used to construct a structure of an indoor space such as a wall, a floor and a ceiling, a fixed object such as a desk, furniture, a frame, Can be distinguished for non-stationary objects capable of movement.

보다 상세하게는, 조명 영향에 따라 RGB 영상으로부터 RGB 색공간(color space)이 HSV color space로 변환되고, 해당 물체는 채도(saturation) 및 수치 값(value) 요소에 대한 이중 임계치(double threshold) 수행에 의해 획득될 수 있다. 또한, 깊이 영상으로부터 모바일 디바이스로부터의 거리를 임계치(threshold)로 설정하여 깊이 세그멘테이션(depth segmentation) 및 RGB 세그멘테이션(RGB segmentation)의 결과에 대한 교집합으로부터 물체 영역을 분할 및 구분할 수 있다.More specifically, the RGB color space is transformed from the RGB image into the HSV color space according to illumination effects, and the object is subjected to a double threshold for saturation and numerical value elements Lt; / RTI > It is also possible to set the distance from the mobile device to the threshold from the depth image to divide and distinguish the object zone from the intersection of the depth segmentation and RGB segmentation results.

이후, 공간정보 생성부(110)는 키프레임 정보 및 공간정보를 기반으로 배분된 조명구역에 해당하는 공간의 3차원 점군 및 평면의 기하정보를 월드좌표(world coordinate)에 따라 산출한 후, 인코딩하여 패킷화할 수 있다.Then, the spatial information generating unit 110 calculates the three-dimensional point group of the space corresponding to the illuminated area allocated based on the key frame information and the spatial information and the geometrical information of the plane according to the world coordinate, And packetized.

예를 들면, 공간정보 생성부(110)는 배분된 조명구역 내 움직임이 가능한 물체를 제외한 공간의 3차원 점군 및 평면의 기하정보(예컨대, 법선벡터 및 거리 등)를 월드좌표에 맞게 미리 산출한 후, 키프레임 정보 및 공간정보와 같이 인코딩하여 패킷화할 수 있다. For example, the spatial information generating unit 110 may previously calculate the three-dimensional point group of the space excluding the object capable of movement in the allocated illumination area and the geometrical information of the plane (for example, the normal vector and the distance) And then encodes and packetizes key frame information and spatial information.

이 때, 패킷(packet)은 시작헤더, 몸통부분, 종료헤더로 구성되며, 시작헤더 및 종료헤더는 데이터의 시작과 끝을 확인할 수 있으며, 몸통부분에는 키프레임 정보 및 공간정보를 포함할 수 있다. In this case, the packet includes a start header, a body part, and an end header. The start header and the end header can identify the start and end of data, and the body part can include key frame information and spatial information .

단계 320에서, 데이터 제공부(120)는 패킷화된 정보를 빛으로 변환하여 조명구역 내 복수의 조명들을 통해 조명구역에 위치하는 사용자의 모바일 디바이스로 제공한다. In step 320, the data providing unit 120 converts the packetized information into light and provides it to the user's mobile device located in the illumination zone via a plurality of lights in the illumination zone.

우선, 실내 공간은 섹션, 구역 및 층을 기준으로 복수의 조명구역으로 분류되며, 배분된 조명구역 내 조명들은 일정한 거리로 배치되어 패킷화된 정보를 빛으로 데이터화하여 제공한다. 상기 조명은 LED(Light Emitting Diode) 조명으로, 바닥 또는 천장과 사용자의 시야를 방해하지 않을 정도의 빛으로 벽면에도 설치될 수 있다. First, the indoor space is divided into a plurality of illumination zones based on sections, zones, and layers, and the lights in the divided illumination zones are arranged at a predetermined distance to provide packetized information as light data. The light may be LED (Light Emitting Diode) light, and it may be installed on the wall or the ceiling with a degree of light that does not disturb the user's view.

이 때, 본 발명의 실시예에 따른 실내공간의 증강현실 제공 시스템(100)은 가시광 통신(Li­Fi)을 이용한다. 상기 라이파이(Li­Fi)는 빛(Light)과 와이파이(Wi­Fi)가 합쳐진 용어로, 가시광에 데이터를 포함하여 보내는 근거리 무선 통신 기술이다. 이러한 가시광 통신의 장점은 LED 조명을 통해서 대용량의 데이터를 빠르고 정확하며 안전하게 전송할 수 있다는 것이다. 또한, QR Code 등의 마커와 비교하여 실내 공간에 배치해도 이질감을 주지 않으며, 사용자의 눈에 보이지 않는 주파수 영역에도 동작 가능하다. At this time, the system for providing an augmented reality 100 in an indoor space according to an embodiment of the present invention uses visible light communication (LiFi). The LiFi is a short-range wireless communication technology that combines light and WiFi, and transmits data including visible light. The advantage of this visible light communication is that large amounts of data can be transmitted quickly, accurately and safely through LED illumination. Furthermore, compared with the markers such as the QR Code, it is possible to operate in a frequency range which is not visible even if it is placed in an indoor space without giving a sense of heterogeneity.

또한, 단계 320에서, 데이터 제공부(120)는 배분된 조명구역에 따라 서로 다른 프레임 정보 및 공간정보를 포함하여 패킷화된 정보를 데이터화하며, 조명구역 내 LED(Light Emitting Diode) 조명을 통해 정보를 제공할 수 있다. 이 때, 데이터 제공부(120)는 배분된 조명구역에 대응하는 바닥, 벽면, 천장정보 및 고정된 물체 중 적어도 어느 하나 이상의 정보를 포함하는 패킷화된 정보를 데이터화하여 배분된 조명구역 내 LED 조명을 통해 제공할 수 있다. In addition, in step 320, the data providing unit 120 converts packetized information including different frame information and spatial information according to the allocated illumination zone, and transmits the information through the LED (Light Emitting Diode) Can be provided. At this time, the data providing unit 120 converts the packetized information including at least one of the floor, the wall surface, the ceiling information, and the fixed object corresponding to the allocated illumination area into data, As shown in FIG.

예를 들면, 구역별 또는 층별과, 천장, 바닥 및 벽면에 따라 배분된 조명구역 내 조명들은 서로 다른 실내 배경에 따른 서로 다른 키프레임 정보 및 공간정보를 포함하는 패킷화된 정보를 제공한다. 이에, 배분된 조명구역 내 조명은 실내 공간에 대한 모든 키프레임 정보 및 공간정보를 변환하는 것이 아닌, 담당하는 구역의 정보만 부분적으로 표현하므로, 조명구역 내 위치하는 사용자의 모바일 디바이스는 해당 조명구역에 관련된 정보들만 수신할 수 있다. For example, illuminations within an illuminated area, distributed by zone or by floor, and by ceiling, floor, and wall, provide packetized information that includes different key frame information and spatial information along different indoor backgrounds. Accordingly, the illumination in the divided illumination area is not limited to transforming all the key frame information and spatial information for the indoor space, but only the information of the zone in charge is partially expressed, so that the mobile device of the user located in the illumination zone, Lt; / RTI >

배분된 조명구역 내 임의의 조명에 사용자가 위치하는 경우, 사용자의 모바일 디바이스는 임의의 조명에서 제공되는 빛에 따라 0과 1로 이루어진 비트 형식의 패킷화된 정보를 수신하며, 패킷화된 정보로부터 자세 추적을 위한 키프레임 정보 및 공간정보를 수신할 수 있다. 이 때, 사용자의 모바일 디바이스는 패킷화된 정보로부터 배분된 조명구역에서의 바닥, 벽면, 천장정보 및 물체정보 중 적어도 어느 하나 이상의 정보를 수신하여 실내 공간을 활용한 증강현실 체험이 가능할 수 있다. 상기 물체정보는 책상, 가구, 액자 등의 고정된 물체 또는 책, 컵, 화분 등의 움직임이 가능한 비고정된 물체에 대한 정보일 수 있다. If the user is located in any of the lights in the allocated illumination zone, the user's mobile device receives the bit-shaped packetized information of 0 and 1 according to the light provided in any illumination, It is possible to receive key frame information and spatial information for attitude tracking. At this time, the user's mobile device may experience at least one of the floor, wall, ceiling, and object information in the illuminated area allocated from the packetized information to experience the augmented reality utilizing the indoor space. The object information may be information on a fixed object such as a desk, a furniture, a frame, or the like, or an unfixed object capable of moving a book, a cup, a pollen, or the like.

나아가, 사용자의 모바일 디바이스는 실내 공간에 대한 매 프레임별 깊이 영상으로부터 공간정보를 추정할 필요 없이, 조명으로부터 수신되는 패킷화된 정보를 카메라의 6DoF(6 Degrees Of Freedom, 6 자유도) 정보로 변환하여 물체와 상호작용이 가능한 증강현실 체험을 수행할 수 있다. Further, the user's mobile device converts the packetized information received from the illumination into 6DoF (6 Degrees Of Freedom) information of the camera, without needing to estimate the spatial information from each frame-based depth image for the indoor space So that an augmented reality experience capable of interacting with an object can be performed.

이에 따라, 본 발명의 실시예에 따른 가시광 통신을 이용한 실내공간의 증강현실 제공 시스템(100)은 최소한의 키프레임 정보의 비교로 사용자의 위치에 대한 추적이 가능하며, 기존의 SLAM 연구에서 발생하는 문제점 중 하나인 재지역화(relocalization) 문제를 고려할 필요가 없다. 또한, 증강현실 제공 시스템(100)은 조명을 통해 배분된 조명구역에서의 해당 공간의 바닥, 벽면 및 천장정보의 구조물과, 고정 물체 및 비고정 물체에 대한 물체정보를 제공함으로써, RGB­D 카메라가 없는 모바일 디바이스라도 실내 공간을 활용한 증강현실 체험이 가능하다. 나아가, 상기 공간정보는 키프레임 정보를 통해서 추정되는 사용자의 위치 및 모바일 디바이스의 자세를 통해서 이미지 좌표로 전환 가능하다. Accordingly, the system for providing the augmented reality 100 of the indoor space using the visible light communication according to the embodiment of the present invention can track the position of the user by comparing the minimum key frame information, There is no need to consider relocalization, one of the problems. In addition, the augmented reality providing system 100 provides a structure of floor, wall and ceiling information of the space in the illumination zone allocated through the illumination, and object information about the fixed object and the non-fixed object, Even mobile devices can experience augmented reality using indoor space. Further, the spatial information can be converted into image coordinates through the position of the user estimated through the key frame information and the attitude of the mobile device.

도 2는 본 발명의 다른 실시예에 따른 가시광 통신을 이용한 실내공간의 증강현실 제공 시스템의 구성을 블록도로 도시한 것이고, 도 4는 본 발명의 다른 실시예에 따른 가시광 통신을 이용한 실내공간의 증강현실 제공 방법의 흐름도를 도시한 것이다.FIG. 2 is a block diagram of a system for providing an augmented reality room in an indoor space using visible light communication according to another embodiment of the present invention. FIG. 4 is a view And shows a flow chart of a method of providing reality.

본 발명의 다른 실시예에 따른 가시광 통신을 이용한 실내공간의 증강현실 제공 시스템(200)은 가시광 통신(Li­Fi)을 이용하여 특정 조명구역에서의 키프레임 정보 및 공간정보를 제공하며, 빛을 수신하는 사용자의 모바일 디바이스로부터 위치를 추적한다.The system for providing an augmented reality room 200 using visible light communication according to another embodiment of the present invention provides key frame information and spatial information in a specific illumination zone using visible light communication LiFi, Track the location from the user's mobile device.

이에 따른, 본 발명의 다른 실시예에 따른 가시광 통신을 이용한 실내공간의 증강현실 제공 시스템(200)은 공간정보 생성부(210), 데이터 제공부(220) 및 위치 추적부(230)를 포함한다. 다만, 실시예에 따른 증강현실 제공 시스템(200)은 도 2의 구성요소들보다 더 많은 메모리, 버스, 네트워크 인터페이스, 데이터베이스 및 프로세서와 같은 구성요소들을 포함할 수도 있다.Accordingly, the indoor space augmented reality providing system 200 using the visible light communication according to another embodiment of the present invention includes a spatial information generating unit 210, a data providing unit 220, and a location tracking unit 230 . However, the augmented reality providing system 200 according to the embodiment may include components such as a memory, a bus, a network interface, a database and a processor more than the components of Fig.

메모리는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있으며, 프로그램 코드가 저장될 수 있다. 또한, 버스는 증강현실 제공 시스템(100)의 구성요소들 간의 통신 및 데이터 전송을 가능케 할 수 있으며, 고속 시리얼 버스(high­speed serial bus), 병렬 버스(parallel bus), SAN(Storage Area Network) 및/또는 다른 적절한 통신 기술로 구성될 수 있다.The memory may be a computer-readable recording medium and may include a permanent mass storage device such as a random access memory (RAM), a read only memory (ROM), and a disk drive, . The bus may also enable communication and data transmission among the components of the augmented reality providing system 100 and may include a highspeed serial bus, a parallel bus, a storage area network (SAN), and / Or other suitable communication technology.

네트워크 인터페이스는 증강현실 제공 시스템(100)을 컴퓨터 네트워크에 연결하기 위한 컴퓨터 하드웨어 구성요소일 수 있다. 또한, 데이터베이스는 실내 공간에 대한 키프레임 정보 및 공간정보를 저장하여 유지하고, 사용자 및 사용자에 관련된 정보(예컨대, 사용자의 개인 정보 및 모바일 디바이스의 기기 정보 등)를 저장 및 유지할 수 있다. 또한, 프로세서는 기본적인 산술, 로직 및 증강현실 제공 시스템(100)의 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다.The network interface may be a computer hardware component for connecting the augmented reality providing system 100 to a computer network. In addition, the database may store and maintain key frame information and spatial information about the indoor space, and may store and maintain information related to the user and the user (e.g., user's personal information and device information of the mobile device). In addition, the processor may be configured to process instructions of a computer program by performing input / output operations of the basic arithmetic, logic, and augmented reality providing system 100.

도 2에 도시된 본 발명의 다른 실시예에 따른 가시광 통신을 이용한 실내공간의 증강현실 제공 시스템(200)의 공간정보 생성부(210), 데이터 제공부(220) 및 위치 추적부(230)는 도 4의 단계들(410, 420, 430)을 수행하기 위해 구성될 수 있다.The spatial information generating unit 210, the data providing unit 220, and the position tracking unit 230 of the augmented reality providing system 200 of the indoor space using visible light communication according to another embodiment of the present invention shown in Fig. May be configured to perform steps 410, 420, 430 of FIG.

단계 410에서, 공간정보 생성부(210)는 실내 공간에 대한 키프레임 정보를 획득하고, 3차원 공간정보를 복원하여 배분된 조명구역에 따라 키프레임 정보 및 공간정보를 패킷화한다. In step 410, the spatial information generating unit 210 obtains key frame information on the indoor space, restores the three-dimensional spatial information, and packetizes key frame information and spatial information according to the allocated illumination area.

단계 420에서, 데이터 제공부(220)는 패킷화된 정보를 빛으로 변환하여 조명구역 내 복수의 조명들을 통해 조명구역에 위치하는 사용자의 모바일 디바이스로 제공한다. In step 420, the data providing unit 220 converts the packetized information into light and provides it to the user's mobile device located in the illumination zone through a plurality of lights in the illumination zone.

다만, 단계 410 및 단계 420에서의 공간정보 생성부(210) 및 데이터 제공부(220)의 구성은 도 1 및 도 3에 도시된 단계 310 및 단계 320에서의 공간정보 생성부(110) 및 데이터 제공부(120)의 구성과 동일하므로, 공간정보 생성부(210) 및 데이터 제공부(220)에 대한 상세한 설명은 생략하기로 한다. However, the configuration of the spatial information generating unit 210 and the data providing unit 220 in steps 410 and 420 is different from that of the spatial information generating unit 110 and the data The detailed description of the spatial information generating unit 210 and the data providing unit 220 will be omitted.

단계 430에서, 위치 추적부(230)는 조명구역 내 임의의 조명에서 제공하는 빛을 수신하는 사용자의 모바일 디바이스로부터 사용자의 위치를 추적한다.At step 430, the location tracking unit 230 tracks the location of the user from the user's mobile device receiving the light provided by any of the lights in the illumination zone.

예를 들면, 위치 추적부(230)는 실내 공간에 대한 키프레임 정보 및 공간정보와, 배분된 조명구역 내 위치하는 사용자의 모바일 디바이스로 제공되는 빛에 따른 키프레임 정보를 비교하여 사용자의 위치 및 모바일 디바이스의 자세를 추적할 수 있다. For example, the location tracking unit 230 compares the key frame information and the spatial information of the indoor space with the key frame information according to the light provided to the user's mobile device located in the allocated illumination area, You can track the position of the mobile device.

도 5는 본 발명의 실시예에 따른 증강현실 제공 과정을 도시한 것이다.FIG. 5 illustrates a process of providing an augmented reality according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 실시예에 따른 증강현실 제공 시스템은 (a) 과정에서, SLAM(Simultaneous Localization and Mapping) 알고리즘 및 3차원 복원 알고리즘(또는 키넥트 퓨전(Kinect Fusion) 알고리즘)을 수행하여 실내 공간에 대한 키프레임 정보를 획득하고, 3차원 공간정보를 복원한다. 또한, 본 발명의 실시예에 따른 증강현실 제공 시스템은 이에 따른 결과물을 배분된 조명구역에 따라 분배하여 조명에서 0과 1로 이루어진 비트 형태로 표현되도록 제어한다. 5, in the augmented reality providing system according to the embodiment of the present invention, a SLAM (Simultaneous Localization and Mapping) algorithm and a 3D reconstruction algorithm (or a Kinect Fusion algorithm) are performed Acquires key frame information on the indoor space, and restores the three-dimensional space information. In addition, the augmented reality providing system according to the embodiment of the present invention distributes the result according to the allocated illumination area, and controls the result to be expressed in bit form of 0 and 1 in illumination.

이후, (b) 과정에서, 실내 공간 내 배분된 조명구역에서의 조명은 본 발명의 실시예에 따른 증강현실 제공 시스템으로부터 수신된 패킷화된 정보를 데이터화하여 빛으로 제공한다.Then, in the process (b), the illumination in the illumination area allocated in the indoor space provides the lighted packetized information received from the augmented reality providing system according to the embodiment of the present invention.

(c) 과정에서, 배분된 조명구역에 사용자가 위치하는 경우, 조도 센서를 포함하는 스마트폰 또는 헤드 마운트 디스플레이(Head Mounted Display; HMD)의 모바일 디바이스는 조명 아래에서 자세 추적을 위한 키프레임 정보 및 공간정보를 수신한다. 이 때, 공간정보는 모바일 디바이스의 자세와 사용자의 위치를 통해서 보정이 가능하기 때문에 사용자는 깊이 카메라 없이도 증강현실 체험이 가능하다. (c), if the user is located in the allocated illumination area, the mobile device of the smartphone or the head mounted display (HMD) including the illuminance sensor displays the key frame information for attitude tracking And receives spatial information. In this case, since the spatial information can be corrected through the posture of the mobile device and the position of the user, the user can experience the augmented reality without the depth camera.

도 6은 본 발명의 실시예에 따른 실내 공간에서의 가시광 통신의 예를 설명하기 위해 도시한 것이다.6 is a view for explaining an example of visible light communication in an indoor space according to an embodiment of the present invention.

도 6을 참조하면, 실내 공간(600)은 바닥, 벽면 및 천장 중 적어도 어느 하나에 설치된 복수의 조명(610)을 포함할 수 있다. 이 때, 조명(610)은 LED(Light Emitting Diode) 조명으로, 가시광(눈에 보이는 빛)에 데이터를 포함시켜 제공하는 가시광 통신(Li­Fi)을 수행할 수 있다.Referring to FIG. 6, the indoor space 600 may include a plurality of lights 610 provided on at least one of a floor, a wall surface, and a ceiling. At this time, the illumination 610 can perform visible light communication (LiFi), which provides data by including visible light (visible light) as an LED (Light Emitting Diode) illumination.

또한, 구역별 또는 층별과, 천장, 바닥 및 벽면에 따라 배분되는 조명구역 내 조명들을 구분하기 위해, 조명(610)은 각기 다른 고유 아이디를 보유할 수 있으며, 배분된 조명구역에 따른 서로 다른 키프레임 정보 및 공간정보를 데이터화하여 제공할 수 있다.In addition, to distinguish between zones or floors and lights in a lighting zone that are distributed along the ceiling, floor, and wall, the lighting 610 may have a different unique ID, Frame information and spatial information can be provided as data.

실시예에 따라서, 조명(610)이 오프(off)되는 상황, 제공되는 빛이 약해지는 상황 또는 장애물에 의해 빛이 가려지는 상황이 발생하는 경우, 본 발명의 실시예에 따른 증강현실 제공 시스템은 조명(610)을 통해 제공되는 패킷화된 정보를 중지 또는 폐기하고, 추후 정상적인 조명(610)의 동작이 감지되는 경우 패킷화된 정보를 재 전송할 수 있다. 실시예에 따라서, 패킷화된 정보의 재 전송을 위해, 본 발명의 실시예에 따른 증강현실 제공 시스템은 실내 공간 내 배분된 조명구역에 따른 키프레임 정보 및 공간정보를 실시간으로 저장하여 유지할 수 있으며, 키프레임 정보 및 공간정보를 외부 서버로 전송하여 데이터베이스화할 수도 있다. According to the embodiment, when a situation occurs in which the illumination 610 is turned off, the provided light is weak or the light is blocked by an obstacle, the augmented reality providing system according to the embodiment of the present invention May discontinue or discard the packetized information provided through the illumination 610 and may retransmit the packetized information if an operation of the normal illumination 610 is subsequently detected. According to the embodiment, for retransmission of packetized information, the augmented reality providing system according to the embodiment of the present invention can store and maintain key frame information and spatial information according to the illuminated area allocated in the indoor space in real time , Key frame information, and spatial information may be transmitted to an external server for database conversion.

도 6에 도시된 바와 같이, 실내 공간(600) 내 천장에 위치한 조명(610) 아래 사용자가 위치하는 경우, 모바일 디바이스(620)는 빛으로 변환된 패킷화된 정보로부터 실내 공간(600)에서의 증강현실 체험을 위한 키프레임 정보 및 공간정보를 수신할 수 있다.6, if the user is located below the ceiling light 610 in the interior space 600, the mobile device 620 may extract the information from the packetized information, which is converted into light, Key frame information and spatial information for the augmented reality experience can be received.

다만, 도 6에서의 사용자는 모바일 디바이스(620)로 스마트폰을 사용하고 있으나, 증강현실 체험이 가능한 태블릿(tablet), 웨어러블 디바이스(wearable device) 및 헤드 마운트 디스플레이(head mounted display) 중 적어도 어느 하나를 사용할 수도 있으므로, 한정되지 않는다. 6 uses a smart phone as the mobile device 620. However, at least one of a tablet, a wearable device, and a head mounted display capable of experiencing an augmented reality So that it is not limited.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD­ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기­광 매체(magneto­optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape, optical media such as CDROMs and DVDs, magnetic optical media such as floppy disks, magnetooptical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

100, 200: 증강현실 제공 시스템
600: 실내 공간
610: 조명
620: 모바일 디바이스
100, 200: Augmented reality providing system
600: Indoor space
610: Lighting
620: Mobile device

Claims (19)

실내 공간에 대한 키프레임 정보를 획득하고, 3차원 공간정보를 복원하여 배분된 조명구역에 따라 상기 키프레임 정보 및 상기 공간정보를 패킷화하는 공간정보 생성부; 및
상기 패킷화된 정보를 빛으로 변환하여 상기 조명구역 내 복수의 조명들을 통해 상기 조명구역에 위치하는 사용자의 모바일 디바이스로 제공하는 데이터 제공부
를 포함하는 가시광 통신을 이용한 실내공간의 증강현실 제공 시스템.
A spatial information generating unit for obtaining key frame information for the indoor space, restoring the three-dimensional spatial information, and packetizing the key frame information and the spatial information according to the allocated illumination area; And
Converting the packetized information into light and providing the converted data to a mobile device of a user located in the lighting zone through a plurality of lights in the lighting zone;
And a display unit for displaying an image of the augmented reality.
제1항에 있어서,
상기 사용자의 모바일 디바이스는
상기 조명 구역 내 상기 임의의 조명에서 제공되는 상기 빛에 따라 상기 패킷화된 정보를 수신하며, 상기 패킷화된 정보로부터 자세 추적을 위한 상기 키프레임 정보 및 상기 공간정보를 수신하는 가시광 통신을 이용한 실내공간의 증강현실 제공 시스템.
The method according to claim 1,
The user's mobile device
Receiving the packetized information in accordance with the light provided in the arbitrary illumination in the illumination zone, extracting key frame information for attitude tracking from the packetized information and indoor Space Augmented Reality System.
제2항에 있어서,
상기 사용자의 모바일 디바이스는
상기 패킷화된 정보로부터 상기 배분된 조명구역에서의 바닥, 벽면, 천장정보 및 고정된 물체 중 적어도 어느 하나 이상의 정보를 수신하여 상기 실내 공간을 활용한 증강현실 체험이 가능한 것을 특징으로 하는 가시광 통신을 이용한 실내공간의 증강현실 제공 시스템.
3. The method of claim 2,
The user's mobile device
Visual information is received from the packetized information and information on at least one of floor, wall surface, ceiling information and fixed object in the allocated illumination zone is received, and the augmented reality experience using the indoor space is made possible. Augmented reality providing system for indoor space.
제3항에 있어서,
상기 사용자의 모바일 디바이스는
카메라의 6DoF(6 Degrees Of Freedom, 6 자유도) 정보를 이용하여 상기 빛에 따라 상기 패킷화된 정보를 변환하며, 상기 실내 공간 내 증강현실을 수행하는 가시광 통신을 이용한 실내공간의 증강현실 제공 시스템.
The method of claim 3,
The user's mobile device
An augmented reality providing system for an indoor space using visible light communication that converts the packetized information according to the light using 6DoF (6 Degrees of Freedom, 6 degrees of freedom) information of the camera and performs the augmented reality in the indoor space .
제1항에 있어서,
상기 공간정보 생성부는
상기 실내 공간에 대해 SLAM(Simultaneous Localization and Mapping) 알고리즘으로부터 획득되는 키프레임 이미지 및 상기 키프레임 이미지의 특징점 정보를 추출하고, 상기 키프레임 이미지 및 상기 특징점 정보를 포함하는 상기 키프레임 정보를 획득하는 가시광 통신을 이용한 실내공간의 증간현실 제공 시스템.
The method according to claim 1,
The spatial information generating unit
Extracting a key frame image obtained from a SLAM (Simultaneous Localization and Mapping) algorithm and minutia information of the key frame image with respect to the indoor space, and extracting the key frame image and the key frame information including the minutia information A System for Providing Increased Reality of Indoor Space Using Communication.
제5항에 있어서,
상기 공간정보 생성부는
상기 실내 공간에 대해 3차원 복원 알고리즘(또는 키넥트 퓨전(Kinect Fusion) 알고리즘)을 이용하여 상기 3차원 공간정보를 복원하는 가시광 통신을 이용한 실내공간의 증강현실 제공 시스템.
6. The method of claim 5,
The spatial information generating unit
And a visual space communication system for reconstructing the three-dimensional spatial information using a three-dimensional reconstruction algorithm (or a Kinect Fusion algorithm) for the indoor space.
제6항에 있어서,
상기 공간정보 생성부는
상기 키프레임 정보 및 상기 공간정보를 기반으로 상기 배분된 조명구역에 해당하는 공간의 3차원 점군 및 평면의 기하정보를 월드좌표(world coordinate)에 따라 산출한 후, 인코딩하여 패킷화하는 것을 특징으로 하는 가시광 통신을 이용한 실내공간의 증강현실 제공 시스템.
The method according to claim 6,
The spatial information generating unit
Dimensional point group of a space corresponding to the allocated illumination zone and geometric information of a plane according to a world coordinate on the basis of the key frame information and the spatial information, A system for providing an augmented reality room in an indoor space using visible light communication.
제1항에 있어서,
상기 데이터 제공부는
상기 배분된 조명구역 따라 서로 다른 상기 프레임 정보 및 상기 공간정보를 포함하여 상기 패킷화된 정보를 데이터화하여 상기 조명구역 내 LED(Light Emitting Diode) 조명을 통해 제공하는 것을 특징으로 하는 가시광 통신을 이용한 실내공간의 증강현실 제공 시스템.
The method according to claim 1,
The data provider
And wherein the packetized information including the frame information and the spatial information different from each other according to the allocated illumination area is converted into data and provided through LED (Light Emitting Diode) illumination in the illumination area. Space Augmented Reality System.
제8항에 있어서,
상기 데이터 제공부는
상기 배분된 조명구역에 대응하는 바닥, 벽면, 천장정보 및 고정된 물체 중 적어도 어느 하나 이상의 정보를 포함하는 상기 패킷화된 정보를 데이터화하여 상기 배분된 조명구역 내 상기 LED 조명을 통해 제공하는 가시광 통신을 이용한 실내공간의 증강현실 제공 시스템.
9. The method of claim 8,
The data provider
Providing information through at least one of a floor, a wall surface, ceiling information, and a fixed object corresponding to the allocated illumination area, and providing the packetized information through the LED illumination in the allocated illumination area Augmented Reality System for Indoor Space using.
실내 공간에 대한 키프레임 정보를 획득하고, 3차원 공간정보를 복원하여 배분된 조명구역에 따라 상기 키프레임 정보 및 상기 공간정보를 패킷화하는 공간정보 생성부;
상기 패킷화된 정보를 빛으로 변환하여 상기 조명구역 내 복수의 조명들을 통해 상기 조명구역에 위치하는 사용자의 모바일 디바이스로 제공하는 데이터 제공부; 및
상기 조명구역 내 임의의 조명에서 제공하는 상기 빛을 수신하는 상기 사용자의 모바일 디바이스로부터 상기 사용자의 위치를 추적하는 위치 추적부
를 포함하는 가시광 통신을 이용한 실내공간의 증강현실 제공 시스템.
A spatial information generating unit for obtaining key frame information for the indoor space, restoring the three-dimensional spatial information, and packetizing the key frame information and the spatial information according to the allocated illumination area;
Converting the packetized information into light and providing it to a mobile device of a user located in the lighting zone through a plurality of lights in the lighting zone; And
A location tracking unit for tracking the location of the user from the mobile device of the user receiving the light provided by any illumination in the illumination zone;
And a display unit for displaying an image of the augmented reality.
제10항에 있어서,
상기 위치 추적부는
상기 사용자의 모바일 디바이스로 제공되는 상기 빛에 따른 상기 키프레임 정보를 비교하여 상기 사용자의 위치 및 자세를 추적하는 것을 특징으로 하는 가시광 통신을 이용한 실내공간의 증강현실 제공 시스템.
11. The method of claim 10,
The position-
And the position and attitude of the user are tracked by comparing the key frame information according to the light provided to the user's mobile device.
가시광 통신(Li­Fi)을 이용하여 실내 공간의 증강현실을 제공하는 시스템의 동작 방법에 있어서,
실내 공간에 대한 키프레임 정보를 획득하고, 3차원 공간정보를 복원하여 배분된 조명구역에 따라 상기 키프레임 정보 및 상기 공간정보를 패킷화하는 단계; 및
상기 패킷화된 정보를 빛으로 변환하여 상기 조명구역 내 복수의 조명들을 통해 상기 조명구역에 위치하는 사용자의 모바일 디바이스로 제공하는 단계
를 포함하는 가시광 통신을 이용한 실내공간의 증강현실 제공 방법.
An operation method of a system for providing an augmented reality of an indoor space using visible light communication (LiFi)
Acquiring key frame information for the indoor space, restoring the three-dimensional space information, and packetizing the key frame information and the spatial information according to the allocated illumination area; And
Converting the packetized information into light and providing it to a mobile device of a user located in the lighting zone through a plurality of lights in the lighting zone
The method comprising the steps of:
제12항에 있어서,
상기 패킷화하는 단계는
상기 실내 공간에 대해 SLAM(Simultaneous Localization and Mapping) 알고리즘으로부터 획득되는 키프레임 이미지 및 상기 키프레임 이미지의 특징점 정보를 추출하고, 상기 키프레임 이미지 및 상기 특징점 정보를 포함하는 상기 키프레임 정보를 획득하는 가시광 통신을 이용한 실내공간의 증강현실 제공 방법.
13. The method of claim 12,
The step of packetizing
Extracting a key frame image obtained from a SLAM (Simultaneous Localization and Mapping) algorithm and minutia information of the key frame image with respect to the indoor space, and extracting the key frame image and the key frame information including the minutia information Method for Providing Augmented Reality in Indoor Space Using Communication.
제13항에 있어서,
상기 패킷화하는 단계는
상기 실내 공간에 대해 3차원 복원 알고리즘(또는 키넥트 퓨전(Kinect Fusion) 알고리즘)을 이용하여 상기 3차원 공간정보를 복원하는 가시광 통신을 이용한 실내공간의 증강현실 제공 방법.
14. The method of claim 13,
The step of packetizing
And reconstructing the three-dimensional spatial information using a three-dimensional reconstruction algorithm (or a Kinect Fusion algorithm) for the interior space.
제14항에 있어서,
상기 패킷화하는 단계는
상기 키프레임 정보 및 상기 공간정보를 기반으로 상기 배분된 조명구역에 해당하는 공간의 3차원 점군 및 평면의 기하정보를 월드좌표(world coordinate)에 따라 산출한 후, 인코딩하여 패킷화하는 것을 특징으로 하는 가시광 통신을 이용한 실내공간의 증강현실 제공 방법.
15. The method of claim 14,
The step of packetizing
Dimensional point group of a space corresponding to the allocated illumination zone and geometric information of a plane according to a world coordinate on the basis of the key frame information and the spatial information, A method for providing an augmented reality room in an indoor space using visible light communication.
제12항에 있어서,
상기 사용자의 모바일 디바이스로 제공하는 단계는
상기 배분된 조명구역에 따라 서로 다른 상기 프레임 정보 및 상기 공간정보를 포함하여 상기 패킷화된 정보를 데이터화하여 상기 조명구역 내 LED(Light Emitting Diode) 조명을 통해 제공하는 것을 특징으로 하는 가시광 통신을 이용한 실내공간의 증강현실 제공 방법.
13. The method of claim 12,
The step of providing the user with a mobile device
And the packetized information including the different frame information and the spatial information according to the allocated illumination area is converted into data and provided through LED (Light Emitting Diode) illumination in the illumination area. A method for providing an augmented reality in an indoor space.
가시광 통신(Li­Fi)을 이용하여 실내 공간의 증강현실을 제공하는 시스템의 동작 방법에 있어서,
실내 공간에 대한 키프레임 정보를 획득하고, 3차원 공간정보를 복원하여 배분된 조명구역에 따라 상기 키프레임 정보 및 상기 공간정보를 패킷화하는 단계;
상기 패킷화된 정보를 빛으로 변환하여 상기 조명구역 내 복수의 조명들을 통해 상기 조명구역에 위치하는 사용자의 모바일 디바이스로 제공하는 단계; 및
상기 조명구역 내 임의의 조명에서 제공하는 상기 빛을 수신하는 상기 사용자의 모바일 디바이스로부터 상기 사용자의 위치를 추적하는 단계
를 포함하는 가시광 통신을 이용한 실내공간의 증강현실 제공 방법.
An operation method of a system for providing an augmented reality of an indoor space using visible light communication (LiFi)
Acquiring key frame information for the indoor space, restoring the three-dimensional space information, and packetizing the key frame information and the spatial information according to the allocated illumination area;
Converting the packetized information into light and providing it to a mobile device of a user located in the lighting zone through a plurality of lights in the lighting zone; And
Tracking the position of the user from the user ' s mobile device receiving the light provided by any illumination in the illumination zone
The method comprising the steps of:
제17항에 있어서,
상기 사용자의 위치를 추적하는 단계는
상기 사용자의 모바일 디바이스로 제공되는 상기 빛에 따른 상기 키프레임 정보를 비교하여 상기 사용자의 위치 및 자세를 추적하는 것을 특징으로 하는 가시광 통신을 이용한 실내공간의 증강현실 제공 방법.
18. The method of claim 17,
The step of tracking the location of the user
And comparing the key frame information according to the light provided to the mobile device of the user to track the position and attitude of the user.
제12항 내지 제18항 중 어느 한 항의 방법을 수행하기 위하여 컴퓨터로 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램. 19. A computer program stored in a computer-readable medium for performing the method of any one of claims 12 to 18.
KR1020170126299A 2017-09-28 2017-09-28 System for providing of augmented reality in indoor space using visible light communication and the method thereof KR101971791B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170126299A KR101971791B1 (en) 2017-09-28 2017-09-28 System for providing of augmented reality in indoor space using visible light communication and the method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170126299A KR101971791B1 (en) 2017-09-28 2017-09-28 System for providing of augmented reality in indoor space using visible light communication and the method thereof

Publications (2)

Publication Number Publication Date
KR20190036868A true KR20190036868A (en) 2019-04-05
KR101971791B1 KR101971791B1 (en) 2019-04-23

Family

ID=66104260

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170126299A KR101971791B1 (en) 2017-09-28 2017-09-28 System for providing of augmented reality in indoor space using visible light communication and the method thereof

Country Status (1)

Country Link
KR (1) KR101971791B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200138925A (en) * 2019-06-03 2020-12-11 삼성전자주식회사 Method for processing data and electronic device for supporting the same
CN112200917A (en) * 2020-09-30 2021-01-08 北京零境科技有限公司 High-precision augmented reality method and system
KR102249381B1 (en) * 2019-11-25 2021-05-07 주식회사 스트리스 System for generating spatial information of mobile device using 3D image information and method therefor
US11544897B2 (en) 2020-06-18 2023-01-03 Samsung Electronics Co., Ltd. Method and apparatus for determining ambient illumination in AR scene

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102166586B1 (en) 2019-07-19 2020-10-16 백호암 Mobile Augmented Reality Service Apparatus and Method Using Deep Learning Based Positioning Technology
KR20240030481A (en) * 2022-08-31 2024-03-07 네이버랩스 주식회사 Method and apparatus for generating customized region within the space with which service element is associated using tool for generating customized region

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016522485A (en) * 2013-04-30 2016-07-28 クアルコム,インコーポレイテッド Hidden reality effect and intermediary reality effect from reconstruction
KR20170008720A (en) * 2014-02-17 2017-01-24 메타이오 게엠베하 Method and device for detecting a touch between a first object and a second object

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016522485A (en) * 2013-04-30 2016-07-28 クアルコム,インコーポレイテッド Hidden reality effect and intermediary reality effect from reconstruction
KR20170008720A (en) * 2014-02-17 2017-01-24 메타이오 게엠베하 Method and device for detecting a touch between a first object and a second object

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200138925A (en) * 2019-06-03 2020-12-11 삼성전자주식회사 Method for processing data and electronic device for supporting the same
KR102249381B1 (en) * 2019-11-25 2021-05-07 주식회사 스트리스 System for generating spatial information of mobile device using 3D image information and method therefor
US11544897B2 (en) 2020-06-18 2023-01-03 Samsung Electronics Co., Ltd. Method and apparatus for determining ambient illumination in AR scene
CN112200917A (en) * 2020-09-30 2021-01-08 北京零境科技有限公司 High-precision augmented reality method and system

Also Published As

Publication number Publication date
KR101971791B1 (en) 2019-04-23

Similar Documents

Publication Publication Date Title
KR101971791B1 (en) System for providing of augmented reality in indoor space using visible light communication and the method thereof
US10726264B2 (en) Object-based localization
US10885721B2 (en) Method for detecting objects and localizing a mobile computing device within an augmented reality experience
CN110310175B (en) System and method for mobile augmented reality
KR102647351B1 (en) Modeling method and modeling apparatus using 3d point cloud
JP7079231B2 (en) Information processing equipment, information processing system, control method, program
KR102612347B1 (en) Multi-sync ensemble model for device localization
US10762386B2 (en) Method of determining a similarity transformation between first and second coordinates of 3D features
US10282913B2 (en) Markerless augmented reality (AR) system
US10535160B2 (en) Markerless augmented reality (AR) system
CN105493154B (en) System and method for determining the range of the plane in augmented reality environment
US10922536B2 (en) Age classification of humans based on image depth and human pose
US20120306850A1 (en) Distributed asynchronous localization and mapping for augmented reality
US20130120365A1 (en) Content playback apparatus and method for providing interactive augmented space
CN112154486B (en) System and method for multi-user augmented reality shopping
US20240104744A1 (en) Real-time multi-view detection of objects in multi-camera environments
US11113571B2 (en) Target object position prediction and motion tracking
US20230007970A1 (en) Methods, systems, articles of manufacture and apparatus to generate digital scenes
JP7138361B2 (en) User Pose Estimation Method and Apparatus Using 3D Virtual Space Model
EP3757726A1 (en) Methods and apparatus for projecting augmented reality enhancements to real objects in response to user gestures detected in a real environment
JP2023056466A (en) Global positioning device and method for global positioning
US11657568B2 (en) Methods and systems for augmented reality tracking based on volumetric feature descriptor data
EP3486875B1 (en) Apparatus and method for generating an augmented reality representation of an acquired image
JP6655513B2 (en) Attitude estimation system, attitude estimation device, and range image camera
WO2021051126A1 (en) Portable projection mapping device and projection mapping system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant