KR101917359B1 - Realistic seeing-through method and system using adaptive registration of inside and outside images - Google Patents

Realistic seeing-through method and system using adaptive registration of inside and outside images Download PDF

Info

Publication number
KR101917359B1
KR101917359B1 KR1020170098614A KR20170098614A KR101917359B1 KR 101917359 B1 KR101917359 B1 KR 101917359B1 KR 1020170098614 A KR1020170098614 A KR 1020170098614A KR 20170098614 A KR20170098614 A KR 20170098614A KR 101917359 B1 KR101917359 B1 KR 101917359B1
Authority
KR
South Korea
Prior art keywords
space
image
perspective
camera
obstacle
Prior art date
Application number
KR1020170098614A
Other languages
Korean (ko)
Inventor
박지형
이준
유범재
오주영
Original Assignee
한국과학기술연구원
재단법인 실감교류인체감응솔루션연구단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원, 재단법인 실감교류인체감응솔루션연구단 filed Critical 한국과학기술연구원
Priority to KR1020170098614A priority Critical patent/KR101917359B1/en
Application granted granted Critical
Publication of KR101917359B1 publication Critical patent/KR101917359B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

A realistic seeing-through method using adaptive matching of internal and external images of a specific space comprises: a step of capturing an omnidirectional internal image of a first space by using a first camera of a remote device located inside the first space; a step of uploading omnidirectional internal image data of the first space to a real time streaming server through a wired or wireless network; a step of capturing an external obstacle in the first space by using a second camera of a user device located outside the first space; a step of downloading the omnidirectional internal image data of the first space from the real time streaming server; a step of generating a seeing-through image by adaptively matching the omnidirectional internal image of the first space and an external obstacle image of the first space; and a step of displaying the seeing-through image on the user device. According to the realistic seeing-through method, the seeing-through image generated by adaptively matching an image of a destination which is streamed in real time through the server and an image of an obstacle which is captured from the outside by the user device is displayed to provide a user with a feeling of immersion as if he or she is looking directly at the inside by seeing through the obstacle.

Description

내부 및 외부 영상의 적응형 정합을 통한 실감 투시 방법 및 시스템{REALISTIC SEEING-THROUGH METHOD AND SYSTEM USING ADAPTIVE REGISTRATION OF INSIDE AND OUTSIDE IMAGES}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and system for real-

본 발명은 내부 및 외부 영상의 적응형 정합을 통한 실감 투시 방법 및 시스템에 관한 것으로서, 더욱 상세하게는 360도 촬영 가능한 제1 카메라로 촬영한 내부 영상 및 제2 카메라로 외부에서 촬영한 장애물 영상을 적응적으로 정합함으로써 사용자가 투시 영상을 시청할 수 있도록 하기 위한 실감 투시 방법 및 시스템에 관한 것이다.More particularly, the present invention relates to a method and system for real-time sensing through adaptive matching of internal and external images, and more particularly, And more particularly, to a real-time perspective method and system for allowing a user to view a perspective image by adaptively matching the real-perspective view.

[국가지원 연구개발에 대한 설명][Explanation of R & D for National Support]

본 연구는 한국과학기술연구원의 주관 하에 미래창조과학부의 글로벌프론티어사업(몰입형 VST Glasses 기반 공존현실 UI/UX 및 Human Factor 연구개발, 과제 고유번호: 1711041262)의 지원에 의하여 이루어진 것이다.This study was supported by the Korea Institute of Science and Technology under the support of the Global Frontier Project of the Creation Science Department of the Future (Involuntary VST Glasses based Coexistence Reality UI / UX and Human Factor Research and Development Project Assigned No. 1711041262).

혼합 현실(Mixed Reality) 환경이란 컴퓨터에서 만들어낸 가상 공간에 사용자가 완전히 몰입하게 되는 가상 현실(Virtual Reality)과, 사용자가 눈으로 보는 현실 세계에 프로세서에 의해 만들어진 가상 객체들이 증강되어 보이는 증강 현실(Augmented Reality)이 혼합된 환경으로서, 사용자가 이러한 가상 객체들과 상호작용할 수 있는 환경을 의미한다. 혼합 현실 환경은 게임, 멀티미디어, SNS, 텔레프레젠스, 교육 및 디자인 등 다양한 분야에서 활용될 수 있는바 그 중요성이 대두되고 있다.A mixed reality environment is a virtual reality in which a user is completely immersed in a virtual space created by a computer and an augmented reality in which a virtual object created by a processor is enhanced in a real world viewed by a user Augmented Reality) is an environment in which a user can interact with these virtual objects. Mixed reality environment can be utilized in various fields such as game, multimedia, SNS, telepresence, education and design, and it is becoming important.

최근 이러한 몰입 가상 환경과 증강 현실을 지원하는 헤드 마운티드 디스플레이(Head Mounted Display; HMD) 디바이스가 보급화 되면서 혼합 현실을 활용한 콘텐츠가 다양하게 개발되고 있다. 삼성 기어 VR, 마이크로소프트 Hololens, AMD Sulon과 같은 HMD 디바이스는 모바일 폰과 결합되어 콘텐츠를 제공할 수 있으므로, 사용자들은 지정된 공간뿐만 아니라 이동하면서도 혼합 현실 콘텐츠를 이용할 수 있게 되었다.Recently, a variety of contents utilizing hybrid reality have been developed as a head mounted display (HMD) device supporting the immersive virtual environment and the augmented reality has been popularized. HMD devices such as Samsung Gear VR, Microsoft Hololens, and AMD Sulon can be combined with mobile phones to provide content, allowing users to use mixed real-world content as well as specified space.

나아가, 최근에는 증강 현실 분야에서 현실에 존재하는 물체들을 사용자의 목적에 따라서 보이지 않게 처리해주는 감소 현실(Diminished Reality) 기술이 개발되었다. 감소 현실에서는 카메라를 통해 취득한 영상 정보에서 사용자가 제거를 원하는 객체를 선택하면, 해당 객체 및 해당 객체의 배경이 되는 영역을 인식하여 영상에서 객체 이미지를 제거하고 제거된 영역을 주변 배경으로 치환함으로써 실제 현실에서 해당 객체가 제거되는 것과 같이 시각화하는 방법이 흔히 이용된다.In addition, recently, a diminished reality technique has been developed which treats objects in real life in the augmented reality field invisibly according to the purpose of the user. In the reduction reality, when the user selects an object desired to be removed from the image information acquired through the camera, the object image and the background area of the object are recognized, and the object image is removed from the image, In reality, visualization is often used as the object is removed.

예를 들어, 마이크로소프트의 Hololens를 이용하는 X-ray 게임의 경우, 이와 같은 감소 현실과 가상 현실 콘텐츠를 결합함으로써, 사용자가 실제 벽을 촬영한 영상 내에서 벽을 레이저로 공격하는 경우 벽이 없어지고 그 자리에 가상 현실 세계가 보이도록 시각화되었다.For example, in an X-ray game using Microsoft's Hololens, combining such reduced reality with virtual reality content, if a user attacks a wall with a laser in the image of the actual wall, the wall disappears The virtual reality world was visualized in that position.

한편, 모바일 혼합 현실 장치를 사용하는 다른 예로는, 사용자가 건물 내에서 특정 목적지까지 이동하는 경우에 제공되는 위치 기반 길 안내 서비스가 있다. 예를 들어, 사용자가 병원을 방문하는 경우에 접수, 의사의 진단, 정밀 검사, 처방, 수납과 같이 사용자의 스케쥴에 따라 서비스를 제공받는 장소가 상이하고 건물 구조가 복잡하기 때문에, 길 안내 서비스 애플리케이션은 사용자의 상황을 고려하여 다음 목적지를 올바르게 안내해야 한다.Another example of using a mobile mixed reality device is a location based guiding service provided when a user moves from a building to a specific destination. For example, when a user visits a hospital, since a place to receive a service is different according to a schedule of a user, such as receptionist, doctor's diagnosis, close-up examination, prescription, Should guide the next destination correctly considering the situation of the user.

사용자는 건물 내에서 길을 찾기 위해 목적지 공간의 영상을 디스플레이에 연결하여 목적지에 있는 직원들과 상호작용하거나, 안내 메시지를 수신하는 등의 길 안내 서비스를 제공받을 수 있다. 그러나 더 복잡한 건물 구조에서 길 안내 서비스를 이용할 때, 또는 기기의 조작이 익숙하지 않은 사람들에게는 길 안내 서비스 또는 목적지의 오브젝트와 상호작용하기 위해 보다 직관적인 가시화 방법이 제공되어야 할 필요성이 있다.The user can connect the image of the destination space to the display to find a route in the building, and can receive a guidance service such as interacting with employees at a destination, receiving a guidance message, and the like. However, there is a need to provide a more intuitive visualization method for interacting with the object of the guidance service or destination when using the guidance service in a more complex building structure, or for those who are not familiar with the operation of the device.

대한민국 등록특허 제10-1229078 B1호Korean Patent No. 10-1229078 B1

본 발명의 기술적 과제는 이러한 점에서 착안된 것으로, 사용자에게 혼합 현실 환경을 제공함에 있어서, 서버를 통해 실시간으로 스트리밍 되는 목적지의 내부 영상(예를 들어, 건물 내부 영상)과 사용자 디바이스로 외부에서 촬영한 장애물 영상(예를 들어, 건물 벽 영상)을 적응적으로 정합함으로써, 사용자에게 마치 장애물을 투시하여 내부를 직접 보는 것과 같은 몰입감을 제공하고, 나아가 목적지 내 오브젝트와 상호작용하기 위한 기술을 제공하는 것을 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and it is an object of the present invention to provide a mixed reality environment for a user, which is capable of providing a user with an internal image of a destination (for example, (For example, a building wall image) is adaptively matched to provide an immersion feeling as if the user views the obstacle directly through the obstacle and further provides a technique for interacting with the object in the destination .

본 명세서의 일 측면에 따른 실감 투시 방법은, 제1 공간의 내부에 위치한 원격지 디바이스의 제1 카메라를 이용하여, 제1 공간의 전방향 내부 영상을 촬영하는 단계; 유선 또는 무선 네트워크를 통해, 상기 제1 공간의 전방향 내부 영상 데이터를 실시간 스트리밍 서버에 업로드 하는 단계; 상기 제1 공간의 외부에 위치한 사용자 디바이스의 제2 카메라를 이용하여, 제1 공간의 외부 장애물을 촬영하는 단계; 상기 실시간 스트리밍 서버로부터, 상기 제1 공간의 전방향 내부 영상 데이터를 다운로드 하는 단계; 상기 제1 공간의 전방향 내부 영상과 상기 제1 공간의 외부 장애물 영상을 적응적으로 정합함으로써 투시 영상을 생성하는 단계; 및 상기 투시 영상을 상기 사용자 디바이스에 디스플레이 하는 단계를 포함한다.A sensory perspective method according to one aspect of the present invention includes: capturing an omnidirectional internal image of a first space using a first camera of a remote device located inside a first space; Uploading forward direction internal image data of the first space to a real time streaming server through a wired or wireless network; Capturing an external obstacle in a first space using a second camera of a user device located outside the first space; Downloading the forward direction internal image data of the first space from the real time streaming server; Generating a perspective image by adaptively matching an image in the forward direction of the first space with an image of the obstacle in the first space; And displaying the perspective image on the user device.

일 실시예에서, 상기 제1 공간의 전방향 내부 영상과 상기 제1 공간의 외부 장애물 영상을 적응적으로 정합함으로써 투시 영상을 생성하는 단계는, 상기 제1 공간의 외부 장애물 영상에서 투시할 영역을 지정하는 단계; 상기 제1 공간의 외부 장애물 영상에 기초하거나, 또는 관성측정유닛(IMU)을 이용하여 추적한 상기 사용자 디바이스의 모션에 기초하여, 상기 제2 카메라의 촬영 방향을 판단하는 단계; 상기 투시할 영역 및 상기 제2 카메라의 촬영 방향에 기초하여, 상기 제1 공간의 전방향 내부 영상으로부터 일방향 내부 영상을 추출하는 단계; 및 상기 외부 장애물 영상에서 투시할 영역을 상기 일방향 내부 영상으로 대체함으로써 투시 영상을 생성하는 단계를 포함할 수 있다.In one embodiment, the step of generating the perspective image by adaptively matching the forward and backward images of the first space with the outer obstacle image of the first space may include: ; Determining a shooting direction of the second camera based on motion of the user device based on an external obstacle image of the first space or using an inertial measurement unit (IMU); Extracting a one-directional internal image from the forward direction internal image of the first space based on the perspective area and the photographing direction of the second camera; And generating a perspective image by replacing the area to be viewed in the external obstacle image with the one-directional internal image.

일 실시예에서, 상기 투시 영상은, 상기 외부 장애물의 일부가 허물어지면서 상기 일방향 내부 영상이 나타나는 시각적 효과를 포함할 수 있다.In one embodiment, the perspective image may include a visual effect in which the one-directional internal image appears as a part of the external obstacle is broken down.

일 실시예에서, 상기 실감 투시 방법은, 상기 제1 카메라를 이용하여, 상기 제1 공간 내 위치하는 오브젝트를 촬영하는 단계; 상기 오브젝트에 대한 정보를 상기 실시간 스트리밍 서버에 업로드 하는 단계;In one embodiment, the sensory inspection method includes: photographing an object located in the first space using the first camera; Uploading information about the object to the real-time streaming server;

상기 사용자 디바이스의 인터페이스를 통해, 상기 오브젝트를 선택하는 단계; 상기 실시간 스트리밍 서버로부터, 상기 오브젝트에 대한 정보를 다운로드 하는 단계; 및 상기 정보를 상기 사용자 디바이스에 디스플레이 하는 단계를 더 포함할 수 있다.Selecting the object through an interface of the user device; Downloading information about the object from the real-time streaming server; And displaying the information on the user device.

일 실시예에서, 상기 사용자 디바이스는 헤드 마운티드 디스플레이(Head Mounted Display) 장치일 수 있다.In one embodiment, the user device may be a head mounted display device.

일 실시예에서, 상기 실감 투시 방법을 실행하기 위한 컴퓨터 프로그램이 제공될 수 있다.In one embodiment, a computer program for executing the realistic perspective method may be provided.

본 명세서의 또 다른 측면에 따른 실감 투시 시스템은, 제1 공간의 내부 영상을 촬영하여 업로드 하기 위한 원격지 디바이스; 영상 데이터를 실시간으로 스트리밍 하기 위한 실시간 스트리밍 서버; 및 상기 제1 공간의 외부에 위치한 사용자 디바이스를 포함하되, 상기 원격지 디바이스는, 상기 제1 공간의 내부를 360도 촬영 가능한 제1 카메라; 및 유선 또는 무선 네트워크를 통해, 제1 공간의 전방향 내부 영상 데이터를 상기 실시간 스트리밍 서버에 업로드 하기 위한, 데이터 업로드 모듈을 포함하고, 상기 사용자 디바이스는, 제1 공간의 외부 장애물을 촬영하기 위한 제2 카메라; 상기 실시간 스트리밍 서버로부터, 상기 제1 공간의 전방향 내부 영상 데이터를 다운로드 하기 위한, 데이터 다운로드 모듈; 상기 제1 공간의 전방향 내부 영상과 상기 제1 공간의 외부 장애물 영상을 적응적으로 정합함으로써 투시 영상을 생성하기 위한, 투시 영상 생성 모듈; 및 상기 투시 영상을 표시하기 위한 디스플레이를 포함한다.According to another aspect of the present invention, there is provided a sensory perspective system comprising: a remote device for capturing and uploading an internal image of a first space; A real time streaming server for streaming video data in real time; And a user device located outside the first space, the remote device comprising: a first camera capable of capturing 360 degrees of the interior of the first space; And a data upload module for uploading the forward direction internal image data of the first space to the real time streaming server via a wired or wireless network, the user device comprising: 2 camera; A data download module for downloading the forward direction internal image data of the first space from the real time streaming server; A perspective image generation module for generating a perspective image by adaptively matching the forward direction internal image of the first space and the external obstacle image of the first space; And a display for displaying the perspective image.

일 실시예에서, 상기 투시 영상 생성 모듈은, 상기 제1 공간의 외부 장애물 영상에서 투시할 영역을 지정하기 위한, 투시 영역 지정 유닛; 상기 제1 공간의 외부 장애물 영상에 기초하거나, 또는 관성측정유닛(IMU)을 이용하여 추적한 상기 사용자 디바이스의 모션에 기초하여, 상기 제2 카메라의 촬영 방향을 판단하기 위한, 촬영 방향 판단 유닛; 상기 투시 영역 및 상기 제2 카메라의 촬영 방향에 기초하여, 상기 제1 공간의 전방향 내부 영상으로부터 일방향 내부 영상을 추출하기 위한, 내부 영상 추출 유닛; 및 상기 외부 장애물 영상에서 투시 영역을 상기 일방향 내부 영상으로 대체하기 위한, 내부 영상 대체 유닛을 포함할 수 있다.In one embodiment, the perspective image generation module includes: a perspective area designation unit for designating an area to be viewed from an outer obstacle image of the first space; A photographing direction judging unit for judging a photographing direction of the second camera based on an image of an external obstacle in the first space or based on a motion of the user device tracked using an inertial measurement unit (IMU); An internal image extraction unit for extracting a one-directional internal image from the forward direction internal image of the first space based on the shooting direction of the perspective region and the second camera; And an internal image replacement unit for replacing the perspective area with the one-directional internal image in the external obstacle image.

일 실시예에서, 상기 투시 영상은, 상기 외부 장애물의 일부가 허물어지면서 상기 일방향 내부 영상이 나타나는 시각적 효과를 포함할 수 있다.In one embodiment, the perspective image may include a visual effect in which the one-directional internal image appears as a part of the external obstacle is broken down.

일 실시예에서, 상기 데이터 업로드 모듈은, 상기 제1 공간 내 위치하며 상기 제1 카메라에 의해 촬영된 오브젝트에 대한 정보를 상기 실시간 스트리밍 서버에 업로드 하고, 상기 데이터 다운로드 모듈은, 상기 실시간 스트리밍 서버로부터 상기 오브젝트에 대한 정보를 다운로드 할 수 있다.In one embodiment, the data upload module uploads information on the object located in the first space and photographed by the first camera to the real-time streaming server, and the data download module transmits the information from the real-time streaming server The information about the object can be downloaded.

일 실시예에서, 상기 사용자 디바이스는 헤드 마운티드 디스플레이(Head Mounted Display) 장치일 수 있다.In one embodiment, the user device may be a head mounted display device.

본 명세서에서 제공하는 내부 및 외부 영상의 적응형 정합을 통한 실감 투시 방법 및 시스템에 의하면, 서버를 통해 실시간으로 스트리밍 되는 목적지의 내부 영상과 사용자 디바이스로 외부에서 촬영한 장애물 영상을 적응적으로 정합하여 생성한 투시 영상을 디스플레이 함으로써, 사용자에게 마치 장애물을 투시하여 내부를 직접 보는 것과 같은 몰입감을 제공할 수 있다.According to the method and system for real-time observation through adaptive matching of internal and external images provided herein, an internal image of a destination streamed in real time through a server is adaptively matched with an obstacle image captured from the outside by a user device By displaying the generated perspective image, it is possible to provide the user with an immersion feeling as if the user views the obstacle directly and looks inside.

이를 통해, 사용자가 헤드 마운티드 디스플레이(HMD) 장치를 착용하는 경우, 게임 또는 텔레프레젠스 등의 혼합 현실 환경에서 보다 높은 몰입감을 제공할 수 있다. 또한, 특별한 조작 없이도 직관적인 길 안내 서비스를 제공할 수 있으므로 복잡한 건물 구조 내에서 목적지에 용이하게 도달할 수 있다.This allows a higher immersion feeling in a mixed reality environment, such as a game or telepresence, if the user wears a head-mounted display (HMD) device. In addition, it is possible to provide an intuitive route guidance service without any special operation, so that it can be easily reached to a destination within a complex building structure.

나아가, 사용자는 목적지에 위치한 오브젝트에 대한 영상 및 정보를 서버를 통해 다운로드 함으로써 상호작용할 수 있으므로 보다 높은 몰입감을 제공할 수 있다.Furthermore, the user can interact with the image and information about the object located at the destination by downloading through the server, thereby providing a higher immersion feeling.

도 1은 일 실시예에 따른 실감 투시 방법을 나타낸 순서도이다.
도 2는 도 1의 투시 영상을 생성하는 단계를 상세하게 나타낸 순서도이다.
도 3a 내지 3b는 사용자가 일 실시예에 따른 실감 투시 방법을 수행하는 것을 나타낸 도면이다.
도 4a 내지 4b는 일 실시예에 따른 실감 투시 방법을 수행하는 경우 사용자 디바이스에 디스플레이 되는 투시 영상을 나타낸 도면이다.
도 5은 일 실시예에 따른 실감 투시 시스템을 나타낸 블록도이다.
도 6는 도 5의 투시 영상 생성 모듈을 상세하게 나타낸 블록도이다.
FIG. 1 is a flowchart illustrating a sensory inspection method according to an exemplary embodiment of the present invention.
FIG. 2 is a flowchart illustrating in detail the step of generating the perspective image of FIG.
3A and 3B are diagrams illustrating a user performing a real-time perspective method according to an embodiment.
FIGS. 4A and 4B are views showing a perspective image displayed on a user device when performing a real-time perspective method according to an embodiment.
FIG. 5 is a block diagram illustrating a real-feeling perspective system according to an embodiment.
FIG. 6 is a detailed block diagram of the perspective image generation module of FIG.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당 업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시 예는 서로 다르지만 상호 배타적일 필요는 없다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있다. 따라서, 후술하는 상세한 설명은 한정적인 의미로 기술된 것이 아니며, 본 발명의 범위는 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에서 동일하거나 유사한 기능을 지칭한다.The following detailed description of the invention refers to the accompanying drawings, which illustrate, by way of illustration, specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. The various embodiments of the present invention are different but need not be mutually exclusive. For example, certain features, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention in connection with an embodiment. Furthermore, the position or arrangement of individual components within each disclosed embodiment may be varied without departing from the spirit and scope of the present invention. The following detailed description is, therefore, not to be taken in a limiting sense, and the scope of the present invention is to be limited only by the appended claims, along with the full scope of equivalents to which the claims are entitled. In the drawings, like reference numerals refer to the same or similar functions in various aspects.

본 명세서에서 사용되는 용어는 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 명세서의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가지는 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 한다.As used herein, terms used in the present specification are selected from the general terms that are currently widely used, while taking into consideration the functions, but these may vary depending on the intention or custom of the artisan or the emergence of new techniques. Also, in certain cases, there may be a term selected by the applicant at will, in which case the meaning will be described in the description part of the corresponding specification. Therefore, the terms used in the present specification should be interpreted based on the meaning of the term rather than on the name of a simple term, and on the contents throughout the specification.

또한, 본 명세서에 기술된 실시예는 전적으로 하드웨어이거나, 부분적으로 하드웨어이고 부분적으로 소프트웨어이거나, 또는 전적으로 소프트웨어인 측면을 가질 수 있다. 본 명세서에서 "부(unit)", "모듈(module)", "장치(device)", "서버(server)" 또는 "시스템(system)" 등은 하드웨어, 하드웨어와 소프트웨어의 조합, 또는 소프트웨어 등 컴퓨터 관련 엔티티(entity)를 지칭한다. 예를 들어, 부, 모듈, 장치, 서버 또는 시스템은 플랫폼(platform)의 일부 또는 전부를 구성하는 하드웨어 및/또는 상기 하드웨어를 구동하기 위한 애플리케이션(application) 등의 소프트웨어를 지칭하는 것일 수 있다.In addition, the embodiments described herein may be wholly hardware, partially hardware, partially software, or entirely software. As used herein, the terms "unit," "module," "device," "server," or "system" Refers to a computer-related entity. For example, a component, a module, a device, a server, or a system may refer to software such as an application for driving the hardware and / or the hardware constituting part or all of the platform.

이하, 도면들을 참조하여 공간적 관계 정보를 이용하여 겹쳐 있는 가상 객체를 선택하기 위한 방법의 바람직한 실시예를 보다 상세하게 설명하기로 한다.Hereinafter, a preferred embodiment of a method for selecting a superimposed virtual object using spatial relationship information will be described in more detail with reference to the drawings.

도 1은 일 실시예에 따른 실감 투시 방법을 나타낸 순서도이다. 도 1을 참조하면, 360도 촬영 가능한 제1 카메라를 이용하여 제1 공간의 전방향 내부 영상을 촬영하는 단계가 수행된다(S100).FIG. 1 is a flowchart illustrating a sensory inspection method according to an exemplary embodiment of the present invention. Referring to FIG. 1, a step of photographing a forward direction internal image of a first space using a first camera capable of 360-degree photographing is performed (S100).

제1 공간의 내부/외부를 각각 촬영하는 디바이스들을 도시하고 있는 도 3a를 참조하면, 투시하고자 하는 원격지 공간인 제1 공간(1) 및 제1 공간에 설치된 원격지 디바이스(10), 원격지 외부에 위치한 사용자(2) 및 사용자가 제어하는 사용자 디바이스(20), 제1 공간(1)과 사용자(2) 사이를 차단하고 있는 외부 장애물(30)이 도시되어 있다. 제1 공간은 사용자와 격리되어 있는 원격지 공간으로서, 예를 들어 투시하고자 하는 건물 내부 또는 벽 너머의 공간 등을 포함한다. Referring to FIG. 3A, which illustrates devices for photographing the inside / outside of the first space, a first space 1, which is a remote space to be viewed, and a remote device 10, which is installed in the first space, There is shown a user 2 and a user device 20 controlled by the user and an external obstacle 30 blocking between the first space 1 and the user 2. [ The first space is a remote space isolated from the user, for example, a space inside a building or a space beyond a wall to be viewed.

원격지 디바이스(10)는 제1 공간(1) 내부의 특정 방향뿐만 아니라 360도 전방향을 촬영할 수 있는 제1 카메라를 포함하며, 제1 공간의 내부를 전부 촬영할 수 있도록 설치된다. 이하의 실시예에서, 이해를 돕기 위해 제1 카메라에 의해 촬영되는 제1 공간의 영역을 A, B, C, D 로 단순화하여 설명하지만, 이에 한정되지 않으며 다른 실시예에서 제1 공간의 영역은 360도 카메라를 이용하여 더욱 세분화하여 촬영될 수 있다. 실시예에서, 외부 장애물(30)은 건물 외벽 또는 내벽과 같이 사용자가 제1 공간을 직접적으로 볼 수 없도록 시야를 차단하는 장애물일 수 있다.The remote device 10 includes a first camera capable of photographing not only a specific direction inside the first space 1 but also all directions 360 degrees, and is installed so as to be able to photograph all the inside of the first space. In the following embodiments, the area of the first space taken by the first camera is simplified to A, B, C, D for the sake of understanding, but the present invention is not limited thereto. In another embodiment, It can be further segmented using a 360-degree camera. In an embodiment, the outer obstacle 30 may be an obstacle that blocks the field of view such that the user can not directly see the first space, such as building exterior walls or interior walls.

도시된 바와 같이, 사용자(2)는 사용자 디바이스(20)를 착용하고 있다. 후술하는 바와 같이, 사용자 디바이스(20)는 외부 장애물(30)을 촬영할 수 있는 제2 카메라, 프로세서 및 디스플레이를 포함하는 임의의 유형의 디바이스일 수 있으며, 예를 들어 스마트폰, 태블릿, 랩톱 컴퓨터, 헤드 마운티드 디스플레이(HMD) 장치 또는 이들의 조합 등을 포함할 수 있으나 이에 한정되지는 않는다. 상기 제2 카메라는 제1 카메라와 달리 360도 카메라일 필요는 없다. As shown, the user 2 wears the user device 20. As discussed below, the user device 20 may be any type of device, including a second camera, a processor and a display, capable of capturing an external obstacle 30, such as a smartphone, tablet, laptop computer, A head-mounted display (HMD) device, a combination thereof, and the like. Unlike the first camera, the second camera need not be a 360 degree camera.

제1 공간의 전방향 내부 영상(예를 들면, 도 3a의 A, B, C, D)을 촬영한 후, 유선 또는 무선 네트워크를 통해 상기 제1 공간의 전방향 내부 영상 데이터를 실시간 스트리밍 서버에 업로드 하는 단계가 수행된다(S200). 원격지 디바이스 내 전송부를 이용하여 촬영된 영상 데이터를 서버에 업로드 하는 방법은 종래의 널리 알려진 유선/무선 통신을 이용할 수 있으며, 본 실시예의 핵심적인 기술적 특징이 아니므로 자세한 설명은 생략하도록 한다.(For example, A, B, C, and D in FIG. 3A) of the first space and transmits the forward direction internal image data of the first space to the real time streaming server through the wired or wireless network An uploading step is performed (S200). The method of uploading the image data photographed by using the transmission unit in the remote device to the server can be performed by a conventional well-known wired / wireless communication and is not a core technical feature of the present embodiment, so a detailed description will be omitted.

한편, 제1 공간의 외부에서는 사용자 디바이스에 포함된 제2 카메라를 이용하여 제1 공간의 외부 장애물을 촬영하는 단계가 수행된다(S300). 단계(S300)는 단계(S100 내지 S200)의 이전 또는 이후에 수행될 수 있으며 시간적인 순서에 구애 받지 않는다.Meanwhile, in step S300, an external obstacle in the first space is photographed using a second camera included in the user device outside the first space. Step S300 may be performed before or after steps S100 to S200, and is not subject to temporal order.

도 3a를 참조하면, 사용자(2)는 사용자 디바이스(20)에 포함된 제2 카메라를 이용하여 제1 공간의 외부 장애물(30)을 촬영한다. 후술하는 바와 같이, 일 실시예에서 사용자는 상기 외부 장애물 영상에서 투시할 영역을 지정할 수 있으므로, 도 4a와 같이 촬영된 외부 장애물 영상(E)이 사용자 디바이스에 디스플레이 될 수 있다.Referring to FIG. 3A, a user 2 photographs an external obstacle 30 in a first space using a second camera included in the user device 20. As described later, in one embodiment, the user can specify an area to be viewed from the external obstacle image, so that the captured external obstacle image E can be displayed on the user device as shown in FIG. 4A.

이어, 무선 또는 유선 네트워크를 통해, 상기 실시간 스트리밍 서버로부터 사용자 디바이스에, 상기 제1 공간의 전방향 내부 영상(예를 들면, 도 3a의 A, B, C, D) 데이터를 다운로드 하는 단계가 수행된다(S400). 사용자 디바이스 내 수신부를 이용하여 촬영된 영상 데이터를 서버로부터 다운로드 하는 방법은 종래의 널리 알려진 유선/무선 통신을 이용할 수 있으며, 본 실시예의 핵심적인 기술적 특징이 아니므로 자세한 설명은 생략하도록 한다.Next, the step of downloading the forward direction internal image (e.g., A, B, C, D) data of the first space from the real time streaming server to the user device through a wireless or wired network is performed (S400). A method of downloading image data photographed using a receiving unit in a user device from a server can be performed using conventional wired / wireless communication, and is not a core technical feature of the present embodiment, so a detailed description will be omitted.

이어, 상기 제1 공간의 전방향 내부 영상과 상기 제1 공간의 외부 장애물 영상을 적응적으로 정합함으로써 투시 영상을 생성하는 단계가 수행된다(S500). 영상 정합(image registration) 기술은 하나의 장면이나 대상을 다른 시간이나 관점에서 촬영한 경우 서로 상이한 좌표계의 영상을 변형하여 하나의 좌표계에 나타내는 임의의 영상 처리 기법을 포함한다. 이하에서 상세하게 후술하는 바와 같이, 제1 카메라로 촬영한 제1 공간 내부 영상과 제2 카메라로 촬영한 외부 장애물 영상을 실시간으로 정합함으로써 마치 사용자가 장애물을 투시하여 제1 공간을 보는 것과 같은 투시 영상을 생성할 수 있다.Then, a perspective image is generated by adaptively matching the forward and backward images of the first space with the outer space of the first space (S500). The image registration technique includes an arbitrary image processing technique in which, when a scene or an object is photographed at a different time or point of view, an image of a different coordinate system is transformed and displayed in one coordinate system. As will be described in detail below, the first space internal image captured by the first camera and the external obstacle image captured by the second camera are matched in real time so that the user can observe the obstacle and see the first space Images can be generated.

일 실시예에서, 상기 투시 영상을 생성하는 단계(S500)는, 상기 제1 공간의 외부 장애물 영상에서 투시할 영역을 지정하는 단계(S510), 상기 제1 공간의 외부 장애물 영상에 기초하거나, 또는 관성측정유닛(IMU)을 이용하여 추적한 상기 사용자 디바이스의 모션에 기초하여 상기 제2 카메라의 촬영 방향을 판단하는 단계(S520), 상기 투시할 영역 및 상기 제2 카메라의 촬영 방향에 기초하여 상기 제1 공간의 전방향 내부 영상으로부터 일방향 내부 영상을 추출하는 단계(S530), 및 상기 외부 장애물 영상에서 투시할 영역을 상기 일방향 내부 영상으로 대체함으로써 투시 영상을 생성하는 단계(S540)를 포함할 수 있다.In one embodiment, the generating of the perspective image (S500) comprises: designating an area to be viewed from the external obstacle image of the first space (S510); based on the external obstacle image of the first space; (S520) of determining a photographing direction of the second camera based on the motion of the user device tracked by using the inertia measurement unit (IMU) (S520), determining, based on the photographing direction of the second camera, A step S530 of extracting a one-directional internal image from the forward direction internal image of the first space, and a step S540 of generating a perspective image by replacing the one-direction internal image with an area to be viewed from the external obstacle image have.

단계(S510)는, 상기 제2 카메라로 촬영한 외부 장애물 영상이 사용자 디바이스에 디스플레이 되면, 사용자가 외부 장애물 영상 중 투시할 영역을 지정함으로써 수행될 수 있다. 투시할 영역을 지정하는 방법은, 사용자 디바이스가 스마트 폰 또는 태블릿인 경우에는 출력 영상의 일부를 터치함으로써 수행될 수 있고, 랩톱 컴퓨터인 경우에는 마우스나 키보드와 같은 입력 장치를 이용하여 출력 영상의 일부를 선택함으로써 수행될 수 있고, 헤드 마운티드 디스플레이(HMD)인 경우에는 HMD에 장착된 카메라 또는 IMU 센서를 이용하여 사용자의 손동작을 추적함으로써 수행될 수 있다. 또 다른 실시예에서, 상기 단계(S510)는 사용자 디바이스 내 프로세서가 장애물 영상 중 미리 설정된 영역을 자동적으로 선택함으로써 수행될 수도 있다. In operation S510, when the external obstacle image photographed by the second camera is displayed on the user device, the user can designate an area of the external obstacle image to be viewed. The method of designating the region to be viewed may be performed by touching a part of the output image when the user device is a smart phone or a tablet and by using a part of the output image using an input device such as a mouse or a keyboard And in the case of a head-mounted display (HMD), it can be performed by tracking a user's hand gesture using a camera mounted on the HMD or an IMU sensor. In another embodiment, the step S510 may be performed by the processor in the user device by automatically selecting a predetermined area of the obstacle image.

도 4a를 참조하면, 단계(S300)에 따라 촬영된 외부 장애물 영상(E)에 있어서, 단계(S510)에 따라 투시할 영역(E')를 지정하는 모습이 도시되어 있다. 전술한 바와 같이, 사용자의 다양한 입력에 따라 임의의 크기를 수동적으로 선택하거나, 프로세서에 의해 자동적으로 선택함으로써 투시할 영역(E')을 지정할 수 있다.Referring to FIG. 4A, in the external obstacle image E photographed in step S300, a region to be viewed E 'is designated according to step S510. As described above, it is possible to passively select an arbitrary size according to various inputs of a user, or designate an area E 'to be viewed by automatically selecting by a processor.

단계(S520)에서는, 제1 공간의 외부 장애물 영상에 기초하여 제2 카메라의 촬영 방향을 판단할 수 있다. 이는, 후술하는 바와 같이 단계(S100)에서 촬영한 제1 공간의 전방향 내부 영상 중 제2 카메라의 촬영 방향, 즉 사용자의 시선 방향과 대응되는 일방향 내부 영상을 추출하기 위함이다.In step S520, the photographing direction of the second camera can be determined based on the external obstacle image in the first space. This is for extracting a one-directional internal image corresponding to the photographing direction of the second camera, that is, the gaze direction of the user, among the forward direction internal images of the first space photographed in step S100 as described later.

실시예에서, 실시간 스트리밍 서버는 제1 공간의 외부 장애물(예를 들어, 건물 벽)의 이미지 및 방향 정보를 포함할 수 있고, 사용자 디바이스는 상기 정보를 다운로드 하여 장애물 영상과 비교함으로써 제2 카메라의 촬영 방향, 즉 사용자의 시선 방향을 판단할 수 있다. 일 실시예에서, 사용자 디바이스는 HMD 장치인 경우에 실시간 스트리밍 서버는 제1 공간의 특징점 추적(feature tracking) 정보를 포함할 수 있고, 상기 HMD 장치는 내장된 관성측정유닛(IMU)을 통해 획득한 값과 상기 특징점 추적 정보를 결합함으로써 사용자가 투시할 영역에서 얼마나 떨어져 있는지를 효과적으로 계산할 수 있다.In an embodiment, the live streaming server may include image and direction information of an external obstacle (e.g., building wall) in the first space, and the user device may download the information and compare it with the obstacle image, The photographing direction, that is, the direction of the user's gaze can be determined. In one embodiment, in the case where the user device is an HMD device, the real-time streaming server may include feature tracking information of the first space, and the HMD device may include information obtained from an embedded inertial measurement unit Value and the minutiae tracking information, it is possible to effectively calculate how far the user is from the area to be viewed.

예를 들어, 도 3a 내지 도 3b를 참조하면, 사용자 디바이스의 제2 카메라로 촬영된 장애물 영상(E)을 분석한 결과, 사용자가 제1 공간(A, B, C, D) 중 공간(A)를 바라보는 방향에 위치하고 있음을 알 수 있고, 상기 특징점 추적 정보를 이용하면 사용자가 제1 공간과 얼마나 떨어져 있는지를 알 수 있다.3A and 3B, the obstacle image E captured by the second camera of the user device is analyzed. As a result, when the user selects one of the first spaces A, B, C, ), And by using the minutiae tracking information, it is possible to know how far the user is from the first space.

이에 따라, 상기 제2 카메라의 촬영 방향 및 단계(S510)에서 지정한 투시할 영역에 기초하여 일방향 내부 영상을 추출하는 단계(S530)가 수행된다. 예를 들면, 제1 공간의 전방향 내부 영상(A, B, C, D) 중 사용자의 제2 카메라 촬영 방향, 즉 사용자의 시선 방향과 일치하는 영상은 A이고, 사용자가 외부 장애물 영상(E)중 일부 투시할 영역(E')을 지정하였다면, 상기 일방향 영상(A) 중 투시할 영역(E')의 크기 및 방향에 대응하는 내부 영상(A')을 선택적으로 추출할 수 있다.Accordingly, the unidirectional internal image is extracted (S530) based on the photographing direction of the second camera and the viewable area designated in step S510. For example, if the image coinciding with the second camera photographing direction of the user, that is, the gaze direction of the user out of the forward direction internal images A, B, C, and D of the first space is A, (A ') corresponding to the size and direction of the region E' to be viewed out of the one-way image (A) can be selectively extracted.

도 4b를 참조하면, 외부 장애물 영상(E) 중 지정된 투시할 영역(E')을 상기 일방향 내부 영상(A')로 대체함으로써 표시되는 투시 영상이 도시되어 있다. 일 실시예에서, 도 4b와 같이 상기 투시 영상은 외부 장애물의 일부가 허물어지면서 내부 영상이 나타나는 시각적 효과를 포함할 수 있다. 이와 같은 가시화 방법은, 촬영된 장애물 영상(예를 들어, 건물의 벽 영상)을 텍스처로 변환하고 폴리곤을 생성하여 디스트럭션 시뮬레이션(destruction simulation)을 수행함으로써 이루어질 수 있다. 상기 시각적 효과는 사용자로 하여금 혼합 현실 환경에 몰입할 수 있게 하고, 실시하는 목적에 따라 상이한 시각적 효과를 구현함으로써 게임 등 엔터테인먼트 분야에서 활용될 수 있다.Referring to FIG. 4B, a perspective image displayed by replacing a designated viewable area E 'of the external obstacle image E with the unidirectional internal image A' is shown. In one embodiment, as shown in FIG. 4B, the perspective image may include a visual effect in which an inner image is displayed as a part of the outer obstacle is broken down. Such a visualization method may be performed by converting a photographed obstacle image (for example, a wall image of a building) into a texture and generating a polygon to perform a destruction simulation. The visual effect can be utilized in an entertainment field such as a game by allowing a user to immerse himself in a mixed reality environment and realizing different visual effects according to an object to be performed.

이와 같이 적응적으로 정합된 투시 영상을 사용자 디바이스에 디스플레이 함으로써, 사용자는 마치 외부 장애물을 투시하여 제1 공간 내부를 보는 것과 같은 향상된 몰입감을 느낄 수 있으며, 도착하고자 하는 목적지에 설치된 360도 카메라를 통해서 취득된 영상 중에서 사용자가 바라보는 시야 방향에 대응되는 시야에 있는 영상 정보들만 선별되어 스트리밍이 이루어져서 스트리밍에 드는 용량을 줄임으로써 스트리밍 속도를 향상 시키고, 네트워크 대역폭을 안정적으로 사용할 수 있도록 해준다.By displaying the adaptively matched perspective image on the user device, the user can feel the immersed feeling as if he or she is looking inside the first space by looking at the external obstacle, and the 360 degree camera installed at the destination Only the video information in the field of view corresponding to the viewing direction viewed by the user is selected and streamed, thereby reducing the streaming capacity, thereby improving the streaming speed and stably using the network bandwidth.

일 실시예에서, 전술한 실감 투시 방법은 사용자가 제1 공간 내 위치한 오브젝트에 대한 정보를 획득함으로써 상호작용할 수 있도록 하는 추가적인 단계를 더 포함할 수 있다. 구체적으로, 상기 실감 투시 방법은, 상기 제1 카메라를 이용하여 상기 제1 공간 내 위치하는 오브젝트를 촬영하는 단계, 상기 오브젝트에 대한 정보를 상기 실시간 스트리밍 서버에 업로드 하는 단계, 상기 사용자 디바이스의 인터페이스를 통해 상기 오브젝트를 선택하는 단계, 상기 실시간 스트리밍 서버로부터, 상기 오브젝트에 대한 정보를 다운로드 하는 단계, 및 상기 정보를 상기 사용자 디바이스에 디스플레이 하는 단계를 더 포함할 수 있다.In one embodiment, the realistic perspective method described above may further comprise the additional step of allowing the user to interact by acquiring information about an object located in the first space. Specifically, the sensory inspection method includes: photographing an object located in the first space using the first camera; uploading information about the object to the real-time streaming server; Downloading the information about the object from the real-time streaming server, and displaying the information on the user device.

예를 들어, 제1 공간이 병원 내부인 경우, 상기 오브젝트는 병원 내 위치한 수납 키오스크(KIOSK)일 수 있다. 상기 제1 카메라는 360도 촬영 가능한 카메라이므로 제1 공간 내 위치한 수납 키오스크가 촬영되고, 수납 키오스크에 대한 정보(예를 들어, "이 장치에서는 진료비를 수납할 수 있습니다"와 같은 오브젝트에 대한 설명)가 제1 공간 영상 데이터와 함께 실시간 스트리밍 서버에 업로드 된다.For example, if the first space is a hospital interior, the object may be a storage kiosk (KIOSK) located in the hospital. Since the first camera is a camera capable of photographing 360 degrees, the storage kiosk located in the first space is photographed, and information about the storage kiosk (for example, a description of an object such as " Is uploaded to the real-time streaming server together with the first spatial image data.

사용자가 디바이스에 디스플레이 된 제1 공간 영상(병원 내부 영상)에서 상기 오브젝트(수납 키오스크)를 선택하면, 상기 오브젝트에 대한 정보가 사용자 디바이스에 추가적으로 디스플레이 된다. 인터페이스를 통한 오브젝트의 선택은, 사용자 디바이스가 스마트 폰 또는 태블릿인 경우에는 출력 영상의 일부를 터치함으로써 수행될 수 있고, 랩톱 컴퓨터인 경우에는 마우스나 키보드와 같은 입력 장치를 이용하여 출력 영상의 일부를 선택함으로써 수행될 수 있고, 헤드 마운티드 디스플레이(HMD)인 경우에는 HMD에 장착된 카메라 또는 IMU 센서를 이용하여 사용자의 손동작을 추적함으로써 수행될 수 있다.When the user selects the object (storage kiosk) in the first spatial image (hospital internal image) displayed on the device, information about the object is additionally displayed on the user device. The selection of the object through the interface can be performed by touching a part of the output image when the user device is a smartphone or a tablet and by using an input device such as a mouse or a keyboard in the case of a laptop computer In the case of a head-mounted display (HMD), it can be performed by tracking a user's hand motion using a camera mounted on the HMD or an IMU sensor.

이와 같이, 사용자는 목적지에 위치한 오브젝트에 대한 영상 및 정보를 서버를 통해 실시간으로 다운로드 함으로써 보다 직관적으로 제1 공간 및 오브젝트와 상호작용할 수 있으므로, 혼합 현실 환경에서 더욱 높은 몰입감을 얻을 수 있다.In this way, the user can interact with the first space and the object more intuitively by downloading the image and information about the object located at the destination in real time through the server, so that a higher immersion feeling can be obtained in the mixed reality environment.

전술한 실시예들에 따른 실감 투시 방법은, 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현될 수 있고, 상기 프로그램은 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.The sensory perspective method according to the above-described embodiments can be implemented in the form of program instructions that can be implemented in an application or through various computer components, and the program can be recorded on a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, and the like, alone or in combination. Program instructions that are recorded on a computer-readable recording medium may be those that are specially designed and constructed for the present invention and are known and available to those skilled in the art of computer software.

컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those generated by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. A hardware device may be configured to operate as one or more software modules to perform processing in accordance with the present invention, and vice versa.

이하에서는, 전술한 실시예들에 따른 실감 투시 방법을 구현하기 위한 실감 투시 시스템에 대하여 설명하도록 한다.Hereinafter, a real-feeling perspective system for implementing a real-reality perspective method according to the above-described embodiments will be described.

도 5은 일 실시예에 따른 실감 투시 시스템을 나타낸 블록도이다. 도 5를 참조하면, 실감 투시 시스템은 제1 공간의 내부 영상을 촬영하여 업로드 하기 위한 원격지 디바이스(10), 무선 또는 유선 네트워크를 통해 상기 제1 공간 내부 영상 데이터를 스트리밍 하기 위한 실시간 스트리밍 서버(15), 및 상기 제1 공간의 외부에 위치한 사용자 디바이스(20)를 포함한다.FIG. 5 is a block diagram illustrating a real-feeling perspective system according to an embodiment. 5, the real-feeling perspective system includes a remote device 10 for photographing and uploading an internal image of a first space, a real-time streaming server 15 for streaming the first spatial internal image data through a wireless or wired network, And a user device 20 located outside the first space.

실시예에서, 원격지 디바이스(10)는 제1 공간의 내부를 360도 촬영 가능한 제1 카메라(100), 및 유선 또는 무선 네트워크를 통해, 제1 공간의 전방향 내부 영상 데이터를 상기 실시간 스트리밍 서버에 업로드 하기 위한 데이터 업로드 모듈(110)을 포함할 수 있다. 또한, 상기 사용자 디바이스(20)는, 제1 공간의 외부 장애물을 촬영하기 위한 제2 카메라(200), 상기 실시간 스트리밍 서버로부터 상기 제1 공간의 전방향 내부 영상 데이터를 다운로드 하기 위한 데이터 다운로드 모듈(210), 상기 제1 공간의 전방향 내부 영상과 상기 제1 공간의 외부 장애물 영상을 적응적으로 정합함으로써 투시 영상을 생성하기 위한 투시 영상 생성 모듈(220), 및 상기 투시 영상을 표시하기 위한 디스플레이(230)를 포함할 수 있다.In the embodiment, the remote device 10 includes a first camera 100 capable of capturing 360 degrees of the interior of the first space, and a second camera 100 capable of transmitting the forward direction internal video data of the first space to the live streaming server through a wired or wireless network And a data upload module 110 for uploading data. The user device 20 further includes a second camera 200 for capturing an external obstacle in the first space, a data download module (downloading module) for downloading the forward direction internal image data of the first space from the live streaming server 210), a perspective image generation module (220) for generating a perspective image by adaptively matching the forward direction internal image of the first space and the external obstacle image of the first space, and a display (230).

전술한 바와 같이, 제1 카메라(100)는 제1 공간 내부의 특정 방향뿐만 아니라 360도 전방향을 촬영할 수 있는 제1 카메라를 포함하며, 도 3a에 도시된 바와 같이 제1 공간의 내부를 전부 촬영할 수 있도록 설치된다. 원격지 디바이스(10)에 포함된 데이터 업로드 모듈(110)은 제1 공간의 전방향 내부 영상(예를 들면, 도 3a의 A, B, C, D)을 촬영한 후, 유선 또는 무선 네트워크를 통해 상기 제1 공간의 전방향 내부 영상 데이터를 실시간 스트리밍 서버(15)에 업로드 하기 위해 이용된다.As described above, the first camera 100 includes a first camera capable of photographing not only a specific direction inside the first space but also all directions 360 degrees, So that it can be photographed. The data upload module 110 included in the remote device 10 photographs the forward direction internal images of the first space (for example, A, B, C, and D in FIG. 3A) And is used for uploading the forward direction internal image data of the first space to the real time streaming server 15.

사용자 디바이스(20)는 제1 공간의 외부 장애물을 촬영할 수 있는 제2 카메라(200)를 포함하는 임의의 유형의 디바이스일 수 있으며, 예를 들어 스마트폰, 태블릿, 랩톱 컴퓨터, 헤드 마운티드 디스플레이(HMD) 장치 또는 이들의 조합 등을 포함할 수 있으나 이에 한정되지는 않는다. 상기 제2 카메라(200)는 제1 카메라(100)와 달리 360도 카메라일 필요는 없다. The user device 20 may be any type of device that includes a second camera 200 capable of capturing an external obstacle in a first space, such as a smart phone, a tablet, a laptop computer, a head-mounted display ) Devices, combinations thereof, and the like. Unlike the first camera 100, the second camera 200 need not be a 360 degree camera.

사용자 디바이스(20)의 데이터 다운로드 모듈(210)은, 무선 또는 유선 네트워크를 통해, 상기 실시간 스트리밍 서버(51)로부터 사용자 디바이스(20)에, 상기 제1 공간의 전방향 내부 영상 데이터를 다운로드 하기 위해 이용된다. 상기 유선/무선 네트워크를 이용하여 영상 데이터를 실시간 스트리밍 서버에 업로드/다운로드 하는 방법은 종래의 널리 알려진 유선/무선 통신을 이용할 수 있으며, 본 실시예의 핵심적인 기술적 특징이 아니므로 자세한 설명은 생략하도록 한다.The data download module 210 of the user device 20 may be configured to download the forward direction internal image data of the first space from the real time streaming server 51 to the user device 20 via a wireless or wired network . A method of uploading / downloading video data to / from a real-time streaming server using the wired / wireless network can be performed using a conventional wired / wireless communication, and is not a core technical feature of the present embodiment, so a detailed description will be omitted .

이하에서는, 사용자 디바이스(20)에 포함되는 투시 영상 생성 모듈(220)을 이용하여, 상기 제1 공간의 전방향 내부 영상과 상기 제1 공간의 외부 장애물 영상을 적응적으로 정합함으로써 투시 영상을 생성하는 방법이 설명된다.Hereinafter, a perspective image is generated by adaptively matching the forward direction internal image of the first space and the external obstacle image of the first space using the perspective image generation module 220 included in the user device 20 Is explained.

일 실시예에서, 도 6을 참조하면 상기 투시 영상 생성 모듈(220)은, 상기 제1 공간의 외부 장애물 영상에서 투시할 영역을 지정하기 위한 투시 영역 지정 유닛(222), 상기 제2 카메라의 촬영 방향을 판단하기 위한 촬영 방향 판단 유닛(223), 상기 투시 영역 및 상기 제2 카메라의 촬영 방향에 기초하여 상기 제1 공간의 전방향 내부 영상으로부터 일방향 내부 영상을 추출하기 위한 내부 영상 추출 유닛(224), 및 상기 외부 장애물 영상에서 투시 영역을 상기 일방향 내부 영상으로 대체하기 위한 내부 영상 대체 유닛(225)을 포함할 수 있다.6, the perspective image generation module 220 includes a perspective area designation unit 222 for designating an area to be viewed from an outer obstacle image of the first space, An internal image extracting unit 224 for extracting a one-directional internal image from the forward direction internal image of the first space based on the imaging direction of the perspective region and the second camera, And an internal image substitution unit 225 for replacing the perspective area with the one-directional internal image in the external obstacle image.

사용자는 투시 영역 지정 유닛(222)을 이용하여, 상기 제2 카메라(200)로 촬영한 외부 장애물 영상 중, 투시할 영역을 지정할 수 있다. 전술한 바와 같이, 투시할 영역을 지정하는 방법은, 사용자 디바이스가 스마트 폰 또는 태블릿인 경우에는 출력 영상의 일부를 터치함으로써 수행될 수 있고, 랩톱 컴퓨터인 경우에는 마우스나 키보드와 같은 입력 장치를 이용하여 출력 영상의 일부를 선택함으로써 수행될 수 있고, 헤드 마운티드 디스플레이(HMD)인 경우에는 HMD에 장착된 카메라 또는 IMU 센서를 이용하여 사용자의 손동작을 추적함으로써 수행될 수 있다.The user can designate an area to be viewed from the external obstacle image photographed by the second camera 200 by using the perspective area designation unit 222. [ As described above, the method of designating the area to be viewed can be performed by touching a part of the output image when the user device is a smart phone or a tablet, or by using an input device such as a mouse or a keyboard in the case of a laptop computer Or by selecting a part of the output image. In the case of a head-mounted display (HMD), the HMD can be performed by tracking a user's hand movements using a camera mounted on the HMD or an IMU sensor.

촬영 방향 판단 유닛(223)은, 제1 공간의 외부 장애물 영상에 기초하여 제2 카메라의 촬영 방향을 판단할 수 있다. 구체적인 실시예에서, 상기 제1 공간의 외부 장애물 영상에 기초하거나, 또는 관성측정유닛(IMU)을 이용하여 추적한 상기 사용자 디바이스의 모션에 기초하여 촬영한 제1 공간의 전방향 내부 영상 중 제2 카메라의 촬영 방향, 즉 사용자의 시선 방향을 판단할 수 있다. 일 실시예에서, 사용자 디바이스는 HMD 장치인 경우에 실시간 스트리밍 서버는 제1 공간의 특징점 추적(feature tracking) 정보를 포함할 수 있고, 상기 HMD 장치는 내장된 관성측정유닛(IMU)을 통해 획득한 값과 상기 특징점 추적 정보를 결합함으로써 사용자가 투시할 영역에서 얼마나 떨어져 있는지를 효과적으로 계산할 수 있음은 전술한 바와 같다.The shooting direction determination unit 223 can determine the shooting direction of the second camera based on the external obstacle image in the first space. In a specific embodiment, a second spatial inward image of the first space photographed based on the motion of the user device tracked based on the external obstacle image of the first space or using the inertial measurement unit (IMU) The photographing direction of the camera, that is, the direction of the user's gaze can be determined. In one embodiment, in the case where the user device is an HMD device, the real-time streaming server may include feature tracking information of the first space, and the HMD device may include information obtained from an embedded inertial measurement unit Value and the feature point tracking information are combined, it is possible to effectively calculate how far the user is from the area to be viewed.

내부 영상 추출 유닛(225)은, 상기 판단된 촬영 방향 및 지정된 투시할 영역에 기초하여, 전방향 내부 영상으로부터 대응되는 일방향 내부 영상을 추출할 수 있다. 예를 들면, 도 3a 내지 도 3b를 참조하면, 제1 공간의 전방향 내부 영상(A, B, C, D) 중 사용자의 제2 카메라 촬영 방향, 즉 사용자의 시선 방향과 일치하는 영상은 A이고, 사용자가 외부 장애물 영상(E)중 일부 투시할 영역(E')을 지정하였다면, 상기 일방향 영상(A) 중 투시할 영역(E')의 크기 및 방향에 대응하는 내부 영상(A')을 선택적으로 추출할 수 있다.The internal image extracting unit 225 may extract a corresponding one-directional internal image from the forward direction internal image based on the determined photographing direction and the designated viewable region. For example, referring to FIGS. 3A and 3B, an image of the user's second camera photographing direction, that is, an image coincident with the user's gaze direction, among the forward direction internal images A, B, C, If the user designates the partial view area E 'of the external obstacle image E, an internal image A' corresponding to the size and direction of the viewable area E 'of the one-way image A is displayed, Can be selectively extracted.

내부 영상 대체 유닛(225)은 지정된 투시 영역을 상기 추출된 제1 공간의 일방향 내부 영상으로 대체함으로써 투시 영상을 생성하는데 이용된다. 일 실시예에서, 도 4b와 같이 상기 투시 영상은 외부 장애물의 일부가 허물어지면서 내부 영상이 나타나는 시각적 효과를 포함할 수 있으며, 상기 시각적 효과는 사용자로 하여금 혼합 현실 환경에 몰입할 수 있게 하고, 실시하는 목적에 따라 상이한 시각적 효과를 구현함으로써 게임 등 엔터테인먼트 분야에서 활용될 수 있다.The internal image substitution unit 225 is used to create a perspective image by replacing the designated perspective area with the one-directional internal image of the extracted first space. In one embodiment, as shown in FIG. 4B, the perspective image may include a visual effect in which an inner image is displayed as a part of the outer obstacle is broken down. The visual effect enables a user to immerse in a mixed reality environment, It can be utilized in the field of entertainment such as games by implementing different visual effects according to the purpose of the game.

전술한 바와 같이, 이와 같이 적응적으로 정합된 투시 영상을 사용자 디바이스에 디스플레이 함으로써, 사용자는 마치 외부 장애물을 투시하여 제1 공간 내부를 보는 것과 같은 향상된 몰입감을 느낄 수 있으며, 도착하고자 하는 목적지에 설치된 360도 카메라를 통해서 취득된 영상 중에서 사용자가 바라보는 시야 방향에 대응되는 시야에 있는 영상 정보들만 선별되어 스트리밍이 이루어져서 스트리밍에 드는 용량을 줄임으로써 스트리밍 속도를 향상 시키고, 네트워크 대역폭을 안정적으로 사용할 수 있도록 해준다.As described above, by displaying the adaptively matched perspective image on the user device, the user can feel an enhanced immersion feeling as if he or she is looking inside the first space by looking at an external obstacle, In order to improve the streaming speed and to use the network bandwidth more reliably by only selecting the video information in the field of view corresponding to the viewing direction viewed by the user from the 360 degrees camera, streaming is performed to reduce the capacity for streaming. It does.

일 실시예에서, 전술한 실감 투시 시스템은 사용자가 제1 공간 내 위치한 오브젝트에 대한 정보를 획득함으로써 상호작용할 수 있도록 하는 추가적인 기능을 더 포함할 수 있다. 이러한 실시예에서, 상기 데이터 업로드 모듈(110)은 상기 제1 공간 내 위치하며 상기 제1 카메라에 의해 촬영된 오브젝트에 대한 정보를 상기 실시간 스트리밍 서버에 업로드 하고, 상기 데이터 다운로드 모듈(210)은 상기 실시간 스트리밍 서버로부터 상기 오브젝트에 대한 정보를 다운로드 할 수 있다.In one embodiment, the real-feeling perspective system described above may further include an additional feature that allows the user to interact by acquiring information about an object located within the first space. In this embodiment, the data upload module 110 uploads information about objects photographed by the first camera, which are located in the first space, to the real-time streaming server, The information about the object can be downloaded from the real-time streaming server.

이와 같이, 사용자는 목적지에 위치한 오브젝트에 대한 영상 및 정보를 서버를 통해 실시간으로 다운로드 함으로써 보다 직관적으로 제1 공간 및 오브젝트와 상호작용할 수 있으므로, 혼합 현실 환경에서 더욱 높은 몰입감을 얻을 수 있다.In this way, the user can interact with the first space and the object more intuitively by downloading the image and information about the object located at the destination in real time through the server, so that a higher immersion feeling can be obtained in the mixed reality environment.

이상에서는 실시예들을 참조하여 설명하였지만 본 발명은 이러한 실시예들 또는 도면에 의해 한정되는 것으로 해석되어서는 안 되며, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments or constructions, It will be understood that the invention can be variously modified and changed without departing from the spirit and scope of the invention.

10: 원격지 디바이스
15: 실시간 스트리밍 서버
20: 사용자 디바이스
100: 제1 카메라
110: 데이터 업로드 모듈
200: 제2 카메라
210: 데이터 다운로드 모듈
220: 투시 영상 생성 모듈
222: 투시 영역 지정 유닛
223: 촬영 방향 판단 유닛
224: 내부 영상 추출 유닛
225: 내부 영상 대체 유닛
230: 디스플레이
10: remote device
15: Live streaming server
20: User device
100: First camera
110: Data upload module
200: Second camera
210: Data Download Module
220: perspective image generation module
222: Perspective area designation unit
223: photographing direction judging unit
224: internal image extracting unit
225: internal image replacement unit
230: Display

Claims (11)

제1 공간의 내부에 위치한 원격지 디바이스의 제1 카메라를 이용하여, 제1 공간의 전방향 내부 영상을 촬영하는 단계;
유선 또는 무선 네트워크를 통해, 상기 제1 공간의 전방향 내부 영상 데이터를 실시간 스트리밍 서버에 업로드 하는 단계;
상기 제1 공간의 외부에 위치한 사용자 디바이스의 제2 카메라를 이용하여, 제1 공간의 외부 장애물을 촬영하는 단계;
상기 실시간 스트리밍 서버로부터, 상기 제1 공간의 전방향 내부 영상 데이터를 다운로드 하는 단계;
상기 제1 공간의 전방향 내부 영상과 상기 제1 공간의 외부 장애물 영상을 적응적으로 정합함으로써 투시 영상을 생성하는 단계; 및
상기 투시 영상을 상기 사용자 디바이스에 디스플레이 하는 단계를 포함하되,
상기 투시 영상을 생성하는 단계는,
상기 제1 공간의 외부 장애물 영상 중 일방향 내부 영상으로 치환될 투시 영역을 결정하는 단계;
관성측정유닛(IMU)을 이용하여 추적한 상기 사용자 디바이스의 모션에 기초하여, 상기 제2 카메라의 촬영 방향을 판단하는 단계;
상기 투시할 영역 및 상기 제2 카메라의 촬영 방향에 기초하여, 상기 제1 공간의 전방향 내부 영상으로부터 일방향 내부 영상을 추출하는 단계;
상기 촬영된 외부 장애물 영상을 텍스처로 변환하고 폴리곤을 생성하는 단계; 및
상기 투시 영역의 경계면 폴리곤이 제거되는 동시에 상기 일방향 내부 영상이 나타나는 시각적 효과를 생성하는 단계를 포함하고,
상기 시각적 효과는, 사용자에게 장애물을 투시하여 내부를 직접 보는 것과 같은 몰입감을 제공하기 위해, 상기 외부 장애물이 허물어지면서 동시에 내부 영상이 나타나는 효과를 포함하는 것을 특징으로 하는, 실감 투시 방법.
Capturing an omni-directional internal image of the first space using a first camera of a remote device located inside the first space;
Uploading forward direction internal image data of the first space to a real time streaming server through a wired or wireless network;
Capturing an external obstacle in a first space using a second camera of a user device located outside the first space;
Downloading the forward direction internal image data of the first space from the real time streaming server;
Generating a perspective image by adaptively matching an image in the forward direction of the first space with an image of the obstacle in the first space; And
And displaying the perspective image on the user device,
Wherein the generating the perspective image comprises:
Determining a perspective area to be replaced with a one-directional inner image of an outer obstacle image of the first space;
Determining a photographing direction of the second camera based on the motion of the user device tracked using the inertia measurement unit (IMU);
Extracting a one-directional internal image from the forward direction internal image of the first space based on the perspective area and the photographing direction of the second camera;
Converting the photographed external obstacle image into a texture and generating a polygon; And
Generating a visual effect in which the boundary polygon of the perspective region is removed and the one-directional internal image is displayed,
Wherein the visual effect includes an effect that the external obstacle is broken and an internal image is displayed at the same time to provide an immersion feeling such that the user views the obstacle and directly sees the obstacle.
삭제delete 삭제delete 제1항에 있어서,
상기 제1 카메라를 이용하여, 상기 제1 공간 내 위치하는 오브젝트를 촬영하는 단계;
상기 오브젝트에 대한 정보를 상기 실시간 스트리밍 서버에 업로드 하는 단계;
상기 사용자 디바이스의 인터페이스를 통해, 상기 오브젝트를 선택하는 단계;
상기 실시간 스트리밍 서버로부터, 상기 오브젝트에 대한 정보를 다운로드 하는 단계; 및
상기 정보를 상기 사용자 디바이스에 디스플레이 하는 단계를 더 포함하는 것을 특징으로 하는, 실감 투시 방법.
The method according to claim 1,
Capturing an object located in the first space using the first camera;
Uploading information about the object to the real-time streaming server;
Selecting the object through an interface of the user device;
Downloading information about the object from the real-time streaming server; And
Further comprising displaying the information on the user device.
제1항 또는 제4항에 있어서,
상기 사용자 디바이스는 헤드 마운티드 디스플레이(Head Mounted Display) 장치인 것을 특징으로 하는, 실감 투시 방법.
The method according to claim 1 or 4,
Wherein the user device is a head mounted display device.
제1항 또는 제4항에 따른 실감 투시 방법을 실현하기 위한, 컴퓨터로 판독 가능한 기록매체에 저장된 컴퓨터 프로그램.
A computer program stored in a computer-readable recording medium for realizing the real-time perspective method according to claim 1 or claim 4.
제1 공간의 내부 영상을 촬영하여 업로드 하기 위한 원격지 디바이스;
영상 데이터를 실시간으로 스트리밍 하기 위한 실시간 스트리밍 서버; 및
상기 제1 공간의 외부에 위치한 사용자 디바이스를 포함하는, 적응형 정합을 통한 실감 투시 시스템으로서,
상기 원격지 디바이스는,
상기 제1 공간의 내부를 360도 촬영 가능한 제1 카메라; 및
유선 또는 무선 네트워크를 통해, 제1 공간의 전방향 내부 영상 데이터를 상기 실시간 스트리밍 서버에 업로드 하기 위한, 데이터 업로드 모듈을 포함하되,
상기 사용자 디바이스는,
제1 공간의 외부 장애물을 촬영하기 위한 제2 카메라;
상기 실시간 스트리밍 서버로부터, 상기 제1 공간의 전방향 내부 영상 데이터를 다운로드 하기 위한, 데이터 다운로드 모듈;
상기 제1 공간의 전방향 내부 영상과 상기 제1 공간의 외부 장애물 영상을 적응적으로 정합함으로써 투시 영상을 생성하기 위한, 투시 영상 생성 모듈; 및
상기 투시 영상을 표시하기 위한 디스플레이를 포함하되,
상기 투시 영상 생성 모듈은,
상기 제1 공간의 외부 장애물 영상 중 일방향 내부 영상으로 치환될 투시 영역을 결정하는 투시 영역 지정 유닛;
관성측정유닛(IMU)을 이용하여 추적한 상기 사용자 디바이스의 모션에 기초하여, 상기 제2 카메라의 촬영 방향을 판단하는 촬영 방향 판단 유닛; 및
상기 투시할 영역 및 상기 제2 카메라의 촬영 방향에 기초하여, 상기 제1 공간의 전방향 내부 영상으로부터 일방향 내부 영상을 추출하는 내부 영상 추출 유닛을 포함하고,
상기 촬영된 외부 장애물 영상을 텍스처로 변환하고 폴리곤을 생성하고,
상기 투시 영역의 경계면 폴리곤이 제거되는 동시에 상기 일방향 내부 영상이 나타나는 시각적 효과를 생성하되,
상기 시각적 효과는, 사용자에게 장애물을 투시하여 내부를 직접 보는 것과 같은 몰입감을 제공하기 위해, 상기 외부 장애물이 허물어지면서 동시에 내부 영상이 나타나는 효과를 포함하는 것을 특징으로 하는, 실감 투시 시스템.
A remote device for capturing and uploading an internal image of the first space;
A real time streaming server for streaming video data in real time; And
A user device located outside the first space, the adaptive matching through real-
The remote device includes:
A first camera capable of photographing the inside of the first space through 360 degrees; And
And a data upload module for uploading the forward direction internal image data of the first space to the real time streaming server via a wired or wireless network,
The user device comprising:
A second camera for capturing an external obstacle in the first space;
A data download module for downloading the forward direction internal image data of the first space from the real time streaming server;
A perspective image generation module for generating a perspective image by adaptively matching the forward direction internal image of the first space and the external obstacle image of the first space; And
And a display for displaying the perspective image,
The perspective image generation module includes:
A perspective area designation unit for determining a perspective area to be replaced with a one-directional inner image of an outer obstacle image of the first space;
A photographing direction judging unit for judging the photographing direction of the second camera based on the motion of the user device tracked using the inertia measuring unit (IMU); And
And an internal image extracting unit for extracting a one-directional internal image from the forward direction internal image of the first space based on the perspective region and the photographing direction of the second camera,
Converting the photographed external obstacle image into a texture, generating a polygon,
Wherein the polygon of the boundary region of the perspective region is removed and a visual effect in which the one-
Wherein the visual effect includes an effect that an internal image is displayed at the same time as the external obstacle is broken so as to provide an immersion feeling such that the user views the obstacle and directly sees the obstacle.
삭제delete 삭제delete 제7항에 있어서,
상기 데이터 업로드 모듈은, 상기 제1 공간 내 위치하며 상기 제1 카메라에 의해 촬영된 오브젝트에 대한 정보를 상기 실시간 스트리밍 서버에 업로드 하고,
상기 데이터 다운로드 모듈은, 상기 실시간 스트리밍 서버로부터 상기 오브젝트에 대한 정보를 다운로드 하는 것을 특징으로 하는, 실감 투시 시스템.
8. The method of claim 7,
Wherein the data upload module uploads information on an object located in the first space and shot by the first camera to the real time streaming server,
And the data download module downloads information about the object from the real-time streaming server.
제7항 또는 제10항에 있어서,
상기 사용자 디바이스는 헤드 마운티드 디스플레이(Head Mounted Display) 장치인 것을 특징으로 하는, 실감 투시 시스템.
11. The method according to claim 7 or 10,
Wherein the user device is a head mounted display device.
KR1020170098614A 2017-08-03 2017-08-03 Realistic seeing-through method and system using adaptive registration of inside and outside images KR101917359B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170098614A KR101917359B1 (en) 2017-08-03 2017-08-03 Realistic seeing-through method and system using adaptive registration of inside and outside images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170098614A KR101917359B1 (en) 2017-08-03 2017-08-03 Realistic seeing-through method and system using adaptive registration of inside and outside images

Publications (1)

Publication Number Publication Date
KR101917359B1 true KR101917359B1 (en) 2019-01-24

Family

ID=65277280

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170098614A KR101917359B1 (en) 2017-08-03 2017-08-03 Realistic seeing-through method and system using adaptive registration of inside and outside images

Country Status (1)

Country Link
KR (1) KR101917359B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000207575A (en) * 1999-01-08 2000-07-28 Nadeisu:Kk Space fusing device and application devices adapting the same
KR101229078B1 (en) 2009-12-21 2013-02-04 한국전자통신연구원 Apparatus And Method for Mixed Reality Content Operation Based On Indoor and Outdoor Context Awareness
KR101703924B1 (en) * 2015-09-22 2017-02-07 하태진 3d virtual reality system using 3d-spectacles for virtual image display

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000207575A (en) * 1999-01-08 2000-07-28 Nadeisu:Kk Space fusing device and application devices adapting the same
KR101229078B1 (en) 2009-12-21 2013-02-04 한국전자통신연구원 Apparatus And Method for Mixed Reality Content Operation Based On Indoor and Outdoor Context Awareness
KR101703924B1 (en) * 2015-09-22 2017-02-07 하태진 3d virtual reality system using 3d-spectacles for virtual image display

Similar Documents

Publication Publication Date Title
US12079942B2 (en) Augmented and virtual reality
CN110300909B (en) Systems, methods, and media for displaying an interactive augmented reality presentation
US11138796B2 (en) Systems and methods for contextually augmented video creation and sharing
CN110679152B (en) Method and system for generating fused reality scene
CN110954083B (en) Positioning of mobile devices
CN107590771B (en) 2D video with options for projection viewing in modeled 3D space
RU2683262C2 (en) Information processing device, information processing method and program
JP2021534491A (en) Cross reality system
KR20160112898A (en) Method and apparatus for providing dynamic service based augmented reality
WO2017169369A1 (en) Information processing device, information processing method, program
JP6816973B2 (en) Server control method and system
US20160371885A1 (en) Sharing of markup to image data
JP6635573B2 (en) Image processing system, image processing method, and program
CN117319790A (en) Shooting method, device, equipment and medium based on virtual reality space
US10061492B2 (en) Path-linked viewpoints from point of interest
JP6534972B2 (en) Image display apparatus, image display method and image display program
KR101917359B1 (en) Realistic seeing-through method and system using adaptive registration of inside and outside images
EP3493541B1 (en) Selecting an omnidirectional image for display
JP2017183816A (en) Moving image distribution server, moving image output device, moving image distribution system, and moving image distribution method
Khan Advancements and Challenges in 360 Augmented Reality Video Streaming: A Comprehensive Review
JP2019083029A (en) Information processing method, information processing program, information processing system, and information processing device
KR20180117379A (en) Device for providing augmented reality album, server for the same and method for the same
Young Removing spatial boundaries in immersive mobile communications
KR20230061812A (en) Device and method of photographing both AR/MR object and AR/MR user at 3rd party System
Cook Enabling Real-Time Shared Environments on Mobile Head-Mounted Displays