KR102638368B1 - Apparatus, method and computer program for generating virtual reality space - Google Patents

Apparatus, method and computer program for generating virtual reality space Download PDF

Info

Publication number
KR102638368B1
KR102638368B1 KR1020170183101A KR20170183101A KR102638368B1 KR 102638368 B1 KR102638368 B1 KR 102638368B1 KR 1020170183101 A KR1020170183101 A KR 1020170183101A KR 20170183101 A KR20170183101 A KR 20170183101A KR 102638368 B1 KR102638368 B1 KR 102638368B1
Authority
KR
South Korea
Prior art keywords
virtual reality
reality space
information
space information
virtual
Prior art date
Application number
KR1020170183101A
Other languages
Korean (ko)
Other versions
KR20190080570A (en
Inventor
김기혁
김강태
김이길
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020170183101A priority Critical patent/KR102638368B1/en
Publication of KR20190080570A publication Critical patent/KR20190080570A/en
Application granted granted Critical
Publication of KR102638368B1 publication Critical patent/KR102638368B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/40Hidden part removal
    • G06T15/405Hidden part removal using Z-buffer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images

Abstract

가상 현실 공간을 생성하는 장치는 스캔 장치를 통해 대상 공간을 스캔하여 제 1 가상 현실 공간 정보를 생성하는 생성부, 상기 제 1 가상 현실 공간 정보에 결함이 있는 객체가 포함된 경우, 상기 제 1 가상 현실 공간 정보로부터 상기 객체를 제거하여 상기 객체를 포함하지 않는 제 2 가상 현실 공간 정보를 생성하는 제거부, 상기 스캔 장치를 통해 추가적으로 스캔된 추가 객체를 상기 제 2 가상 현실 공간 정보에 삽입하여 제 3 가상 현실 공간 정보를 생성하는 삽입부 및 상기 제 1 가상 현실 공간 정보 및 상기 제 2 가상 현실 공간 정보에 기초하여 상기 제 3 가상 현실 공간 정보에 삽입된 추가 객체를 재조정하는 재조정부를 포함한다. The device for generating a virtual reality space includes a generator that generates first virtual reality space information by scanning a target space through a scanning device, and when the first virtual reality space information includes a defective object, the first virtual reality space information is generated. A removal unit that removes the object from real space information to generate second virtual reality space information not including the object, and inserts an additional object additionally scanned through the scanning device into the second virtual reality space information to generate a third virtual reality space information. It includes an insertion unit that generates virtual reality space information, and a readjustment unit that readjusts additional objects inserted into the third virtual reality space information based on the first virtual reality space information and the second virtual reality space information.

Description

가상 현실 공간 생성 장치, 방법 및 컴퓨터 프로그램{APPARATUS, METHOD AND COMPUTER PROGRAM FOR GENERATING VIRTUAL REALITY SPACE}Virtual reality space generating apparatus, method, and computer program {APPARATUS, METHOD AND COMPUTER PROGRAM FOR GENERATING VIRTUAL REALITY SPACE}

본 발명은 가상 현실 공간 생성 장치, 방법 및 컴퓨터 프로그램에 관한 것이다. The present invention relates to a virtual reality space creation device, method, and computer program.

가상 현실(VR, Virtual Reality)이란 특정한 환경이나 상황을 컴퓨터 작업을 통해 가상 세계를 만들고, 그것을 사용하는 사람이 마치 실제 주변 상황 및 환경과 상호작용을 하고 있는 것처럼 만들어 주는 인간과 컴퓨터 사이의 인터페이스를 의미한다. Virtual reality (VR) is an interface between humans and computers that creates a virtual world of a specific environment or situation through computer work and makes the person using it as if they are interacting with the actual surrounding situation and environment. it means.

가상 현실은 사람들이 일상적으로 경험하기 어려운 환경을 직접 체험하지 않고 그 환경에 들어와 있는 것처럼 보여주고 조작할 수 있도록 하는 기술로, 예를 들어, 탱크, 항공기 조종법 훈련, 가구의 배치 설계, 수술 실습, 게임 등과 같이 다양한 분야에서 이용되고 있다. Virtual reality is a technology that allows people to view and manipulate environments that are difficult to experience on a daily basis as if they were in the environment without directly experiencing them. For example, training to fly tanks and aircraft, designing furniture layout, and practicing surgery. It is used in various fields such as games, etc.

이러한 가상 현실 기술과 관련하여 선행기술인 한국공개특허 2017-0115390호는 3차원 가상현실 구현 시스템을 개시하고 있다. In relation to this virtual reality technology, Korea Patent Publication No. 2017-0115390, a prior art, discloses a 3D virtual reality implementation system.

그러나 가상 현실 세계를 구현하는 경우, 센서의 정밀도, 센서가 닿지 않는 사각지대 및 미세한 움직임 등에 영향을 받아 가상 현실을 구현하고자 하는 데이터에 결함이 발생할 수 있으며, 이러한 데이터 결함으로 인해 사용자는 가상 현실 세계에서 몰입을 방해받을 수 있다는 단점을 가지고 있다. However, when implementing a virtual reality world, defects may occur in the data intended to implement virtual reality due to the precision of the sensor, blind spots that the sensor does not reach, and subtle movements, etc. These data defects may cause the user to enter the virtual reality world. It has the disadvantage that immersion may be interrupted.

종래에는 사용자가 자신의 감각에 의해 가상 공간 및 물체의 크기를 매핑하였으나, 이를 수학적으로 계산된 절대적인 기준을 적용하여 가상 공간 및 물체의 크기가 자동으로 매핑되도록 하는 가상 현실 공간 생성 장치, 방법 및 프로그램을 제공하고자 한다. 깊이 버퍼를 이용하여 3D 스캔으로 획득한 공간 정보 및 물체의 크기 매핑을 자동으로 수행함으로써, 컨텐츠의 정밀도를 향상시키는 가상 현실 공간 생성 장치, 방법 및 컴퓨터 프로그램을 제공하고자 한다. 가상 현실 공간의 생성을 위해 거쳐야 했던 체험, 비교, 결정, 적용의 과정에 소요되는 시간 및 비용을 절약시키는 가상 현실 공간 생성 장치, 방법 및 컴퓨터 프로그램을 제공하고자 한다. 현실 공간의 스캐닝에서 발생된 결함을 효율적으로 제거함으로써, 가상 현실 체험자에게 향상된 몰입감을 제공하는 가상 현실 공간 생성 장치, 방법 및 컴퓨터 프로그램을 제공하고자 한다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다. Conventionally, users map the size of virtual space and objects using their own senses, but a virtual reality space creation device, method, and program that automatically maps the size of virtual space and objects by applying an absolute standard calculated mathematically. We would like to provide. The aim is to provide a virtual reality space generation device, method, and computer program that improves the precision of content by automatically mapping the size of objects and spatial information obtained through 3D scanning using a depth buffer. The goal is to provide a virtual reality space creation device, method, and computer program that saves the time and cost required for the process of experience, comparison, decision, and application required to create a virtual reality space. The aim is to provide a virtual reality space creation device, method, and computer program that provides improved immersion to virtual reality experiencers by efficiently eliminating defects generated in the scanning of real space. However, the technical challenges that this embodiment aims to achieve are not limited to the technical challenges described above, and other technical challenges may exist.

상술한 기술적 과제를 달성하기 위한 수단으로서, 본 발명의 일 실시예는, 스캔 장치를 통해 대상 공간을 스캔하여 제 1 가상 현실 공간 정보를 생성하는 생성부, 상기 제 1 가상 현실 공간 정보에 결함이 있는 객체가 포함된 경우, 상기 제 1 가상 현실 공간 정보로부터 상기 객체를 제거하여 상기 객체를 포함하지 않는 제 2 가상 현실 공간 정보를 생성하는 제거부, 상기 스캔 장치를 통해 추가적으로 스캔된 추가 객체를 상기 제 2 가상 현실 공간 정보에 삽입하여 제 3 가상 현실 공간 정보를 생성하는 삽입부 및 상기 제 1 가상 현실 공간 정보 및 상기 제 2 가상 현실 공간 정보에 기초하여 상기 제 3 가상 현실 공간 정보에 삽입된 추가 객체를 재조정하는 재조정부를 포함하는 가상 현실 공간 생성 장치를 제공할 수 있다. As a means for achieving the above-described technical problem, an embodiment of the present invention includes a generator that generates first virtual reality space information by scanning a target space through a scanning device, and a defect in the first virtual reality space information. When an object is included, a removal unit that removes the object from the first virtual reality space information to generate second virtual reality space information that does not include the object, and an additional object additionally scanned through the scanning device an insertion unit inserting into second virtual reality space information to generate third virtual reality space information, and an addition inserted into the third virtual reality space information based on the first virtual reality space information and the second virtual reality space information. A virtual reality space creation device including a readjustment unit for readjusting objects may be provided.

본 발명의 다른 실시예는, 스캔 장치를 통해 대상 공간을 스캔하여 제 1 가상 현실 공간 정보를 생성하는 단계, 상기 제 1 가상 현실 공간 정보에 결함이 있는 객체가 포함된 경우, 상기 제 1 가상 현실 공간 정보로부터 상기 객체를 제거하여 상기 객체를 포함하지 않는 제 2 가상 현실 공간 정보를 생성하는 단계, 상기 스캔 장치를 통해 추가적으로 스캔된 추가 객체를 상기 제 2 가상 현실 공간 정보에 삽입하여 제 3 가상 현실 공간 정보를 생성하는 단계 및 상기 제 1 가상 현실 공간 정보 및 상기 제 2 가상 현실 공간 정보에 기초하여 상기 제 3 가상 현실 공간 정보에 삽입된 추가 객체를 재조정하는 단계를 포함하는 가상 현실 공간 생성 방법을 제공할 수 있다. Another embodiment of the present invention includes generating first virtual reality space information by scanning a target space through a scanning device, and when the first virtual reality space information includes a defective object, the first virtual reality space information Removing the object from spatial information to generate second virtual reality spatial information not including the object, inserting an additional object additionally scanned through the scanning device into the second virtual reality spatial information to create a third virtual reality A virtual reality space generating method comprising generating spatial information and readjusting an additional object inserted into the third virtual reality space information based on the first virtual reality space information and the second virtual reality space information. can be provided.

본 발명의 또 다른 실시예는, 컴퓨터 프로그램은 컴퓨팅 장치에 의해 실행될 경우, 스캔 장치를 통해 대상 공간을 스캔하여 제 1 가상 현실 공간 정보를 생성하고, 상기 제 1 가상 현실 공간 정보에 결함이 있는 객체가 포함된 경우, 상기 제 1 가상 현실 공간 정보로부터 상기 객체를 제거하여 상기 객체를 포함하지 않는 제 2 가상 현실 공간 정보를 생성하고, 상기 스캔 장치를 통해 추가적으로 스캔된 추가 객체를 상기 제 2 가상 현실 공간 정보에 삽입하여 제 3 가상 현실 공간 정보를 생성하고, 상기 제 1 가상 현실 공간 정보 및 상기 제 2 가상 현실 공간 정보에 기초하여 상기 제 3 가상 현실 공간 정보에 삽입된 추가 객체를 재조정하도록 하는 명령어들의 시퀀스를 포함하는, 매체에 저장된 컴퓨터 프로그램을 제공할 수 있다. In another embodiment of the present invention, the computer program, when executed by a computing device, scans a target space through a scanning device to generate first virtual reality space information, and detects a defective object in the first virtual reality space information. When included, the object is removed from the first virtual reality space information to generate second virtual reality space information not including the object, and the additional object additionally scanned through the scanning device is added to the second virtual reality. A command for generating third virtual reality space information by inserting it into spatial information and readjusting additional objects inserted into the third virtual reality space information based on the first virtual reality space information and the second virtual reality space information. It is possible to provide a computer program stored on a medium, including a sequence of.

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본 발명을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 기재된 추가적인 실시예가 존재할 수 있다.The above-described means for solving the problem are merely illustrative and should not be construed as limiting the present invention. In addition to the exemplary embodiments described above, there may be additional embodiments described in the drawings and detailed description of the invention.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 종래에는 사용자가 자신의 감각에 의해 가상 공간 및 물체의 크기를 매핑하였으나, 이를 수학적으로 계산된 절대적인 기준을 적용하여 가상 공간 및 물체의 크기가 자동으로 매핑되도록 하는 가상 현실 공간 생성 장치, 방법 및 프로그램을 제공할 수 있다. 깊이 버퍼를 이용하여 3D 스캔으로 획득한 공간 정보 및 물체의 크기 매핑을 자동으로 수행함으로써, 컨텐츠의 정밀도를 향상시키는 가상 현실 공간 생성 장치, 방법 및 컴퓨터 프로그램을 제공할 수 있다. 가상 현실 공간의 생성을 위해 거쳐야 했던 체험, 비교, 결정, 적용의 과정에 소요되는 시간 및 비용을 절약시키는 가상 현실 공간 생성 장치, 방법 및 컴퓨터 프로그램을 제공할 수 있다. 현실 공간의 스캐닝에서 발생된 결함을 효율적으로 제거함으로써, 가상 현실 체험자에게 향상된 몰입감을 제공하는 가상 현실 공간 생성 장치, 방법 및 컴퓨터 프로그램을 제공할 수 있다.According to one of the above-described means for solving the problem of the present invention, conventionally, the user maps the size of the virtual space and objects using his or her senses, but the size of the virtual space and objects can be determined by applying an absolute standard calculated mathematically. Apparatus, methods, and programs for creating a virtual reality space may be provided that allow the virtual reality space to be automatically mapped. A virtual reality space generating device, method, and computer program that improves the precision of content can be provided by automatically mapping the size of objects and spatial information obtained through 3D scanning using a depth buffer. It is possible to provide a virtual reality space creation device, method, and computer program that saves the time and cost required for the process of experience, comparison, decision, and application that was required to create a virtual reality space. By efficiently eliminating defects generated in the scanning of real space, it is possible to provide a virtual reality space generating device, method, and computer program that provides an improved sense of immersion to a virtual reality experiencer.

도 1은 본 발명의 일 실시예에 따른 가상 현실 공간 생성 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 가상 현실 공간 장치의 구성도이다.
도 3a 내지 도 3c는 본 발명의 일 실시예에 따른 가상 현실 공간 정보에 결함이 있는 객체가 포함된 경우에 객체를 제거 및 추가 삽입하는 과정을 설명하기 위한 예시적인 도면이다.
도 4a 내지 도 4c는 본 발명의 일 실시예에 따른 각각의 가상 현실 공간 정보에 대해 가상 시점으로부터 깊이 버퍼 정보를 도출하는 과정을 설명하기 위한 예시적인 도면이다.
도 5a 및 도 5b는 본 발명의 일 실시예에 따른 추가 객체의 위치 및 크기를제거된 객체의 위치 및 크기에 해당하도록 재조정하는 과정을 설명하기 위한 예시적인 도면이다.
도 6a 및 도 6b는 본 발명의 일 실시예에 따른 가상 현실 공간과 대상 공간 간의 크기 척도로 비율을 적용하는 과정을 설명하기 위한 예시적인 도면이다.
도 7은 본 발명의 일 실시예에 따른 가상 현실 공간 생성 장치에서 가상 현실 공간을 생성하는 방법의 순서도이다.
1 is a configuration diagram of a virtual reality space creation system according to an embodiment of the present invention.
Figure 2 is a configuration diagram of a virtual reality space device according to an embodiment of the present invention.
FIGS. 3A to 3C are exemplary diagrams for explaining a process of removing and additionally inserting an object when a defective object is included in virtual reality space information according to an embodiment of the present invention.
FIGS. 4A to 4C are exemplary diagrams for explaining a process of deriving depth buffer information from a virtual viewpoint for each virtual reality space information according to an embodiment of the present invention.
FIGS. 5A and 5B are exemplary diagrams illustrating a process of readjusting the position and size of an additional object to correspond to the position and size of a removed object according to an embodiment of the present invention.
FIGS. 6A and 6B are exemplary diagrams for explaining a process of applying a ratio as a size scale between a virtual reality space and a target space according to an embodiment of the present invention.
Figure 7 is a flowchart of a method for generating a virtual reality space in a virtual reality space creation device according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Below, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present invention in the drawings, parts that are not related to the description are omitted, and similar parts are given similar reference numerals throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case where it is "directly connected," but also the case where it is "electrically connected" with another element in between. . In addition, when a part is said to "include" a certain component, this does not mean excluding other components unless specifically stated to the contrary, but may further include other components, and one or more other features. It should be understood that it does not exclude in advance the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다.In this specification, 'part' includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Additionally, one unit may be realized using two or more pieces of hardware, and two or more units may be realized using one piece of hardware.

본 명세서에 있어서 단말 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말 또는 디바이스에서 수행될 수도 있다.In this specification, some of the operations or functions described as being performed by a terminal or device may instead be performed on a server connected to the terminal or device. Likewise, some of the operations or functions described as being performed by the server may also be performed on a terminal or device connected to the server.

이하 첨부된 도면을 참고하여 본 발명의 일 실시예를 상세히 설명하기로 한다. Hereinafter, an embodiment of the present invention will be described in detail with reference to the attached drawings.

도 1은 본 발명의 일 실시예에 따른 가상 현실 공간 생성 시스템의 구성도이다. 도 1을 참조하면, 가상 현실 공간 생성 시스템(1)은 스캔 장치(110) 및 가상 현실 공간 생성 장치(120)를 포함할 수 있다. 스캔 장치(110) 및 가상 현실 공간 생성 장치(120)는 가상 현실 공간 생성 시스템(1)에 의하여 제어될 수 있는 구성요소들을 예시적으로 도시한 것이다. 1 is a configuration diagram of a virtual reality space creation system according to an embodiment of the present invention. Referring to FIG. 1, the virtual reality space creation system 1 may include a scanning device 110 and a virtual reality space creation device 120. The scanning device 110 and the virtual reality space creation device 120 are exemplary illustrations of components that can be controlled by the virtual reality space creation system 1.

도 1의 가상 현실 공간 생성 시스템(1)의 각 구성요소들은 일반적으로 네트워크(network)를 통해 연결된다. 예를 들어, 도 1에 도시된 바와 같이, 가상 현실 공간 생성 장치(120)는 스캔 장치(110)와 동시에 또는 시간 간격을 두고 연결될 수 있다. Each component of the virtual reality space creation system 1 of FIG. 1 is generally connected through a network. For example, as shown in FIG. 1, the virtual reality space creation device 120 may be connected to the scanning device 110 simultaneously or at time intervals.

네트워크는 단말들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷 (WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 블루투스 통신, 적외선 통신, 초음파 통신, 가시광 통신(VLC: Visible Light Communication), 라이파이(LiFi) 등이 포함되나 이에 한정되지는 않는다. Network refers to a connection structure that allows information exchange between nodes such as terminals and servers, including Local Area Network (LAN), Wide Area Network (WAN), and World Wide Area Network (WWW). Wide Web), wired and wireless data communication networks, telephone networks, wired and wireless television communication networks, etc. Examples of wireless data communication networks include 3G, 4G, 5G, 3GPP (3rd Generation Partnership Project), LTE (Long Term Evolution), WIMAX (World Interoperability for Microwave Access), Wi-Fi, Bluetooth communication, infrared communication, and ultrasound. This includes, but is not limited to, communication, Visible Light Communication (VLC), LiFi, etc.

스캔 장치(110)는 대상 공간을 스캔하여 가상 현실 공간 생성 장치(120)로 전송할 수 있다. The scanning device 110 may scan the target space and transmit it to the virtual reality space creation device 120.

스캔 장치(110)는 3D 스캔 장치(110)로, 일반 스캔 장치(111) 및 정밀 스캔 장치(112)를 포함할 수 있다. 일반 스캔 장치(111) 및 정밀 스캔 장치(112)를 함께 이용하는 이유는 스캔 장치(110)에서 넓은 공간을 3D 스캔할 경우, 현실 공간에 배치된 물체에 의한 센서 음영 지역, 스캔 장치(110)의 정밀도에 따라 배치된 물체가 정밀하지 못하게 되어 대상 공간을 스캔한 가상 현실 공간 정보에 오류가 포함될 수 있으며, 오류가 포함된 가상 현실 공간 정보를 가상 현실에서 이용할 경우, 사용자는 가상 현실의 이용 시 몰입을 방해받을 수 있다. The scanning device 110 is a 3D scanning device 110 and may include a general scanning device 111 and a precise scanning device 112. The reason why the general scan device 111 and the precision scan device 112 are used together is that when the scan device 110 3D scans a large space, the sensor shadow area caused by objects placed in real space, the scan device 110 Depending on the precision, the placed objects may not be precise, so the virtual reality spatial information scanned for the target space may contain errors, and if virtual reality spatial information containing errors is used in virtual reality, the user may become immersed when using virtual reality. may be disturbed.

따라서, 스캔 장치(110)는 일반 스캔 장치(111)를 이용하여 넓은 공간에 대한 광범위 스캔을 행하는 장치로서 대상 공간을 스캔하고, 정밀 스캔 장치(112)를 이용하여 물체에 대한 정밀 스캔을 행하는 장치로서 추가 객체를 스캔할 수 있다. 이 때, 일반 스캔 장치(111)는 대상 공간에 위치한 물체의 정보를 별개로 분리하여 저장하지 않는다. Therefore, the scanning device 110 is a device that performs a broad scan of a large space using the general scanning device 111, scans the target space, and performs a precise scan of an object using the precise scanning device 112. Additional objects can be scanned as . At this time, the general scanning device 111 does not separately store information on objects located in the target space.

가상 현실 공간 생성 장치(120)는 스캔 장치(110)를 통해 대상 공간을 스캔하여 가상 현실 공간 정보를 생성할 수 있다. 여기서, 가상 현실 공간 정보란 3D 디자인 소프트웨어 혹은 3D 스캔 장치(110) 등으로부터 획득한 넓은 크기의 공간에 대한 3D 정보로, 3D 물체와 같이 정점들(vertices)의 좌표(x, y, z)와 정점들을 삼각형(triangle) 또는 사각형(quadruple)의 면(face)으로 표현하기 위한 순서(index), 각 정점 혹은 면의 법선(normal) 방향 벡터, 각 면의 텍스쳐 좌표(U, V) 등으로 이루어진 것일 수 있다. The virtual reality space generating device 120 may scan the target space using the scanning device 110 to generate virtual reality space information. Here, virtual reality spatial information is 3D information about a large space obtained from 3D design software or a 3D scanning device 110, and includes the coordinates (x, y, z) of vertices like a 3D object. Consisting of the order (index) for expressing vertices as triangle or quadruple faces, the normal direction vector of each vertex or face, and the texture coordinates (U, V) of each face, etc. It could be.

가상 현실 공간 생성 장치(120)는 제 1 가상 현실 공간 정보를 생성할 수 있다. 이 때, 가상 현실 공간 생성 장치(120)는 제 1 가상 현실 공간 정보에 결함이 있는 객체가 포함된 경우, 제 1 가상 현실 공간 정보로부터 객체를 제거하여 객체를 포함하지 않는 제 2 가상 현실 공간 정보를 생성할 수 있다. The virtual reality space generating device 120 may generate first virtual reality space information. At this time, when the first virtual reality space information includes a defective object, the virtual reality space creation device 120 removes the object from the first virtual reality space information and creates second virtual reality space information that does not include the object. can be created.

가상 현실 공간 생성 장치(120)는 스캔 장치(110)를 통해 추가적으로 스캔된 추가 객체를 제 2 가상 현실 공간 정보에 삽입하여 제 3 가상 현실 공간 정보를 생성할 수 있다. The virtual reality space generating device 120 may generate third virtual reality space information by inserting an additional object additionally scanned through the scanning device 110 into the second virtual reality space information.

가상 현실 공간 생성 장치(120)는 객체 및 추가 객체와 관련하여 제 1 가상 현실 공간 정보로부터 제 1 깊이 버퍼 정보를 도출하고, 제 2 가상 현실 공간 정보로부터 제 2 깊이 버퍼 정보를 도출하고, 제 3 가상 현실 공간 정보로부터 제 3 깊이 버퍼 정보를 도출할 수 있다. The virtual reality space generating device 120 derives first depth buffer information from first virtual reality space information, derives second depth buffer information from second virtual reality space information, and third Third depth buffer information can be derived from virtual reality spatial information.

예를 들어, 가상 현실 공간 생성 장치(120)는 제 1 가상 현실 공간 정보를 실제 화면에 투영하기 위해 제 1 가상 현실 공간 정보 내에 가상 시점을 배치하고, 가상 시점으로부터 객체까지의 심도값을 측정함으로써 제 1 깊이 버퍼 정보를 도출할 수 있다. 또한, 가상 현실 공간 생성 장치(120)는 제 2 가상 현실 공간 정보를 실제 화면에 투영하기 위해 제 2 가상 현실 공간 정보 내에 가상 시점을 배치하고, 가상 시점으로부터 제거된 객체에 대한 영역까지의 심도값을 측정함으로써 제 2 깊이 버퍼 정보를 도출할 수 있다. 또한, 가상 현실 공간 생성 장치(120)는 제 3 가상 현실 공간 정보를 실제 화면에 투영하기 위해 제 3 가상 현실 공간 정보 내에 가상 시점을 배치하고, 가상 시점으로부터 추가 객체까지의 심도값을 측정함으로써 제 3 깊이 버퍼 정보를 도출할 수 있다.For example, the virtual reality space creation device 120 places a virtual viewpoint within the first virtual reality space information in order to project the first virtual reality space information onto the actual screen, and measures the depth value from the virtual viewpoint to the object. First depth buffer information can be derived. In addition, the virtual reality space generating device 120 places a virtual viewpoint within the second virtual reality space information in order to project the second virtual reality space information onto the actual screen, and creates a depth value from the virtual viewpoint to the area for the object removed. Second depth buffer information can be derived by measuring . In addition, the virtual reality space generating device 120 places a virtual viewpoint within the third virtual reality space information in order to project the third virtual reality space information onto the actual screen, and measures the depth value from the virtual viewpoint to the additional object to create the third virtual reality space. 3 Depth buffer information can be derived.

가상 현실 공간 생성 장치(120)는 제 1 가상 현실 공간 정보 및 제 2 가상 현실 공간 정보에 기초하여 제 3 가상 현실 공간 정보에 삽입된 추가 객체를 재조정할 수 있다. 구체적으로, 가상 현실 공간 생성 장치(120)는 제 1 깊이 버퍼 정보, 제 2 깊이 버퍼 정보 및 제 3 깊이 버퍼 정보에 기초하여 제 3 가상 현실 공간 정보에 삽입된 추가 객체를 재조정할 수 있다. The virtual reality space creation device 120 may readjust additional objects inserted into the third virtual reality space information based on the first virtual reality space information and the second virtual reality space information. Specifically, the virtual reality space generating device 120 may readjust additional objects inserted into the third virtual reality space information based on the first depth buffer information, the second depth buffer information, and the third depth buffer information.

예를 들어, 가상 현실 공간 생성 장치(120)는 제 1 깊이 버퍼 정보 및 제 2 깊이 버퍼 정보를 비교하여 제거된 객체의 위치 및 크기를 도출하고, 제 2 깊이 버퍼 정보 및 제 3 깊이 버퍼 정보를 비교하여 추가 객체의 위치 및 크기를 도출하고, 제거된 객체의 위치 및 크기에 해당하도록 추가 객체의 위치 및 크기를 재조정할 수 있다. For example, the virtual reality space generating device 120 compares the first depth buffer information and the second depth buffer information to derive the location and size of the removed object, and uses the second depth buffer information and the third depth buffer information to determine the location and size of the removed object. By comparison, the location and size of the additional object can be derived, and the location and size of the additional object can be readjusted to correspond to the location and size of the removed object.

가상 현실 공간 생성 장치(120)는 제 1 가상 현실 공간 정보, 제 2 가상 현실 공간 정보 및 제 3 가상 현실 공간 정보 중 어느 하나 내에 가상 시점을 배치하고, 가상 시점으로부터 사용자로부터 입력받은 지점까지의 심도값을 측정하고, 가상 시점으로부터 지점까지의 실제 거리 정보를 사용자로부터 입력받고, 심도값 및 실제 거리 정보 간의 비율을 도출하고, 도출된 비율을 가상 현실 공간과 대상 공간 간의 크기 척도로 적용할 수 있다. The virtual reality space generating device 120 places a virtual viewpoint within any one of first virtual reality space information, second virtual reality space information, and third virtual reality space information, and determines the depth from the virtual viewpoint to the point input from the user. Measure the value, receive input from the user about the actual distance from the virtual viewpoint to the point, derive the ratio between the depth value and the actual distance information, and apply the derived ratio as a size scale between the virtual reality space and the target space. .

종래의 스캔 장치는 크기에 대한 절대적 기준이 없어, 같은 물체의 정점 1의 x축 좌표에 대해 제 1 스캔 장치는 0.125, 제 2 스캔 장치는 0.5와 같이 동일하게 스캔된 물체의 크기(정점와 좌표)가 제각각이게 된다. 따라서, 본 발명에서는 이러한 제각각인 물체의 크기를 자동으로 매칭시키는 기술을 제안하고자 한다. Conventional scanning devices do not have an absolute standard for size, so the size (vertex and coordinate) of the scanned object is the same, such as 0.125 for the first scanning device and 0.5 for the second scanning device with respect to the x-axis coordinate of vertex 1 of the same object becomes different. Therefore, the present invention proposes a technology for automatically matching the sizes of these different objects.

도 2는 본 발명의 일 실시예에 따른 가상 현실 공간 장치의 구성도이다. 도 2를 참조하면, 가상 현실 공간 장치(120)는 생성부(210), 제거부(220), 삽입부(230), 깊이 버퍼 정보 도출부(240), 재조정부(250) 및 크기 척도 적용부(260)를 포함할 수 있다. Figure 2 is a configuration diagram of a virtual reality space device according to an embodiment of the present invention. Referring to FIG. 2, the virtual reality space device 120 includes a creation unit 210, a removal unit 220, an insertion unit 230, a depth buffer information derivation unit 240, a readjustment unit 250, and a size scale application. It may include part 260.

생성부(210)는 스캔 장치(110)를 통해 대상 공간을 스캔하여 제 1 가상 현실 공간 정보를 생성할 수 있다. The generator 210 may scan the target space using the scanning device 110 to generate first virtual reality space information.

제거부(220)는 제 1 가상 현실 공간 정보에 결함이 있는 객체가 포함된 경우, 제 1 가상 현실 공간 정보로부터 객체를 제거하여 객체를 포함하지 않는 제 2 가상 현실 공간 정보를 생성할 수 있다. When the first virtual reality space information includes a defective object, the removal unit 220 may remove the object from the first virtual reality space information and generate second virtual reality space information that does not include the object.

결함이 있는 객체는 예를 들어, 스캔 장치(110)의 센서가 닿지 않거나, 스캐닝 진행 중인 곳의 물체 혹은 공간에서 미세한 움직임이 발생한 경우, 실제와 똑같이 스캔되지 않은 부분을 의미한다. 이는 주로 넓은 지역을 스캔하는 경우 물체에 의해 가려진 음영 지역에 두드러지게 나타나며, 스캔 장치(110)의 정밀도가 부족한 경우에도 나타난다. A defective object refers to a part that is not scanned exactly as it actually is, for example, when the sensor of the scanning device 110 does not reach, or when a slight movement occurs in an object or space where scanning is in progress. This mainly appears prominently in shaded areas obscured by objects when scanning a large area, and also appears when the precision of the scanning device 110 is insufficient.

삽입부(230)는 스캔 장치(110)를 통해 추가적으로 스캔된 추가 객체를 제 2 가상 현실 공간 정보에 삽입하여 제 3 가상 현실 공간 정보를 생성할 수 있다. The insertion unit 230 may generate third virtual reality space information by inserting an additional object additionally scanned through the scanning device 110 into the second virtual reality space information.

깊이 버퍼 정보 도출부(240)는 객체 및 추가 객체와 관련하여 제 1 가상 현실 공간 정보로부터 제 1 깊이 버퍼 정보를 도출하고, 제 2 가상 현실 공간 정보로부터 제 2 깊이 버퍼 정보를 도출하고, 제 3 가상 현실 공간 정보로부터 제 3 깊이 버퍼 정보를 도출할 수 있다. The depth buffer information deriving unit 240 derives first depth buffer information from first virtual reality space information, derives second depth buffer information from second virtual reality space information, and third Third depth buffer information can be derived from virtual reality spatial information.

깊이 버퍼 정보 도출부(240)는 제 1 가상 현실 공간 정보를 실제 화면에 투영하기 위해 제 1 가상 현실 공간 정보 내에 가상 시점을 배치하고, 가상 시점으로부터 객체까지의 심도값을 측정함으로써 제 1 깊이 버퍼 정보를 도출할 수 있다. The depth buffer information deriving unit 240 places a virtual viewpoint within the first virtual reality space information in order to project the first virtual reality space information onto the actual screen, and measures the depth value from the virtual viewpoint to the object to create the first depth buffer. Information can be derived.

깊이 버퍼 정보 도출부(240)는 제 2 가상 현실 공간 정보를 실제 화면에 투영하기 위해 제 2 가상 현실 공간 정보 내에 가상 시점을 배치하고, 가상 시점으로부터 제거된 객체에 대한 영역까지의 심도값을 측정함으로써 제 2 깊이 버퍼 정보를 도출할 수 있다. The depth buffer information deriving unit 240 places a virtual viewpoint within the second virtual reality space information in order to project the second virtual reality space information onto the actual screen, and measures the depth value from the virtual viewpoint to the area for the removed object. By doing so, second depth buffer information can be derived.

깊이 버퍼 정보 도출부(240)는 제 3 가상 현실 공간 정보를 실제 화면에 투영하기 위해 제 3 가상 현실 공간 정보 내에 가상 시점을 배치하고, 가상 시점으로부터 추가 객체까지의 심도값을 측정함으로써 제 3 깊이 버퍼 정보를 도출할 수 있다. The depth buffer information deriving unit 240 places a virtual viewpoint within the third virtual reality space information in order to project the third virtual reality space information onto the actual screen, and measures the depth value from the virtual viewpoint to the additional object to determine the third depth. Buffer information can be derived.

가상 시점이란 3D 모델, 가상 현실 공간 정보 등을 2D의 화면(예를 들어, 모니터, HMD 등)에 투영하기 위해 필요한 가상 현실 내에 임의로 배치된 시점(viewpoint)을 의미한다. 가상 시점의 좌표와 시선 방향 등을 기준으로 여러가지 행렬 곱을 통해 화면에 최종 2D 이미지가 투영될 수 있다. A virtual viewpoint refers to a viewpoint randomly placed within virtual reality necessary to project 3D models, virtual reality spatial information, etc. onto a 2D screen (e.g., monitor, HMD, etc.). The final 2D image can be projected on the screen through various matrix multiplications based on the coordinates of the virtual viewpoint and the direction of gaze.

깊이 버퍼 정보란 최종 화면의 각각 픽셀의 심도(depth)를 의미하며, 깊이 버퍼를 통해 시점 정보에서 가상 현실 공간의 해당 물체까지의 거리(z depth)를 부동 소수(floating-point)의 형태로 저장할 수 있다. 이를 시각화할 경우, 깊이 버퍼에 저장된 값에 따라 가까운 물체는 심도가 얕으므로 검은색으로 표현되고, 멀리 있는 물체는 심도가 깊으므로 흰색으로 표현되는 깊이 맵(depth map 또는 depth texture)을 생성할 수 있다. Depth buffer information refers to the depth of each pixel on the final screen, and through the depth buffer, the distance (z depth) from the viewpoint information to the corresponding object in virtual reality space can be stored in the form of a floating point. You can. When visualizing this, depending on the value stored in the depth buffer, a depth map (depth map or depth texture) can be created in which close objects are expressed in black because they have a shallow depth of field, and distant objects are expressed in white because they have a deep depth. there is.

재조정부(250)는 제 1 가상 현실 공간 정보 및 제 2 가상 현실 공간 정보에 기초하여 제 3 가상 현실 공간 정보에 삽입된 추가 객체를 재조정할 수 있다. The readjustment unit 250 may readjust the additional object inserted into the third virtual reality space information based on the first virtual reality space information and the second virtual reality space information.

재조정부(250)는 제 1 깊이 버퍼 정보, 제 2 깊이 버퍼 정보 및 제 3 깊이 버퍼 정보에 기초하여 제 3 가상 현실 공간 정보에 삽입된 추가 객체를 재조정할 수 있다. 재조정부(250)는 제 1 깊이 버퍼 정보 및 제 2 깊이 버퍼 정보를 비교하여 제거된 객체의 위치 및 크기를 도출할 수 있다. 재조정부(250)는 제 2 깊이 버퍼 정보 및 제 3 깊이 버퍼 정보를 비교하여 추가 객체의 위치 및 크기를 도출할 수 있다. The readjustment unit 250 may readjust the additional object inserted into the third virtual reality space information based on the first depth buffer information, the second depth buffer information, and the third depth buffer information. The readjustment unit 250 may derive the location and size of the removed object by comparing the first depth buffer information and the second depth buffer information. The readjustment unit 250 may derive the location and size of the additional object by comparing the second depth buffer information and the third depth buffer information.

재조정부(250)는 제거된 객체의 위치 및 크기에 해당하도록 추가 객체의 위치 및 크기를 재조정할 수 있다. The readjustment unit 250 may readjust the position and size of the additional object to correspond to the position and size of the removed object.

크기 척도 적용부(260)는 제 1 가상 현실 공간 정보, 제 2 가상 현실 공간 정보 및 제 3 가상 현실 공간 정보 중 어느 하나 내에 가상 시점을 배치할 수 있다. 이 때, 크기 척도 적용부(260)는 배치된 가상 시점을 기준으로 렌더링을 수행하고, 깊이 버퍼를 추출하여 저장할 수 있다. The size scale application unit 260 may place the virtual viewpoint within any one of first virtual reality space information, second virtual reality space information, and third virtual reality space information. At this time, the size scale application unit 260 may perform rendering based on the arranged virtual viewpoint and extract and store the depth buffer.

크기 척도 적용부(260)는 가상 시점으로부터 사용자로부터 입력받은 지점까지의 심도값을 측정하고, 가상 시점으로부터 지점까지의 실제 거리 정보를 사용자로부터 입력받고, 실제 거리 정보와 가상 현실 공간의 깊이 버퍼 정보를 비교할 수 있다. 예를 들어, 크기 척도 적용부(260)는 심도값 및 실제 거리 정보 간의 비율을 도출하고, 도출된 비율을 가상 현실 공간과 대상 공간의 크기 척도로 적용할 수 있다. The size scale application unit 260 measures the depth value from the virtual viewpoint to the point input by the user, receives actual distance information from the virtual viewpoint to the point from the user, and receives actual distance information and depth buffer information in the virtual reality space. can be compared. For example, the size scale application unit 260 may derive a ratio between the depth value and actual distance information, and apply the derived ratio as a size scale of the virtual reality space and the target space.

도 3a 내지 도 3c는 본 발명의 일 실시예에 따른 가상 현실 공간 정보에 결함이 있는 객체가 포함된 경우에 객체를 제거 및 추가 삽입하는 과정을 설명하기 위한 예시적인 도면이다. FIGS. 3A to 3C are exemplary diagrams for explaining a process of removing and additionally inserting an object when a defective object is included in virtual reality space information according to an embodiment of the present invention.

도 3a는 본 발명의 일 실시예에 따른 제 1 가상 현실 공간 정보를 도시한 예시적인 도면이다. 도 3a를 참조하면, 가상 현실 공간 생성 장치(120)는 스캔 장치(110)를 통해 대상 공간을 스캔하여 제 1 가상 현실 공간 정보를 생성할 수 있다. 이 때, 제 1 가상 현실 공간 정보에 결함이 있는 객체가 포함될 수 있다. 예를 들어, 제 1 가상 현실 공간 정보에 색깔 및 형태가 왜곡된 소화전(300)이 포함될 수 있다. FIG. 3A is an exemplary diagram illustrating first virtual reality space information according to an embodiment of the present invention. Referring to FIG. 3A , the virtual reality space generating device 120 may scan the target space using the scanning device 110 to generate first virtual reality space information. At this time, a defective object may be included in the first virtual reality space information. For example, the first virtual reality space information may include a fire hydrant 300 whose color and shape are distorted.

도 3b는 본 발명의 일 실시예에 따른 제 2 가상 현실 공간 정보를 도시한 예시적인 도면이다. 도 3b를 참조하면, 가상 현실 공간 생성 장치(120)는 제 1 가상 현실 공간 정보에 결함이 있는 객체가 포함된 경우, 객체를 포함하지 않는 제 2 가상 현실 공간 정보를 생성하기 위해 제 1 가상 현실 공간 정보로부터 객체를 제거할 수 있다. FIG. 3B is an exemplary diagram illustrating second virtual reality space information according to an embodiment of the present invention. Referring to FIG. 3B, when the first virtual reality space information includes a defective object, the virtual reality space generating device 120 uses the first virtual reality space information to generate second virtual reality space information that does not include the object. Objects can be removed from spatial information.

예를 들어, 가상 현실 공간 생성 장치(120)는 도 3a의 제 1 가상 현실 공간 정보에 포함된 색깔 및 형태가 왜곡된 소화전을 제거(310)할 수 있다. For example, the virtual reality space creation device 120 may remove (310) a fire hydrant whose color and shape are distorted included in the first virtual reality space information of FIG. 3A.

도 3c는 본 발명의 일 실시예에 따른 제 3 가상 현실 공간 정보를 도시한 예시적인 도면이다. 도 3c를 참조하면, 가상 현실 공간 생성 장치(120)는 스캔 장치(110)를 통해 추가적으로 스캔된 추가 객체를 제 2 가상 현실 공간 정보에 삽입하여 제 3 가상 현실 공간 정보를 생성할 수 있다. FIG. 3C is an exemplary diagram illustrating third virtual reality space information according to an embodiment of the present invention. Referring to FIG. 3C, the virtual reality space generating device 120 may generate third virtual reality space information by inserting an additional object additionally scanned through the scanning device 110 into the second virtual reality space information.

예를 들어, 가상 현실 공간 생성 장치(120)는 스캔 장치(110)를 통해 추가적으로 스캔된 정상적인 색깔 및 형태의 소화전을 도 3b의 객체가 제거된 제 2 가상 현실 공간 정보에 삽입(320)할 수 있다. For example, the virtual reality space creation device 120 may insert (320) a fire hydrant of normal color and shape additionally scanned through the scanning device 110 into the second virtual reality space information from which the object of FIG. 3B has been removed. there is.

도 4a 내지 도 4c는 본 발명의 일 실시예에 따른 각각의 가상 현실 공간 정보에 대해 가상 시점으로부터 깊이 버퍼 정보를 도출하는 과정을 설명하기 위한 예시적인 도면이다. FIGS. 4A to 4C are exemplary diagrams for explaining a process of deriving depth buffer information from a virtual viewpoint for each virtual reality space information according to an embodiment of the present invention.

도 4a는 본 발명의 일 실시예에 따른 제 1 가상 현실 공간 정보로부터 제 1 깊어 버퍼 정보를 도출하는 과정을 설명하기 위한 예시적인 도면이다. 도 4a를 참조하면, 가상 현실 공간 생성 장치(120)는 제 1 가상 현실 공간 정보에 대해 가상 시점으로부터 객체(400)까지의 심도값을 측정하여 제 1 깊이 버퍼 정보를 도출할 수 있다. FIG. 4A is an exemplary diagram illustrating a process of deriving first depth buffer information from first virtual reality space information according to an embodiment of the present invention. Referring to FIG. 4A , the virtual reality space creation device 120 may derive first depth buffer information by measuring the depth value from the virtual viewpoint to the object 400 with respect to the first virtual reality space information.

도 4b는 본 발명의 일 실시예에 따른 제 2 가상 현실 공간 정보로부터 제 2 깊이 버퍼 정보를 도출하는 과정을 설명하기 위한 예시적인 도면이다. 도 4b를 참조하면, 가상 현실 공간 생성 장치(120)는 제 2 가상 현실 공간 정보에 대해 가상 시점으로부터 제거된 객체에 대한 영역(410)까지의 심도값을 측정하여 제 2 깊이 버퍼 정보를 도출할 수 있다. FIG. 4B is an exemplary diagram illustrating a process of deriving second depth buffer information from second virtual reality space information according to an embodiment of the present invention. Referring to FIG. 4B, the virtual reality space generating device 120 measures the depth value from the virtual viewpoint to the area 410 for the removed object with respect to the second virtual reality space information to derive second depth buffer information. You can.

도 4c는 본 발명의 일 실시예에 따른 제 3 가상 현실 공간 정보로부터 제 3 깊이 버퍼 정보를 도출하는 과정을 설명하기 위한 예시적인 도면이다. 도 4c를 참조하면, 가상 현실 공간 생성 장치(120)는 제 3 가상 현실 공간 정보에 대해 가상 시점으로부터 추가 객체(420)까지의 심도값을 측정하여 제 3 깊이 버퍼 정보를 도출할 수 있다. FIG. 4C is an exemplary diagram illustrating a process of deriving third depth buffer information from third virtual reality space information according to an embodiment of the present invention. Referring to FIG. 4C, the virtual reality space creation device 120 may derive third depth buffer information by measuring the depth value from the virtual viewpoint to the additional object 420 with respect to the third virtual reality space information.

도 5a 및 도 5b는 본 발명의 일 실시예에 따른 추가 객체의 위치 및 크기를제거된 객체의 위치 및 크기에 해당하도록 재조정하는 과정을 설명하기 위한 예시적인 도면이다. FIGS. 5A and 5B are exemplary diagrams illustrating a process of readjusting the position and size of an additional object to correspond to the position and size of a removed object according to an embodiment of the present invention.

도 5a는 본 발명의 일 실시예에 따른 제 1 깊이 버퍼 정보와 제 2 깊이 버퍼 정보를 비교하는 과정을 설명하기 위한 예시적인 도면이다. 도 5a를 참조하면, 가상 현실 공간 생성 장치(120)는 객체(500)가 포함된 제 1 깊이 버퍼 정보와 객체가 제거된 제 2 깊이 버퍼 정보를 비교하여 제거된 객체(510)의 위치 및 크기를 도출할 수 있다. FIG. 5A is an exemplary diagram illustrating a process of comparing first depth buffer information and second depth buffer information according to an embodiment of the present invention. Referring to FIG. 5A, the virtual reality space creation device 120 compares the first depth buffer information including the object 500 and the second depth buffer information from which the object was removed to determine the location and size of the removed object 510. can be derived.

가상 현실 공간 생성 장치(120)는 제 2 깊이 버퍼 정보와 제 3 깊이 버퍼 정보를 비교하여 추가 객체(530)의 위치 및 크기를 재조정할 수 있다. 예를 들어, 가상 현실 공간 생성 장치(120)는 제거된 객체(510)의 위치 및 크기와 추가 객체(520)의 위치 및 크기를 비교하여, 추가 객체의 크기를 객체가 제거되기 전의 크기로 재조정(530)할 수 있다. The virtual reality space creation device 120 may readjust the position and size of the additional object 530 by comparing the second depth buffer information and the third depth buffer information. For example, the virtual reality space creation device 120 compares the location and size of the removed object 510 with the location and size of the additional object 520, and readjusts the size of the additional object to the size before the object was removed. (530)You can.

도 5b는 본 발명의 일 실시예에 따른 크기 및 위치가 재조정된 추가 객체를 도시한 예시적인 도면이다. 도 5b를 참조하면, 제 3 가상 현실 공간 정보에 포함된 추가 객체(530)의 크기 및 위치가 도 5a에서 크기 및 위치가 재조정된 추가 객체(540)로 제 2 가상 현실 공간 정보에 삽입된 것을 알 수 있다. FIG. 5B is an exemplary diagram illustrating an additional object whose size and position have been readjusted according to an embodiment of the present invention. Referring to FIG. 5B, the size and position of the additional object 530 included in the third virtual reality space information are inserted into the second virtual reality space information as the additional object 540 whose size and position have been readjusted in FIG. 5A. Able to know.

도 6a 및 도 6b는 본 발명의 일 실시예에 따른 가상 현실 공간과 대상 공간 간의 크기 척도로 비율을 적용하는 과정을 설명하기 위한 예시적인 도면이다. FIGS. 6A and 6B are exemplary diagrams for explaining a process of applying a ratio as a size scale between a virtual reality space and a target space according to an embodiment of the present invention.

도 6a는 본 발명의 일 실시예에 따른 사용자로부터 가상 현실 공간 정보에 가상 시점을 배치받는 과정을 설명하기 위한 예시적인 도면이다. 도 6a를 참조하면, 가상 현실 공간 생성 장치(120)가 제 1 가상 현실 공간 정보 내지 제 3 가상 현실 공간 정보(610)를 사용자에게 제공하면, 사용자로부터 어느 하나의 가상 현실 공간 정보 내에 가상 시점(620)을 배치받을 수 있다. 이 때, 가상 현실 공간 생성 장치(120)는 사용자로부터 가상 시점(620)을 배치받으면, 렌더링을 수행하고, 사용자로부터 선택받은 지점에 대해 추출된 깊이 버퍼 정보를 저장할 수 있다. 예를 들어, 깊이 버퍼 정보는 0.125일 수 있다.FIG. 6A is an exemplary diagram illustrating a process of receiving a virtual viewpoint in virtual reality space information from a user according to an embodiment of the present invention. Referring to FIG. 6A, when the virtual reality space generating device 120 provides the first to third virtual reality space information 610 to the user, a virtual viewpoint ( 620) can be assigned. At this time, when the virtual reality space creation device 120 receives the virtual viewpoint 620 from the user, it can perform rendering and store the depth buffer information extracted for the point selected by the user. For example, the depth buffer information may be 0.125.

가상 현실 공간 생성 장치(120)는 가상 시점(620)으로부터 사용자로부터 선택받은 지점까지의 실제 거리 정보를 사용자로부터 입력받아 심도값 및 실제 거리 정보 간의 비율을 도출하여, 도출된 비율을 가상 현실 공간과 대상 공간 간의 크기 척도로 적용할 수 있다. The virtual reality space generating device 120 receives actual distance information from the virtual viewpoint 620 to a point selected by the user, derives a ratio between the depth value and the actual distance information, and compares the derived ratio to the virtual reality space and the actual distance information. It can be applied as a size scale between target spaces.

예를 들어, 가상 현실 공간 생성 장치(120)는 사용자로부터 실제 거리 정보로 1.5를 입력받은 경우, 심도값 및 실제 거리 정보 간의 비율(630)을 0.833으로 도출할 수 있다. 가상 현실 공간 생성 장치(120)는 도출된 심도값 및 실제 거리 정보 간의 비율(630)인 0.833을 가상 현실 공간과 대상 공간 간의 크기 척도로 적용할 수 있다. For example, when the virtual reality space creation device 120 receives 1.5 as actual distance information from the user, the ratio 630 between the depth value and the actual distance information may be derived as 0.833. The virtual reality space creation device 120 may apply 0.833, which is the ratio 630 between the derived depth value and the actual distance information, as a size scale between the virtual reality space and the target space.

도 7은 본 발명의 일 실시예에 따른 가상 현실 공간 생성 장치에서 가상 현실 공간을 생성하는 방법의 순서도이다. 도 7에 도시된 가상 현실 공간 생성 장치(120)에서 가상 현실 공간을 생성하는 방법은 도 1 내지 도 6b에 도시된 실시예에 따른 가상 현실 공간 생성 시스템(1)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1 내지 도 6b에 도시된 실시예에 따른 가상 현실 공간 생성 장치(120)에서 가상 현실 공간을 생성하는 방법에도 적용된다. Figure 7 is a flowchart of a method for generating a virtual reality space in a virtual reality space creation device according to an embodiment of the present invention. The method of generating a virtual reality space in the virtual reality space creation device 120 shown in FIG. 7 includes steps processed in time series in the virtual reality space creation system 1 according to the embodiment shown in FIGS. 1 to 6B. Includes. Therefore, even if the content is omitted below, it also applies to the method of generating a virtual reality space in the virtual reality space generating device 120 according to the embodiment shown in FIGS. 1 to 6B.

단계 S710에서 가상 현실 공간 생성 장치(120)는 스캔 장치(110)를 통해 대상 공간을 스캔하여 제 1 가상 현실 공간 정보를 생성할 수 있다. In step S710, the virtual reality space generating device 120 may scan the target space using the scanning device 110 to generate first virtual reality space information.

단계 S720에서 제 1 가상 현실 공간 정보에 결함이 있는 객체가 포함된 경우, 제 1 가상 현실 공간 정보로부터 객체를 제거하여 객체를 포함하지 않는 제 2 가상 현실 공간 정보를 생성할 수 있다. If the first virtual reality space information includes a defective object in step S720, the object may be removed from the first virtual reality space information to generate second virtual reality space information that does not include the object.

단계 S730에서 가상 현실 공간 생성 장치(120)는 스캔 장치(110)를 통해 추가적으로 스캔된 추가 객체를 제 2 가상 현실 공간 정보에 삽입하여 제 3 가상 현실 공간 정보를 생성할 수 있다. In step S730, the virtual reality space generating device 120 may generate third virtual reality space information by inserting an additional object additionally scanned through the scanning device 110 into the second virtual reality space information.

단계 S740에서 가상 현실 공간 생성 장치(120)는 제 1 가상 현실 공간 정보 및 제 2 가상 현실 공간 정보에 기초하여 제 3 가상 현실 공간 정보에 삽입된 추가 객체를 재조정할 수 있다. In step S740, the virtual reality space creation device 120 may readjust the additional object inserted into the third virtual reality space information based on the first virtual reality space information and the second virtual reality space information.

상술한 설명에서, 단계 S710 내지 S740은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 전환될 수도 있다.In the above description, steps S710 to S740 may be further divided into additional steps or combined into fewer steps, depending on the implementation of the present invention. Additionally, some steps may be omitted or the order between steps may be switched as needed.

도 1 내지 도 7을 통해 설명된 가상 현실 공간 생성 장치에서 가상 현실 공간을 생성하는 방법은 컴퓨터에 의해 실행되는 매체에 저장된 컴퓨터 프로그램 또는 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 또한, 도 1 내지 도 7을 통해 설명된 가상 현실 공간 생성 장치에서 가상 현실 공간을 생성하는 방법은 컴퓨터에 의해 실행되는 매체에 저장된 컴퓨터 프로그램의 형태로도 구현될 수 있다. The method of generating a virtual reality space in the virtual reality space generating device described through FIGS. 1 to 7 is also implemented in the form of a computer program stored on a medium executed by a computer or a recording medium containing instructions executable by a computer. It can be. Additionally, the method of generating a virtual reality space in the virtual reality space creation device described with reference to FIGS. 1 to 7 may also be implemented in the form of a computer program stored in a medium executed by a computer.

컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and non-volatile media, removable and non-removable media. Additionally, computer-readable media may include computer storage media. Computer storage media includes both volatile and non-volatile, removable and non-removable media implemented in any method or technology for storage of information such as computer-readable instructions, data structures, program modules or other data.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The description of the present invention described above is for illustrative purposes, and those skilled in the art will understand that the present invention can be easily modified into other specific forms without changing the technical idea or essential features of the present invention. will be. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. For example, each component described as single may be implemented in a distributed manner, and similarly, components described as distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. The scope of the present invention is indicated by the claims described below rather than the detailed description above, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. do.

110: 스캔 장치
111: 일반 스캔 장치
112: 정밀 스캔 장치
120: 가상 현실 공간 생성 장치
210: 생성부
220: 제거부
230: 삽입부
240: 깊이 버퍼 정보 도출부
250: 재조정부
260: 크기 척도 적용부
110: scanning device
111: General scanning device
112: Precision scanning device
120: Virtual reality space creation device
210: Generation unit
220: removal unit
230: Insertion part
240: Depth buffer information derivation unit
250: readjustment unit
260: size scale application unit

Claims (18)

가상 현실 공간을 생성하는 장치에 있어서,
스캔 장치를 통해 대상 공간을 스캔하여 제 1 가상 현실 공간 정보를 생성하는 생성부;
상기 제 1 가상 현실 공간 정보에 결함이 있는 객체가 포함된 경우, 상기 제 1 가상 현실 공간 정보로부터 상기 객체를 제거하여 상기 객체를 포함하지 않는 제 2 가상 현실 공간 정보를 생성하는 제거부;
상기 스캔 장치를 통해 추가적으로 스캔된 추가 객체를 상기 제 2 가상 현실 공간 정보에 삽입하여 제 3 가상 현실 공간 정보를 생성하는 삽입부; 및
상기 제 1 가상 현실 공간 정보 및 상기 제 2 가상 현실 공간 정보를 비교하고, 상기 제 2 가상 현실 공간 정보와 상기 제 3 가상 현실 공간 정보를 비교하여, 상기 제 3 가상 현실 공간 정보에 삽입된 추가 객체를 재조정하는 재조정부
를 포함하는 것인, 가상 현실 공간 생성 장치.
In a device for creating a virtual reality space,
a generating unit that generates first virtual reality space information by scanning the target space through a scanning device;
When the first virtual reality space information includes a defective object, a removal unit that removes the object from the first virtual reality space information to generate second virtual reality space information that does not include the object;
an insertion unit that generates third virtual reality space information by inserting an additional object additionally scanned through the scanning device into the second virtual reality space information; and
Compare the first virtual reality space information and the second virtual reality space information, compare the second virtual reality space information and the third virtual reality space information, and compare an additional object inserted into the third virtual reality space information. rebalancing department that reorganizes
A virtual reality space creation device comprising:
제 1 항에 있어서,
상기 객체 및 상기 추가 객체와 관련하여 상기 제 1 가상 현실 공간 정보로부터 제 1 깊이 버퍼 정보를 도출하고, 상기 제 2 가상 현실 공간 정보로부터 제 2 깊이 버퍼 정보를 도출하고, 상기 제 3 가상 현실 공간 정보로부터 제 3 깊이 버퍼 정보를 도출하는 깊이 버퍼 정보 도출부
를 더 포함하고,
상기 재조정부는 상기 제 1 깊이 버퍼 정보, 상기 제 2 깊이 버퍼 정보 및 상기 제 3 깊이 버퍼 정보에 기초하여 상기 제 3 가상 현실 공간 정보에 삽입된 추가 객체를 재조정하는 것인, 가상 현실 공간 생성 장치.
According to claim 1,
Derive first depth buffer information from the first virtual reality space information, derive second depth buffer information from the second virtual reality space information, and third virtual reality space information with respect to the object and the additional object. A depth buffer information deriving unit that derives third depth buffer information from
It further includes,
The readjustment unit readjusts the additional object inserted into the third virtual reality space information based on the first depth buffer information, the second depth buffer information, and the third depth buffer information.
제 2 항에 있어서,
상기 깊이 버퍼 정보 도출부는 상기 제 1 가상 현실 공간 정보를 실제 화면에 투영하기 위해 상기 제 1 가상 현실 공간 정보 내에 가상 시점을 배치하고, 상기 가상 시점으로부터 상기 객체까지의 심도값을 측정함으로써 상기 제 1 깊이 버퍼 정보를 도출하는 것인, 가상 현실 공간 생성 장치.
According to claim 2,
The depth buffer information deriving unit places a virtual viewpoint within the first virtual reality space information in order to project the first virtual reality space information onto a real screen, and measures the depth value from the virtual viewpoint to the object, thereby generating the first virtual reality space information. A virtual reality space generating device that derives depth buffer information.
제 3 항에 있어서,
상기 깊이 버퍼 정보 도출부는 상기 제 2 가상 현실 공간 정보를 실제 화면에 투영하기 위해 상기 제 2 가상 현실 공간 정보 내에 가상 시점을 배치하고, 상기 가상 시점으로부터 상기 제거된 객체에 대한 영역까지의 심도값을 측정함으로써 상기 제 2 깊이 버퍼 정보를 도출하는 것인, 가상 현실 공간 생성 장치.
According to claim 3,
The depth buffer information deriving unit places a virtual viewpoint within the second virtual reality space information in order to project the second virtual reality space information onto a real screen, and determines a depth value from the virtual viewpoint to the area for the removed object. A virtual reality space generating device that derives the second depth buffer information by measuring.
제 4 항에 있어서,
상기 깊이 버퍼 정보 도출부는 상기 제 3 가상 현실 공간 정보를 실제 화면에 투영하기 위해 상기 제 3 가상 현실 공간 정보 내에 가상 시점을 배치하고, 상기 가상 시점으로부터 상기 추가 객체까지의 심도값을 측정함으로써 상기 제 3 깊이 버퍼 정보를 도출하는 것인, 가상 현실 공간 생성 장치.
According to claim 4,
The depth buffer information deriving unit places a virtual viewpoint within the third virtual reality space information in order to project the third virtual reality space information onto a real screen, and measures the depth value from the virtual viewpoint to the additional object to obtain the third virtual reality space information. 3 A virtual reality space generating device that derives depth buffer information.
제 5 항에 있어서,
상기 재조정부는 상기 제 1 깊이 버퍼 정보 및 상기 제 2 깊이 버퍼 정보를 비교하여 상기 제거된 객체의 위치 및 크기를 도출하는 것인, 가상 현실 공간 생성 장치.
According to claim 5,
The readjustment unit compares the first depth buffer information and the second depth buffer information to derive the location and size of the removed object.
제 6 항에 있어서,
상기 재조정부는 상기 제 2 깊이 버퍼 정보 및 상기 제 3 깊이 버퍼 정보를 비교하여 상기 추가 객체의 위치 및 크기를 도출하는 것인, 가상 현실 공간 생성 장치.
According to claim 6,
The readjustment unit compares the second depth buffer information and the third depth buffer information to derive the location and size of the additional object.
제 7 항에 있어서,
상기 재조정부는 상기 제거된 객체의 위치 및 크기에 해당하도록 상기 추가 객체의 위치 및 크기를 재조정하는 것인, 가상 현실 공간 생성 장치.
According to claim 7,
The readjustment unit readjusts the position and size of the additional object to correspond to the position and size of the removed object.
제 1 항에 있어서,
상기 스캔 장치는 일반 스캔 장치 및 정밀 스캔 장치를 포함하고,
상기 일반 스캔 장치는 넓은 공간에 대한 광범위 스캔을 행하는 장치로서 상기 대상 공간을 스캔하고,
상기 정밀 스캔 장치는 물체에 대한 정밀 스캔을 행하는 장치로서 상기 추가 객체를 스캔하는 것인, 가상 현실 공간 생성 장치.
According to claim 1,
The scanning device includes a general scanning device and a precise scanning device,
The general scanning device is a device that performs an extensive scan of a large space and scans the target space,
The precise scanning device is a device that performs a precise scan of an object and scans the additional object.
제 1 항에 있어서,
상기 제 1 가상 현실 공간 정보, 상기 제 2 가상 현실 공간 정보 및 상기 제 3 가상 현실 공간 정보 중 어느 하나 내에 가상 시점을 배치하고, 상기 가상 시점으로부터 사용자로부터 입력받은 지점까지의 심도값을 측정하고,
상기 가상 시점으로부터 상기 지점까지의 실제 거리 정보를 사용자로부터 입력받고,
상기 심도값 및 상기 실제 거리 정보 간의 비율을 도출하고,
상기 도출된 비율을 가상 현실 공간과 상기 대상 공간 간의 크기 척도로 적용하는 크기 척도 적용부
를 더 포함하는 것인, 가상 현실 공간 생성 장치.
According to claim 1,
Arranging a virtual viewpoint within one of the first virtual reality space information, the second virtual reality space information, and the third virtual reality space information, and measuring a depth value from the virtual viewpoint to a point input by the user,
Receive actual distance information from the virtual viewpoint to the point from the user,
Deriving a ratio between the depth value and the actual distance information,
A size scale application unit that applies the derived ratio as a size scale between the virtual reality space and the target space.
A virtual reality space creation device further comprising:
가상 현실 공간을 생성하는 방법에 있어서,
스캔 장치를 통해 대상 공간을 스캔하여 제 1 가상 현실 공간 정보를 생성하는 단계;
상기 제 1 가상 현실 공간 정보에 결함이 있는 객체가 포함된 경우, 상기 제 1 가상 현실 공간 정보로부터 상기 객체를 제거하여 상기 객체를 포함하지 않는 제 2 가상 현실 공간 정보를 생성하는 단계;
상기 스캔 장치를 통해 추가적으로 스캔된 추가 객체를 상기 제 2 가상 현실 공간 정보에 삽입하여 제 3 가상 현실 공간 정보를 생성하는 단계; 및
상기 제 1 가상 현실 공간 정보 및 상기 제 2 가상 현실 공간 정보를 비교하고, 상기 제 2 가상 현실 공간 정보와 상기 제 3 가상 현실 공간 정보를 비교하여, 상기 제 3 가상 현실 공간 정보에 삽입된 추가 객체를 재조정하는 단계
를 포함하는 것인, 가상 현실 공간 생성 방법.
In a method of creating a virtual reality space,
generating first virtual reality space information by scanning a target space through a scanning device;
When the first virtual reality space information includes a defective object, removing the object from the first virtual reality space information to generate second virtual reality space information not including the object;
generating third virtual reality space information by inserting an additional object additionally scanned through the scanning device into the second virtual reality space information; and
Compare the first virtual reality space information and the second virtual reality space information, compare the second virtual reality space information and the third virtual reality space information, and compare the additional object inserted into the third virtual reality space information. Steps to readjust
A method for creating a virtual reality space, comprising:
제 11 항에 있어서,
상기 객체 및 상기 추가 객체와 관련하여 상기 제 1 가상 현실 공간 정보로부터 제 1 깊이 버퍼 정보를 도출하는 단계;
상기 객체와 관련하여 상기 제 2 가상 현실 공간 정보로부터 제 2 깊이 버퍼 정보를 도출하는 단계;
상기 객체와 관련하여 상기 제 3 가상 현실 공간 정보로부터 제 3 깊이 버퍼 정보를 도출하는 단계
를 더 포함하고,
상기 추가 객체를 재조정하는 단계는 상기 제 1 깊이 버퍼 정보, 상기 제 2 깊이 버퍼 정보 및 상기 제 3 깊이 버퍼 정보에 기초하여 상기 제 3 가상 현실 공간 정보에 삽입된 추가 객체를 재조정하는 것인, 가상 현실 공간 생성 방법.
According to claim 11,
deriving first depth buffer information from the first virtual reality space information with respect to the object and the additional object;
deriving second depth buffer information from the second virtual reality space information with respect to the object;
Deriving third depth buffer information from the third virtual reality space information with respect to the object.
It further includes,
The step of readjusting the additional object is to readjust the additional object inserted into the third virtual reality space information based on the first depth buffer information, the second depth buffer information, and the third depth buffer information. How to create real space.
제 12 항에 있어서,
상기 제 1 깊이 버퍼 정보를 도출하는 단계는 상기 제 1 가상 현실 공간 정보를 실제 화면에 투영하기 위해 상기 제 1 가상 현실 공간 정보 내에 가상 시점을 배치하고, 상기 가상 시점으로부터 상기 객체까지의 심도값을 측정함으로써 상기 제 1 버퍼 정보를 도출하는 것인, 가상 현실 공간 생성 방법.
According to claim 12,
The step of deriving the first depth buffer information includes placing a virtual viewpoint within the first virtual reality space information to project the first virtual reality space information on a real screen, and calculating a depth value from the virtual viewpoint to the object. A method of generating a virtual reality space, wherein the first buffer information is derived by measuring.
제 13 항에 있어서,
상기 제 2 깊이 버퍼 정보를 도출하는 단계는 상기 제 2 가상 현실 공간 정보를 실제 화면에 투영하기 위해 상기 제 2 가상 현실 공간 정보 내에 가상 시점을 배치하고, 상기 가상 시점으로부터 상기 제거된 객체에 대한 영역까지의 심도값을 측정함으로써 상기 제 2 버퍼 정보를 도출하는 것인, 가상 현실 공간 생성 방법.
According to claim 13,
The step of deriving the second depth buffer information includes placing a virtual viewpoint within the second virtual reality space information to project the second virtual reality space information onto a real screen, and creating an area for the removed object from the virtual viewpoint. A method of generating a virtual reality space, wherein the second buffer information is derived by measuring the depth value up to.
제 14 항에 있어서,
상기 제 3 깊이 버퍼 정보를 도출하는 단계는 상기 제 3 가상 현실 공간 정보를 실제 화면에 투영하기 위해 상기 제 3 가상 현실 공간 정보 내에 가상 시점을 배치하고, 상기 가상 시점으로부터 상기 추가 객체까지의 심도값을 측정함으로써 상기 제 3 버퍼 정보를 도출하는 것인, 가상 현실 공간 생성 방법.
According to claim 14,
The step of deriving the third depth buffer information includes placing a virtual viewpoint within the third virtual reality space information to project the third virtual reality space information onto a real screen, and calculating a depth value from the virtual viewpoint to the additional object. A method of generating a virtual reality space, wherein the third buffer information is derived by measuring .
제 15 항에 있어서,
상기 추가 객체를 재조정하는 단계는 상기 제 1 버퍼 정보 및 상기 제 2 버퍼 정보를 비교하여 상기 제거된 객체의 위치 및 크기를 도출하고,
상기 추가 객체를 재조정하는 단계는 상기 제 2 버퍼 정보 및 상기 제 3 버퍼 정보를 비교하여 상기 추가 객체의 위치 및 크기를 도출하는 것인, 가상 현실 공간 생성 방법.
According to claim 15,
The step of readjusting the additional object includes comparing the first buffer information and the second buffer information to derive the location and size of the removed object,
The step of readjusting the additional object includes deriving the location and size of the additional object by comparing the second buffer information and the third buffer information.
제 16 항에 있어서,
상기 추가 객체를 재조정하는 단계는 상기 제거된 객체의 위치 및 크기에 해당하도록 상기 추가 객체의 위치 및 크기를 재조정하는 것인, 가상 현실 공간 생성 방법.
According to claim 16,
The step of readjusting the additional object is to readjust the position and size of the additional object to correspond to the position and size of the removed object.
가상 현실 공간을 생성하는 명령어들의 시퀀스를 포함하는 매체에 저장된 컴퓨터 프로그램에 있어서,
상기 컴퓨터 프로그램은 컴퓨팅 장치에 의해 실행될 경우,
스캔 장치를 통해 대상 공간을 스캔하여 제 1 가상 현실 공간 정보를 생성하고,
상기 제 1 가상 현실 공간 정보에 결함이 있는 객체가 포함된 경우, 상기 제 1 가상 현실 공간 정보로부터 상기 객체를 제거하여 상기 객체를 포함하지 않는 제 2 가상 현실 공간 정보를 생성하고,
상기 스캔 장치를 통해 추가적으로 스캔된 추가 객체를 상기 제 2 가상 현실 공간 정보에 삽입하여 제 3 가상 현실 공간 정보를 생성하고,
상기 제 1 가상 현실 공간 정보 및 상기 제 2 가상 현실 공간 정보를 비교하고, 상기 제 2 가상 현실 공간 정보와 상기 제 3 가상 현실 공간 정보를 비교하여, 상기 제 3 가상 현실 공간 정보에 삽입된 추가 객체를 재조정하도록 하는 명령어들의 시퀀스를 포함하는, 매체에 저장된 컴퓨터 프로그램.
A computer program stored on a medium containing a sequence of instructions for creating a virtual reality space, comprising:
When the computer program is executed by a computing device,
Generate first virtual reality space information by scanning the target space through a scanning device,
If the first virtual reality space information includes a defective object, remove the object from the first virtual reality space information to generate second virtual reality space information that does not include the object,
generating third virtual reality space information by inserting an additional object additionally scanned through the scanning device into the second virtual reality space information;
Compare the first virtual reality space information and the second virtual reality space information, compare the second virtual reality space information and the third virtual reality space information, and compare an additional object inserted into the third virtual reality space information. A computer program stored on a medium that contains a sequence of instructions to recondition.
KR1020170183101A 2017-12-28 2017-12-28 Apparatus, method and computer program for generating virtual reality space KR102638368B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170183101A KR102638368B1 (en) 2017-12-28 2017-12-28 Apparatus, method and computer program for generating virtual reality space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170183101A KR102638368B1 (en) 2017-12-28 2017-12-28 Apparatus, method and computer program for generating virtual reality space

Publications (2)

Publication Number Publication Date
KR20190080570A KR20190080570A (en) 2019-07-08
KR102638368B1 true KR102638368B1 (en) 2024-02-20

Family

ID=67256619

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170183101A KR102638368B1 (en) 2017-12-28 2017-12-28 Apparatus, method and computer program for generating virtual reality space

Country Status (1)

Country Link
KR (1) KR102638368B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102087076B1 (en) * 2019-07-12 2020-03-10 주식회사 지오멕스소프트 Pre-prediction system for occlusion area in aviation survey using uav and optimal route determine method of uav using the same

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101717379B1 (en) * 2015-12-07 2017-03-20 주식회사 에이스엠이 System for postprocessing 3-dimensional image

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201119353A (en) * 2009-06-24 2011-06-01 Dolby Lab Licensing Corp Perceptual depth placement for 3D objects
US10304248B2 (en) * 2014-06-26 2019-05-28 Korea Advanced Institute Of Science And Technology Apparatus and method for providing augmented reality interaction service
KR102309863B1 (en) * 2014-10-15 2021-10-08 삼성전자주식회사 Electronic device, controlling method thereof and recording medium

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101717379B1 (en) * 2015-12-07 2017-03-20 주식회사 에이스엠이 System for postprocessing 3-dimensional image

Also Published As

Publication number Publication date
KR20190080570A (en) 2019-07-08

Similar Documents

Publication Publication Date Title
CN106548516B (en) Three-dimensional roaming method and device
CN107484428B (en) Method for displaying objects
US11839820B2 (en) Method and apparatus for generating game character model, processor, and terminal
JP5773944B2 (en) Information processing apparatus and information processing method
US10521919B2 (en) Information processing device and information processing method for applying an optimization model
US20150356770A1 (en) Street view map display method and system
US8817046B2 (en) Color channels and optical markers
US10223839B2 (en) Virtual changes to a real object
CN102074040A (en) Image processing apparatus, image processing method, and program
EP3586269A1 (en) Image reconstruction for virtual 3d
KR102152436B1 (en) A skeleton processing system for dynamic 3D model based on 3D point cloud and the method thereof
JP2021056679A (en) Image processing apparatus, method and program
TW201921318A (en) Apparatus and method for generating a tiled three-dimensional image representation of a scene
CN109064533A (en) A kind of 3D loaming method and system
KR102638368B1 (en) Apparatus, method and computer program for generating virtual reality space
JP6852224B2 (en) Sphere light field rendering method in all viewing angles
US20180213215A1 (en) Method and device for displaying a three-dimensional scene on display surface having an arbitrary non-planar shape
KR102272975B1 (en) Method for simulating the realistic rendering of a makeup product
JP4554231B2 (en) Distortion parameter generation method, video generation method, distortion parameter generation apparatus, and video generation apparatus
JP5795556B2 (en) Shadow information deriving device, shadow information deriving method and program
JPWO2015186284A1 (en) Image processing apparatus, image processing method, and program
KR102571744B1 (en) Method and apparatus for generating three dimension contents
KR20110136059A (en) Method and apparatus for ray tracing in three-dimension image system
US20220198720A1 (en) Method and system for generating an augmented reality image
Lai et al. Exploring manipulation behavior on video see-through head-mounted display with view interpolation

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant