KR102454608B1 - Rendering method of virtual reality environment - Google Patents

Rendering method of virtual reality environment Download PDF

Info

Publication number
KR102454608B1
KR102454608B1 KR1020220009121A KR20220009121A KR102454608B1 KR 102454608 B1 KR102454608 B1 KR 102454608B1 KR 1020220009121 A KR1020220009121 A KR 1020220009121A KR 20220009121 A KR20220009121 A KR 20220009121A KR 102454608 B1 KR102454608 B1 KR 102454608B1
Authority
KR
South Korea
Prior art keywords
scene
virtual reality
reality environment
threshold
rendering method
Prior art date
Application number
KR1020220009121A
Other languages
Korean (ko)
Inventor
김대희
김현빈
신지연
Original Assignee
주식회사 삼우이머션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 삼우이머션 filed Critical 주식회사 삼우이머션
Priority to KR1020220009121A priority Critical patent/KR102454608B1/en
Application granted granted Critical
Publication of KR102454608B1 publication Critical patent/KR102454608B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/30Polynomial surface description
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Mathematical Analysis (AREA)
  • Algebra (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a rendering method in a virtual reality environment, and more particularly, to a rendering method in a virtual reality environment, in which a scene is generated by simplifying the scene optimized for a user's viewing area in a virtual reality environment, and parts generated outside a set limit are removed such that efficient rendering can be performed and the load can be reduced. To this end, the present invention comprises: a process of setting thresholds according to a plurality of distances from a central point in a scene of a virtual reality environment; a process of classifying objects disposed in the scene according to the set limit; a process of designating a cube region centered on the central point, and designating an arbitrary point in the designated cube region; a process of capturing an RGBD image in a direction of each face of the cube at the designated arbitrary point, and generating the scene with a 3D structure based on the captured RGBD image; and a process of removing the parts generated outside the set limit from the generated scene.

Description

가상 현실 환경에서의 렌더링 방법{RENDERING METHOD OF VIRTUAL REALITY ENVIRONMENT}RENDERING METHOD OF VIRTUAL REALITY ENVIRONMENT

본 발명은 가상 현실 환경에서의 렌더링 방법에 관한 것으로, 더욱 상세하게는 가상 현실 환경에서 사용자의 시야 영역에 최적화된 장면을 단순화하여 생성하고, 설정된 한계점 밖에 생성된 부분은 제거함으로써, 효율적으로 렌더링이 가능하고 부하가 저감될 수 있는 가상 현실 환경에서의 렌더링 방법에 관한 것이다.The present invention relates to a rendering method in a virtual reality environment, and more particularly, by simplifying and creating a scene optimized for a user's field of view in a virtual reality environment, and removing a part generated outside a set limit, efficient rendering It is possible and relates to a rendering method in a virtual reality environment that can be reduced in load.

가상현실(Virtual Reality, VR)이란 어떤 특정한 환경이나 상황을 컴퓨터로 만들어서, 그것을 사용하는 사람이 마치 실제 주변 상황 및 환경과 상호작용을 하고 있는 것처럼 만들어 주는 인간과 컴퓨터 사이의 인터페이스를 말한다. Virtual reality (VR) refers to an interface between a human and a computer that makes a specific environment or situation into a computer and makes it as if the person using it is interacting with the real surrounding situation and environment.

이러한 가상현실은 사람들이 일상적으로 경험하기 어려운 환경을 직접 체험하지 않고서도 그 환경에 들어와 있는 것처럼 보여주고 조작할 수 있게 해주기 위해 사용된다.Such virtual reality is used to show and manipulate an environment that is difficult for people to experience on a daily basis without directly experiencing it.

한편, 가상현실 기술은 현실 세계의 객체 및 배경을 모두 가상객체로 변환하고, 가상객체만으로 구성된 영상을 제공하기 때문에 객체 및 배경 모두를 렌더링(rendering)하게 되고, 가상현실 화면은 객체 및 배경이 모두 3D 렌더링에 의해 생성되어 나타난다.On the other hand, virtual reality technology converts all objects and backgrounds of the real world into virtual objects, and renders both objects and backgrounds because an image composed of only virtual objects is provided, and the virtual reality screen includes both objects and backgrounds. It appears created by 3D rendering.

그런데, 이러한 경우, 가상현실에서의 3D 콘텐츠는 이미지와 저장 용량 때문에 대용량의 메모리가 필요하고, 이에 따라 3D 렌더링 시, 성능이 저하될 확률이 증가되는 문제점이 있다.However, in this case, 3D content in virtual reality requires a large amount of memory due to images and storage capacity, and accordingly, there is a problem in that the probability of performance degradation during 3D rendering increases.

그리고 기존 시스템으로는 이러한 문제점을 대처할 수 없으므로, 사용자의 시야 영역에 최적화된 3D 콘텐츠의 장면을 단순화할 수 있어야 하고, 이를 위한 개발이 요구되고 있다.And since the existing system cannot cope with this problem, it is necessary to simplify the scene of 3D content optimized for the user's field of view, and development for this is required.

대한민국 등록특허공보 10-1764063호(2017.07.26.)Republic of Korea Patent Publication No. 10-1764063 (2017.07.26.)

본 발명은 상기와 같은 문제점을 해결하기 위해 안출된 것으로, 대용량의 메모리가 필요 없고 효율적으로 렌더링이 가능한 가상 현실 환경에서의 렌더링 방법을 제공하는데 그 목적이 있다.The present invention has been devised to solve the above problems, and an object of the present invention is to provide a rendering method in a virtual reality environment that does not require a large amount of memory and enables efficient rendering.

그리고 3D 콘텐츠의 장면을 단순화할 수 있어, 부하가 저감될 수 있는 가상 현실 환경에서의 렌더링 방법을 제공하는데 그 목적이 있다.An object of the present invention is to provide a rendering method in a virtual reality environment in which a scene of 3D content can be simplified and a load can be reduced.

이와 함께 본 발명의 기타 목적 및 장점들은 하기에 설명될 것이며, 이는 본 발명의 청구범위에 기재된 사항 및 그 실시예의 개시 내용뿐만 아니라, 이들로부터 용이하게 추고할 수 있는 범위 내의 수단 및 조합에 의해 더욱 넓은 범위로 포섭될 것임을 첨언한다.Together with this, other objects and advantages of the present invention will be described below, which are further provided by means and combinations within the scope that can be easily derived therefrom, as well as the disclosure of the matters described in the claims of the present invention and examples thereof. It is added that it will be covered in a wide range.

상기 목적을 달성하기 위한 본 발명은 가상 현실 환경에서의 렌더링 방법으로서, 가상 현실 환경의 한 장면에서 중심점으로부터의 복수의 거리에 따라 한계점을 설정하는 과정과; 상기 설정된 한계점에 따라 상기 장면에 배치된 객체를 분류하는 과정과; 상기 중심점을 중심으로 하는 정육면체 영역을 지정하고, 상기 지정된 정육면체 영역에서 임의의 점을 지정하는 과정과; 상기 지정된 임의의 점에서 상기 정육면체의 각 면 방향으로 RGBD 영상을 촬영하여, 상기 촬영된 RGBD 영상을 기반으로 3D 구조의 장면을 생성하는 과정; 및 상기 생성된 장면에서 상기 설정된 한계점 밖에 생성된 부분을 제거하는 과정;을 포함하는 것을 특징으로 한다.The present invention for achieving the above object is a rendering method in a virtual reality environment, comprising the steps of setting a threshold according to a plurality of distances from a central point in a scene in the virtual reality environment; classifying the objects arranged in the scene according to the set threshold; designating a cube area centered on the central point, and designating an arbitrary point in the designated cube area; generating a 3D-structured scene based on the captured RGBD image by photographing an RGBD image in the direction of each surface of the cube at the specified arbitrary point; and removing a portion generated outside the set threshold in the generated scene.

그리고 본 발명의 바람직한 실시예에 따르면, 상기 한계점 설정 과정은, 상기 중심점으로부터 근거리 한계점(near distance threshold), 중간거리 한계점(intermediate distance threshold), 원거리 한계점(far distance threshold)으로 나누어 설정하는 것을 특징으로 한다.And according to a preferred embodiment of the present invention, the threshold setting process is divided into a near distance threshold, an intermediate distance threshold, and a far distance threshold from the central point, characterized in that the setting is set. do.

또한, 본 발명의 바람직한 실시예에 따르면, 상기 제거 과정은, 상기 원거리 한계점 밖에 생성된 부분을 제거하는 것을 특징으로 한다.In addition, according to a preferred embodiment of the present invention, the removal process is characterized in that the portion generated outside the remote limit point is removed.

상술된 바와 같이 본 발명에 따르면 다음과 같은 효과를 기대할 수 있을 것이다.As described above, according to the present invention, the following effects can be expected.

가상 현실에서 사용자의 시야 영역에 최적화된 영상을 기반으로 단순화된 3D 구조의 장면을 생성함으로써, 대용량의 메모리가 필요 없고 효율적으로 렌더링이 가능한 효과가 있다.In virtual reality, a scene of a simplified 3D structure is created based on an image optimized for a user's field of view, so that a large amount of memory is not required and rendering is possible efficiently.

그리고 3D 콘텐츠의 장면을 단순화할 수 있어, 부하가 저감될 수 있는 효과도 있다.In addition, it is possible to simplify the scene of 3D content, there is an effect that the load can be reduced.

이와 함께 본 발명의 다른 효과는 이상에서 설명한 실시예 및 본 발명의 청구범위에 기재된 사항뿐만 아니라, 이들로부터 용이하게 추고할 수 있는 범위 내에서 발생할 수 있는 효과 및 산업 발전에 기여하는 잠정적 장점의 가능성들에 의해 보다 넓은 범위로 포섭될 것임을 첨언한다.Along with this, other effects of the present invention are not only the matters described in the above-described embodiments and claims of the present invention, but also effects that can occur within the range that can be easily followed from them and the possibility of potential advantages contributing to industrial development It is added that they will be covered in a wider range by the

도 1은 본 발명에 따른 가상 현실 환경에서의 렌더링 방법을 나타낸 순서도이다.
도 2 내지 도 7은 본 발명에 따른 가상 현실 환경에서의 렌더링 방법에서 각 순서에 따른 동작을 나타낸 도면이다.
1 is a flowchart illustrating a rendering method in a virtual reality environment according to the present invention.
2 to 7 are diagrams illustrating operations according to each order in a rendering method in a virtual reality environment according to the present invention.

이하에서는 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하고자 한다. 설명에 앞서 본 발명의 이점 및 특징 및 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그리고 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것으로 본 발명을 제한하고자 하는 것이 아니며, 이러한 용어 중 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함하는 것이고, 설명 상에 방향을 지칭하는 단어는 설명의 이해를 돕기 위한 것으로 시점에 따라 변경 가능함을 주지하는 바이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Advantages and features of the present invention and methods of achieving them before the description will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. And the terms used in this specification are for describing the embodiments and are not intended to limit the present invention, and the singular form of these terms also includes the plural unless specifically stated in the phrase, and is a word indicating a direction in the description Note that this is intended to help the understanding of the description and can be changed according to time points.

이하 본 발명의 바람직한 실시예에 따른 가상 현실 환경에서의 렌더링 방법을 첨부한 도면을 참조하여 상세하게 설명한다. 도 1은 본 발명에 따른 가상 현실 환경에서의 렌더링 방법을 나타낸 순서도이고, 도 2 내지 도 7은 본 발명에 따른 가상 현실 환경에서의 렌더링 방법에서 각 순서에 따른 동작을 나타낸 도면이다.Hereinafter, a rendering method in a virtual reality environment according to a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings. 1 is a flowchart illustrating a rendering method in a virtual reality environment according to the present invention, and FIGS. 2 to 7 are diagrams illustrating operations according to each sequence in the rendering method in a virtual reality environment according to the present invention.

먼저 도 1을 참조하면, 본 발명에 따른 가상 현실 환경에서의 렌더링 방법은 가상 현실 환경의 장면에서 중심점으로부터의 복수의 거리에 따라 한계점을 설정한다(S1). 본 발명에서는 3 가지의 거리 기준에 따라 한계점을 설정하는데, 중심점으로부터 근거리 한계점(near distance threshold), 중간거리 한계점(intermediate distance threshold), 및 원거리 한계점(far distance threshold)으로 나누어 설정한다.First, referring to FIG. 1 , in the rendering method in a virtual reality environment according to the present invention, a limit point is set according to a plurality of distances from a center point in a scene of the virtual reality environment ( S1 ). In the present invention, the threshold is set according to three distance criteria, and the threshold is divided into a near distance threshold, an intermediate distance threshold, and a far distance threshold from a central point.

이러한 과정의 동작이 도 2에 도시된다. 도 2에 도시된 바와 같이, 가상 현실 환경의 장면에서 중심점(100)으로부터 근거리 한계점(10), 중간거리 한계점(20), 및 원거리 한계점(30)으로 나누어 한계점을 설정한다.The operation of this process is shown in FIG. 2 . As shown in FIG. 2 , the threshold is set by dividing the central point 100 into a short-range threshold 10 , an intermediate-distance threshold 20 , and a far-end threshold 30 in a scene of a virtual reality environment.

다음으로, 설정된 한계점에 따라 장면에 배치된 객체를 분류한다(S3). 즉, S2 과정으로 설정된 한계점에 따라, 각 한계점에 배치된 객체를 분류하는데, 장면에서 나타나는 객체의 위치를 파악하기 위한 것으로, 복수의 한계점에 따라 객체를 분류하여 원금감을 표시할 수 있다.Next, the objects arranged in the scene are classified according to the set threshold (S3). That is, according to the threshold set in the process S2, the objects disposed at each threshold are classified. This is to determine the position of the object appearing in the scene, and the sense of principal can be displayed by classifying the objects according to a plurality of thresholds.

도 2에 도시된 바와 같이, 나누어진 한계점에 따라 객체를 분류하면, 도 3a에 도시된 바와 같이, 근거리 한계점(10)에 배치된 객체는 F, G이고, 도 3b에 도시된 바와 같이, 중간거리 한계점(20)에 배치된 객체는 C, D, H이며, 도 3c에 도시된 바와 같이, 원거리 한계점(30)에 배치된 객체는 A, B, E, I, J가 된다. As shown in FIG. 2 , if objects are classified according to the divided threshold, as shown in FIG. 3A , the objects disposed at the near threshold 10 are F and G, and as shown in FIG. 3B , the middle Objects disposed at the distance limit point 20 are C, D, and H, and as shown in FIG. 3C , the objects disposed at the far limit point 30 are A, B, E, I, and J.

즉, 도 4에 도시된 바와 같은 가상 현실 환경의 장면에서, 설정된 한계점에 따라 장면에 배치된 객체를 분류하면, 도 5a에 도시된 바와 같은 근거리 그룹, 도 5b에 도시된 바와 같은 중간거리 그룹, 도 5c에 도시된 바와 같은 원거리 그룹으로 각 객체들이 분류될 수 있다.That is, in the scene of the virtual reality environment as shown in Fig. 4, when objects arranged in the scene are classified according to the set threshold, the near group as shown in Fig. 5a, the intermediate distance group as shown in Fig. 5b, Each object may be classified into a remote group as shown in FIG. 5C .

이어서, 상기 중심점을 중심으로 하는 정육면체 영역을 지정한다(S5). 즉, 도 6a에 도시된 바와 같이, 가상 현실 환경의 장면에서의 중심점(100)을 중심으로 하는 정육면체 영역을 지정하는데, 이는 사용자의 시점에서 사용자가 보는 위치에 있는 장면을 보이게 하기 위한 것으로, 공간의 제한을 두는 것이다.Next, a cube area centered on the central point is designated (S5). That is, as shown in FIG. 6A , a cube area centered on the central point 100 in the scene of the virtual reality environment is designated, which is to show the scene at the position the user sees from the user's point of view. to put a limit on

다음으로, S5 과정으로 지정된 정육면체 영역에서 임의의 점을 지정한다(S7). 즉, 도 6b에 도시된 바와 같이, S5 과정으로 지정된 정육면체 영역 내에서 중심점(100)과는 별개로 임의의 지점들(40a, 40b, 40n)을 지정하는데, 이는 사용자의 위치에 따라 보이는 장면이 다르게 되므로, 어느 위치에서 보느냐에 따라 달라지는 장면을 생성하기 위해 수행되는 과정이다.Next, an arbitrary point is designated in the cube area designated by the process S5 (S7). That is, as shown in FIG. 6B, arbitrary points 40a, 40b, and 40n are designated separately from the center point 100 within the cube area designated by the process S5, which means that the scene viewed according to the user's location is Since it is different, it is a process performed to create a scene that differs depending on where it is viewed from.

이어서, 상기 지정된 임의의 점에서 정육면체의 각 면 방향으로 RGBD 영상을 촬영한다(S9). 즉, 도 6c에 도시된 바와 같이, 지정된 임의의 점(40n)에서 정육면체의 각 면 방향, 즉 정면 방향(50a), 일측 방향(50b), 후면 방향(50c), 타측 방향(50d), 상면 방향(50e), 및 하면 방향(50f)으로 RGBD(Red Green Blue Depth) 영상을 촬영하여, 해당 장면에서 색상과 원근감이 표시될 수 있도록 한다.Next, an RGBD image is photographed in the direction of each surface of the cube at the specified arbitrary point (S9). That is, as shown in FIG. 6C , each face direction of the cube at a specified arbitrary point 40n, that is, the front direction 50a, the one direction 50b, the rear direction 50c, the other direction 50d, the upper surface A Red Green Blue Depth (RGBD) image is taken in the direction 50e and the lower surface direction 50f so that color and perspective can be displayed in the corresponding scene.

다음으로, 촬영된 RGBD 영상을 기반으로 3D 구조의 장면을 생성한다(S11). 즉, 전술한 S9 과정으로 촬영된 복수 개의 RGBD 영상을 기반으로 하여, 단순화된 3D 구조의 장면을 생성하게 되고, 이렇게 생성된 장면의 일례가 도 7a에 도시된다.Next, a 3D structure scene is generated based on the captured RGBD image (S11). That is, a scene of a simplified 3D structure is generated based on the plurality of RGBD images captured in the above-described process S9, and an example of the thus generated scene is shown in FIG. 7A.

이어서, 생성된 장면에서 전술한 설정된 한계점 밖에 생성된 부분을 제거한다(S13). 여기서, 설정된 한계점은, S1 과정에서 설정한 3 가지 거리에 따른 한계점 중에서 원거리 한계점에 해당될 수 있다. 이러한 원거리 한계점 밖에 생성된 장면이 도 7b에 도시된다. 도 7a에 도시된 것과 같은 단순화된 3D 구조의 장면에서, 원거리 한계점 밖에 생성된 장면은 도 7b에 도시된 장면이 된다.Next, a portion generated outside the above-described set threshold is removed from the generated scene (S13). Here, the set limit point may correspond to a remote limit point among the limit points according to the three distances set in the process S1. A scene created outside this far limit is shown in Figure 7b. In a scene of a simplified 3D structure as shown in Fig. 7A, a scene created outside the far limit point becomes the scene shown in Fig. 7B.

따라서, 도 7a에 도시된 S1에서 S11 과정으로 생성된 장면에서, 도 7b에 도시된 바와 같이 원거리 한계점 밖에 생성된 장면을 제거하여, 도 7c에 도시된 바와 같은 장면을 최종적으로 생성함으로써, 가상 현실에서 사용자의 시야 영역에 최적화된 장면이 생성되어, 복잡하고 불필요한 장면들이 제거됨으로써, 대용량의 메모리가 필요 없고 효율적으로 렌더링이 가능하게 되는 것이다.Therefore, in the scene generated by the process S1 to S11 shown in FIG. 7A, the scene generated outside the far limit point as shown in FIG. 7B is removed, and the scene as shown in FIG. 7C is finally generated. A scene optimized for the user's field of view is created in the , and complicated and unnecessary scenes are removed, thereby enabling efficient rendering without requiring a large amount of memory.

이상의 설명은 본 발명의 기술적 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 그리고 상술한 바와 같이 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and those of ordinary skill in the art to which the present invention pertains may make various modifications, changes and substitutions within the scope without departing from the essential characteristics of the present invention. will be. And as described above, the embodiments disclosed in the present invention and the accompanying drawings are for explaining, not limiting, the technical spirit of the present invention, and the scope of the technical spirit of the present invention is limited by these embodiments and the accompanying drawings it's not going to be The protection scope of the present invention should be construed by the following claims, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.

100; 중심점
10; 근거리 한계점
20; 중간거리 한계점
30; 원거리 한계점
100; node
10; close range threshold
20; mid-distance threshold
30; far limit

Claims (3)

가상 현실 환경에서의 렌더링 방법에 있어서,
가상 현실 환경의 한 장면에서 중심점으로부터의 복수의 거리에 따라 한계점을 설정하는 과정과;
상기 설정된 한계점에 따라 상기 장면에 배치된 객체를 분류하는 과정과;
공간의 제한을 두기 위해 상기 중심점을 중심으로 하는 정육면체 영역을 지정하고, 상기 지정된 정육면체 영역에서 상기 중심점과는 별개로 임의의 점들을 지정하는 과정과;
상기 지정된 임의의 점들에서 상기 정육면체의 각 면 방향으로 RGBD 영상을 촬영하여, 상기 촬영된 RGBD 영상을 기반으로 3D 구조의 장면을 생성하는 과정; 및
상기 생성된 장면에서 상기 설정된 한계점 밖에 생성된 부분을 제거하는 과정;을 포함하고,
상기 한계점 설정 과정은,
상기 중심점으로부터 근거리 한계점(near distance threshold), 중간거리 한계점(intermediate distance threshold), 원거리 한계점(far distance threshold)으로 나누어 설정하는 것을 특징으로 하는 가상 현실 환경에서의 렌더링 방법.
A rendering method in a virtual reality environment, comprising:
setting a threshold according to a plurality of distances from a central point in a scene in a virtual reality environment;
classifying the objects arranged in the scene according to the set threshold;
designating a cube area centered on the central point in order to limit the space, and designating arbitrary points in the designated cube area separately from the center point;
generating a 3D-structured scene based on the captured RGBD image by photographing an RGBD image in the direction of each surface of the cube at the specified arbitrary points; and
The process of removing a part generated outside the set limit point in the generated scene; including,
The threshold setting process is
A rendering method in a virtual reality environment, characterized in that the set is divided into a near distance threshold, an intermediate distance threshold, and a far distance threshold from the central point.
삭제delete 제1 항에 있어서, 상기 제거 과정은,
상기 원거리 한계점 밖에 생성된 부분을 제거하는 것을 특징으로 하는 가상 현실 환경에서의 렌더링 방법.
According to claim 1, wherein the removal process,
A rendering method in a virtual reality environment, characterized in that removing a portion generated outside the remote limit point.
KR1020220009121A 2022-01-21 2022-01-21 Rendering method of virtual reality environment KR102454608B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220009121A KR102454608B1 (en) 2022-01-21 2022-01-21 Rendering method of virtual reality environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220009121A KR102454608B1 (en) 2022-01-21 2022-01-21 Rendering method of virtual reality environment

Publications (1)

Publication Number Publication Date
KR102454608B1 true KR102454608B1 (en) 2022-10-17

Family

ID=83810063

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220009121A KR102454608B1 (en) 2022-01-21 2022-01-21 Rendering method of virtual reality environment

Country Status (1)

Country Link
KR (1) KR102454608B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120012858A (en) * 2010-08-03 2012-02-13 삼성전자주식회사 Apparatus and method for rendering object in 3d graphic terminal
KR101764063B1 (en) 2016-07-27 2017-08-03 네이버 주식회사 Method and system for analyzing and pre-rendering of virtual reality content
KR20190034129A (en) * 2017-09-22 2019-04-01 에스케이텔레콤 주식회사 Apparatus and method for displaying augmented reality

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120012858A (en) * 2010-08-03 2012-02-13 삼성전자주식회사 Apparatus and method for rendering object in 3d graphic terminal
KR101764063B1 (en) 2016-07-27 2017-08-03 네이버 주식회사 Method and system for analyzing and pre-rendering of virtual reality content
KR20190034129A (en) * 2017-09-22 2019-04-01 에스케이텔레콤 주식회사 Apparatus and method for displaying augmented reality

Similar Documents

Publication Publication Date Title
CA3025482C (en) Method and apparatus for generating a virtual image from a viewpoint selected by the user, from a camera array with daisy chain connection
CN109561296B (en) Image processing apparatus, image processing method, image processing system, and storage medium
CA3101689C (en) Method and apparatus for generating a virtual image from a viewpoint selected by the user, from a camera array with transmission of foreground and background images at different frame rates
CN106157359B (en) Design method of virtual scene experience system
AU760594B2 (en) System and method for creating 3D models from 2D sequential image data
US9282313B2 (en) Methods and systems for converting 2D motion pictures for stereoscopic 3D exhibition
JP4698831B2 (en) Image conversion and coding technology
JP5789185B2 (en) Image processing apparatus and image processing method
EP0476993A2 (en) Video effects system
JP5128827B2 (en) Modeling apparatus and method based on 3D points
US20190306483A1 (en) Information processing device, information processing method, and program
JP2010510573A (en) System and method for synthesizing a three-dimensional image
KR20170035608A (en) Videotelephony System, Image Display Apparatus, Driving Method of Image Display Apparatus, Method for Generation Realistic Image and Computer Readable Recording Medium
CA3025471A1 (en) Method and apparatus for generating a virtual image from a viewpoint selected by the user, from a camera array with default parameters associated to the selected type of sport event
JP2006107213A (en) Stereoscopic image printing system
JP2010510569A (en) System and method of object model fitting and registration for transforming from 2D to 3D
US11227428B2 (en) Modification of a live-action video recording using volumetric scene reconstruction to replace a designated region
US10271038B2 (en) Camera with plenoptic lens
CN109640070A (en) A kind of stereo display method, device, equipment and storage medium
CN109510975A (en) A kind of extracting method of video image, equipment and system
CN113260917A (en) Electronic device, control method for electronic device, program, and storage medium
KR20190133867A (en) System for providing ar service and method for generating 360 angle rotatable image file thereof
KR102454608B1 (en) Rendering method of virtual reality environment
US11935209B1 (en) Systems and methods for dynamic backfilling of a three-dimensional object
EP3790276A1 (en) Free-viewpoint method and system

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant