KR102454608B1 - Rendering method of virtual reality environment - Google Patents
Rendering method of virtual reality environment Download PDFInfo
- Publication number
- KR102454608B1 KR102454608B1 KR1020220009121A KR20220009121A KR102454608B1 KR 102454608 B1 KR102454608 B1 KR 102454608B1 KR 1020220009121 A KR1020220009121 A KR 1020220009121A KR 20220009121 A KR20220009121 A KR 20220009121A KR 102454608 B1 KR102454608 B1 KR 102454608B1
- Authority
- KR
- South Korea
- Prior art keywords
- scene
- virtual reality
- reality environment
- threshold
- rendering method
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/30—Polynomial surface description
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Physics (AREA)
- Mathematical Analysis (AREA)
- Algebra (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
본 발명은 가상 현실 환경에서의 렌더링 방법에 관한 것으로, 더욱 상세하게는 가상 현실 환경에서 사용자의 시야 영역에 최적화된 장면을 단순화하여 생성하고, 설정된 한계점 밖에 생성된 부분은 제거함으로써, 효율적으로 렌더링이 가능하고 부하가 저감될 수 있는 가상 현실 환경에서의 렌더링 방법에 관한 것이다.The present invention relates to a rendering method in a virtual reality environment, and more particularly, by simplifying and creating a scene optimized for a user's field of view in a virtual reality environment, and removing a part generated outside a set limit, efficient rendering It is possible and relates to a rendering method in a virtual reality environment that can be reduced in load.
가상현실(Virtual Reality, VR)이란 어떤 특정한 환경이나 상황을 컴퓨터로 만들어서, 그것을 사용하는 사람이 마치 실제 주변 상황 및 환경과 상호작용을 하고 있는 것처럼 만들어 주는 인간과 컴퓨터 사이의 인터페이스를 말한다. Virtual reality (VR) refers to an interface between a human and a computer that makes a specific environment or situation into a computer and makes it as if the person using it is interacting with the real surrounding situation and environment.
이러한 가상현실은 사람들이 일상적으로 경험하기 어려운 환경을 직접 체험하지 않고서도 그 환경에 들어와 있는 것처럼 보여주고 조작할 수 있게 해주기 위해 사용된다.Such virtual reality is used to show and manipulate an environment that is difficult for people to experience on a daily basis without directly experiencing it.
한편, 가상현실 기술은 현실 세계의 객체 및 배경을 모두 가상객체로 변환하고, 가상객체만으로 구성된 영상을 제공하기 때문에 객체 및 배경 모두를 렌더링(rendering)하게 되고, 가상현실 화면은 객체 및 배경이 모두 3D 렌더링에 의해 생성되어 나타난다.On the other hand, virtual reality technology converts all objects and backgrounds of the real world into virtual objects, and renders both objects and backgrounds because an image composed of only virtual objects is provided, and the virtual reality screen includes both objects and backgrounds. It appears created by 3D rendering.
그런데, 이러한 경우, 가상현실에서의 3D 콘텐츠는 이미지와 저장 용량 때문에 대용량의 메모리가 필요하고, 이에 따라 3D 렌더링 시, 성능이 저하될 확률이 증가되는 문제점이 있다.However, in this case, 3D content in virtual reality requires a large amount of memory due to images and storage capacity, and accordingly, there is a problem in that the probability of performance degradation during 3D rendering increases.
그리고 기존 시스템으로는 이러한 문제점을 대처할 수 없으므로, 사용자의 시야 영역에 최적화된 3D 콘텐츠의 장면을 단순화할 수 있어야 하고, 이를 위한 개발이 요구되고 있다.And since the existing system cannot cope with this problem, it is necessary to simplify the scene of 3D content optimized for the user's field of view, and development for this is required.
본 발명은 상기와 같은 문제점을 해결하기 위해 안출된 것으로, 대용량의 메모리가 필요 없고 효율적으로 렌더링이 가능한 가상 현실 환경에서의 렌더링 방법을 제공하는데 그 목적이 있다.The present invention has been devised to solve the above problems, and an object of the present invention is to provide a rendering method in a virtual reality environment that does not require a large amount of memory and enables efficient rendering.
그리고 3D 콘텐츠의 장면을 단순화할 수 있어, 부하가 저감될 수 있는 가상 현실 환경에서의 렌더링 방법을 제공하는데 그 목적이 있다.An object of the present invention is to provide a rendering method in a virtual reality environment in which a scene of 3D content can be simplified and a load can be reduced.
이와 함께 본 발명의 기타 목적 및 장점들은 하기에 설명될 것이며, 이는 본 발명의 청구범위에 기재된 사항 및 그 실시예의 개시 내용뿐만 아니라, 이들로부터 용이하게 추고할 수 있는 범위 내의 수단 및 조합에 의해 더욱 넓은 범위로 포섭될 것임을 첨언한다.Together with this, other objects and advantages of the present invention will be described below, which are further provided by means and combinations within the scope that can be easily derived therefrom, as well as the disclosure of the matters described in the claims of the present invention and examples thereof. It is added that it will be covered in a wide range.
상기 목적을 달성하기 위한 본 발명은 가상 현실 환경에서의 렌더링 방법으로서, 가상 현실 환경의 한 장면에서 중심점으로부터의 복수의 거리에 따라 한계점을 설정하는 과정과; 상기 설정된 한계점에 따라 상기 장면에 배치된 객체를 분류하는 과정과; 상기 중심점을 중심으로 하는 정육면체 영역을 지정하고, 상기 지정된 정육면체 영역에서 임의의 점을 지정하는 과정과; 상기 지정된 임의의 점에서 상기 정육면체의 각 면 방향으로 RGBD 영상을 촬영하여, 상기 촬영된 RGBD 영상을 기반으로 3D 구조의 장면을 생성하는 과정; 및 상기 생성된 장면에서 상기 설정된 한계점 밖에 생성된 부분을 제거하는 과정;을 포함하는 것을 특징으로 한다.The present invention for achieving the above object is a rendering method in a virtual reality environment, comprising the steps of setting a threshold according to a plurality of distances from a central point in a scene in the virtual reality environment; classifying the objects arranged in the scene according to the set threshold; designating a cube area centered on the central point, and designating an arbitrary point in the designated cube area; generating a 3D-structured scene based on the captured RGBD image by photographing an RGBD image in the direction of each surface of the cube at the specified arbitrary point; and removing a portion generated outside the set threshold in the generated scene.
그리고 본 발명의 바람직한 실시예에 따르면, 상기 한계점 설정 과정은, 상기 중심점으로부터 근거리 한계점(near distance threshold), 중간거리 한계점(intermediate distance threshold), 원거리 한계점(far distance threshold)으로 나누어 설정하는 것을 특징으로 한다.And according to a preferred embodiment of the present invention, the threshold setting process is divided into a near distance threshold, an intermediate distance threshold, and a far distance threshold from the central point, characterized in that the setting is set. do.
또한, 본 발명의 바람직한 실시예에 따르면, 상기 제거 과정은, 상기 원거리 한계점 밖에 생성된 부분을 제거하는 것을 특징으로 한다.In addition, according to a preferred embodiment of the present invention, the removal process is characterized in that the portion generated outside the remote limit point is removed.
상술된 바와 같이 본 발명에 따르면 다음과 같은 효과를 기대할 수 있을 것이다.As described above, according to the present invention, the following effects can be expected.
가상 현실에서 사용자의 시야 영역에 최적화된 영상을 기반으로 단순화된 3D 구조의 장면을 생성함으로써, 대용량의 메모리가 필요 없고 효율적으로 렌더링이 가능한 효과가 있다.In virtual reality, a scene of a simplified 3D structure is created based on an image optimized for a user's field of view, so that a large amount of memory is not required and rendering is possible efficiently.
그리고 3D 콘텐츠의 장면을 단순화할 수 있어, 부하가 저감될 수 있는 효과도 있다.In addition, it is possible to simplify the scene of 3D content, there is an effect that the load can be reduced.
이와 함께 본 발명의 다른 효과는 이상에서 설명한 실시예 및 본 발명의 청구범위에 기재된 사항뿐만 아니라, 이들로부터 용이하게 추고할 수 있는 범위 내에서 발생할 수 있는 효과 및 산업 발전에 기여하는 잠정적 장점의 가능성들에 의해 보다 넓은 범위로 포섭될 것임을 첨언한다.Along with this, other effects of the present invention are not only the matters described in the above-described embodiments and claims of the present invention, but also effects that can occur within the range that can be easily followed from them and the possibility of potential advantages contributing to industrial development It is added that they will be covered in a wider range by the
도 1은 본 발명에 따른 가상 현실 환경에서의 렌더링 방법을 나타낸 순서도이다.
도 2 내지 도 7은 본 발명에 따른 가상 현실 환경에서의 렌더링 방법에서 각 순서에 따른 동작을 나타낸 도면이다.1 is a flowchart illustrating a rendering method in a virtual reality environment according to the present invention.
2 to 7 are diagrams illustrating operations according to each order in a rendering method in a virtual reality environment according to the present invention.
이하에서는 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하고자 한다. 설명에 앞서 본 발명의 이점 및 특징 및 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그리고 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것으로 본 발명을 제한하고자 하는 것이 아니며, 이러한 용어 중 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함하는 것이고, 설명 상에 방향을 지칭하는 단어는 설명의 이해를 돕기 위한 것으로 시점에 따라 변경 가능함을 주지하는 바이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Advantages and features of the present invention and methods of achieving them before the description will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. And the terms used in this specification are for describing the embodiments and are not intended to limit the present invention, and the singular form of these terms also includes the plural unless specifically stated in the phrase, and is a word indicating a direction in the description Note that this is intended to help the understanding of the description and can be changed according to time points.
이하 본 발명의 바람직한 실시예에 따른 가상 현실 환경에서의 렌더링 방법을 첨부한 도면을 참조하여 상세하게 설명한다. 도 1은 본 발명에 따른 가상 현실 환경에서의 렌더링 방법을 나타낸 순서도이고, 도 2 내지 도 7은 본 발명에 따른 가상 현실 환경에서의 렌더링 방법에서 각 순서에 따른 동작을 나타낸 도면이다.Hereinafter, a rendering method in a virtual reality environment according to a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings. 1 is a flowchart illustrating a rendering method in a virtual reality environment according to the present invention, and FIGS. 2 to 7 are diagrams illustrating operations according to each sequence in the rendering method in a virtual reality environment according to the present invention.
먼저 도 1을 참조하면, 본 발명에 따른 가상 현실 환경에서의 렌더링 방법은 가상 현실 환경의 장면에서 중심점으로부터의 복수의 거리에 따라 한계점을 설정한다(S1). 본 발명에서는 3 가지의 거리 기준에 따라 한계점을 설정하는데, 중심점으로부터 근거리 한계점(near distance threshold), 중간거리 한계점(intermediate distance threshold), 및 원거리 한계점(far distance threshold)으로 나누어 설정한다.First, referring to FIG. 1 , in the rendering method in a virtual reality environment according to the present invention, a limit point is set according to a plurality of distances from a center point in a scene of the virtual reality environment ( S1 ). In the present invention, the threshold is set according to three distance criteria, and the threshold is divided into a near distance threshold, an intermediate distance threshold, and a far distance threshold from a central point.
이러한 과정의 동작이 도 2에 도시된다. 도 2에 도시된 바와 같이, 가상 현실 환경의 장면에서 중심점(100)으로부터 근거리 한계점(10), 중간거리 한계점(20), 및 원거리 한계점(30)으로 나누어 한계점을 설정한다.The operation of this process is shown in FIG. 2 . As shown in FIG. 2 , the threshold is set by dividing the
다음으로, 설정된 한계점에 따라 장면에 배치된 객체를 분류한다(S3). 즉, S2 과정으로 설정된 한계점에 따라, 각 한계점에 배치된 객체를 분류하는데, 장면에서 나타나는 객체의 위치를 파악하기 위한 것으로, 복수의 한계점에 따라 객체를 분류하여 원금감을 표시할 수 있다.Next, the objects arranged in the scene are classified according to the set threshold (S3). That is, according to the threshold set in the process S2, the objects disposed at each threshold are classified. This is to determine the position of the object appearing in the scene, and the sense of principal can be displayed by classifying the objects according to a plurality of thresholds.
도 2에 도시된 바와 같이, 나누어진 한계점에 따라 객체를 분류하면, 도 3a에 도시된 바와 같이, 근거리 한계점(10)에 배치된 객체는 F, G이고, 도 3b에 도시된 바와 같이, 중간거리 한계점(20)에 배치된 객체는 C, D, H이며, 도 3c에 도시된 바와 같이, 원거리 한계점(30)에 배치된 객체는 A, B, E, I, J가 된다. As shown in FIG. 2 , if objects are classified according to the divided threshold, as shown in FIG. 3A , the objects disposed at the
즉, 도 4에 도시된 바와 같은 가상 현실 환경의 장면에서, 설정된 한계점에 따라 장면에 배치된 객체를 분류하면, 도 5a에 도시된 바와 같은 근거리 그룹, 도 5b에 도시된 바와 같은 중간거리 그룹, 도 5c에 도시된 바와 같은 원거리 그룹으로 각 객체들이 분류될 수 있다.That is, in the scene of the virtual reality environment as shown in Fig. 4, when objects arranged in the scene are classified according to the set threshold, the near group as shown in Fig. 5a, the intermediate distance group as shown in Fig. 5b, Each object may be classified into a remote group as shown in FIG. 5C .
이어서, 상기 중심점을 중심으로 하는 정육면체 영역을 지정한다(S5). 즉, 도 6a에 도시된 바와 같이, 가상 현실 환경의 장면에서의 중심점(100)을 중심으로 하는 정육면체 영역을 지정하는데, 이는 사용자의 시점에서 사용자가 보는 위치에 있는 장면을 보이게 하기 위한 것으로, 공간의 제한을 두는 것이다.Next, a cube area centered on the central point is designated (S5). That is, as shown in FIG. 6A , a cube area centered on the
다음으로, S5 과정으로 지정된 정육면체 영역에서 임의의 점을 지정한다(S7). 즉, 도 6b에 도시된 바와 같이, S5 과정으로 지정된 정육면체 영역 내에서 중심점(100)과는 별개로 임의의 지점들(40a, 40b, 40n)을 지정하는데, 이는 사용자의 위치에 따라 보이는 장면이 다르게 되므로, 어느 위치에서 보느냐에 따라 달라지는 장면을 생성하기 위해 수행되는 과정이다.Next, an arbitrary point is designated in the cube area designated by the process S5 (S7). That is, as shown in FIG. 6B,
이어서, 상기 지정된 임의의 점에서 정육면체의 각 면 방향으로 RGBD 영상을 촬영한다(S9). 즉, 도 6c에 도시된 바와 같이, 지정된 임의의 점(40n)에서 정육면체의 각 면 방향, 즉 정면 방향(50a), 일측 방향(50b), 후면 방향(50c), 타측 방향(50d), 상면 방향(50e), 및 하면 방향(50f)으로 RGBD(Red Green Blue Depth) 영상을 촬영하여, 해당 장면에서 색상과 원근감이 표시될 수 있도록 한다.Next, an RGBD image is photographed in the direction of each surface of the cube at the specified arbitrary point (S9). That is, as shown in FIG. 6C , each face direction of the cube at a specified
다음으로, 촬영된 RGBD 영상을 기반으로 3D 구조의 장면을 생성한다(S11). 즉, 전술한 S9 과정으로 촬영된 복수 개의 RGBD 영상을 기반으로 하여, 단순화된 3D 구조의 장면을 생성하게 되고, 이렇게 생성된 장면의 일례가 도 7a에 도시된다.Next, a 3D structure scene is generated based on the captured RGBD image (S11). That is, a scene of a simplified 3D structure is generated based on the plurality of RGBD images captured in the above-described process S9, and an example of the thus generated scene is shown in FIG. 7A.
이어서, 생성된 장면에서 전술한 설정된 한계점 밖에 생성된 부분을 제거한다(S13). 여기서, 설정된 한계점은, S1 과정에서 설정한 3 가지 거리에 따른 한계점 중에서 원거리 한계점에 해당될 수 있다. 이러한 원거리 한계점 밖에 생성된 장면이 도 7b에 도시된다. 도 7a에 도시된 것과 같은 단순화된 3D 구조의 장면에서, 원거리 한계점 밖에 생성된 장면은 도 7b에 도시된 장면이 된다.Next, a portion generated outside the above-described set threshold is removed from the generated scene (S13). Here, the set limit point may correspond to a remote limit point among the limit points according to the three distances set in the process S1. A scene created outside this far limit is shown in Figure 7b. In a scene of a simplified 3D structure as shown in Fig. 7A, a scene created outside the far limit point becomes the scene shown in Fig. 7B.
따라서, 도 7a에 도시된 S1에서 S11 과정으로 생성된 장면에서, 도 7b에 도시된 바와 같이 원거리 한계점 밖에 생성된 장면을 제거하여, 도 7c에 도시된 바와 같은 장면을 최종적으로 생성함으로써, 가상 현실에서 사용자의 시야 영역에 최적화된 장면이 생성되어, 복잡하고 불필요한 장면들이 제거됨으로써, 대용량의 메모리가 필요 없고 효율적으로 렌더링이 가능하게 되는 것이다.Therefore, in the scene generated by the process S1 to S11 shown in FIG. 7A, the scene generated outside the far limit point as shown in FIG. 7B is removed, and the scene as shown in FIG. 7C is finally generated. A scene optimized for the user's field of view is created in the , and complicated and unnecessary scenes are removed, thereby enabling efficient rendering without requiring a large amount of memory.
이상의 설명은 본 발명의 기술적 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 그리고 상술한 바와 같이 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and those of ordinary skill in the art to which the present invention pertains may make various modifications, changes and substitutions within the scope without departing from the essential characteristics of the present invention. will be. And as described above, the embodiments disclosed in the present invention and the accompanying drawings are for explaining, not limiting, the technical spirit of the present invention, and the scope of the technical spirit of the present invention is limited by these embodiments and the accompanying drawings it's not going to be The protection scope of the present invention should be construed by the following claims, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.
100; 중심점
10; 근거리 한계점
20; 중간거리 한계점
30; 원거리 한계점100; node
10; close range threshold
20; mid-distance threshold
30; far limit
Claims (3)
가상 현실 환경의 한 장면에서 중심점으로부터의 복수의 거리에 따라 한계점을 설정하는 과정과;
상기 설정된 한계점에 따라 상기 장면에 배치된 객체를 분류하는 과정과;
공간의 제한을 두기 위해 상기 중심점을 중심으로 하는 정육면체 영역을 지정하고, 상기 지정된 정육면체 영역에서 상기 중심점과는 별개로 임의의 점들을 지정하는 과정과;
상기 지정된 임의의 점들에서 상기 정육면체의 각 면 방향으로 RGBD 영상을 촬영하여, 상기 촬영된 RGBD 영상을 기반으로 3D 구조의 장면을 생성하는 과정; 및
상기 생성된 장면에서 상기 설정된 한계점 밖에 생성된 부분을 제거하는 과정;을 포함하고,
상기 한계점 설정 과정은,
상기 중심점으로부터 근거리 한계점(near distance threshold), 중간거리 한계점(intermediate distance threshold), 원거리 한계점(far distance threshold)으로 나누어 설정하는 것을 특징으로 하는 가상 현실 환경에서의 렌더링 방법.
A rendering method in a virtual reality environment, comprising:
setting a threshold according to a plurality of distances from a central point in a scene in a virtual reality environment;
classifying the objects arranged in the scene according to the set threshold;
designating a cube area centered on the central point in order to limit the space, and designating arbitrary points in the designated cube area separately from the center point;
generating a 3D-structured scene based on the captured RGBD image by photographing an RGBD image in the direction of each surface of the cube at the specified arbitrary points; and
The process of removing a part generated outside the set limit point in the generated scene; including,
The threshold setting process is
A rendering method in a virtual reality environment, characterized in that the set is divided into a near distance threshold, an intermediate distance threshold, and a far distance threshold from the central point.
상기 원거리 한계점 밖에 생성된 부분을 제거하는 것을 특징으로 하는 가상 현실 환경에서의 렌더링 방법.According to claim 1, wherein the removal process,
A rendering method in a virtual reality environment, characterized in that removing a portion generated outside the remote limit point.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220009121A KR102454608B1 (en) | 2022-01-21 | 2022-01-21 | Rendering method of virtual reality environment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220009121A KR102454608B1 (en) | 2022-01-21 | 2022-01-21 | Rendering method of virtual reality environment |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102454608B1 true KR102454608B1 (en) | 2022-10-17 |
Family
ID=83810063
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220009121A KR102454608B1 (en) | 2022-01-21 | 2022-01-21 | Rendering method of virtual reality environment |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102454608B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120012858A (en) * | 2010-08-03 | 2012-02-13 | 삼성전자주식회사 | Apparatus and method for rendering object in 3d graphic terminal |
KR101764063B1 (en) | 2016-07-27 | 2017-08-03 | 네이버 주식회사 | Method and system for analyzing and pre-rendering of virtual reality content |
KR20190034129A (en) * | 2017-09-22 | 2019-04-01 | 에스케이텔레콤 주식회사 | Apparatus and method for displaying augmented reality |
-
2022
- 2022-01-21 KR KR1020220009121A patent/KR102454608B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120012858A (en) * | 2010-08-03 | 2012-02-13 | 삼성전자주식회사 | Apparatus and method for rendering object in 3d graphic terminal |
KR101764063B1 (en) | 2016-07-27 | 2017-08-03 | 네이버 주식회사 | Method and system for analyzing and pre-rendering of virtual reality content |
KR20190034129A (en) * | 2017-09-22 | 2019-04-01 | 에스케이텔레콤 주식회사 | Apparatus and method for displaying augmented reality |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA3025482C (en) | Method and apparatus for generating a virtual image from a viewpoint selected by the user, from a camera array with daisy chain connection | |
CN109561296B (en) | Image processing apparatus, image processing method, image processing system, and storage medium | |
CA3101689C (en) | Method and apparatus for generating a virtual image from a viewpoint selected by the user, from a camera array with transmission of foreground and background images at different frame rates | |
CN106157359B (en) | Design method of virtual scene experience system | |
AU760594B2 (en) | System and method for creating 3D models from 2D sequential image data | |
US9282313B2 (en) | Methods and systems for converting 2D motion pictures for stereoscopic 3D exhibition | |
JP4698831B2 (en) | Image conversion and coding technology | |
JP5789185B2 (en) | Image processing apparatus and image processing method | |
EP0476993A2 (en) | Video effects system | |
JP5128827B2 (en) | Modeling apparatus and method based on 3D points | |
US20190306483A1 (en) | Information processing device, information processing method, and program | |
JP2010510573A (en) | System and method for synthesizing a three-dimensional image | |
KR20170035608A (en) | Videotelephony System, Image Display Apparatus, Driving Method of Image Display Apparatus, Method for Generation Realistic Image and Computer Readable Recording Medium | |
CA3025471A1 (en) | Method and apparatus for generating a virtual image from a viewpoint selected by the user, from a camera array with default parameters associated to the selected type of sport event | |
JP2006107213A (en) | Stereoscopic image printing system | |
JP2010510569A (en) | System and method of object model fitting and registration for transforming from 2D to 3D | |
US11227428B2 (en) | Modification of a live-action video recording using volumetric scene reconstruction to replace a designated region | |
US10271038B2 (en) | Camera with plenoptic lens | |
CN109640070A (en) | A kind of stereo display method, device, equipment and storage medium | |
CN109510975A (en) | A kind of extracting method of video image, equipment and system | |
CN113260917A (en) | Electronic device, control method for electronic device, program, and storage medium | |
KR20190133867A (en) | System for providing ar service and method for generating 360 angle rotatable image file thereof | |
KR102454608B1 (en) | Rendering method of virtual reality environment | |
US11935209B1 (en) | Systems and methods for dynamic backfilling of a three-dimensional object | |
EP3790276A1 (en) | Free-viewpoint method and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |