KR20240003584A - Vr-based apartment experience method and system - Google Patents

Vr-based apartment experience method and system Download PDF

Info

Publication number
KR20240003584A
KR20240003584A KR1020220081349A KR20220081349A KR20240003584A KR 20240003584 A KR20240003584 A KR 20240003584A KR 1020220081349 A KR1020220081349 A KR 1020220081349A KR 20220081349 A KR20220081349 A KR 20220081349A KR 20240003584 A KR20240003584 A KR 20240003584A
Authority
KR
South Korea
Prior art keywords
data
rendering
unit
model house
motion
Prior art date
Application number
KR1020220081349A
Other languages
Korean (ko)
Inventor
김양기
Original Assignee
김양기
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김양기 filed Critical 김양기
Priority to KR1020220081349A priority Critical patent/KR20240003584A/en
Publication of KR20240003584A publication Critical patent/KR20240003584A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 병렬 렌더링 기술을 이용하여 고품질 3D 모델하우스를 실시간으로 상호작용을 통해 렌더링 함으로써 사 이버 모델하우스를 체험하기 위한 시스템에 관한 것으로, 병렬 GPU 컴퓨팅 기술을 이용하여 초고해상도의 3D 모델하우스 콘텐츠를 실시간으로 렌더링할 수 있으며, 사 용자의 모션인식을 통해 상호작용이 가능한 영상 시스템을 제공함으로써 몰입도를 향상시킬 수 있게 하는 것으로, 각 화면의 경계부가 맞닿게 연속적으로 설치되어 모델하우스 공간을 형성하는 다수의 출력장치로 구성되는 출력모듈(200); 다수의 출력장치와 대응 연결되는 다수의 렌더링장치로 구성되는 병렬렌더링부(100); 사용자의 모션을 인식하여 모션데이터를 생성하고, 이를 병렬렌더링부(100)로 송출하는 모션인식부(300);을 포함하고, 상기 병렬렌더링부(100)은 다수의 렌더링장치 중 특정된 하나의 렌더링장치가 서버로, 나머지 렌더링장치가 클라이언트로 구성되며, 모델하우스 영상(500)와 분할영역데이터(600)가 각 렌더링장치에 저장되되, 상기 모델하우스 영상(500)는 실내공간을 구성하는 실내공간데이터(512), 실내공간데이터(512)의 창문 밖으로 보이는 조망 이미지에 해당하는 조망데이터(511), 실내공간데이터(512)의 내에 배치되는 가구데이터(513), 광원에 의한 조명데이터(514)를 포함하는 오브젝트(510)로 구성되고, 상기 렌더링장치는 모델하우스 영상(500)와 분할영역데이터(600)가 저장되는 데이터베이스부(160), 데이터베이스부(160)에 저장된 모델하우스 영상(500)를 불러오는 콘텐츠로딩부(110), 데이터베이스부(160)에 저장된 분할영역데이터(600)를 불러오는 분할영역로딩부(120), 모션데이터를 수신하여 데이터베이스부(160)에서 해당 모션데이터와 매칭되는 모션명령데이터를 불러오는 모션 처리부(130), 모델하우스 영상(500)를 분할영역데이터(600)에 따라 분할하고 모션명령데이터(700)를 기반으로 분할된 모델하 우스콘텐츠를 렌더링하는 렌더링부(140), 렌더링부(140)에 의해 렌더링된 분할 모델하우스 영상을 렌더링장치에 연결된 출력장치로 송출하는 분 할콘텐츠송출부(150)를 포함하고, 상기 콘텐츠로딩부(110)는 불러온 모델하우스 영상(500)를 오브젝트(510)별로 추출하는 오브젝트추출부(111)를 더 포함하는 구성을 개시한다.The present invention relates to a system for experiencing a cyber model house by interactively rendering a high-quality 3D model house in real time using parallel rendering technology, and provides ultra-high resolution 3D model house content using parallel GPU computing technology. It can be rendered in real time and improves immersion by providing an interactive video system through user motion recognition. The boundaries of each screen are installed continuously to form a model house space. An output module 200 consisting of a plurality of output devices; A parallel rendering unit 100 consisting of a plurality of rendering devices correspondingly connected to a plurality of output devices; It includes a motion recognition unit 300 that recognizes the user's motion, generates motion data, and transmits it to the parallel rendering unit 100, wherein the parallel rendering unit 100 is one of a number of rendering devices. The rendering device is configured as a server, and the remaining rendering devices are configured as clients. A model house image (500) and segmentation data (600) are stored in each rendering device, and the model house image (500) is used to create an indoor space. Spatial data 512, view data 511 corresponding to the view image seen from the window of the indoor spatial data 512, furniture data 513 placed within the indoor spatial data 512, and lighting data 514 by a light source ), and the rendering device includes a database unit 160 in which the model house image 500 and the partition data 600 are stored, and a model house image 500 stored in the database unit 160. ), a content loading unit 110 that loads the partition area data 600 stored in the database unit 160, a partition loading unit 120 that receives motion data and matches it with the corresponding motion data in the database unit 160. A motion processing unit 130 that loads motion command data, a rendering unit 140 that divides the model house image 500 according to the division area data 600 and renders the divided model house contents based on the motion command data 700. ), a split content transmission unit 150 that transmits the divided model house image rendered by the rendering unit 140 to an output device connected to the rendering device, and the content loading unit 110 transmits the loaded model house image A configuration further including an object extraction unit 111 that extracts 500 for each object 510 is disclosed.

Description

VR 기반 아파트 체험 방법 및 시스템{VR-BASED APARTMENT EXPERIENCE METHOD AND SYSTEM}VR-BASED APARTMENT EXPERIENCE METHOD AND SYSTEM}

본 발명은 병렬 렌더링 기술을 이용하여 고품질 3D 모델하우스를 실시간으로 상호작용을 통해 렌더링 함으로써 사이버 모델하우스를 체험하기 위한 시스템에 관한 것이다.The present invention relates to a system for experiencing a cyber model house by interactively rendering a high-quality 3D model house in real time using parallel rendering technology.

현재 대기업 및 중소건설사에서 서비스하고 있는 대부분의 사이버 아파트 모델하우스는 실제 모델하우스 건설 후 그 내부를 촬영하여 제작한 이미지 기반의 VR(Image-Based Virtual Reality) 파노라마 영상 시스템이다.Most cyber apartment model houses currently being serviced by large corporations and small and medium-sized construction companies are image-based VR (Image-Based Virtual Reality) panoramic video systems produced by filming the interior of the actual model house after construction.

이러한 이미지 기반의 VR 체험 시스템은 제작 기술의 한계로 인해 체험자에게 다양한 위치에서의 뷰 제공 및 고 품질 영상 서비스가 불가능하여 현장감 및 몰입감이 떨어지는 단점이 있다.This image-based VR experience system has the disadvantage of lowering the sense of presence and immersion because it is unable to provide the experiencer with views from various locations and provide high-quality video services due to limitations in production technology.

또한 이미지기반의 VR 영상 체험시스템은 모델링 기반의 VR(Modeling-Based Virtual Reality) 체험시스템에서 가능한 내부 구조 변환, 인테리어 내장재 및 가구를 실시간으로 교체하여 보여줄 수 있는 인터랙티브 (Interactive) 체험시스템 구현에 많은 어려움이 있어 체험자의 다양한 요구를 충족시키는 못하는 실정이다.In addition, the image-based VR video experience system has many difficulties in implementing an interactive experience system that can change the internal structure and replace interior materials and furniture in real time, which is possible in the modeling-based VR (Modeling-Based Virtual Reality) experience system. As a result, it is unable to meet the diverse needs of the experiencers.

따라서, 본 발명은 상기한 바와 같은 문제점을 해결하기 위한 것으로서, 병렬 GPU 컴퓨팅 기술을 이용하여 초고해상도의 3D 모델하우스 콘텐츠를 실시간으로 렌더링하고, 몰입도 향 상을 위해 사용자의 모션인식을 통해 상호작용이 가능한 영상 시스템을 제공하고자 한다.Therefore, the present invention is intended to solve the problems described above, using parallel GPU computing technology to render ultra-high resolution 3D model house content in real time and interact through user motion recognition to improve immersion. We would like to provide a video system that is capable of this.

본 발명은 상기와 같은 과제를 해결하기 위하여,In order to solve the above problems, the present invention

사용자의 모션을 인식하여 모션데이터를 생성하고, 이를 병렬렌더링부(100)로 송출하는 모션인식부(300);을 포함하고, 상기 병렬렌더링부(100)은 다수의 렌더링장치 중 특정된 하나의 렌더링장치가 서버로, 나머지 렌더링장치가 클라이언트로 구성되며, 모델하우스 영상(500)와 분할영역데이터(600)가 각 병렬렌더 링장치에 저장되되, 상기 모델하우스 영상(500)는 실내공간을 구성하는 실내공간데이터(512), 실내공간데이 터(512)의 창문 밖으로 보이는 조망 이미지에 해당하는 조망데이터(511), 실내공간데이터(512)의 내에 배치되 는 가구데이터(513), 광원에 의한 조명데이터(514)를 포함하는 오브젝트(510)로 구성되고, 상기 병렬렌더링장 치는 모델하우스 영상(500)와 분할영역데이터(600)가 저장되는 데이터베이스부(160), 데이터베이스부(160)에 저장된 모델하우스 영상(500)를 불러오는 콘텐츠로딩부(110), 데이터베이스부(160)에 저장된 분할영역데이터 (600)를 불러오는 분할영역로딩부(120), 모션데이터를 수신하여 데이터베이스부(160)에서 해당 모션데이터와 매 칭되는 모션명령데이터를 불러오는 모션처리부(130), 모델하우스 영상(500)를 분할영역데이터(600)에 따라 분 할하고 모션명령데이터(700)를 기반으로 분할된 모델하우스 영상을 렌더링하는 렌더링부(140), 렌더링부(140) 에 의해 렌더링된 분할 모델하우스 영상을 렌더링장치에 연결된 출력장치로 송출하는 분할콘텐츠송출 부(150)를 포함하고, 상기 콘텐츠로딩부(110)는 불러온 모델하우스 영상(500)를 오브젝트(510)별로 추출하는 오브젝트추출부(111)를 더 포함하는 것을 특징으로 하며,It includes a motion recognition unit 300 that recognizes the user's motion, generates motion data, and transmits it to the parallel rendering unit 100, wherein the parallel rendering unit 100 is one of a number of rendering devices. The rendering device is configured as a server, and the remaining rendering devices are configured as clients, and the model house image 500 and segmented area data 600 are stored in each parallel rendering device, and the model house image 500 constitutes an indoor space. indoor space data 512, view data 511 corresponding to the view image seen from the window of the indoor space data 512, furniture data 513 placed within the indoor space data 512, and It consists of an object 510 containing lighting data 514, and the parallel rendering device is a database unit 160 in which model house image 500 and partition data 600 are stored, and stored in database unit 160. A content loading unit 110 that loads the model house image 500, a partition loading unit 120 that loads the partition data 600 stored in the database unit 160, and a motion data received and corresponding data in the database unit 160. The motion processing unit 130 retrieves motion command data matching the motion data, divides the model house image 500 according to the segmentation area data 600, and divides the model house image divided based on the motion command data 700. It includes a rendering unit 140 that renders, a split content transmission unit 150 that transmits the segmented model house image rendered by the rendering unit 140 to an output device connected to the rendering device, and the content loading unit 110 It is characterized in that it further includes an object extraction unit 111 that extracts the loaded model house image 500 for each object 510,

상기 렌더링부(140)는 모델하우스 영상(500) 상의 중심을 원점으로 할 때 분할영역데이터(600)의 좌표로 구성되는 직사각형 영역으로 분할된 모델하우스 영상을 추출하는 화면분할부(141), 모션명령데이터(700)를 기반으 로 모델하우스 영상을 렌더링 할 렌더링데이터를 생성하는 모션명령데이터처리부(142), 상기 렌더링장치가 클라이언트일 경우 모션명령데이터처리부(142)에서 생성된 렌더링데이터를 서버로 전송하고, 렌더링장치가 서버일 경우 모션명령데이터처리부(142)에서 생성된 렌더링데이터 또는 다른 렌더링장치에서 전송된 렌더링 데이터를 나머지 렌더링장치로 전송하는 동기화부(143), 동기화부(143)에 의해 전송된 렌더링데이터를 이용 하여 병렬GPU컴퓨팅 방식으로 모델하우스 영상(500)를 렌더링하는 GPU병렬처리부(143)를 포함하는 것을 특징으 로 하고,The rendering unit 140 includes a screen dividing unit 141, which extracts a model house image divided into rectangular areas composed of the coordinates of the segmented area data 600, with the center of the model house image 500 as the origin, and a motion A motion command data processing unit 142 generates rendering data to render a model house image based on command data 700. If the rendering device is a client, the rendering data generated by the motion command data processing unit 142 is sent to the server. and, if the rendering device is a server, the rendering data generated in the motion command data processing unit 142 or the rendering data transmitted from another rendering device is transmitted to the remaining rendering devices by the synchronization unit 143. It is characterized by including a GPU parallel processing unit 143 that renders the model house image 500 using parallel GPU computing using the transmitted rendering data,

상기 분할영역데이터(600)는 출력모듈(200)의 중앙에 위치한 출력장치 화면상의 중심점을 원점으로 할 때, 상기 렌더링장치에 연결되는 출력장치 화면상의 모서리 네 점 중 세 점에 대한 3차원 좌표로 구성 되는 것을 특징으로 하는 실시간 병렬 렌더링 기반의 인터랙티브 고품질 영상 시스템을 제시한다.The partition data 600 is the three-dimensional coordinates of three of the four corners of the screen of the output device connected to the rendering device when the origin is the center point on the screen of the output device located in the center of the output module 200. We present an interactive high-quality video system based on real-time parallel rendering, which is characterized in that it consists of:

본 발명에서는 다음과 같은 효과를 발휘한다.The present invention has the following effects.

즉, 병렬 GPU 컴퓨팅 기술을 이용하여 초고해상도의 3D 모델하우스 콘텐츠를 실시간으로 렌더링할 수 있으며, 사용자의 모션인식을 통해 상호작용이 가능한 영상 시스템을 제공함으로써 몰입도를 향상시킬 수 있게 된다.In other words, ultra-high resolution 3D model house content can be rendered in real time using parallel GPU computing technology, and immersion can be improved by providing an interactive video system through user motion recognition.

한편, 본 발명의 효과는 이상에서 언급한 효과들로 제한되지 않으며, 이하에서 설명할 내용으로부터 통상의 기술자에게 자명한 범위 내에서 다양한 효과들이 포함될 수 있다.Meanwhile, the effects of the present invention are not limited to the effects mentioned above, and various effects may be included within the range apparent to those skilled in the art from the contents described below.

도 1은 본 발명의 전체적인 구성에 대한 블록도이다.
도 2는 본 발명의 구성 중 렌더링장치의 구성에 대한 블록도이다.
도 3은 일실시예에 대한 시스템 구성도이다.
도 4는 다른 실시예에 대한 시스템 구성도이다.
1 is a block diagram of the overall configuration of the present invention.
Figure 2 is a block diagram of the configuration of a rendering device among the components of the present invention.
Figure 3 is a system configuration diagram for one embodiment.
Figure 4 is a system configuration diagram for another embodiment.

이하, 첨부된 도면들을 참조하여 본 발명에 따른 'VR 기반 아파트 체험 방법 및 시스템'을 상세하게 설명한다. 설명하는 실시 예들은 본 발명의 기술사상을 당업자가 용이하게 이해할 수 있도록 제공되는 것으로 이에 의해 본 발명이 한정되지 않는다. 또한, 첨부된 도면에 표현된 사항들은 본 발명의 실시 예들을 쉽게 설명하기 위해 도식화된 도면으로 실제로 구현되는 형태와 상이할 수 있다.Hereinafter, the 'VR-based apartment experience method and system' according to the present invention will be described in detail with reference to the attached drawings. The described embodiments are provided so that those skilled in the art can easily understand the technical idea of the present invention, and the present invention is not limited thereto. In addition, the matters expressed in the attached drawings may be different from the actual implementation form in the schematic drawings to easily explain the embodiments of the present invention.

한편, 이하에서 표현되는 각구성부는 본 발명을 구현하기 위한 예일뿐이다. 따라서, 본 발명의 다른 구현에서는 본 발명의 사상 및 범위를 벗어나지 않는 범위에서 다른 구성부가 사용될 수 있다.Meanwhile, each component expressed below is only an example for implementing the present invention. Accordingly, other components may be used in other implementations of the present invention without departing from the spirit and scope of the present invention.

또한, 각구성부는 순전히 하드웨어 또는 소프트웨어의 구성만으로 구현될 수도 있지만, 동일 기능을 수행하는 다양한 하드웨어 및 소프트웨어 구성들의 조합으로 구현될 수도 있다. 또한, 하나의 하드웨어 또는 소프트웨어에 의해 둘 이상의 구성부들이 함께 구현될 수도 있다.Additionally, each component may be implemented purely through hardware or software configurations, but may also be implemented through a combination of various hardware and software configurations that perform the same function. Additionally, two or more components may be implemented together by one hardware or software.

또한, 어떤 구성요소들을 '포함'한다는 표현은, '개방형'의 표현으로서 해당구성요소들이 존재하는 것을 단순히 지칭할 뿐이며, 추가적인 구성요소들을 배제하는 것으로 이해되어서는 안된다.Additionally, the expression 'including' certain components is an 'open' expression and simply refers to the existence of the corresponding components and should not be understood as excluding additional components.

본 발명은 실시간 병렬 렌더링 기반의 인터랙티브 고품질 영상 시스템에 관한 것으로서, 도 1과 같이 병렬렌더 링모듈(100), 출력모듈(200), 모션인식부(300)로 구성된다.The present invention relates to an interactive high-quality video system based on real-time parallel rendering, and is composed of a parallel rendering module 100, an output module 200, and a motion recognition unit 300, as shown in FIG. 1.

출력모듈(200)은 다수의 출력장치(200a,200b,200c, ...)로 구성되는데, 분할된 모델하우스 영상을 출 력하는 출력장치 다수개가 연결되어 전체로써 하나의 모델하우스 영상(500)를 출력하는 역할을 한다.The output module 200 is composed of a plurality of output devices (200a, 200b, 200c, ...). Multiple output devices that output divided model house images are connected to produce one model house image (500) as a whole. It serves to output .

각 출력장치 화면의 경계부가 맞닿게 연속적으로 설치되어 모델하우스 공간을 형성하게 되는데, 실내 벽면을 따라 디스플레이를 설치할 수도 있고, 도 6과 같이 스크린 등의 가시설을 벽처럼 설치하여 모델하우스 공간The boundaries of each output device screen are installed continuously to form a model house space. The display can be installed along the interior wall, or temporary facilities such as a screen are installed like a wall as shown in Figure 6 to create a model house space.

이 형성되도록 할 수도 있다.This can also be formed.

특히, 출력장치는 출력모듈(200)이 하나의 큰 화면을 구성하도록 각 출력장치에 의한 화면의 경계 부가 맞닿게 설치되는 것으로서, 예를 들어 LED/LCD 디스플레이가 격자형(도 3 참고), 가로일렬(도 4 참고) 또는 세로일렬로 연결될 때 각 디스플레이일 수 있고, 다수의 스크린이 격자형, 가로일렬 또는 세로일렬로 연결되 어 다수의 프로젝터가 각각의 스크린에 분할된 영상을 쏠 때 각 프로젝터와 스크린의 결합일 수도 있다. 다만, 상기 '일렬'의 의미는 정면에서 볼 때 한줄로 이어진다는 것이며 다른 방향(위에서 또는 옆에서 보는 등)에서 보면 연결된 디스플레이가 굽어진 형태인 것도 포함한다(도 4 참고). 또한, 전방을 둘러싸도록 화면이 4각 내지 다각으로 연결되어 모델하우스 영상(500)가 출력되는 공간을 형성할 수도 있다.In particular, the output device is installed so that the boundaries of the screens of each output device are in contact so that the output module 200 forms one large screen. For example, the LED/LCD display is grid-shaped (see FIG. 3) or horizontal. It can be each display when connected in a row (see Figure 4) or vertically, and when multiple screens are connected in a grid, horizontally or vertically, and multiple projectors project divided images to each screen, each projector It may be a combination of and screen. However, the meaning of 'line' is that it is connected in a single line when viewed from the front, and also includes the connected display being curved when viewed from another direction (such as from above or from the side) (see Figure 4). Additionally, the screens may be connected in four or multiple angles to surround the front, forming a space where the model house image 500 is displayed.

모션인식부(300)은 사용자의 모션을 인식하여 모션데이터를 생성하고, 이를 병렬렌더링부(100)로 송출하는 역할을 하며, 키넥트센서를 이용하여 출력모듈(200)이 설치된 공간 내의 사용자의 시선, 손동작, 몸동작 등 을 인식할 수 있다.The motion recognition unit 300 recognizes the user's motion, generates motion data, and transmits it to the parallel rendering unit 100. It uses the Kinect sensor to detect the user's motion in the space where the output module 200 is installed. It can recognize gaze, hand movements, body movements, etc.

병렬렌더링부(100)는 다수의 출력장치(200a,200b,200c, ...)와 대응 연결되는 다수의 렌더링장치 (100a,100b,100c, ...)로 구성된다. 즉, 출력장치와 렌더링장치가 1:1로 연결되는 것이다.The parallel rendering unit 100 is composed of a plurality of rendering devices (100a, 100b, 100c, ...) connected to a plurality of output devices (200a, 200b, 200c, ...). In other words, the output device and rendering device are connected 1:1.

이 때, 다수의 렌더링장치(100a,100b,100c, ...) 중 특정된 하나의 렌더링장치(100a)가 서버로, 나머지 렌더링장치(100b,100c, ...)가 클라이언트로 지정되어 서로 네트워크에 의해 연결된다. 이는 후술하는 렌더 링의 동기화를 위한 것이다.At this time, one rendering device (100a) among multiple rendering devices (100a, 100b, 100c, ...) is designated as the server, and the remaining rendering devices (100b, 100c, ...) are designated as clients. connected by a network. This is for synchronization of rendering, which will be described later.

렌더링장치(100a)는 모델하우스 영상(500)와 모델하우스 영상(500) 상에서 각 출력장치에서 출력되는 영상의 좌표값으로 구성되는 분할영역데이터(600)가 저장되어, 모델하우스 영상(500)를 분할영역데이터(600)에 따라 분할하고, 분할된 모델하우스 영상을 렌더링한 뒤, 렌더링된 분할 모델하우스 영상을 연결된 출력장 치로 송출하도록 구성된다.The rendering device 100a stores the model house image 500 and segmentation data 600 consisting of the coordinate values of the images output from each output device on the model house image 500, thereby rendering the model house image 500. It is configured to divide according to the division area data 600, render the divided model house image, and then transmit the rendered divided model house image to a connected output device.

각 렌더링장치(100a,100b,100c, ...)는 도 2와 같이 콘텐츠로딩부(110), 분할영역로딩부(120), 모션처리부 (130), 렌더링부(140), 분할콘텐츠송출부(150), 데이터베이스부(160)로 구성된다. 상기 구성의 식별번호에 알파 벳이 덧붙여진 것은 특정 렌더링장치(100b)의 구성(렌더링부(140b), 데이터베이스부(160b) 등)을 의미하고, 알파벳을 덧붙이지 않은 것(숫자로만 구성된 식별번호)은 각 렌더링장치(100a,100b,100c, ...)의 구성요소 를 통칭하는 것이다(렌더링부(140a,40b,140c,...)를 렌더링부(140)로 하는 등).Each rendering device (100a, 100b, 100c, ...) includes a content loading unit 110, a partition loading unit 120, a motion processing unit 130, a rendering unit 140, and a divided content transmission unit, as shown in FIG. 2. It consists of (150) and a database unit (160). The addition of an alphabet to the identification number of the above configuration means the configuration of a specific rendering device 100b (rendering unit 140b, database unit 160b, etc.), and no alphabet is added (an identification number consisting of numbers only). refers to the components of each rendering device (100a, 100b, 100c, ...) (the rendering units (140a, 40b, 140c, ...) are referred to as the rendering unit 140, etc.).

데이터베이스부(160)에는 모델하우스 영상(500)와 분할영역데이터(600)가 저장된다. 또한, 특정 모션데이터에 매칭되는 모션명령데이터(700)도 저장된다.The model house image 500 and partition data 600 are stored in the database unit 160. Additionally, motion command data 700 matching specific motion data is also stored.

분할영역데이터(600)는 출력모듈(200)의 중앙에 위치한 출력장치 화면상의 중심점을 원점으로 할 때, 상기 렌더링장치에 연결되는 출력장치 화면상의 모서리 네 점 중 세 점에 대한 3차원 좌표로 구성된다. 도 4를 참고하면, 가로일렬로 연결된 세 개의 출력장치 중 가운데 제2출력장치(200b)의 중심을 좌표원 점(0,0,0)으로 설정할 때, 제2출력장치(200b)의 분할영역데이터(600b)는 좌측상단의 Pc2(-8,5,0), 좌측하단 의 Pa2(-8,-5,0), 우측하단의 Pb2(8,-5,0)으로 구성된다.The split area data 600 is composed of three-dimensional coordinates for three of the four corners of the screen of the output device connected to the rendering device when the origin is the center point on the screen of the output device located in the center of the output module 200. do. Referring to FIG. 4, when the center of the second output device (200b) among the three output devices connected horizontally is set to the coordinate origin point (0,0,0), the division area of the second output device (200b) Data 600b consists of Pc2(-8,5,0) in the upper left, Pa2(-8,-5,0) in the lower left, and Pb2(8,-5,0) in the lower right.

제1출력장치(200a)의 분할영역데이터(600a)는 좌측상단의 Pc1(-22,5,8), 좌측하단의 Pa1(-22,-5,8), 우측 하단의 Pb1(-8,-5,0)으로 구성되며, 마찬가지로 제3출력장치(200c)의 분할영역데이터(600c)는 좌측상단의 Pc3(8,5,0), 좌측하단의 Pa3(8,-5,0), 우측하단의 Pb3(22,-5,8)으로 구성된다.The division data 600a of the first output device 200a is Pc1(-22,5,8) at the top left, Pa1(-22,-5,8) at the bottom left, and Pb1(-8,) at the bottom right. -5,0), and similarly, the partition data 600c of the third output device 200c is Pc3(8,5,0) at the upper left, Pa3(8,-5,0) at the lower left, It is composed of Pb3(22,-5,8) in the lower right.

모델하우스 영상(500)는 모델하우스 영상(500)의 창문, 기둥, 벽 등의 실내공간을 구성하는 실내공간데이터The model house image 500 is indoor space data that constitutes the indoor space such as windows, pillars, and walls of the model house image 500.

(512), 실내공간데이터(512)의 창문 밖으로 보이는 조망 이미지에 해당하는 조망데이터(511), 실내공간데이터(512), view data 511, indoor space data corresponding to the view image seen outside the window of indoor space data 512

(512)의 내에 배치되는 가구데이터(513), 광원에 의한 조명데이터(514)를 포함하는 오브젝트(510)로 구성된다. 이는 렌더링시 오브젝트별로 데이터를 변경하기 위한 것이다.It is composed of an object 510 including furniture data 513 placed within 512 and lighting data 514 by a light source. This is to change data for each object when rendering.

모션명령데이터(700)는 특정 모션데이터에 매칭되어 모델하우스 영상(500)의 변경을 유도하는 명령데이터이다. 예를 들어 '한 손을 드는 동작'의 모션데이터에는 '실내등을 켬'이라는 모션명령데이터가 매칭되고, '두 손을 드는 동작'의 모션데이터에는 '실내등을 끔'이라는 모션명령데이터가 매칭되고, '한 손을 왼쪽 또는 오른쪽으로 미는 동작'의 모션데이터에는 '특정 가구의 위치를 손의 이동 방향에 따라 옮김'이라는 모션명령데이터가 매칭 되고, '고개를 돌리는 동작'의 모션데이터에는 '고개 돌리는 방향에 따라 현재 보이는 화면의 시점을 변경함'이 라는 모션명령데이터가 매칭될 수 있다. 특히, 모델하우스에 특화하여 실내공간데이터(512)를 변경하여 벽지나 바닥재를 바꿔보거나 가구데이터(513)를 변경하여 가구 종류 변경 및 배치를 달리하거나 조망데이터(511)를 변 경하여 실내 채광정도, 전경을 비교할 수 있고, 조명데이터(514)를 변경하여 실내 조명 밝기, 색깔에 따른 실내 공간 분위기를 확인할 수 있게 된다(도 7 참고).The motion command data 700 is command data that matches specific motion data and induces a change in the model house image 500. For example, the motion data for 'raising one hand' is matched with the motion command data 'turn on the interior light', and the motion data for 'raising both hands' is matched with the motion command data for 'turning off the interior light'. , The motion data of 'movement of pushing one hand to the left or right' is matched with the motion command data of 'moving the position of a specific piece of furniture according to the direction of movement of the hand', and the motion data of 'movement of turning one's head' is matched with the motion command data of 'moving one's head.' Motion command data such as 'change the viewpoint of the currently visible screen depending on the direction of rotation' may be matched. In particular, specializing in model houses, the indoor space data 512 can be changed to change the wallpaper or flooring, the furniture data 513 can be changed to change the type and arrangement of furniture, or the view data 511 can be changed to change the degree of indoor lighting. , the foreground can be compared, and by changing the lighting data 514, the indoor space atmosphere according to the indoor lighting brightness and color can be checked (see Figure 7).

콘텐츠로딩부(110)는 데이터베이스부(160)에 저장된 모델하우스 영상(500)를 불러오는 역할을 한다. 특히, 불 러온 모델하우스 영상(500)를 오브젝트(510)별로 추출하는 오브젝트추출부(111)를 더 포함할 수 있는데, 조망 데이터(511), 실내공간데이터(512), 가구데이터(513), 조명데이터(514)를 각각 별도로 추출하는 것이다.The content loading unit 110 serves to load the model house image 500 stored in the database unit 160. In particular, it may further include an object extraction unit 111 that extracts the loaded model house image 500 for each object 510, including view data 511, indoor space data 512, furniture data 513, The lighting data 514 is extracted separately.

분할영역로딩부(120)는 데이터베이스부(160)에 저장된 분할영역데이터(600)를 불러오는 역할을 한다. 도 4의 실 시예에서는 제1렌더링장치(100a)에서는 Pc1(-22,5,8), Pa1(-22,-5,8), Pb1(-8,-5,0)로 구성된 분할영역데 이터(600a)를 불러오고, 제2렌더링장치(100b) 및 제3렌더링장치(100c)도 마찬가지로 각각의 분할영역데 이터(600b,600c)를 불러오는 것이다.The partition loading unit 120 serves to load partition data 600 stored in the database unit 160. In the embodiment of FIG. 4, the first rendering device 100a has a partition area composed of Pc1 (-22, 5, 8), Pa1 (-22, - 5, 8), and Pb1 (-8, - 5, 0). The data 600a is loaded, and the second rendering device 100b and the third rendering device 100c similarly load their respective partition data 600b and 600c.

모션처리부(130)는 모션데이터를 수신하여 데이터베이스부(160)에서 해당 모션데이터와 매칭되는 모션명령데이 터를 불러오는 역할을 하며, 모션데이터수신부(131)와 모션명령데이터생성부(132)로 구성된다.The motion processing unit 130 receives motion data and retrieves motion command data matching the motion data from the database unit 160, and is composed of a motion data receiving unit 131 and a motion command data generating unit 132. do.

모션데이터수신부(131)에서 모션인식부(300)로부터 모션데이터를 수신하고, 모션명령데이터생성부(132)는 모 션데이터수신부(131)에서 수신된 모션데이터를 데이터베이스부(160)에서 검색하여 이와 매칭되는 모션명령데이 터(700)를 불러온다. 예를 들어, '한 손을 드는 동작'의 모션데이터가 수신되면 이에 매칭된 '실내등을 켬'이라는 모션명령데이터를 불러오는 것이다.The motion data receiving unit 131 receives motion data from the motion recognition unit 300, and the motion command data generating unit 132 searches the motion data received from the motion data receiving unit 131 in the database unit 160. The motion command data (700) matching this is loaded. For example, when the motion data of ‘raising one hand’ is received, the corresponding motion command data of ‘turn on the interior light’ is retrieved.

렌더링부(140)는 모델하우스 영상(500)를 분할영역데이터(600)에 따라 분할하고 모션명령데이터(700)를 기반으 로 분할된 모델하우스 영상을 렌더링하는 역할을 하며, 도 2와 같이 화면분할부(141), 모션명령데이터처리부 (142), 동기화부(143), GPU병렬처리부(144)로 구성된다.The rendering unit 140 serves to divide the model house image 500 according to the division area data 600 and render the divided model house image based on the motion command data 700, and displays the screen as shown in FIG. 2. It consists of a division unit 141, a motion command data processing unit 142, a synchronization unit 143, and a GPU parallel processing unit 144.

화면분할부(141)는 모델하우스 영상(500) 상의 중심을 좌표원점(0,0,0)으로 할 때 분할영역데이터(600)의 좌표 로 구성되는 직사각형 영역으로 분할된 모델하우스 영상을 추출한다. 도 4의 실시예에서는 제1렌더링장치 (100a)에서는 모델하우스 영상(500)상의 Pc1(-22,5,8), Pa1(-22,-5,8), Pb1(-8,-5,0)를 세 모서리로 하는 직 사각형 영역을 추출하고, 제2렌더링장치(100b)에서는 분할영역데이터(600b)의 좌표를 세 모서리로 하는 직 사각형 영역을 추출하며, 제3렌더링장치(100c)에서는 분할영역데이터(600c)의 좌표를 세 모서리로 하는 직 사각형 영역을 추출하는 것이다.The screen splitter 141 extracts a model house image divided into a rectangular area composed of the coordinates of the split area data 600 when the center of the model house image 500 is the coordinate origin (0,0,0). . 4, in the first rendering device 100a, Pc1(-22,5,8), Pa1(-22,-5,8), Pb1(-8,-5, A rectangular area with 0) as its three corners is extracted, and in the second rendering device 100b, a rectangular area with the coordinates of the segment data 600b as its three corners is extracted, and in the third rendering device 100c, A rectangular area with three corners as coordinates of the partition data 600c is extracted.

모션명령데이터처리부(142)는 모션명령데이터(700)를 기반으로 모델하우스 영상을 렌더링 할 렌더링데이터를 생성하는 역할을 한다. 예를 들어 '실내등을 켬'이라는 모션명령데이터에 따라 분할된 모델하우스 영상에 조도 설정을 변경할 렌더링데이터를 생성하거나, '특정 가구의 위치를 손의 이동 방향에 따라 옮김'이라는 모션명령 데이터에 따라 특정 가구를 추출하여 이동할 렌더링데이터를 생성하거나, '고개 돌리는 방향에 따라 현재 보이 는 화면의 시점을 변경함'이라는 모션명령데이터에 따라 모델하우스 영상(500)를 렌더링하는 카메라 시점 설정을 변경할 렌더링데이터를 생성하는 등이다.The motion command data processing unit 142 serves to generate rendering data to render a model house image based on the motion command data 700. For example, rendering data to change the illumination settings in a segmented model house image is generated according to the motion command data such as 'Turn on the interior lights', or according to the motion command data such as 'Move the position of a specific piece of furniture according to the direction of hand movement'. Rendering data that extracts specific furniture and creates rendering data to move, or changes the camera viewpoint setting that renders the model house image (500) according to the motion command data of 'change the viewpoint of the currently visible screen depending on the direction of turning the head'. etc. to create .

동기화부(143)는 해당 렌더링장치가 클라이언트일 경우 모션명령데이터처리부(142)에서 생성된 렌더링데이 터를 서버로 전송하고, 렌더링장치가 서버일 경우 모션명령데이터처리부(142)에서 생성된 렌더링데이터 또는 다른 렌더링장치에서 전송된 렌더링데이터를 나머지 렌더링장치로 전송하는 역할을 한다.The synchronization unit 143 transmits the rendering data generated in the motion command data processing unit 142 to the server when the rendering device is a client, and the rendering data generated in the motion command data processing unit 142 when the rendering device is a server. Alternatively, it serves to transmit rendering data transmitted from another rendering device to the remaining rendering devices.

도 4의 실시예에서 제1렌더링장치(100a)가 서버이고, 제2렌더링장치(100b), 제3렌더링장치(100c)가 클라이언트로 구성되는 경우를 설명하면 다음과 같다.In the embodiment of FIG. 4, the case where the first rendering device 100a is a server, and the second rendering device 100b and the third rendering device 100c are clients are described as follows.

제1렌더링장치(100a)의 모션명령데이터처리부(142)에서 렌더링데이터를 생성할 경우 이를 클라이언트인 제 2,3렌더링장치(100b,100c)로 전송한다. 이와 달리 제2렌더링장치(100b)의 모션명령데이터처리부(142)에 서 렌더링데이터를 생성할 경우 이를 제1렌더링장치(100a)로 전송하는데, 제1렌더링장치(100a)에서 이를 받아 다른 클라이언트, 즉 제3렌더링장치(100c)로 전송한다. 따라서 모든 렌더링장치가 동기화된 렌 더링데이터를 갖게 되는 것이다.When rendering data is generated in the motion command data processing unit 142 of the first rendering device 100a, it is transmitted to the second and third rendering devices 100b and 100c, which are clients. In contrast, when rendering data is generated in the motion command data processing unit 142 of the second rendering device 100b, it is transmitted to the first rendering device 100a, which receives it from other clients, That is, it is transmitted to the third rendering device 100c. Therefore, all rendering devices have synchronized rendering data.

동기화부(143)는 동기화부(143)에 의해 전송된 렌더링데이터를 이용하여 병렬GPU컴퓨팅 방식으로 모델하우스콘 텐츠(500)를 렌더링하게 된다. 즉, GPU를 이용하여 병렬적으로 렌더링 처리함으로써 수많은 오브젝트를 실시간으로 처리할 수 있게 된다. 따라서 도 3과 같이 렌더링장치가 병렬GPU컴퓨팅이 가능하도록 다수의 GPU를 내 장하고 있어야 함은 당연하다.The synchronization unit 143 renders the model house content 500 using parallel GPU computing using the rendering data transmitted by the synchronization unit 143. In other words, numerous objects can be processed in real time by rendering them in parallel using the GPU. Therefore, it is natural that the rendering device must have multiple GPUs built in to enable parallel GPU computing, as shown in Figure 3.

분할콘텐츠송출부(150)는 렌더링부(140)에 의해 렌더링된 분할 모델하우스 영상을 렌더링장치에 연결된 영 상출력장치로 송출하는 역할을 한다. 즉, 제1렌더링장치(100a)에서 제1출력장치(200a)로, 제2병렬렌더 링장치(100b)에서 제2출력장치(200b)로 각각 송출하는 것이다. 이로써 도 5와 같이 체험가능한 모델하우스 공간이 형성된다.The split content transmission unit 150 serves to transmit the split model house image rendered by the rendering unit 140 to an image output device connected to the rendering device. That is, it is transmitted from the first rendering device 100a to the first output device 200a, and from the second parallel rendering device 100b to the second output device 200b. This creates an experiential model house space as shown in Figure 5.

이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통 상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been examined focusing on its preferred embodiments. A person skilled in the art to which the present invention pertains will understand that the present invention may be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered from an illustrative rather than a restrictive perspective. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the equivalent scope should be construed as being included in the present invention.

Claims (3)

각 화면의 경계부가 맞닿게 연속적으로 설치되어 모델하우스 구현 공간을 형성하는 적어도 하나 이상의 출력장치로 구성되는 출력모듈(200);
상기 적어도 하나 이상의 출력장치와 대응 연결되는 다수의 렌더링장치로 구성되는 병렬렌더링부(100);
사용자의 모션을 인식하여 모션데이터를 생성하고, 이를 병렬렌더링부(100)로 송출하는 모션인식부(300);을 포함하고,
상기 병렬렌더링부(100)은
다수의 렌더링장치 중 특정된 하나의 렌더링장치가 서버로, 나머지 렌더링장치가 클라이언트로 구성되며,
모델하우스 영상(500)와 분할영역데이터(600)가 각 렌더링장치에 저장되되, 상기 모델하우스 영상(500)는
실내공간을 구성하는 실내공간데이터(512),
실내공간데이터(512)의 창문 밖으로 보이는 조망 이미지에 해당하는 조망데이터(511), 실내공간데이터(512)의 내에 배치되는 가구데이터(513),
광원에 의한 조명데이터(514)를 포함하는 오브젝트(510)로 구성되고, 상기 렌더링장치는
모델하우스 영상(500)와 분할영역데이터(600)가 저장되는 데이터베이스부(160), 데이터베이스부(160)에 저장된 모델하우스 영상(500)를 불러오는 콘텐츠로딩부(110), 데이터베이스부(160)에 저장된 분할영역데이터(600)를 불러오는 분할영역로딩부(120),
모션데이터를 수신하여 데이터베이스부(160)에서 해당 모션데이터와 매칭되는 모션명령데이터를 불러오는 모션 처리부(130),
모델하우스 영상(500)를 분할영역데이터(600)에 따라 분할하고 모션명령데이터(700)를 기반으로 분할된 모델하우스 영상을 렌더링하는 렌더링부(140),
렌더링부(140)에 의해 렌더링된 분할 모델하우스 영상을 렌더링장치에 연결된 출력장치로 송출하는 분할콘텐츠송출부(150)를 포함하고,
상기 콘텐츠로딩부(110)는 불러온 모델하우스 영상(500)를 오브젝트(510)별로 추출하는 오브젝트추출부(111)를 더 포함하는 것을 특징으로 하는
실시간 병렬 렌더링 기반의 인터랙티브 고품질 영상 시스템
An output module 200 consisting of at least one output device that is installed continuously so that the boundaries of each screen come into contact with each other to form a model house implementation space;
A parallel rendering unit 100 composed of a plurality of rendering devices correspondingly connected to the at least one output device;
It includes a motion recognition unit 300 that recognizes the user's motion, generates motion data, and transmits it to the parallel rendering unit 100,
The parallel rendering unit 100 is
Among multiple rendering devices, one specific rendering device is configured as a server, and the remaining rendering devices are configured as clients.
The model house image 500 and the segmentation area data 600 are stored in each rendering device, and the model house image 500 is
Indoor spatial data (512) that constitutes indoor space,
View data 511 corresponding to the view image seen from the window of the indoor spatial data 512, furniture data 513 placed within the indoor spatial data 512,
It consists of an object 510 containing illumination data 514 by a light source, and the rendering device
The database unit 160, which stores the model house image 500 and the partition data 600, the content loading unit 110, which loads the model house image 500 stored in the database unit 160, and the database unit 160. A partition loading unit 120 that loads the stored partition data 600,
A motion processing unit 130 that receives motion data and loads motion command data matching the motion data from the database unit 160;
A rendering unit 140 that divides the model house image 500 according to the division area data 600 and renders the divided model house image based on the motion command data 700;
It includes a split content transmission unit 150 that transmits the split model house image rendered by the rendering unit 140 to an output device connected to the rendering device,
The content loading unit 110 further includes an object extraction unit 111 that extracts the loaded model house image 500 for each object 510.
Interactive high-quality video system based on real-time parallel rendering
제 1 항에 있어서, 상기 렌더링부(140)는
모델하우스 영상(500) 상의 중심을 원점으로 할 때 분할영역데이터(600)의 좌표로 구성되는 직사각형 영역으로 분할된 모델하우스 영상을 추출하는 화면분할부(141),
모션명령데이터(700)를 기반으로 모델하우스 영상을 렌더링 할 렌더링데이터를 생성하는 모션명령데이터처리부 (142),
상기 렌더링장치가 클라이언트일 경우 모션명령데이터처리부(142)에서 생성된 렌더링데이터를 서버로 전송하고, 렌더링장치가 서버일 경우 모션명령데이터처리부(142)에서 생성된 렌더링데이터 또는 다른 병렬렌더 링장치에서 전송된 렌더링데이터를 나머지 렌더링장치로 전송하는 동기화부(143),
동기화부(143)에 의해 전송된 렌더링데이터를 이용하여 병렬GPU컴퓨팅 방식으로 모델하우스 영상(500)를 렌더 링하는 GPU병렬처리부(143)를 포함하는 것을 특징으로 하는
실시간 병렬 렌더링 기반의 인터랙티브 고품질 영상 시스템.
The method of claim 1, wherein the rendering unit 140
A screen splitter 141 that extracts a model house image divided into rectangular regions composed of the coordinates of the division area data 600 when the center of the model house image 500 is taken as the origin;
A motion command data processing unit (142) that generates rendering data to render a model house image based on the motion command data (700),
If the rendering device is a client, the rendering data generated in the motion command data processing unit 142 is transmitted to the server. If the rendering device is a server, the rendering data generated in the motion command data processing unit 142 or another parallel rendering device is transmitted. A synchronization unit 143 that transmits the transmitted rendering data to the remaining rendering devices,
Characterized by comprising a GPU parallel processing unit 143 that renders the model house image 500 using parallel GPU computing using the rendering data transmitted by the synchronization unit 143.
An interactive, high-quality video system based on real-time parallel rendering.
제 1 항 또는 제 2 항에 있어서, 상기 분할영역데이터(600)는
출력모듈(200)의 중앙에 위치한 출력장치 화면상의 중심점을 원점으로 할 때, 상기 렌더링장치에 연결되는 출력장치 화면상의 모서리 네 점 중 세 점에 대한 3차원 좌표로 구성되는 것을 특징으로 하는
실시간 병렬 렌더링 기반의 인터랙티브 고품질 영상 시스템.
The method of claim 1 or 2, wherein the partition data 600 is
When the center point on the screen of the output device located in the center of the output module 200 is taken as the origin, it is characterized in that it is composed of three-dimensional coordinates for three of the four corners of the screen of the output device connected to the rendering device.
An interactive, high-quality video system based on real-time parallel rendering.
KR1020220081349A 2022-07-01 2022-07-01 Vr-based apartment experience method and system KR20240003584A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220081349A KR20240003584A (en) 2022-07-01 2022-07-01 Vr-based apartment experience method and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220081349A KR20240003584A (en) 2022-07-01 2022-07-01 Vr-based apartment experience method and system

Publications (1)

Publication Number Publication Date
KR20240003584A true KR20240003584A (en) 2024-01-09

Family

ID=89538576

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220081349A KR20240003584A (en) 2022-07-01 2022-07-01 Vr-based apartment experience method and system

Country Status (1)

Country Link
KR (1) KR20240003584A (en)

Similar Documents

Publication Publication Date Title
US9436076B2 (en) Multi-projection system for extending visual element of main image
US20200066026A1 (en) Fusing, texturing, and rendering views of dynamic three-dimensional models
Kulik et al. C1x6: a stereoscopic six-user display for co-located collaboration in shared virtual environments
Raskar et al. Table-top spatially-augmented realty: bringing physical models to life with projected imagery
Underkoffler et al. Emancipated pixels: real-world graphics in the luminous room
CN102693005A (en) Providing an interactive experience using a 3D depth camera and a 3D projector
EP2461587A1 (en) Method and devices for transmitting 3D video information from a server to a client
CN106125491A (en) Many optical projection systems
US10296080B2 (en) Systems and methods to simulate user presence in a real-world three-dimensional space
US20180286130A1 (en) Graphical image augmentation of physical objects
KR20180066702A (en) Interactive high-quality video system based on real-time parallel rendering
CN215494533U (en) 180-degree holographic and L-screen naked eye 3D immersive space
WO2021139456A1 (en) Calculation method and system for dynamic rendering of image having infinite visual boundary
KR20180066704A (en) Cyber model house experience system based on real-time parallel rendering
Debenham et al. Evolutionary augmented reality at the natural history museum
US20210374982A1 (en) Systems and Methods for Illuminating Physical Space with Shadows of Virtual Objects
KR20240003584A (en) Vr-based apartment experience method and system
KR20240003586A (en) Vr image matching method and system
KR20240003585A (en) Vr image matching method and system
Ogi et al. Usage of video avatar technology for immersive communication
JP2022515608A (en) Systems and / or methods for parallax correction in large area transparent touch interfaces
CN210378400U (en) Z-shaped bidirectional phantom theater
Lee et al. Real-time 3D video avatar in mixed reality: An implementation for immersive telecommunication
US20210183127A1 (en) System for performing real-time parallel rendering of motion capture image by using gpu
Schoor et al. Elbe Dom: 360 Degree Full Immersive Laser Projection System.