KR102461478B1 - Clould vr device for reducing object jittering of image - Google Patents

Clould vr device for reducing object jittering of image Download PDF

Info

Publication number
KR102461478B1
KR102461478B1 KR1020210057288A KR20210057288A KR102461478B1 KR 102461478 B1 KR102461478 B1 KR 102461478B1 KR 1020210057288 A KR1020210057288 A KR 1020210057288A KR 20210057288 A KR20210057288 A KR 20210057288A KR 102461478 B1 KR102461478 B1 KR 102461478B1
Authority
KR
South Korea
Prior art keywords
image
cloud
depth information
depth
depth map
Prior art date
Application number
KR1020210057288A
Other languages
Korean (ko)
Inventor
임종혁
조성현
한장희
Original Assignee
(주)이머시브캐스트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)이머시브캐스트 filed Critical (주)이머시브캐스트
Priority to KR1020210057288A priority Critical patent/KR102461478B1/en
Application granted granted Critical
Publication of KR102461478B1 publication Critical patent/KR102461478B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals

Abstract

The present invention relates to a cloud virtual reality (VR) device for reducing an object jittering in an image. The device comprises: a depth map generation unit which generates a depth map with respect to an image rendered in a cloud VR server; a depth information transmission processing unit which allocates and transmits an RGB value of a rendered color to an RGB channel part and the generated depth map information to an alpha (A) channel part when transmitting the rendered image, in an RGBA format, to a client VR terminal; a depth information reception processing unit which receives the image transmitted in the RGBA format and performs decoding in the client VR terminal; and a screen jittering correction unit which calculates the amount of movement of a pixel using a difference from depth information of a previous frame based on the decoded depth map information and corrects a jittering. According to the present invention, the device can reduce an object jittering occurring in an image by using depth information.

Description

이미지 내의 객체 떨림 감소를 위한 클라우드 VR 장치{CLOULD VR DEVICE FOR REDUCING OBJECT JITTERING OF IMAGE}CLOUD VR DEVICE FOR REDUCING OBJECT JITTERING OF IMAGE

본 발명은 클라우드 VR 기술에 관한 것으로, 보다 상세하게는 이미지 전송 시 알파 채널을 통해 깊이(Depth) 정보를 함께 전송하여 수신된 깊이 정보에 의해 이미지 내의 객체 떨림을 감소시킬 수 있는 이미지 내의 객체 떨림 감소를 위한 클라우드 VR 장치에 관한 것이다.The present invention relates to cloud VR technology, and more particularly, to reduce object shake in an image, which can reduce object shake in an image by the received depth information by transmitting depth information together through an alpha channel during image transmission It relates to a cloud VR device for

최근 가상현실(Virtual Reality, VR) 기기가 출현하고 있으나, 비싼 가격, 몰입감을 방해하는 저해상도, VR 컨텐츠 부족 등의 문제로 인해 스마트폰처럼 널리 보급되고 있지 않다.Although virtual reality (VR) devices have recently appeared, they are not as widely distributed as smartphones due to problems such as high prices, low resolutions that hinder immersion, and lack of VR content.

특히, 클라우드(Clould) 환경에서 레이턴시(Latency)와 지터(Jitter)에 의한 헤드 방향(Head Orientation)을 보정하더라도, 컨트롤러(Controller) 또는 기타 객체(Object)들이 움직일 경우 떨림이 발생할 수 있고, 이러한 떨림 현상은 게임(Game) 또는 어플리케이션(Application)의 렌더링(Rendering) 항목 중 GUI(Graphical User Interface)와 HUD(Head Up Display) 등과 같은 사용자 시선과 연동되어 같이 움직이면서 사용자와 가까운 거리에 표시되는 항목들에 잘 나타나기 때문에 필수적으로 해결되어야 하는 문제일 수 있다.In particular, even if the head orientation due to latency and jitter is corrected in the cloud environment, vibration may occur when the controller or other objects move. The phenomenon is related to the items displayed at a close distance to the user while moving in conjunction with the user's gaze such as GUI (Graphical User Interface) and HUD (Head Up Display) among the rendering items of the game or application. Because it appears so well, it may be a problem that needs to be addressed.

한국등록특허 제10-2166158(2020.10.08)호Korean Patent Registration No. 10-2166158 (10.08.2020)

본 발명의 일 실시예는 이미지 전송 시 알파 채널을 통해 깊이(Depth) 정보를 함께 전송하여 수신된 깊이 정보에 의해 이미지 내의 객체 떨림을 감소시킬 수 있는 이미지 내의 객체 떨림 감소를 위한 클라우드 VR 장치를 제공하고자 한다.An embodiment of the present invention provides a cloud VR device for reducing object shake in an image, which can reduce object shake in an image by transmitting depth information through an alpha channel together with the received depth information when transmitting an image want to

본 발명의 일 실시예는 클라우드 VR 서버에서 렌더링 시점에 깊이맵(Depth map)을 생성하여 클라이언트 VR 단말에 렌더링된 RGB 이미지를 전송시 알파채널 부분에 깊이정보를 할당하여 전송할 수 있는 이미지 내의 객체 떨림 감소를 위한 클라우드 VR 장치를 제공하고자 한다.An embodiment of the present invention generates a depth map at the rendering time in the cloud VR server and transmits the rendered RGB image to the client VR terminal by allocating depth information to the alpha channel part to transmit object tremor in the image It is intended to provide a cloud VR device for reduction.

본 발명의 일 실시예는 스케일 팩터(Scale Factor)를 적용하여 렌더링된 이미지에 표현될 거리값 범위를 지정하고 적용된 스케일 팩터를 메타 데이터로 전송하여 공유할 수 있는 이미지 내의 객체 떨림 감소를 위한 클라우드 VR 장치를 제공하고자 한다.An embodiment of the present invention is a cloud VR for reducing object shake in an image that can be shared by applying a scale factor to specify a distance value range to be expressed in a rendered image, and transmitting the applied scale factor as metadata. We want to provide a device.

실시예들 중에서, 이미지 내의 객체 떨림 감소를 위한 클라우드 VR 장치는 클라우드 VR(Virtual Reality) 서버에서 렌더링되는 이미지에 대해 깊이맵을 생성하는 깊이맵 생성부, 상기 렌더링된 이미지를 RGBA 형식으로 클라이언트 VR 단말로 전송시 RGB 채널 부분에 렌더링된 색상의 RGB 값을 할당하고 알파(A) 채널 부분에 상기 생성된 깊이맵 정보를 할당하여 전송되게 처리하는 깊이정보 전송 처리부, 상기 RGBA 형식으로 전송되는 이미지를 수신하고 상기 클라이언트 VR 단말에서 디코딩을 수행하는 깊이정보 수신 처리부, 및 상기 디코딩된 깊이맵 정보를 기초로 이전 프레임의 깊이 정보와의 차를 이용하여 픽셀의 이동량을 구하여 떨림을 보정하는 화면 떨림 보정부를 포함한다.In embodiments, the cloud VR device for reducing object vibration in an image includes a depth map generator that generates a depth map for an image rendered in a cloud VR (Virtual Reality) server, and a client VR terminal that converts the rendered image into RGBA format. Depth information transmission processing unit for allocating RGB values of the rendered color to the RGB channel part and allocating the generated depth map information to the alpha (A) channel part to transmit the image, receiving the image transmitted in the RGBA format and a depth information reception processing unit for decoding in the client VR terminal, and a screen shake correction unit for correcting the shake by calculating the movement amount of the pixel using the difference from the depth information of the previous frame based on the decoded depth map information do.

상기 깊이맵 생성부는 상기 렌더링에 사용되는 소스 데이터에 포함되는 각 프레임의 픽셀 별 깊이 정보로 상기 깊이맵을 생성할 수 있다.The depth map generator may generate the depth map with depth information for each pixel of each frame included in the source data used for the rendering.

상기 깊이정보 전송 처리부는 상기 생성된 깊이맵 정보에 스케일 팩터를 적용하여 상기 렌더링된 이미지에 표현될 원근 거리값 범위를 지정할 수 있다.The depth information transmission processor may apply a scale factor to the generated depth map information to designate a range of perspective distance values to be expressed in the rendered image.

상기 깊이정보 전송 처리부는 상기 스케일 팩터를 메타 데이터에 포함시켜 상기 RGBA 이미지 전송시 함께 전송하여 공유되도록 할 수 있다.The depth information transmission processing unit may include the scale factor in the meta data to transmit and share the RGBA image when transmitting the RGBA image.

상기 깊이정보 수신 처리부는 상기 클라이언트 VR 단말을 통해 수신되는 RGBA 형식의 이미지에서 알파 채널 부분에 포함된 깊이맵 정보에 대해 상기 메타 데이터에 포함된 스케일 팩터의 역을 적용하여 복원할 수 있다.The depth information reception processing unit may restore the depth map information included in the alpha channel portion of the RGBA format image received through the client VR terminal by applying the inverse of the scale factor included in the metadata.

상기 화면 떨림 보정부는 상기 픽셀의 이동량이 특정 기준 이상인 경우에는 깊이 정보를 조정하고 조정된 깊이 정보 및 사용자의 헤드 움직임을 반영하여 렌더링 하여 화면 떨림을 보정할 수 있다.When the movement amount of the pixel is equal to or greater than a specific reference, the screen shake correcting unit may correct the screen shake by adjusting the depth information and rendering the adjusted depth information and the user's head movement.

개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.The disclosed technology may have the following effects. However, this does not mean that a specific embodiment should include all of the following effects or only the following effects, so the scope of the disclosed technology should not be construed as being limited thereby.

본 발명의 일 실시예에 따른 이미지 내의 객체 떨림 감소를 위한 클라우드 VR 장치는 이미지 전송 시 알파 채널을 통해 깊이(Depth) 정보를 함께 전송하여 수신된 깊이 정보에 의해 이미지 내의 객체 떨림을 감소시킬 수 있다.The cloud VR device for reducing object shake in an image according to an embodiment of the present invention transmits depth information together through an alpha channel when transmitting the image, so that object shake in the image can be reduced by the received depth information. .

본 발명의 일 실시예에 따른 이미지 내의 객체 떨림 감소를 위한 클라우드 VR 장치는 클라우드 VR 서버에서 렌더링 시점에 깊이맵(Depth map)을 생성하여 클라이언트 VR 단말에 렌더링된 RGB 이미지를 전송시 알파채널 부분에 깊이정보를 할당하여 전송할 수 있다.The cloud VR device for reducing object shake in an image according to an embodiment of the present invention generates a depth map at the rendering time in the cloud VR server and transmits the rendered RGB image to the client VR terminal in the alpha channel part. Depth information can be allocated and transmitted.

본 발명의 일 실시예에 따른 이미지 내의 객체 떨림 감소를 위한 클라우드 VR 장치는 스케일 팩터(Scale Factor)를 적용하여 렌더링된 이미지에 표현될 거리값 범위를 지정하고 적용된 스케일 팩터를 메타 데이터로 전송하여 공유할 수 있다.A cloud VR device for reducing object shake in an image according to an embodiment of the present invention specifies a range of distance values to be expressed in a rendered image by applying a scale factor, and transmits and shares the applied scale factor as metadata can do.

도 1은 본 발명에 따른 클라우드 VR 시스템을 설명하는 도면이다.
도 2는 본 발명에 따른 클라우드 VR 장치의 기능적 구성을 설명하는 도면이다.
도 3은 본 발명에 따른 깊이 정보 송수신 및 화면 떨림 보정 과정을 설명하는 순서도이다.
도 4는 일 실시예에 따른 깊이 정보에 스케일 팩터를 적용한 경우를 나타내는 예시도이다.
도 5는 본 발명에 따른 깊이 정보 송수신 처리를 설명하는 도면이다.
1 is a view for explaining a cloud VR system according to the present invention.
2 is a view for explaining a functional configuration of a cloud VR device according to the present invention.
3 is a flowchart illustrating a process for transmitting and receiving depth information and correcting screen shake according to the present invention.
4 is an exemplary diagram illustrating a case in which a scale factor is applied to depth information according to an embodiment.
5 is a diagram for explaining depth information transmission/reception processing according to the present invention.

본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.Since the description of the present invention is merely an embodiment for structural or functional description, the scope of the present invention should not be construed as being limited by the embodiment described in the text. That is, since the embodiment is capable of various changes and may have various forms, it should be understood that the scope of the present invention includes equivalents capable of realizing the technical idea. In addition, since the object or effect presented in the present invention does not mean that a specific embodiment should include all of them or only such effects, it should not be understood that the scope of the present invention is limited thereby.

한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.On the other hand, the meaning of the terms described in the present application should be understood as follows.

"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as “first” and “second” are for distinguishing one component from another, and the scope of rights should not be limited by these terms. For example, a first component may be termed a second component, and similarly, a second component may also be termed a first component.

어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being “connected” to another component, it may be directly connected to the other component, but it should be understood that other components may exist in between. On the other hand, when it is mentioned that a certain element is "directly connected" to another element, it should be understood that the other element does not exist in the middle. On the other hand, other expressions describing the relationship between elements, that is, "between" and "between" or "neighboring to" and "directly adjacent to", etc., should be interpreted similarly.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The singular expression is to be understood to include the plural expression unless the context clearly dictates otherwise, and terms such as "comprises" or "have" refer to the embodied feature, number, step, action, component, part or these It is intended to indicate that a combination exists, and it should be understood that it does not preclude the possibility of the existence or addition of one or more other features or numbers, steps, operations, components, parts, or combinations thereof.

각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.Identifiers (eg, a, b, c, etc.) in each step are used for convenience of description, and the identification code does not describe the order of each step, and each step clearly indicates a specific order in context. Unless otherwise specified, it may occur in a different order from the specified order. That is, each step may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.

본 발명은 컴퓨터가 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있고, 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can be embodied as computer-readable codes on a computer-readable recording medium, and the computer-readable recording medium includes all types of recording devices in which data readable by a computer system is stored. . Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like. In addition, the computer-readable recording medium may be distributed in a network-connected computer system, and the computer-readable code may be stored and executed in a distributed manner.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined. Terms defined in the dictionary should be interpreted as being consistent with the meaning of the context of the related art, and cannot be interpreted as having an ideal or excessively formal meaning unless explicitly defined in the present application.

도 1은 본 발명에 따른 클라우드 VR 시스템을 설명하는 도면이다.1 is a view for explaining a cloud VR system according to the present invention.

도 1을 참조하면, 클라우드 VR 시스템(100)은 클라이언트 VR 단말(110) 및 클라우드 VR 서버/PC(130)를 포함할 수 있다.Referring to FIG. 1 , the cloud VR system 100 may include a client VR terminal 110 and a cloud VR server/PC 130 .

클라이언트 VR 단말(110)은 AR/VR 영상을 재생할 수 있는 사용자 단말에 해당할 수 있다. 예를 들어, 클라이언트 VR 단말(110)은 대표적으로 HMD, VR/AR 글래스 등으로 구현될 수 있으나, 반드시 이에 한정되지 않고, AR/VR 영상을 재생할 수 있는 다양한 디바이스로 구현될 수 있다. 클라이언트 VR 단말(110)은 클라우드 VR 서버/PC(130)와 네트워크를 통해 연결되어 데이터를 주고 받을 수 있다.The client VR terminal 110 may correspond to a user terminal capable of playing AR/VR images. For example, the client VR terminal 110 may be typically implemented with an HMD, VR/AR glasses, etc., but is not limited thereto, and may be implemented with various devices capable of reproducing AR/VR images. The client VR terminal 110 may be connected to the cloud VR server/PC 130 through a network to exchange data.

일 실시예에서, 클라이언트 VR 단말(110)은 본 발명에 따른 클라우드 VR 장치를 포함하여 구현될 수 있다. 이 경우, 본 발명에 따른 클라우드 VR 장치는 클라이언트 VR 단말(110) 상에서 실행되는 전용 어플리케이션에 해당할 수 있다. 즉, 본 발명에 따른 클라우드 VR 장치는 소정의 기능을 수행하는 독립된 모듈로서 클라이언트 VR 단말(110)에 포함되어 구현될 수 있으며, 클라우드 VR 서버/PC(130)와 상호 연동하여 본 발명에 따른 이미지 내의 객체 떨림 감소를 위한 구체적 동작을 수행할 수 있다. In one embodiment, the client VR terminal 110 may be implemented including the cloud VR device according to the present invention. In this case, the cloud VR device according to the present invention may correspond to a dedicated application executed on the client VR terminal 110 . That is, the cloud VR device according to the present invention may be implemented by being included in the client VR terminal 110 as an independent module that performs a predetermined function, and interworking with the cloud VR server/PC 130 to interwork with the image according to the present invention. It is possible to perform a specific operation for reducing the vibration of an object within.

또한, 본 발명에 따른 클라우드 VR 장치가 클라이언트 VR 단말(110)에 포함되어 구현되는 경우, 일부 동작은 클라우드 VR 서버/PC(130)에 포함되어 구현될 수도 있다. 예를 들어, 비디오 영상을 인코딩하는 동작은 클라우드 VR 서버/PC(130)에서 수행될 수 있으며, 클라이언트 VR 단말(110)은 클라우드 VR 서버/PC(130)에 의해 인코딩된 비디오 영상을 수신하여 재생하는 동작을 수행할 수 있다. In addition, when the cloud VR device according to the present invention is implemented by being included in the client VR terminal 110 , some operations may be implemented by being included in the cloud VR server/PC 130 . For example, the operation of encoding the video image may be performed in the cloud VR server/PC 130 , and the client VR terminal 110 receives and plays the video image encoded by the cloud VR server/PC 130 . action can be performed.

일 실시예에서, 클라이언트 VR 단말(110)은 클라우드 VR 서버/PC(130)로부터 인코딩된 비디오 영상을 수신하고 디코딩한 후 영상을 재생할 수 있다. 특히, 클라이언트 VR 단말(110)은 RGBA 형식으로 전송되는 이미지를 수신하고 알파부분에 할당된 깊이 정보를 통해 화면 떨림을 보정할 수 있다.In an embodiment, the client VR terminal 110 may receive and decode the encoded video image from the cloud VR server/PC 130 and then play the image. In particular, the client VR terminal 110 may receive an image transmitted in RGBA format and correct screen shake through depth information allocated to the alpha part.

클라우드 VR 서버/PC(130)는 클라이언트 VR 단말(110)에서 재생되는 AR/VR 영상을 생성하여 네트워크를 통해 전송하는 컴퓨터 또는 프로그램에 해당하는 서버로 구현될 수 있다. 클라우드 VR 서버/PC(130)는 클라이언트 VR 단말(110)과 블루투스, WiFi, 5G 통신 등과 같은 무선 네트워크로 연결될 수 있고, 네트워크를 통해 클라이언트 VR 단말(110)와 데이터를 송·수신할 수 있다.The cloud VR server/PC 130 may be implemented as a server corresponding to a computer or program that generates an AR/VR image reproduced in the client VR terminal 110 and transmits it through a network. The cloud VR server/PC 130 may be connected to the client VR terminal 110 through a wireless network such as Bluetooth, WiFi, 5G communication, etc., and may transmit/receive data to and from the client VR terminal 110 through the network.

또한, 클라우드 VR 서버/PC(130)는 영상 렌더링(Rendering)을 수행할 수 있고, 이때 해당 영상에 대해 깊이맵(Depth map)을 생성할 수 있다. 이후, 클라우드 VR 서버/PC(130)는 스크린 캡쳐(Screen Capture), 비디오 인코딩(encoding)을 수행할 수 있다. 클라우드 VR 서버/PC(130)는 생성된 영상(Video)을 클라이언트 VR 단말(110)로 무선 네트워크를 통해 전송할 수 있다. 이때, 클라우드 VR 서버/PC(130)는 생성된 깊이맵에 담긴 깊이 정보를 RGBA 전송 형식 중 알파 부분에 할당하여 함께 전송할 수 있다. 무선 네트워크는 LTE, 5G, WiFi 등을 포함할 수 있다. 클라우드 VR 서버/PC(130)는 클라이언트 VR 단말(110)과 연동하여 동작하는 리모트 어플리케이션(Remote Application)을 설치하여 실행할 수 있다.In addition, the cloud VR server/PC 130 may perform image rendering, and in this case, may generate a depth map for the corresponding image. Thereafter, the cloud VR server/PC 130 may perform screen capture and video encoding. The cloud VR server/PC 130 may transmit the generated video to the client VR terminal 110 through a wireless network. In this case, the cloud VR server/PC 130 may transmit the depth information contained in the generated depth map to the alpha part of the RGBA transmission format and transmit it together. The wireless network may include LTE, 5G, WiFi, and the like. The cloud VR server/PC 130 may install and execute a remote application that operates in conjunction with the client VR terminal 110 .

도 2는 본 발명에 따른 클라우드 VR 장치의 기능적 구성을 설명하는 도면이다.2 is a view for explaining a functional configuration of a cloud VR device according to the present invention.

도 2를 참조하면, 클라우드 VR 장치(200)는 깊이맵 생성부(210), 깊이정보 전송 처리부(230), 깊이정보 수신 처리부(250), 화면 떨림 보정부(270) 및 제어부(290)를 포함할 수 있다. 일 실시예에서, 클라우드 VR 장치(200)를 구성하는 각 기능적 구성들은 클라이언트 VR 단말(110) 또는 클라우드 VR 서버/PC(130)에 포함되어 구현될 수 있으며, 클라이언트 VR 단말(110)과 클라우드 VR 서버/PC(130) 간의 연동에 의해 유기적으로 결합될 수 있다.Referring to FIG. 2 , the cloud VR device 200 includes a depth map generation unit 210 , a depth information transmission processing unit 230 , a depth information reception processing unit 250 , a screen shake correcting unit 270 , and a control unit 290 . may include In an embodiment, each functional component constituting the cloud VR device 200 may be implemented by being included in the client VR terminal 110 or the cloud VR server/PC 130 , and the client VR terminal 110 and the cloud VR It may be organically coupled by interworking between the server/PC 130 .

깊이맵 생성부(210)는 클라우드 VR 서버(130)에서 렌더링 시점에 생성될 수 있다. The depth map generator 210 may be generated at a rendering time in the cloud VR server 130 .

렌더링(rendering)은 렌더링 프로그램을 사용하여 모델(장면 데이터)로부터 영상을 만드는 과정을 의미한다. 장면 데이터(scene data)는 가상의 장면을 표현하는 객체의 배열, 시점, 텍스처 매핑, 조명, 셰이딩(shading) 등을 포함할 수 있다. 렌더링은 모델 데이터를 2D 화면상의 이미지 데이터로 변환하는 과정이다. 렌더링은 시간과 자원이 매우 많이 소요되는 과정이기 때문에 처리 성능이 우수한 클라우드 VR 서버(130)에서 렌더링을 하고 렌더링이 완료된 2D 이미지가 클라이언트 VR 단말(110)에 전송된다.Rendering refers to the process of creating an image from a model (scene data) using a rendering program. Scene data may include an arrangement of objects representing a virtual scene, viewpoints, texture mapping, lighting, shading, and the like. Rendering is the process of converting model data into image data on a 2D screen. Because rendering is a process that takes a lot of time and resources, the cloud VR server 130 with excellent processing performance renders and the 2D image that has been rendered is transmitted to the client VR terminal 110 .

일 실시예에서, 깊이맵 생성부(210)는 클라우드 VR 서버(130)를 통해 해당 영상에 관한 렌더링 과정에서 렌더링에 사용되는 소스 데이터에 포함되는 깊이 정보로 깊이맵을 생성할 수 있다. 깊이맵(depth map)은 3차원 컴퓨터 그래픽스에서 관찰 시점(viewpoint)으로부터 물체(객체) 표면과의 거리와 관련된 정보가 담긴 하나의 이미지를 해당할 수 있다. 깊이맵 생성부(210)는 렌더링되는 영상의 각 프레임 내에 존재하는 각각의 픽셀 별 깊이 정보로 깊이맵을 생성할 수 있다. 깊이맵 생성부(210)에 의해 생성된 깊이 이미지는 3D 공간상에 위치하는 객체와 그 객체를 촬영하는 카메라 사이의 거리를 흑백의 단위로 나타내는 이미지이다. In an embodiment, the depth map generator 210 may generate a depth map with depth information included in source data used for rendering in a rendering process for a corresponding image through the cloud VR server 130 . A depth map may correspond to one image containing information related to a distance from an observation viewpoint to an object (object) surface in 3D computer graphics. The depth map generator 210 may generate a depth map using depth information for each pixel existing in each frame of a rendered image. The depth image generated by the depth map generator 210 is an image representing a distance between an object located in a 3D space and a camera photographing the object in units of black and white.

깊이정보 전송 처리부(230)는 클라우드 VR 서버(130)에서 렌더링된 2D 이미지를 RGBA 형식으로 클라이언트 VR 단말(110)로 전송시 RGB 채널 부분에는 렌더링된 색상의 RGB 값을 할당하고 알파 채널 부분에는 깊이맵 정보를 할당하여 전송되게 처리할 수 있다. 일 실시예에서, 깊이정보 전송 처리부(230)는 전송되는 이미지 형식인 RGBA에서 알파 부분은 사용되지 않으므로 알파 부분에 깊이맵 정보를 포함시켜서 전송할 수 있다. 영상은 다양한 방식으로 표현될 수 있다. 대표적으로, 영상은 RGB 채널로 표현될 수 있다. RGB 채널은 색상을 표현한다. 알파 채널은 각 화소에서 색상 표현 데이터와는 다른 보조 데이터를 의미할 수 있다. 여기에서, 깊이정보 전송 처리부(230)는 RGBA 채널 방식으로 이미지를 전송할 때 RGB 이미지에 관한 깊이 이미지를 알파 채널에 포함시켜서 함께 전송되도록 할 수 있다. When transmitting the 2D image rendered by the cloud VR server 130 to the client VR terminal 110 in RGBA format, the depth information transmission processing unit 230 allocates the RGB value of the rendered color to the RGB channel part and the depth to the alpha channel part. It can be processed to be transmitted by allocating map information. In an embodiment, the depth information transmission processing unit 230 may transmit depth map information by including the depth map information in the alpha part because the alpha part is not used in RGBA, which is a transmitted image format. An image may be expressed in various ways. Typically, an image may be expressed as an RGB channel. RGB channels represent colors. The alpha channel may mean auxiliary data different from color expression data in each pixel. Here, when the depth information transmission processing unit 230 transmits the image using the RGBA channel method, the depth image related to the RGB image may be included in the alpha channel to be transmitted together.

깊이정보 전송 처리부(230)는 깊이를 적용하는 데이터의 크기가 1바이트로, 표현할 수 있는 값은 0~255가 될 수 있다. 이때, 깊이정보 전송 처리부(230)는 스케일 팩터(Scale Factor)를 적용하여 이미지의 원근 범위를 균일 또는 차등 지정할 수 있다. 일 실시예에서, 깊이정보 전송 처리부(230)는 스케일 팩터를 “1”로 적용할 경우 렌더링된 이미지에 표현될 근거리에서 원거리까지의 구간을 256개로 균등하게 나누어 0에서 255의 값으로 깊이 정보를 표현할 수 있다. 깊이정보 전송 처리부(230)는 스케일 팩터를 “100”으로 적용할 경우 0에서 25500의 값으로 깊이 정보를 표현하여 이미지 전체의 해상도를 높일 수 있다. 여기에서, 깊이정보 전송 처리부(230)는 원거리와 근거리에 따라 스케일 팩터를 달리 적용하여 원거리 값에 비해 상대적으로 근거리 값의 범위를 세분화하여 근거리 이미지를 고해상도로 높일 수 있다. 깊이정보 전송 처리부(230)는 상수함수, 지수함수, 로그함수 등을 이용하여 스케일 팩터를 만들어 적용할 수 있다. In the depth information transmission processing unit 230, the size of data to which the depth is applied is 1 byte, and a value that can be expressed may be 0 to 255. In this case, the depth information transmission processing unit 230 may apply a scale factor to uniformly or differentially designate the perspective range of the image. In an embodiment, the depth information transmission processing unit 230 divides the section from near to far to be expressed in the rendered image equally into 256 when the scale factor is applied as “1” and divides the depth information into values of 0 to 255. can be expressed When the scale factor is applied as “100”, the depth information transmission processing unit 230 may express depth information in a value of 0 to 25500 to increase the resolution of the entire image. Here, the depth information transmission processing unit 230 may increase the short-range image to a high resolution by subdividing the range of the short-range value relative to the far-field value by applying a different scale factor according to the long-distance and the short-distance. The depth information transmission processing unit 230 may create and apply a scale factor using a constant function, an exponential function, a log function, and the like.

깊이정보 전송 처리부(230)는 깊이정보에 적용된 스케일 팩터를 메타데이터로 포함시켜 RGBA 이미지 전송시 함께 전송하여 공유되도록 처리할 수 있다.The depth information transmission processing unit 230 may include the scale factor applied to the depth information as metadata and transmit and share the RGBA image when transmitting the same.

깊이정보 수신 처리부(250)는 클라우드 VR 서버(130)로부터 RGBA 형식으로 전송되는 이미지를 수신하고 클라이언트 VR 단말(110)을 통해 디코딩할 수 있다. 깊이정보 수신 처리부(250)는 클라이언트 VR 단말(110)을 통해 수신되는 RGBA 형식의 이미지를 디코딩한 후 알파 채널에 포함된 깊이 정보에 대해 메타데이터에 포함된 스케일 팩터의 역을 적용하여 깊이 정보를 복원 처리할 수 있다.The depth information reception processing unit 250 may receive an image transmitted in RGBA format from the cloud VR server 130 and decode it through the client VR terminal 110 . The depth information reception processing unit 250 decodes the RGBA format image received through the client VR terminal 110 and applies the inverse of the scale factor included in the metadata to the depth information included in the alpha channel to receive the depth information. restoration can be processed.

화면 떨림 보정부(270)는 디코딩된 영상을 재생하는 과정에서 깊이 정보에 기초하여 이전 프레임의 깊이 정보와의 차이를 계산하여 픽셀의 이동량을 구한 후 픽셀의 이동량이 특정 기준 이상인 경우에는 깊이 정보를 조정하여 조정된 깊이 정보로 렌더링 하여 화면 떨림을 보정할 수 있다. 화면 떨림 보정부(270)는 디코딩 과정에서 사용자 헤드의 실제 방향과 예측 방향 간의 차이가 기 설정된 특정 기준 이상인 경우 실제 방향을 기준으로 비디오 영상에 대한 캔버스 렌더링 과정에서 보정을 수행하여 떨림 현상을 감소시킬 수 있다. 화면 떨림 보정부(270)는 실제 방향을 기준으로 비디오 영상에 관한 캔버스 렌더링 과정에서 떨림 보정을 수행할 수 있으며, 포비티드 렌더링 과정에서 고해상도로 렌더링되는 영역의 크기는 예측 방향과 실제 방향 간의 차이를 기초로 동적으로 결정될 수 있다. 화면 떨림 보정부(270)는 깊이 정보와 사용자의 헤드 움직임에 따라 화면 떨림의 보정을 수행하여 이미지 내의 객체 특히, 사용자와 가까운 거리에 표시되는 GUI와 HUD 항목들에 대해 떨림현상을 감소시킬 수 있다.The screen shake correcting unit 270 calculates the difference from the depth information of the previous frame based on the depth information in the process of reproducing the decoded image to obtain the movement amount of the pixel, and then returns the depth information when the movement amount of the pixel is greater than or equal to a specific standard. By adjusting it, it is possible to compensate for screen shake by rendering with the adjusted depth information. When the difference between the actual direction and the predicted direction of the user's head in the decoding process is greater than or equal to a preset specific standard, the screen shake correcting unit 270 performs correction in the canvas rendering process for the video image based on the actual direction to reduce the shake. can The screen shake correcting unit 270 may perform shake compensation during the canvas rendering process on the video image based on the actual direction, and the size of the region rendered at high resolution in the foveated rendering process may be determined by determining the difference between the predicted direction and the actual direction. It can be determined dynamically based on The screen shake correcting unit 270 may reduce shake for objects in an image, particularly GUI and HUD items displayed at a close distance to the user, by performing screen shake correction according to depth information and the user's head movement. .

제어부(290)는 클라우드 VR 장치(200)의 전체적인 동작을 제어하고, 깊이맵 생성부(210), 깊이정보 전송 처리부(230), 깊이정보 수신 처리부(250) 및 화면 떨림 보정부(270) 간의 제어 흐름 또는 데이터 흐름을 관리할 수 있다.The controller 290 controls the overall operation of the cloud VR device 200 , and operates between the depth map generation unit 210 , the depth information transmission processing unit 230 , the depth information reception processing unit 250 , and the screen shake correcting unit 270 . It can manage control flow or data flow.

도 3은 본 발명에 따른 깊이 정보 전송 및 화면 떨림 보정 과정을 설명하는 순서도이다.3 is a flowchart illustrating a process of transmitting depth information and correcting screen shake according to the present invention.

도 3을 참조하면, 클라우드 VR 장치(200)는 깊이맵 생성부(210)를 통해 클라우드 VR 서버(130)에서 렌더링 시점에 깊이맵(Depth map)을 생성할 수 있다(단계 S310). 클라우드 VR 장치(200)는 깊이정보 전송 처리부(230)를 통해 생성된 깊이맵 정보에 스케일팩터를 적용하여 이미지의 원근 거리값 범위를 지정한 후 클라이언트 VR 단말(110)에 RGBA 형식으로 전송시 RGB 채널 부분에 렌더링된 색상의 RGB 값을 입력하고 알파(A) 채널 부분에 깊이맵 정보를 할당하여 전송할 수 있다(단계 S330 및 S350).Referring to FIG. 3 , the cloud VR device 200 may generate a depth map at a rendering time in the cloud VR server 130 through the depth map generator 210 (step S310 ). The cloud VR device 200 applies a scale factor to the depth map information generated through the depth information transmission processing unit 230 to designate a range of perspective distance values of the image, and then transmits the RGB channel to the client VR terminal 110 in RGBA format. It is possible to input the RGB value of the rendered color to the part, allocate depth map information to the alpha (A) channel part, and transmit it (steps S330 and S350).

또한, 클라우드 VR 장치(200)는 깊이정보 수신 처리부(250)를 통해 클라이언트 VR 단말(110)에서 수신되는 RGBA 형식의 이미지를 디코딩할 수 있다(단계 S350). 클라우드 VR 장치(200)는 화면 떨림 보정부(270)를 통해 디코딩된 깊이 정보를 기초로 이전 프레임의 깊이 정보와의 차를 이용하여 픽셀의 이동량을 구하여 떨림을 보정할 수 있다(단계 S390).In addition, the cloud VR device 200 may decode the RGBA format image received from the client VR terminal 110 through the depth information reception processing unit 250 (step S350 ). The cloud VR device 200 may correct the shake by calculating the movement amount of the pixel by using the difference from the depth information of the previous frame based on the depth information decoded through the screen shake correcting unit 270 (step S390).

도 4는 일 실시예에 따른 깊이 정보에 스케일 팩터를 적용한 경우를 나타내는 예시도이다.4 is an exemplary diagram illustrating a case in which a scale factor is applied to depth information according to an embodiment.

도 4를 참조하면, 클라우드 VR 시스템(100)은 깊이 정보의 송수신을 통해 클라우드 VR 서버(130)와 클라이언트 VR 단말(110) 간의 레이턴시 및 지터 등으로 인해 발생할 수 있는 이미지 내의 객체들의 떨림 현상을 감소시킬 수 있다. 이때, 깊이 정보는 클라우드 VR 서버(130)의 렌더링 과정에서 생성될 수 있고, 스케일 팩터를 적용하여 깊이 범위를 지정할 수 있다. 깊이 정보는 크기에 따라 값의 범위가 정해질 수 있는 데 크기가 1바이트인 경우 0~255의 깊이 값 범위로 정해질 수 있다.Referring to FIG. 4 , the cloud VR system 100 reduces tremor of objects in an image that may occur due to latency and jitter between the cloud VR server 130 and the client VR terminal 110 through transmission and reception of depth information. can do it In this case, the depth information may be generated during the rendering process of the cloud VR server 130 , and a depth range may be designated by applying a scale factor. The depth information may have a range of values depending on the size. When the size is 1 byte, the depth value range may be 0 to 255.

도 4의 경우, 깊이 값은 사용자 시점에서 거리에 따라 근거리 및 원거리 값으로 구성될 수 있다. 여기에서, near는 렌더링된 이미지에 표현될 가장 가까운 거리값에 해당하고, far는 렌더링된 이미지에 표현될 가장 먼 거리값에 해당한다. 깊이 정보에 스케일 팩터를 적용하여 이미지에 표현될 근거리 및 원거리 범위를 균등 또는 차등 지정할 수 있다. 스케일 팩터가 “1”인 경우에는 “128”을 중간값으로 하여 near는 “0”의 값이 되고 far는 “255”의 값이 될 수 있다. 스케일 팩터가 “2”인 경우에는 “255”를 중간값으로 하여 near는 “0”의 값이 되고 far는 “511”의 값이 될 수 있다. 또한, 스케일 팩터를 함수 적용하여 근거리 구간에서는 고해상도 레벨로 지정하고 원거리 구간에서는 저해상도 레벨로 지정하여 거리값을 표현할 수 있다.In the case of FIG. 4 , the depth value may be configured as a near-field value and a far-field value according to the distance from the user's point of view. Here, near corresponds to the closest distance value to be expressed in the rendered image, and far corresponds to the furthest distance value to be expressed in the rendered image. By applying a scale factor to the depth information, the near and far ranges to be expressed in the image can be equally or differentially specified. When the scale factor is “1”, with “128” as an intermediate value, near becomes “0” and far becomes “255”. When the scale factor is “2”, with “255” as an intermediate value, near becomes a value of “0” and far becomes a value of “511”. In addition, by applying a scale factor as a function, the distance value can be expressed by designating the high-resolution level in the near section and the low-resolution level in the far section.

도 5는 본 발명에 따른 깊이 정보 송수신 처리를 설명하는 도면이다.5 is a diagram for explaining depth information transmission/reception processing according to the present invention.

클라우드 VR 서버는 CPU, 그래픽 카드 등의 성능이 클라이언트 VR 단말 대비 우수하기 때문에 기본적으로 클라우드 VR 시스템에서는 클라우드 VR 서버에서 화면에 표시할 모든 내용을 렌더링(Rendering)한 후 결과 이미지를 네트워크를 통해 클라이언트 VR 단말로 전송하고, 클라이언트 VR 단말에서는 수신된 결과 이미지 만을 화면에 표시하게 된다. 이때, 네트워크 상의 레이턴시(Latency), 지터(Jitter) 등에 의해 클라이언트 VR 단말의 화면 상에 표시되는 객체의 떨림 현상이 발생할 수 있다. 특히, 근거리 객체일수록 떨림 현상이 커지게 된다.Since the cloud VR server has superior CPU and graphic card performance compared to the client VR terminal, basically, the cloud VR system renders all the content to be displayed on the screen in the cloud VR server and then sends the resulting image to the client VR through the network. It is transmitted to the terminal, and only the received result image is displayed on the screen in the client VR terminal. In this case, the shaking phenomenon of the object displayed on the screen of the client VR terminal may occur due to latency, jitter, etc. on the network. In particular, the closer the object, the greater the tremor.

일 실시예에 따른 클라우드 VR 시스템(100)에서는 클라우드 VR 서버(130)를 통해 렌더링한 후 렌더링 결과를 메타 데이터와 함께 네트워크를 통해 클라이언트 VR 단말(110)로 전송할 수 있다. 이때, 클라우드 VR 서버(130)에서는 렌더링된 2D 이미지의 색상의 RGB 값을 RGB 채널 부분에 입력하고 깊이 정보를 알파 채널 부분에 할당하여 RGBA 형식으로 전송하게 된다. 여기에서, 깊이 정보는 스케일 팩터를 적용하여 렌더링된 이미지에 표현될 근거리 및 원거리 값의 범위를 지정할 수 있고, 적용된 스케일 팩터에 관한 정보는 메타 데이터에 포함시켜 클라이언트 VR 단말(110)과 공유되게 할 수 있다. 클라이언트 VR 단말(110)에서는 RGBA 이미지를 수신하여 디코딩한 후 재생할 수 있고, 이때 깊이 정보에 스케일 팩터의 역을 적용하여 복원하고 복원된 깊이 정보를 이전 프레임의 깊이 정보와의 차를 통해 픽셀의 이동량을 구하여 보정함으로써 클라이언트 VR 단말(110)의 화면 상에 표시되는 객체의 떨림 현상을 감소 또는 제거시킬 수 있다.In the cloud VR system 100 according to an embodiment, after rendering through the cloud VR server 130 , the rendering result may be transmitted to the client VR terminal 110 through a network together with metadata. At this time, the cloud VR server 130 inputs the RGB value of the color of the rendered 2D image to the RGB channel part, allocates the depth information to the alpha channel part, and transmits it in RGBA format. Here, the depth information can designate the range of near and far values to be expressed in the rendered image by applying the scale factor, and information about the applied scale factor is included in the metadata to be shared with the client VR terminal 110 . can The client VR terminal 110 may receive and decode the RGBA image and then play it back. At this time, the depth information is restored by applying the inverse of the scale factor, and the amount of movement of the pixel through the difference between the restored depth information and the depth information of the previous frame. By obtaining and correcting , it is possible to reduce or remove the shaking phenomenon of the object displayed on the screen of the client VR terminal 110 .

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art can variously modify and change the present invention within the scope without departing from the spirit and scope of the present invention as set forth in the claims below. You will understand that it can be done.

100: 클라우드 VR 시스템
110: 클라이언트 VR 단말 130: 클라우드 VR 서버/PC
200: 클라우드 VR 장치
210: 깊이맵 생성부 230: 깊이정보 전송 처리부
250: 깊이정보 수신 처리부 270: 화면 떨림 보정부
290: 제어부
100: Cloud VR system
110: client VR terminal 130: cloud VR server / PC
200: Cloud VR device
210: depth map generation unit 230: depth information transmission processing unit
250: depth information reception processing unit 270: screen shake correction unit
290: control unit

Claims (6)

클라우드 VR(Virtual Reality) 서버에서 렌더링되는 이미지에 대해 깊이맵을 생성하는 깊이맵 생성부;
상기 렌더링된 이미지를 RGBA 형식으로 클라이언트 VR 단말로 전송시 RGB 채널 부분에 렌더링된 색상의 RGB 값을 할당하고 알파(A) 채널 부분에 상기 생성된 깊이맵 정보를 할당하여 전송되게 처리하는 깊이정보 전송 처리부;
상기 RGBA 형식으로 전송되는 이미지를 수신하고 상기 클라이언트 VR 단말에서 디코딩을 수행하는 깊이정보 수신 처리부; 및
상기 디코딩된 깊이맵 정보를 기초로 이전 프레임의 깊이 정보와의 차를 이용하여 픽셀의 이동량을 구하여 떨림을 보정하는 화면 떨림 보정부를 포함하되,
상기 화면 떨림 보정부는
상기 픽셀의 이동량이 특정 기준 이상인 경우에는 깊이 정보를 조정하고 조정된 깊이 정보 및 사용자의 헤드 움직임을 반영하여 렌더링 하여 화면 떨림을 보정하는 것을 특징으로 하는 이미지 내의 객체 떨림 감소를 위한 클라우드 VR 장치.
a depth map generator for generating a depth map for an image rendered in a cloud VR (Virtual Reality) server;
When the rendered image is transmitted to the client VR terminal in RGBA format, the RGB value of the rendered color is allocated to the RGB channel part, and the generated depth map information is allocated to the alpha (A) channel part and transmitted. Depth information transmission processing unit;
a depth information reception processing unit that receives the image transmitted in the RGBA format and performs decoding in the client VR terminal; and
And a screen shake correction unit for correcting the shake by calculating the movement amount of the pixel by using the difference from the depth information of the previous frame based on the decoded depth map information,
The screen shake correction unit
A cloud VR device for reducing object shake in an image, characterized in that when the amount of movement of the pixel is greater than or equal to a specific criterion, the depth information is adjusted, and the screen shake is corrected by rendering by reflecting the adjusted depth information and the user's head movement.
제1항에 있어서, 상기 깊이맵 생성부는
상기 렌더링에 사용되는 소스 데이터에 포함되는 각 프레임의 픽셀 별 깊이 정보로 상기 깊이맵을 생성하는 것을 특징으로 하는 이미지 내의 객체 떨림 감소를 위한 클라우드 VR 장치.
The method of claim 1, wherein the depth map generator
A cloud VR device for reducing object shake in an image, characterized in that the depth map is generated with depth information for each pixel of each frame included in the source data used for the rendering.
제1항에 있어서, 상기 깊이정보 전송 처리부는
상기 생성된 깊이맵 정보에 스케일 팩터를 적용하여 상기 렌더링된 이미지에 표현될 원근 거리값 범위를 지정하는 것을 특징으로 하는 이미지 내의 객체 떨림 감소를 위한 클라우드 VR 장치.
According to claim 1, wherein the depth information transmission processing unit
A cloud VR device for reducing object shake in an image, wherein a range of perspective distance values to be expressed in the rendered image is designated by applying a scale factor to the generated depth map information.
제3항에 있어서, 상기 깊이정보 전송 처리부는
상기 스케일 팩터를 메타 데이터에 포함시켜 상기 RGBA 이미지 전송시 함께 전송하여 공유되도록 하는 것을 특징으로 하는 이미지 내의 객체 떨림 감소를 위한 클라우드 VR 장치.
The method of claim 3, wherein the depth information transmission processing unit
Cloud VR device for reducing object shake in an image, characterized in that the scale factor is included in the metadata so that it is transmitted and shared when the RGBA image is transmitted.
제4항에 있어서, 상기 깊이정보 수신 처리부는
상기 클라이언트 VR 단말을 통해 수신되는 RGBA 형식의 이미지에서 알파 채널 부분에 포함된 깊이맵 정보에 대해 상기 메타 데이터에 포함된 스케일 팩터의 역을 적용하여 복원하는 것을 특징으로 하는 이미지 내의 객체 떨림 감소를 위한 클라우드 VR 장치.
The method of claim 4, wherein the depth information reception processing unit
In the RGBA format image received through the client VR terminal, the depth map information included in the alpha channel part is restored by applying the inverse of the scale factor included in the metadata to reduce object shake in the image. Cloud VR device.
삭제delete
KR1020210057288A 2021-05-03 2021-05-03 Clould vr device for reducing object jittering of image KR102461478B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210057288A KR102461478B1 (en) 2021-05-03 2021-05-03 Clould vr device for reducing object jittering of image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210057288A KR102461478B1 (en) 2021-05-03 2021-05-03 Clould vr device for reducing object jittering of image

Publications (1)

Publication Number Publication Date
KR102461478B1 true KR102461478B1 (en) 2022-11-03

Family

ID=84040929

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210057288A KR102461478B1 (en) 2021-05-03 2021-05-03 Clould vr device for reducing object jittering of image

Country Status (1)

Country Link
KR (1) KR102461478B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180132946A (en) * 2016-06-09 2018-12-12 구글 엘엘씨 Multi-view scene segmentation and propagation
KR20200116942A (en) * 2018-01-14 2020-10-13 라이트 필드 랩 인코포레이티드 Systems and methods for rendering data in a 3D environment
KR102166158B1 (en) 2018-12-19 2020-10-15 (주)이머시브캐스트 Stereoscopic video encoding apparatus, stereoscopic video decoding apparatus and stereoscopic video display system including the same
KR20210044506A (en) * 2019-10-15 2021-04-23 삼성전자주식회사 Apparatus of displaying augmented reality object and operating methode thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180132946A (en) * 2016-06-09 2018-12-12 구글 엘엘씨 Multi-view scene segmentation and propagation
KR20200116942A (en) * 2018-01-14 2020-10-13 라이트 필드 랩 인코포레이티드 Systems and methods for rendering data in a 3D environment
KR102166158B1 (en) 2018-12-19 2020-10-15 (주)이머시브캐스트 Stereoscopic video encoding apparatus, stereoscopic video decoding apparatus and stereoscopic video display system including the same
KR20210044506A (en) * 2019-10-15 2021-04-23 삼성전자주식회사 Apparatus of displaying augmented reality object and operating methode thereof

Similar Documents

Publication Publication Date Title
US10861215B2 (en) Asynchronous time and space warp with determination of region of interest
US11127214B2 (en) Cross layer traffic optimization for split XR
KR102155681B1 (en) Systems and methods for virtual reality video conversion and streaming
CN103688240B (en) For sending method and the transmitters and receivers scene process equipment of numeral scene description data
CN109983757B (en) View dependent operations during panoramic video playback
US20140092439A1 (en) Encoding images using a 3d mesh of polygons and corresponding textures
JP2020512772A (en) Method and apparatus for image processing to optimize image resolution and video streaming bandwidth for VR video
CN110770785B (en) Screen sharing for display in VR
US20100060652A1 (en) Graphics rendering system
RU2764187C2 (en) Processing of 3d image information based on texture maps and grids
CN116647655A (en) Flat panel projection of reprojected panoramic video pictures for rendering by an application
US20230362388A1 (en) Systems and methods for deferred post-processes in video encoding
KR102461478B1 (en) Clould vr device for reducing object jittering of image
US10983746B2 (en) Generating display data
US20230106679A1 (en) Image Processing Systems and Methods
WO2023066054A1 (en) Image processing method, cloud server, vr terminal and storage medium
KR102297262B1 (en) Method for transfering image data having hybrid resolution and method for generating hybrid resolution image using the same
US11544822B2 (en) Image generation apparatus and image generation method
US20230078190A1 (en) Image compression method and apparatus
WO2021199128A1 (en) Image data transfer device, image generation method and computer program
KR20220147381A (en) Distributed rendering based cloud vr device
WO2016202287A1 (en) Real-time video transmission method and electronic apparatus

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant