KR102346090B1 - Ar remote randering method for real time mr service with volumetric 3d video data - Google Patents

Ar remote randering method for real time mr service with volumetric 3d video data Download PDF

Info

Publication number
KR102346090B1
KR102346090B1 KR1020200054030A KR20200054030A KR102346090B1 KR 102346090 B1 KR102346090 B1 KR 102346090B1 KR 1020200054030 A KR1020200054030 A KR 1020200054030A KR 20200054030 A KR20200054030 A KR 20200054030A KR 102346090 B1 KR102346090 B1 KR 102346090B1
Authority
KR
South Korea
Prior art keywords
data
augmented reality
processor
remote rendering
rendering method
Prior art date
Application number
KR1020200054030A
Other languages
Korean (ko)
Other versions
KR20210135859A (en
Inventor
이문용
이대현
이상하
이재현
권순철
Original Assignee
광운대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광운대학교 산학협력단 filed Critical 광운대학교 산학협력단
Priority to KR1020200054030A priority Critical patent/KR102346090B1/en
Publication of KR20210135859A publication Critical patent/KR20210135859A/en
Application granted granted Critical
Publication of KR102346090B1 publication Critical patent/KR102346090B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 명세서는 체적 3D 비디오(Volumetric 3D Video) 데이터의 실시간 혼합현실 서비스가 가능한 AR 원격 렌더링(Remote Rendering) 방법을 개시한다. 본 명세서에 따른 증강 현실 원격 렌더링 방법은 체적 3D 비디오 데이터의 실시간 혼합 현실 서비스를 위해 증강 현실 원격 렌더링 방법으로서, (a) 프로세서가 복수의 뎁스 카메라로부터 뎁스 이미지 데이터를 수신하는 단계; (b) 상기 프로세서가 상기 수신한 뎁스 이미지 데이터를 이용하여 3차원 포인트 클라우드 데이터를 생성하는 단계; (c) 상기 프로세서가 가상공간에 3D 데이터를 모델링하는 단계; 및 (d) 상기 프로세서가 클라이언트 위치 정보를 이용하여 가상 카메라에서 바라본 객체 영상을 클라이언트에게 전송하는 단계;를 포함할 수 있다.The present specification discloses an AR remote rendering method capable of real-time mixed reality service of volumetric 3D video data. The augmented reality remote rendering method according to the present specification is an augmented reality remote rendering method for a real-time mixed reality service of volumetric 3D video data, comprising the steps of: (a) receiving, by a processor, depth image data from a plurality of depth cameras; (b) generating, by the processor, 3D point cloud data using the received depth image data; (c) the processor modeling 3D data in a virtual space; and (d) transmitting, by the processor, an image of the object viewed from the virtual camera to the client using the client location information.

Description

체적 3D 비디오 데이터의 실시간 혼합 현실 서비스를 위해 증강 현실 원격 렌더링 방법{AR REMOTE RANDERING METHOD FOR REAL TIME MR SERVICE WITH VOLUMETRIC 3D VIDEO DATA}AR REMOTE RANDERING METHOD FOR REAL TIME MR SERVICE WITH VOLUMETRIC 3D VIDEO DATA}

본 발명은 증강 현실 원격 렌더링 방법에 관한 것이며, 보다 상세하게는 체적 3D 비디오 데이터의 실시간 혼합 현실 서비스를 위해 증강 현실 원격 렌더링 방법에 관한 것이다. The present invention relates to an augmented reality remote rendering method, and more particularly, to an augmented reality remote rendering method for real-time mixed reality service of volumetric 3D video data.

최근 혼합현실 (mixed reality)산업이 성장함에 따라 관련 디바이스 보급 및 기술이 제시되고 있다. 특히, 원격화상회의 등의 실시간 혼합현실 서비스를 위해, 실시간 영상획득-처리-전송의 기술 연구가 요구되고 있다.Recently, as the mixed reality industry grows, related devices and technologies are being proposed. In particular, for real-time mixed reality services such as remote video conferencing, real-time image acquisition-processing-transmission technology research is required.

AR(증강현실)은 AI, Big-data, 5G Network 등 4차 산업혁명을 이끄는 기술과 결합하여 오감의 무한 확대를 통한 신 서비스를 이끄는 기술이다. 5G 네트워크 인프라 발달로 초고속, 초저지연, 초연결의 AR 서비스 제공이 가능해짐에 따라 개인화된 실시간 서비스 중심으로 대규모 성장 전망이다.AR (Augmented Reality) is a technology that leads new services through infinite expansion of the five senses by combining with technologies that lead the 4th industrial revolution such as AI, Big-data, and 5G Network. With the development of 5G network infrastructure, it is possible to provide high-speed, ultra-low latency, and hyper-connected AR services, and large-scale growth is expected centering on personalized real-time services.

일반적으로 혼합현실 구현은 클라이언트(client)에 3D 데이터가 저장이 되고, 이를 로딩(loading)하는 방식이다. 이 경우 클라이언트의 사양이 한정되어 있으므로, 3D 데이터의 메쉬 최적화 등을 통해 구현을 한다. 다만, 콘텐츠의 최적화가 요구되므로, 콘텐츠의 품질 손상이 될 수 있다. 다른 방법으로, 서버에 3D 데이터가 저장이 되고 원격지에 있는 클라이언트로 렌더링 하는 방법이 제시되고 있다. 이는 품질을 높이기 위해서 강력한 서버를 사용할 경우, 렌더링(rendering) 품질을 크게 높일 수 있다. 일반적으로 클라우드 렌더링(cloud rendering), 서버 렌더링(server rendering), 원격 렌더링(remote rendering) 등의 용어로 표현 되고 있다. In general, mixed reality implementation is a method in which 3D data is stored in the client and loaded. In this case, since the specification of the client is limited, it is implemented through mesh optimization of 3D data, etc. However, since content optimization is required, the quality of the content may be damaged. As another method, a method in which 3D data is stored in a server and rendered to a client in a remote location has been proposed. If a powerful server is used to increase the quality, the rendering quality can be greatly improved. In general, it is expressed in terms such as cloud rendering, server rendering, and remote rendering.

최근 클라우드 기반의 AR 원격 렌더링(Remote Rendering) 기술이 연구되고 있다. 이는 고품질의 대화형 3D 콘텐츠를 클라우드에서 렌더링 하여 실시간으로 디바이스에 스트리밍 할 수 있는 새로운 혼합 현실 서비스 기술이다. 이 때, 3D데이터 타입(type)에 따른 원격 렌더링(remote rendering) 방식을 아래와 같이 분류할 수 있다.Recently, cloud-based AR remote rendering technology is being studied. This is a new mixed reality service technology that can render high-quality interactive 3D content in the cloud and stream it to devices in real time. In this case, a remote rendering method according to a 3D data type may be classified as follows.

Figure 112020045900880-pat00001
Figure 112020045900880-pat00001

모델 베이스(Model-based) 렌더링은 3D 데이터 (메쉬 또는 포인트 클라우드)를 클라이언트에게 전송하는 방법이다. 이 방법은, 클라이언트가 3D 그래픽 렌더링을 위한 강력한 하드웨어를 필요로 하며, 서버는 3D 데이터 처리 및 생성 계산을 한다. 모델 베이스 렌더링에는 오리지날 모델(Original Model), 부분 모델(Partial Model), 단순화된 모델(Simplified Model), 포인트 클라우드(Point Cloud) 방식이 있다.Model-based rendering is a method of sending 3D data (mesh or point cloud) to the client. In this method, the client needs powerful hardware for 3D graphics rendering, and the server does the 3D data processing and generating calculations. Model-based rendering includes an original model, a partial model, a simplified model, and a point cloud method.

이미지 베이스(Image-based) 렌더링은 서버에서 모든 3D 모델을 렌더링하고, 이미지들의 정보만을 클라이언트로 보내는 방법이다. 따라서 클라이언트에서는 3D 그래픽 렌더링을 위한 하드웨어는 요구되지 않는다. 이미지 베이스 렌더링에는 멀티 뎁스 이미지(Multiple Depth Images), 뎁스 이미지(Depth Image), 환경 맵(Environment Map), 이미지 포스터(Image Impostor) 방식이 있다.Image-based rendering is a method of rendering all 3D models in the server and sending only image information to the client. Therefore, hardware for rendering 3D graphics is not required on the client. Image-based rendering includes multiple depth images, depth images, environment maps, and image posters.

앞서 언급하였듯이, 고품질의 콘텐츠를 제공하기 위해서 모델 베이스(Model-based) 렌더링이 적합하지만 클라이언트에 강력한 3D 그래픽 렌더링을 위한 하드웨어가 요구되는 단점이 있다. 그렇다고 클라이언트의 하드웨어를 고려하여 이미지 베이스 렌더링으로 콘텐츠를 제공하면 품질이 저하되는 문제가 있다. 즉, 클라이언트의 하드웨어 성능과 콘텐츠의 품질 사이에서 양자를 모두 만족시킬 수 있는 방법이 필요하다.As mentioned above, model-based rendering is suitable to provide high-quality content, but there is a disadvantage in that hardware for powerful 3D graphics rendering is required for the client. However, there is a problem in that when the content is provided by image-based rendering in consideration of the client's hardware, the quality is deteriorated. That is, there is a need for a method that can satisfy both the hardware performance of the client and the quality of the content.

Shu Shi, Klara Nahrstedt, and Roy Campbell, "A Real-Time Remote Rendering System for Interactive Mobile Graphics," ACM Transactions on Multimedia Computing, Communications and Applications, Vol. 8, No. 3s, Article 46, 2012. DOI: 10.1145/2348816.2348825.Shu Shi, Klara Nahrstedt, and Roy Campbell, "A Real-Time Remote Rendering System for Interactive Mobile Graphics," ACM Transactions on Multimedia Computing, Communications and Applications, Vol. 8, No. 3s, Article 46, 2012. DOI: 10.1145/2348816.2348825.

본 명세서는 체적 3D 비디오(Volumetric 3D Video) 데이터의 실시간 혼합현실 서비스가 가능한 AR 원격 렌더링(Remote Rendering) 방법을 제공하는 것을 목적으로 한다.An object of the present specification is to provide an AR remote rendering method capable of real-time mixed reality service of volumetric 3D video data.

본 명세서는 상기 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The present specification is not limited to the above-mentioned problems, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 명세서에 따른 증강 현실 원격 렌더링 방법은 체적 3D 비디오 데이터의 실시간 혼합 현실 서비스를 위해 증강 현실 원격 렌더링 방법으로서, (a) 프로세서가 복수의 뎁스 카메라로부터 뎁스 이미지 데이터를 수신하는 단계; (b) 상기 프로세서가 상기 수신한 뎁스 이미지 데이터를 이용하여 3D 데이터를 생성하는 단계; (c) 상기 프로세서가 가상공간에 3D 데이터를 모델링하는 단계; 및 (d) 상기 프로세서가 클라이언트 위치 정보를 이용하여 가상 카메라에서 바라본 객체 영상을 클라이언트에게 전송하는 단계;를 포함할 수 있다.The augmented reality remote rendering method according to the present specification for solving the above-described problems is an augmented reality remote rendering method for a real-time mixed reality service of volumetric 3D video data, wherein (a) a processor receives depth image data from a plurality of depth cameras to do; (b) generating, by the processor, 3D data using the received depth image data; (c) the processor modeling 3D data in a virtual space; and (d) transmitting, by the processor, an image of the object viewed from the virtual camera to the client using the client location information.

본 명세서의 일 실시예에 따르면, 상기 (a) 단계 이전에, 상기 프로세서가 상기 복수의 뎁스 카메라에 대한 좌표 정보(이하 '카메라 좌표 정보')를 생성하는 단계;를 더 포함할 수 있다.According to one embodiment of the present specification, before step (a), the step of the processor generating coordinate information (hereinafter, 'camera coordinate information') for the plurality of depth cameras; may further include.

본 명세서의 일 실시예에 따르면, 상기 카메라 좌표 정보는, 촬영 대상의 중심 위치로부터 이동 위치 및 회전 위치에 대한 정보를 이용하여 생성될 수 있다.According to an embodiment of the present specification, the camera coordinate information may be generated by using information about a movement position and a rotation position from a central position of a photographing target.

본 명세서의 일 실시예에 따르면, 상기 회전 위치는, 복수의 뎁스 카메라 중 어느 하나의 기준 뎁스 카메라를 기준으로 산출될 수 있다.According to an embodiment of the present specification, the rotation position may be calculated based on one reference depth camera among a plurality of depth cameras.

본 명세서의 일 실시예에 따르면, 상기 카메라 좌표 정보는, charuco 보드를 이용하여 산출될 수 있다.According to an embodiment of the present specification, the camera coordinate information may be calculated using a charuco board.

본 명세서의 일 실시예에 따르면, 상기 복수의 뎁스 카메라는, 동기 신호 발생기에 연결될 수 있다.According to an embodiment of the present specification, the plurality of depth cameras may be connected to a synchronization signal generator.

본 명세서의 일 실시예에 따르면, 상기 3차원 포인트 클라우드는 x, y, z 좌표값과 R, G, B 칼라값으로 구성된 다수의 포인트 데이터로 구성되고, 상기 각 포인트 데이터는 2진 데이터일 수 있다.According to an embodiment of the present specification, the three-dimensional point cloud is composed of a plurality of point data consisting of x, y, and z coordinate values and R, G, and B color values, and each point data may be binary data. have.

본 명세서의 일 실시예에 따르면, 상기 (b) 단계는, 상기 프로세서가 미리 설정된 크기 및 주기에 따라 3ㅇ 데이터로 구성된 프레임을 생성하는 프레임 생성 단계;를 더 포함할 수 있다.According to an embodiment of the present specification, the step (b) may further include a frame generating step in which the processor generates a frame composed of 3 o data according to a preset size and period.

본 명세서의 일 실시예에 따르면, 상기 프레임 생성 단계는, 상기 프로세서가 이전 프레임과 중복된 포인트 데이터와 추가된 포인트 데이터를 생성하고, 상기 중복된 포인트 데이터와 추가된 포인트 데이터를 구분하여 파싱(parsing)하는 단계일 수 있다.According to an embodiment of the present specification, in the frame generating step, the processor generates point data and added point data that are duplicated with the previous frame, and separates and parses the duplicated point data and added point data. ) can be a step.

본 명세서의 일 실시예에 따르면, 상기 클라이언트 위치 정보는, 클라이언트 단말기의 위치 정보 및 회전 정보를 포함하고, 상기 클라이언트 단말기의 위치 정보는 SLAM 방식을 이용하여 생성된 값이고, 상기 클라이언트 단말기의 위치 및 회전 정보는 가속도 센서와 자이로스코프 센서를 이용하여 생성된 값일 수 있다.According to an embodiment of the present specification, the client location information includes location information and rotation information of the client terminal, and the location information of the client terminal is a value generated using a SLAM method, The rotation information may be a value generated using an acceleration sensor and a gyroscope sensor.

본 명세서의 일 실시예에 따르면, 상기 가상 카메라에서 바라본 객체 영상은 2D 영상일 수 있다.According to an embodiment of the present specification, the object image viewed from the virtual camera may be a 2D image.

본 명세서의 일 실시예에 따르면, 상기 (d) 단계는, 상기 프로세서가 WebRTC를 이용하여 객체 영상을 클라이언트에게 전송하는 단계일 수 있다. According to an embodiment of the present specification, step (d) may be a step in which the processor transmits the object image to the client using WebRTC.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

본 명세서에 따르면, 체적 3D 비디오(Volumetric 3D Video) 데이터로 이루어진 실시간 혼합현실 서비스가 가능하다. According to the present specification, a real-time mixed reality service made of volumetric 3D video data is possible.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 명세서에 따른 증강 현실 원격 렌더링 방법의 개략적인 흐름도이다.
도 2는 복수의 뎁스 카메라를 이용하여 3D 데이터를 생성하는 과정에 대한 참고도이다.
도 3는 charuco board를 이용한 위치 정합의 참고도이다.
도 4는 본 명세서의 일 실시예에 따라 생성된 프레임의 예시이다.
도 5는 본 명세서에 따른 증강 현실 원격 렌더링 방법의 블럭도로 표현한 참고도이다.
도 6은 본 명세서에 따른 실험 결과이다.
1 is a schematic flowchart of an augmented reality remote rendering method according to the present specification.
2 is a reference diagram for a process of generating 3D data using a plurality of depth cameras.
3 is a reference diagram of position matching using a charuco board.
4 is an example of a frame generated according to an embodiment of the present specification.
5 is a reference diagram expressed as a block diagram of an augmented reality remote rendering method according to the present specification.
6 is an experimental result according to the present specification.

본 명세서에 개시된 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 명세서가 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 명세서의 개시가 완전하도록 하고, 본 명세서가 속하는 기술 분야의 통상의 기술자(이하 '당업자')에게 본 명세서의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 명세서의 권리 범위는 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the invention disclosed herein, and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present specification is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the present embodiments allow the disclosure of the present specification to be complete, and those of ordinary skill in the art to which this specification belongs. It is provided to fully inform those skilled in the art (hereinafter, 'those skilled in the art') the scope of the present specification, and the scope of the present specification is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 명세서의 권리 범위를 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the scope of the present specification. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other components in addition to the stated components.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 명세서가 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Unless otherwise defined, all terms (including technical and scientific terms) used herein will have the meaning commonly understood by those of ordinary skill in the art to which this specification belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless specifically defined explicitly. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 명세서에 따른 증강 현실 원격 렌더링 방법의 개략적인 흐름도이다.1 is a schematic flowchart of an augmented reality remote rendering method according to the present specification.

본 명세서에 따른 증강 현실 원격 렌더링 방법은 체적 3D 비디오(Volumetric 3D Video) 데이터의 실시간 혼합 현실 서비스를 위해 증강 현실 원격 렌더링 방법이다.The augmented reality remote rendering method according to the present specification is an augmented reality remote rendering method for real-time mixed reality service of volumetric 3D video data.

먼저, 단계 S10에서 프로세서가 복수의 뎁스 카메라로부터 뎁스 이미지 데이터를 수신할 수 있다.First, in step S10, the processor may receive depth image data from a plurality of depth cameras.

상기 복수의 뎁스 카메라(depth camera)는 체적 3D 비디오(Volumetric 3D Video)는 3 차원 공간을 캡쳐하기 위한 카메라이다. 상기 뎁스 카메라는 일반적인 RGB 데이터에 추가적으로 뎁스 데이터를 더 출력할 수 있는 카메라이다. 상기 뎁스 카메라는 일반적으로 'RBGD 카메라'라고 불리 우며, 스테레오(stereo) 방식, ToF(Time-Of-Flight) 방식, 구조화된 패턴(structured pattern) 방식 등이 있다. 본 명세서에 따른 복수의 뎁스 카메라는 대상을 3차원으로 촬영할 수 있도록 대상을 중심으로 원형으로 배치될 수 있다.The plurality of depth cameras is a volumetric 3D video camera for capturing a 3D space. The depth camera is a camera capable of further outputting depth data in addition to general RGB data. The depth camera is generally called a 'RBGD camera', and includes a stereo method, a Time-Of-Flight (ToF) method, a structured pattern method, and the like. The plurality of depth cameras according to the present specification may be arranged in a circle around the object so as to photograph the object in three dimensions.

다음 단계 S20에서, 상기 프로세서가 상기 수신한 뎁스 이미지 데이터를 이용하여 3D 데이터를 생성할 수 있다.In the next step S20, the processor may generate 3D data using the received depth image data.

도 2는 복수의 뎁스 카메라를 이용하여 3D 데이터를 생성하는 과정에 대한 참고도이다.2 is a reference diagram for a process of generating 3D data using a plurality of depth cameras.

도 2를 참조하면, 각각의 뎁스 카메라느 자신이 촬영한 영상 데이터(깊이 정보 포함)를 출력할 수 있다. 이때, 각각의 뎁스 카메라가 촬영한 영상은 동일한 대상을 촬영하였기 때문에, 영상이 서로 중첩되는 부분이 발생할 수 있다. 따라서, 각 뎁스 카메라가 촬영하는 위치 및 촬영 각도 등을 고려하여 위치 정합하는 과정이 필요하다. Referring to FIG. 2 , each depth camera may output image data (including depth information) captured by the depth camera. In this case, since the images captured by each depth camera capture the same object, a portion in which the images overlap each other may occur. Therefore, a process of position matching is required in consideration of a position and a shooting angle of each depth camera.

이를 위해, 본 명세서에 따른 증강 현실 원격 렌더링 방법은 단계 S10 이전에 상기 프로세서가 상기 복수의 뎁스 카메라에 대한 좌표 정보(이하 '카메라 좌표 정보')를 생성하는 단계를 더 포함할 수 있다. To this end, the augmented reality remote rendering method according to the present specification may further include the step of generating, by the processor, coordinate information (hereinafter, 'camera coordinate information') for the plurality of depth cameras before step S10.

도 3는 charuco board를 이용한 위치 정합의 참고도이다.3 is a reference diagram of position matching using a charuco board.

도 3를 참조하면, 복수의 RGBD 카메라가 동일한 charuco board 를 촬영하는 것을 확인할 수 있다. 상기 프로세서는 각 RGBD카메라가 촬영한 이미지에서 보드의 코너 및 코드를 추출한다. 상기 복수의 RGBD 카메라는 3차원 공간 내 서로 위치에서 동일한 보드를 촬영하였기 때문에, 상기 각 이미지 내 보드의 특성을 비교하여 RGBD 카메라의 상대적 위치를 계산할 수 있다. 일 예로, 상기 카메라 좌표 정보는 촬영 대상의 중심 위치로부터 이동 위치 및 회전 위치에 대한 정보를 이용하여 생성될 수 있다. 이때, 상기 회전 위치는, 복수의 뎁스 카메라 중 어느 하나의 기준 뎁스 카메라를 기준으로 아래와 같이 산출될 수 있다.Referring to FIG. 3 , it can be confirmed that a plurality of RGBD cameras photograph the same charuco board. The processor extracts the corners and codes of the board from the images captured by each RGBD camera. Since the plurality of RGBD cameras photographed the same board at each other's positions in a three-dimensional space, the relative positions of the RGBD cameras can be calculated by comparing the characteristics of the boards in the respective images. For example, the camera coordinate information may be generated by using information about a movement position and a rotation position from a central position of a photographing target. In this case, the rotation position may be calculated as follows based on any one reference depth camera among the plurality of depth cameras.

Figure 112020045900880-pat00002
Figure 112020045900880-pat00002

상기 수식에서 [u, v, 1]T는 2D 이미지 좌표값, [xw, yw, zw, 1]T는 3D 실공간 좌표값, K는 카메라 내부파라미터, [R, T]는 카메라 외부파라미터로서, R은 회전에 관한 값이고 T는 이동에 관한 값이다. 한편, 상기 복수의 뎁스 카메라는 동일한 스펙을 가진 카메라로서, 내부 파라미터는 동일한 것을 가정한다. 또한, 상기 복수의 뎁스 카메라가 촬영한 영상의 싱크(sync)를 일치시키기 위해, 상기 복수의 뎁스 카메라는 동기 신호 발생기에 연결될 수 있다. 두 개 이상의 카메라를 사용하는 시스템에서 마스터 싱크 제너레이터 (Master Sync Generator)에 슬레이브 싱크 제너레이터 (Slave Sync Generator)를 동기 시키는 것으로, 카메라 사이에서 시간차를 막기 위해 동기 신호 발생기(Sync Generator)를 각 카메라 내 비디오 신호 발생기기에 연결시킬 수 있다.In the above formula, [u, v, 1]T is a 2D image coordinate value, [x w , y w , z w , 1]T is a 3D real space coordinate value, K is a camera internal parameter, and [R, T] is a camera As an external parameter, R is a value for rotation and T is a value for movement. On the other hand, it is assumed that the plurality of depth cameras are cameras having the same specification, and the internal parameters are the same. In addition, in order to synchronize images captured by the plurality of depth cameras, the plurality of depth cameras may be connected to a synchronization signal generator. In a system using two or more cameras, it synchronizes the Slave Sync Generator with the Master Sync Generator. It can be connected to a signal generator.

한편, 상기 프로세서가 생성한 3차원 포인트 클라우드 데이터는 x, y, z 좌표값과 R, G, B 칼라값으로 구성된 다수의 포인트 데이터로 구성될 수 있다. 그리고 각 포인트 데이터는 2진 데이터로 처리될 수 있다.Meanwhile, the 3D point cloud data generated by the processor may be composed of a plurality of point data composed of x, y, and z coordinate values and R, G, and B color values. And each point data may be processed as binary data.

본 명세서에 따른 증강 현실 원격 렌더링 방법은 단계 S20에서, 상기 프로세서가 미리 설정된 크기 및 주기에 따라 3D 데이터로 구성된 프레임을 생성하는 프레임 생성 단계를 더 포함할 수 있다.The augmented reality remote rendering method according to the present specification may further include, in step S20, a frame generation step in which the processor generates a frame composed of 3D data according to a preset size and period.

도 4는 본 명세서의 일 실시예에 따라 생성된 프레임의 예시이다.4 is an example of a frame generated according to an embodiment of the present specification.

도 4의 (a)를 참조하면, 3D 데이터로 생성된 1번 프레임, 25번 프레임, 55번 프레임을 확인할 수 있다. 본 명세서에 따른 증강 현실 원격 렌더링 방법은 프레임을 연속적으로 생성하는 과정에서 데이터 처리량을 감소시키기 위해, 상기 프로세서가 이전 프레임과 중복된 포인트 데이터와 추가된 포인트 데이터를 생성하고, 상기 중복된 포인트 데이터와 추가된 포인트 데이터를 구분하여 파싱(parsing)할 수 있다.Referring to FIG. 4A , frame 1, frame 25, and frame 55 generated as 3D data can be identified. In the augmented reality remote rendering method according to the present specification, in order to reduce data throughput in the process of continuously generating frames, the processor generates point data duplicated with a previous frame and added point data, and the duplicate point data and The added point data can be divided and parsed.

3D 데이터로 연속으로 생성된 이전 프레임 데이터와 현재 프레임 데이터를 비교하여 중복(overlap) 데이터와 추가(add) 데이터로 구분할 수 있다.By comparing the previous frame data and the current frame data continuously generated as 3D data, it can be divided into overlap data and add data.

일 예로, x, y, z는 각각 8자리로 표현되는 vertex 값을 가지고, R, G, B 는 각각 3자리로 표현되는 칼라 값을 가질 수 있다. 그리고 각 포인트 데이터는 아래 수식과 같이 하나의 값으로 표현될 수 있다.For example, x, y, and z may each have a vertex value expressed by 8 digits, and R, G, and B may each have a color value expressed by 3 digits. And each point data can be expressed as a single value as shown in the following equation.

Figure 112020045900880-pat00003
Figure 112020045900880-pat00003

P feature 는 유일한 특징 값이 되며, P feature 의 집합은 하나의 프레임을 구성하는 포인트 클라우드를 의미한다. 따라서, 아래 수식과 같이 비교를 통해 중복(overlap) 데이터와 추가(add) 데이터로 구분할 수 있다. P feature becomes a unique feature value, and a set of P features means a point cloud constituting one frame. Therefore, it can be divided into overlap data and add data through comparison as shown in the formula below.

Figure 112020045900880-pat00004
Figure 112020045900880-pat00004

Figure 112020045900880-pat00005
Figure 112020045900880-pat00005

수학식 3의 Pf는 f 번째 프레임의 n 개의 특징 값 집합이다. P'f는 Pf의 임의의 원소 값이다. Pf-1에서 P'f의 연산 결과(차이값)가 0인경우, 중복(overlap) 데이터이다. 반대로 연산 결과(차이값)가 0이 아닌 경우는 추가(Add) 데이터이다. P f in Equation 3 is a set of n feature values of the f-th frame. P' f is any element value of P f . If the operation result (difference value) of P' f in P f-1 is 0, it is overlapping data. Conversely, if the operation result (difference value) is not 0, it is Add data.

다시 도 1을 참조하면, 단계 S30에서, 상기 프로세서가 가상공간에 3D 데이터를 모델링 할 수 있다. 이 때, 3D 데이터가 모델링되는 가상공간은 게임 엔진(Game Engine)이다.Referring back to FIG. 1 , in step S30, the processor may model 3D data in a virtual space. At this time, the virtual space in which the 3D data is modeled is a game engine.

다음 단계 S40에서, 상기 프로세서가 클라이언트 위치 정보를 이용하여 가상 카메라에서 바라본 객체 영상을 클라이언트에게 전송할 수 있다. 이 때, 상기 클라이언트 위치 정보는 클라이언트 단말기의 위치 정보 및 회전 정보를 포함할 수 있다. 상기 클라이언트 단말기의 위치 정보는 SLAM 방식을 이용하여 생성된 값이고, 상기 클라이언트 단말기의 회전 정보는 가속도 센서와 자이로스코프 센서를 이용하여 생성된 값일 수 있다. In the next step S40, the processor may transmit the image of the object viewed from the virtual camera to the client using the client location information. In this case, the client location information may include location information and rotation information of the client terminal. The location information of the client terminal may be a value generated using the SLAM method, and the rotation information of the client terminal may be a value generated using an acceleration sensor and a gyroscope sensor.

또한, 상기 가상 카메라에서 바라본 객체 영상은 2D 영상이다. 그리고 상기 프로세서가 WebRTC를 이용하여 객체 영상을 클라이언트에게 전송할 수 있다. WebRTC는 브라우저에서 RTC (Real-Time Communications) 기능을 지원하는 웹 용 개방형 프레임워크이다. 비디오, 음성 및 일반데이터를 peer to peer 로 전송 할 수 있도록 지원한다. 또한 공개 웹 표준으로 구현되며, 모든 주요 브라우저에서 JavaScript API로 제공된다. 따라서, 클라이언트 단말기에 고사양의 렌더링 하드웨어가 요구되지 않는다. Also, the object image viewed from the virtual camera is a 2D image. In addition, the processor may transmit the object image to the client using WebRTC. WebRTC is an open framework for the web that supports Real-Time Communications (RTC) functions in browsers. It supports to transmit video, voice and general data from peer to peer. It is also implemented as an open web standard and is available as a JavaScript API in all major browsers. Accordingly, high-end rendering hardware is not required for the client terminal.

도 5는 본 명세서에 따른 증강 현실 원격 렌더링 방법의 블럭도로 표현한 참고도이다.5 is a reference diagram expressed as a block diagram of an augmented reality remote rendering method according to the present specification.

도 5의 (a)는 증강 현실 원격 렌더링 방법의 전체적인 흐름을 표현한 블럭도이고, 도 5의 (b)는 체적 캡쳐(Volumetric Capture) 블럭 내에 포함된 디바이더(Divider) 및 게임 엔진(Game Engine) 블럭 내에 포함된 파싱 모듈(Parsing module)를 구체적으로 도시한 블럭도이고, 도 5의 (c)는 게임 엔진(Game Engine) 블럭 내에 포함된 가상 카메라(Virtual Camera)와 클라이언트 단말기 사이의 정보 송수신에 대한 구체적인 블럭도이다. 디바이더 모듈은 데이터 비교 연산을 통해 데이터 압축을 기능을 할 수 있다.Figure 5 (a) is a block diagram expressing the overall flow of the augmented reality remote rendering method, Figure 5 (b) is a divider (Divider) and game engine (Game Engine) block included in the volume capture (Volumetric Capture) block It is a block diagram specifically showing the parsing module included in the block diagram, and (c) of FIG. 5 is the information transmission/reception between the virtual camera included in the game engine block and the client terminal. This is a specific block diagram. The divider module can perform data compression through data comparison operation.

<실험예> <Experimental example>

아래 표는 실험환경을 보여준다. 통신환경은 Wi-Fi를 이용하였다. Server 사양은 다음과 같다. 프로세서는 Intel Core i7-8700 CPU @ 3.20GHz를 이용하였고, GPU는 NVIDIA GeForce RTX 2060을 이용하였다. 메모리는 16GB RAM을 사용하였다. 실험에 사용한 3D data는 13 MB - 14 MB를 가지는 ply 파일 파일 포맷이다. 클라이언트는 모바일 환경에서의 실험을 위하여 Samsung Galaxy Note 10+ (SM-N976 N)을 이용하였다. Chrome Mobile Web Browser 에서 렌더 된 비디오를 구현하였고, 실험측정 tool 은 모바일 디버깅환경에서 ‘Google DevTools’ 을 이용하였다. The table below shows the experimental environment. The communication environment used Wi-Fi. Server specifications are as follows. The processor used was an Intel Core i7-8700 CPU @ 3.20GHz, and the GPU was NVIDIA GeForce RTX 2060. The memory used was 16 GB RAM. The 3D data used in the experiment is a ply file format with 13 MB - 14 MB. The client used a Samsung Galaxy Note 10+ (SM-N976 N) for the experiment in a mobile environment. The rendered video was implemented in Chrome Mobile Web Browser, and ‘Google DevTools’ was used as the experimental measurement tool in the mobile debugging environment.

Figure 112020045900880-pat00006
Figure 112020045900880-pat00006

<실험결과> <Experiment result>

도 6은 본 명세서에 따른 실험 결과이다.6 is an experimental result according to the present specification.

도 6의 (a)를 참조하면, 도 5에 도시된 디바이더(divider) 모듈의 구현 결과이다. 실험 결과 평균 약 15 MB의 원본(original) 데이터가 각 프레임당 약 1-2MB의 압축된 것을 확인할 수 있다.Referring to FIG. 6A , it is an implementation result of the divider module shown in FIG. 5 . As a result of the experiment, it can be seen that an average of about 15 MB of original data is compressed by about 1-2 MB for each frame.

도 6의 (b)를 참조하면, WebRTC를 이용하여 가상 카메라로부터 전달받은 스트리밍 결과이다. 실험 결과 모바일 웹 브라우저에서 초당 약 25 -27 FPS 의 속도로 렌더링되는 것을 확인할 수 있다. Referring to FIG. 6B , it is a streaming result received from a virtual camera using WebRTC. As a result of the experiment, it can be seen that the mobile web browser renders at a speed of about 25 -27 FPS per second.

이를 통해 체적 3D 비디오 데이터의 실시간 혼합 현실 서비스를 위해 증강 현실 원격 렌더링 방법이 가능한 것을 확인할 수 있다.Through this, it can be confirmed that the augmented reality remote rendering method is possible for real-time mixed reality service of volumetric 3D video data.

상기 프로세서는 상술한 다양한 산출 및 제어 로직을 실행하기 위해 본 발명이 속한 기술분야에 알려진 ASIC(application-specific integrated circuit), 다른 칩셋, 논리 회로, 레지스터, 통신 모뎀, 데이터 처리 장치 등을 포함할 수 있다. 또한, 상술한 제어 로직이 소프트웨어로 구현될 때, 상기 프로세서는 프로그램 모듈의 집합으로 구현될 수 있다. 이 때, 프로그램 모듈은 메모리 장치에 저장되고, 프로세서에 의해 실행될 수 있다.The processor may include an application-specific integrated circuit (ASIC), other chipsets, logic circuits, registers, communication modems, data processing devices, etc. known in the art to execute the various calculation and control logics described above. have. In addition, when the above-described control logic is implemented in software, the processor may be implemented as a set of program modules. In this case, the program module may be stored in the memory device and executed by the processor.

상기 컴퓨터프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C/C++, C#, JAVA, Python, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.The computer program is C/C++, C#, JAVA, Python that a processor (CPU) of the computer can read through a device interface of the computer in order for the computer to read the program and execute the methods implemented as a program , may include code coded in a computer language such as machine language. Such code may include functional code related to a function defining functions necessary for executing the methods, etc., and includes an execution procedure related control code necessary for the processor of the computer to execute the functions according to a predetermined procedure. can do. In addition, this code may further include additional information necessary for the processor of the computer to execute the functions or code related to memory reference for which location (address address) in the internal or external memory of the computer should be referenced. have. In addition, when the processor of the computer needs to communicate with any other computer or server located remotely in order to execute the functions, the code uses the communication module of the computer to determine how to communicate with any other computer or server remotely. It may further include a communication-related code for whether to communicate and what information or media to transmit and receive during communication.

상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The storage medium is not a medium that stores data for a short moment, such as a register, a cache, a memory, etc., but a medium that stores data semi-permanently and can be read by a device. Specifically, examples of the storage medium include, but are not limited to, ROM, RAM, CD-ROM, magnetic tape, floppy disk, and an optical data storage device. That is, the program may be stored in various recording media on various servers accessible by the computer or in various recording media on the computer of the user. In addition, the medium may be distributed in a computer system connected to a network, and a computer-readable code may be stored in a distributed manner.

이상, 첨부된 도면을 참조로 하여 본 명세서의 실시예를 설명하였지만, 본 명세서가 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. As mentioned above, although the embodiments of the present specification have been described with reference to the accompanying drawings, those skilled in the art to which this specification belongs can realize that the present invention may be embodied in other specific forms without changing the technical spirit or essential features thereof. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

Claims (12)

체적 3D 비디오 데이터의 실시간 혼합 현실 서비스를 위해 증강 현실 원격 렌더링 방법으로서,
(a) 프로세서가 복수의 뎁스 카메라로부터 뎁스 이미지 데이터를 수신하는 단계;
(b) 상기 프로세서가 상기 수신한 뎁스 이미지 데이터를 이용하여 각각 m자리로 표현되는 x, y, z 좌표값과 각각 n자리로 표현되는 R, G, B 칼라값이 2진 데이터로 구성된 다수의 포인트 데이터를 생성하고, 미리 설정된 크기 및 주기에 따라 3D 데이터로 구성된 프레임을 생성하는 단계;
(c) 상기 프로세서가 가상공간에 3D 데이터를 모델링하는 단계; 및
(d) 상기 프로세서가 클라이언트 위치 정보를 이용하여 가상 카메라에서 바라본 객체 영상을 클라이언트에게 전송하는 단계;를 포함하되,
상기 (b) 단계에서 프레임을 생성하는 것은,
상기 프로세서가 각 포인트 데이터에 대해서 아래 수식 A을 통해 유일한 특징값(Pfeature )을 생성하고,

[수식 A]
Figure 112021107706626-pat00013


아래 수식 B를 통해 이전 프레임과 중복된 포인트 데이터와 추가된 포인트 데이터를 생성하고,

[수식 B]
Figure 112021107706626-pat00014

Figure 112021107706626-pat00015

- Pf는 f 번째 프레임의 n 개의 특징 값 집합
- P'f는 Pf의 임의의 원소 값

Pf-1에서 P'f의 차이값이 0인 경우 상기 중복된 포인트 데이터로, Pf-1에서 P'f의 차이값이 0이 아닌 경우 추가된 포인트 데이터로 구분하여 파싱(parsing)하는 증강 현실 원격 렌더링 방법.
An augmented reality remote rendering method for real-time mixed reality service of volumetric 3D video data, comprising:
(a) receiving, by a processor, depth image data from a plurality of depth cameras;
(b) the processor using the received depth image data, x, y, and z coordinate values expressed by m digits, and R, G, and B color values expressed by n digits, respectively, are a plurality of binary data. generating point data, and generating a frame composed of 3D data according to a preset size and period;
(c) the processor modeling 3D data in a virtual space; and
(d) transmitting, by the processor, the image of the object viewed from the virtual camera to the client using the client location information;
Generating the frame in step (b) is,
The processor generates a unique feature value (P feature ) through Equation A below for each point data,

[Formula A]
Figure 112021107706626-pat00013


Through Equation B below, the point data overlapped with the previous frame and the added point data are generated,

[Formula B]
Figure 112021107706626-pat00014

Figure 112021107706626-pat00015

- P f is the set of n feature values of the f th frame
- P' f is any element value of P f

When the difference value of P' f in P f-1 is 0, it is divided into the overlapped point data, and when the difference value of P' f in P f-1 is not 0, it is divided into added point data and parsed. Augmented reality remote rendering method.
청구항 1에 있어서,
상기 (a) 단계 이전에, 상기 프로세서가 상기 복수의 뎁스 카메라에 대한 좌표 정보(이하 '카메라 좌표 정보')를 생성하는 단계;를 더 포함하는 증강 현실 원격 렌더링 방법.
The method according to claim 1,
Augmented reality remote rendering method further comprising a; before the step (a), the processor generates coordinate information (hereinafter, 'camera coordinate information') for the plurality of depth cameras.
청구항 2에 있어서,
상기 카메라 좌표 정보는, 촬영 대상의 중심 위치로부터 이동 위치 및 회전 위치에 대한 정보를 이용하여 생성된 것을 특징으로 하는 증강 현실 원격 렌더링 방법.
3. The method according to claim 2,
The camera coordinate information is augmented reality remote rendering method, characterized in that it is generated by using information about the movement position and rotation position from the central position of the object to be photographed.
청구항 3에 있어서,
상기 회전 위치는, 복수의 뎁스 카메라 중 어느 하나의 기준 뎁스 카메라를 기준으로 산출된 것을 특징으로 하는 증강 현실 원격 렌더링 방법.
4. The method according to claim 3,
The rotation position, augmented reality remote rendering method, characterized in that calculated based on any one of the plurality of depth cameras as a reference depth camera.
청구항 3에 있어서,
상기 카메라 좌표 정보는, charuco 보드를 이용하여 산출된 것을 특징으로 하는 증강 현실 원격 렌더링 방법.
4. The method according to claim 3,
The camera coordinate information, augmented reality remote rendering method, characterized in that calculated using a charuco board.
청구항 2에 있어서,
상기 복수의 뎁스 카메라는, 동기 신호 발생기에 연결된 것을 특징으로 하는 증강 현실 원격 렌더링 방법.
3. The method according to claim 2,
The plurality of depth cameras are augmented reality remote rendering method, characterized in that connected to the synchronization signal generator.
삭제delete 삭제delete 삭제delete 청구항 1에 있어서,
상기 클라이언트 위치 정보는, 클라이언트 단말기의 위치 정보 및 회전 정보를 포함하고,
상기 클라이언트 단말기의 위치 정보는 SLAM 방식을 이용하여 생성된 값이고, 상기 클라이언트 단말기의 위치 및 회전 정보는 가속도 센서와 자이로스코프 센서를 이용하여 생성된 값인 것을 특징으로 하는 증강 현실 원격 렌더링 방법.
The method according to claim 1,
The client location information includes location information and rotation information of the client terminal,
The augmented reality remote rendering method, characterized in that the location information of the client terminal is a value generated using a SLAM method, and the location and rotation information of the client terminal is a value generated using an acceleration sensor and a gyroscope sensor.
청구항 1에 있어서,
상기 가상 카메라에서 바라본 객체 영상은 2D 영상인 증강 현실 원격 렌더링 방법.
The method according to claim 1,
The augmented reality remote rendering method in which the object image viewed from the virtual camera is a 2D image.
청구항 1에 있어서,
상기 (d) 단계는, 상기 프로세서가 WebRTC를 이용하여 객체 영상을 클라이언트에게 전송하는 단계인 증강 현실 원격 렌더링 방법.
The method according to claim 1,
The step (d) is an augmented reality remote rendering method in which the processor transmits the object image to the client using WebRTC.
KR1020200054030A 2020-05-06 2020-05-06 Ar remote randering method for real time mr service with volumetric 3d video data KR102346090B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200054030A KR102346090B1 (en) 2020-05-06 2020-05-06 Ar remote randering method for real time mr service with volumetric 3d video data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200054030A KR102346090B1 (en) 2020-05-06 2020-05-06 Ar remote randering method for real time mr service with volumetric 3d video data

Publications (2)

Publication Number Publication Date
KR20210135859A KR20210135859A (en) 2021-11-16
KR102346090B1 true KR102346090B1 (en) 2021-12-31

Family

ID=78717078

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200054030A KR102346090B1 (en) 2020-05-06 2020-05-06 Ar remote randering method for real time mr service with volumetric 3d video data

Country Status (1)

Country Link
KR (1) KR102346090B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11972521B2 (en) * 2022-08-31 2024-04-30 Snap Inc. Multisensorial presentation of volumetric content
KR20240048207A (en) * 2022-10-06 2024-04-15 한국전자기술연구원 Video streaming method and apparatus of extended reality device based on prediction of user's situation information

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10885714B2 (en) * 2017-07-07 2021-01-05 Niantic, Inc. Cloud enabled augmented reality
KR102357355B1 (en) * 2017-10-23 2022-01-28 삼성전자주식회사 Method and apparatus for generating virtual object
KR102546346B1 (en) * 2018-05-14 2023-06-22 한국전자통신연구원 Apparatus and method for omni-directional camera calibration

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Lee, et al., Implementation of AR Remote Rendering Techniques for Real-Time Volumetric 3D Video, International Journal of Internet, Broadcasting and Communication 12, no. 2, (2020.05.31.)
Serhan Gul et al., Low Latency Volumetric Video Edge Cloud Streaming, arXiv:2001.06466v1, (2020.01.17.)*
Shu Shi et al., A Real-Time Remote Rendering System for Interactive Mobile Graphics, ACM Transactions on Multimedia Computing, Communications and Applications, Vol. 8, No. 3s, Article 46,(2012.09.30.)*

Also Published As

Publication number Publication date
KR20210135859A (en) 2021-11-16

Similar Documents

Publication Publication Date Title
CN106611435B (en) Animation processing method and device
US11516152B2 (en) First-in first-out function for segmented data stream processing
JP7392136B2 (en) Methods, computer systems, and computer programs for displaying video content
KR102346090B1 (en) Ar remote randering method for real time mr service with volumetric 3d video data
CN113457160A (en) Data processing method and device, electronic equipment and computer readable storage medium
US20190335162A1 (en) System that generates virtual viewpoint image, method and storage medium
JP2024513005A (en) Methods, apparatus, and computer programs for mapping architecture of Immersive Technologies Media Format (ITMF) specifications
CN112764877A (en) Method and system for communication between hardware acceleration equipment and process in docker
CN115802076A (en) Three-dimensional model distributed cloud rendering method and system and electronic equipment
CN114981822A (en) Referencing of neural network models for adaptation of 2D video streaming to heterogeneous client endpoints
US12003601B2 (en) Method and apparatus for split rendering for lightfield/immersive media using proxy edge cloud architecture
KR102598603B1 (en) Adaptation of 2D video for streaming to heterogeneous client endpoints
CN114820660A (en) Image processing method, image processing apparatus, electronic device, storage medium, and program product
JP7472298B2 (en) Placement of immersive media and delivery of immersive media to heterogeneous client endpoints
CN112995134B (en) Three-dimensional video streaming media transmission method and visualization method
CN116503498A (en) Picture rendering method and related device
CN114443306A (en) Resource processing method and device, electronic equipment and computer readable storage medium
CN116166255A (en) Interface generation method and electronic equipment
CN112930556A (en) System and method for integrating third party geometry for visualization of large data sets
KR102561903B1 (en) AI-based XR content service method using cloud server
WO2024087971A1 (en) Method and apparatus for image processing, and storage medium
US20230403383A1 (en) Data processing method and apparatus, computer and readable storage medium
JP7487331B2 (en) Method for streaming immersive media, and computer system and computer program therefor
US20240104803A1 (en) Scene graph translation
CN114528515A (en) Model rendering method and device, electronic equipment and computer readable storage medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant